JP2000228769A - Digital signal transmitter, its method, digital signal receiver, its method and served medium - Google Patents

Digital signal transmitter, its method, digital signal receiver, its method and served medium

Info

Publication number
JP2000228769A
JP2000228769A JP2937999A JP2937999A JP2000228769A JP 2000228769 A JP2000228769 A JP 2000228769A JP 2937999 A JP2937999 A JP 2937999A JP 2937999 A JP2937999 A JP 2937999A JP 2000228769 A JP2000228769 A JP 2000228769A
Authority
JP
Japan
Prior art keywords
data
picture
encoded
image
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2937999A
Other languages
Japanese (ja)
Inventor
Taro Takita
太郎 滝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2937999A priority Critical patent/JP2000228769A/en
Publication of JP2000228769A publication Critical patent/JP2000228769A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To decode data encoded by a plurality of different systems with a correct phase. SOLUTION: An MPEG encoder section 103 outputs coding phase information denoting the upper left position of the range of a coded picture to an encode controller 102. The encode controller 102 describes the coding phase information to user data in an elementary stream. A variable length coding section 104 multiplexes the user data on the elementary stream outputted from the MPEG encode section 103.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル信号伝送
装置および方法、デジタル信号受信装置および方法、並
びに提供媒体に関し、特に、符号化する画像の範囲を表
す範囲情報をビットストリームに挿入することにより、
異なる方式で符号化されたビットストリームでも、正確
に復号することができるようにしたデジタル信号伝送装
置および方法、デジタル信号受信装置および方法、並び
に提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital signal transmitting apparatus and method, a digital signal receiving apparatus and method, and a providing medium, and in particular, by inserting range information representing a range of an image to be encoded into a bit stream. ,
The present invention relates to a digital signal transmission apparatus and method, a digital signal reception apparatus and method, and a providing medium that can correctly decode even a bit stream encoded by a different method.

【0002】[0002]

【従来の技術】画像信号または音声信号を符号化して伝
送する場合、ISO/IEC11172(MPEG-1)もしくはISO/IEC13
818(MPEG-2)に示されている符号化方式が用いられるこ
とが多い。画像信号を、MPEG(Moving Picture Experts
Group)方式で符号化する場合の技術として、コーディ
ングフェーズ(coding phase)と両方向予測があげられ
る。
2. Description of the Related Art When an image signal or an audio signal is encoded and transmitted, it is required to use ISO / IEC11172 (MPEG-1) or ISO / IEC13.
818 (MPEG-2) is often used. The image signal is converted to MPEG (Moving Picture Experts
Group coding) includes coding phase and bidirectional prediction.

【0003】coding phaseとは、図1に示すように、1
枚の画像の画素エリア1のうち、符号化が行われる範囲
としての有効画素エリア2を規定するためのコードであ
り、具体的には、全てのラインのうち、有効画素エリア
2の最初のライン(図1のV-phase[line]の矢印で示
されたライン)、および、全てのサンプル(画素)のう
ち、有効画素エリア2の最初のラインの最初のサンプル
(図1のH-phase[sample]の矢印で示されたサンプル
(画素))を示すものである。画素エリア1の最後のラ
インを、V-Phase[Lmax]とし、画素エリア1のラインの
最後のサンプル(画素)を、H-Phase[Smax]とすると
き、符号化は、例えば、垂直方向に、V-Phase[line]か
ら、(V-Phase[Lmax] - V-Phase[line]+1)までの範囲
で行われ、水平方向に、H-Phase[sample]から、(H-Pha
se[Smax]-H - Phase[sample]+1)までの範囲で行われ
る。
[0003] As shown in FIG.
This is a code for defining an effective pixel area 2 as a range in which encoding is performed in the pixel area 1 of one image, and specifically, a first line of the effective pixel area 2 among all lines. (The line indicated by the arrow of V-phase [line] in FIG. 1) and the first sample of the first line of the effective pixel area 2 among all the samples (pixels) (H-phase [line] in FIG. 1) sample] (samples (pixels) indicated by arrows). When the last line of the pixel area 1 is set to V-Phase [Lmax] and the last sample (pixel) of the line of the pixel area 1 is set to H-Phase [Smax], encoding is performed, for example, in the vertical direction. , V-Phase [line] to (V-Phase [Lmax]-V-Phase [line] +1), and in the horizontal direction, from H-Phase [sample] to (H-Pha
Performed in the range up to se [Smax] -H-Phase [sample] +1).

【0004】また、一般の例えば、NTSC方式のテレビジ
ョン受像機などの画像信号において、図1の画像信号の
フレームは、図2に示すように、2枚のフィールド(図
2のフィールド1およびフィールド2)から構成されて
いる。フィールド1には、例えば、奇数ラインのデータ
が表示され、フィールド2には偶数ラインのデータが表
示される。2枚のフィールドは、それぞれ、補助データ
(ancillary data)と、画像(イメージ)データ(imag
e data)から構成されている。
In addition, in a general image signal of, for example, an NTSC television receiver, a frame of the image signal shown in FIG. 1 is composed of two fields (field 1 and field 1 shown in FIG. 2) as shown in FIG. 2). Field 1 displays, for example, data of odd lines, and field 2 displays data of even lines. The two fields are ancillary data and image data, respectively.
e data).

【0005】補助データは、耳の不自由な人のための文
字放送用のテレテキストデータ、タイムコード、または
映画などの字幕のクローズドキャプションデータに利用
され、ブランキング区間(例えば、各フィールドの第1
0ライン乃至第22ライン)(図2においては、いずれ
のフィールドも、そのフィールド内の上から順番の番号
でラインが表されている)のうちの所定のラインに挿入
されている。一般に、各フィールドの第23ラインより
図中下に位置するラインの部分(実際に、画像として表
示される部分)は、画像データとして、MPEG方式などに
より符号化される。
Auxiliary data is used for teletext data for teletext, time code, or closed caption data of subtitles for movies and the like for persons with hearing impairments, and is used for blanking intervals (for example, the first field of each field). 1
Lines 0 to 22) (in FIG. 2, each field is inserted into a predetermined line in each field, the lines are represented by numbers in order from the top in the field). Generally, a portion of a line located below the 23rd line of each field in the figure (a portion actually displayed as an image) is encoded as image data by the MPEG method or the like.

【0006】前述したMPEG符号化方式は、画像データに
のみ適用され、coding phase、および補助データについ
ては、MPEGの規格には、特に明確に記述(規定)されて
いない。そのため、coding phaseは、自由度を有し、様
々なアプリケーションによって異なっている。
[0006] The above-mentioned MPEG coding method is applied only to image data, and the coding standard and auxiliary data are not clearly described (defined) in the MPEG standard. Therefore, the coding phase has a degree of freedom and differs depending on various applications.

【0007】このような画像信号を、符号化または復号
するときのシステム構成を、図3を参照して説明する。
アプリケーションAの画像データは、アプリケーション
A用MPEGエンコーダ11で符号化され、エレメンタリス
トリーム(ES)として出力され、アプリケーションA用
MPEGデコーダ12で復号される。アプリケーションBの
画像データは、アプリケーションB用MPEGエンコーダ1
3で符号化され、エレメンタリストリーム(ES)として
出力され、アプリケーションB用MPEGデコーダ14で復
号される。
A system configuration for encoding or decoding such an image signal will be described with reference to FIG.
The image data of the application A is encoded by the application A MPEG encoder 11 and output as an elementary stream (ES).
The data is decoded by the MPEG decoder 12. The image data of application B is the MPEG encoder 1 for application B
3 and output as an elementary stream (ES), which is decoded by the application B MPEG decoder 14.

【0008】つまり、あるアプリケーションの画像デー
タは、そのアプリケーション専用のエンコーダ(例え
ば、アプリケーションA用MPEGエンコーダ11)で符号
化され、エレメンタリストリーム(ES)として、そのア
プリケーションに対応した専用のデコーダ(例えば、ア
プリケーションA用MPEGデコーダ12)に出力される。
専用デコーダに入力されたエレメンタリストリーム(E
S)は、そのデコーダが有している、そのアプリケーシ
ョンのcoding phaseに関する情報に基づき、復号され
る。
That is, image data of a certain application is encoded by an encoder dedicated to the application (for example, an MPEG encoder 11 for application A), and converted into an elementary stream (ES) by a dedicated decoder (for example, Is output to the application A MPEG decoder 12).
Elementary stream (E
S) is decoded based on the decoder's information on the coding phase of the application.

【0009】次に、現在主流となっている補助データの
伝送方式について、図4を参照して説明する。画像信号
は、MPEGエンコーダ21に入力され、分離部21におい
て、画像データと補助データに分離される。MPEGエンコ
ード部23は、画像データをMPEG符号化する。補助デー
タは、可変長符号化部24で、MPEGエンコード部23よ
り出力されたMPEG方式のトランスポートストリーム中の
user dataに挿入される。このトランスポートストリー
ム中のuser dataは、符号化された画像データ(ピクチ
ャ)単位に挿入(記述)できるため、補助データは、対
応する各符号化画像データのフレームのuser dataごと
に挿入される。
Next, an auxiliary data transmission system which is currently mainstream will be described with reference to FIG. The image signal is input to the MPEG encoder 21 and separated by the separation unit 21 into image data and auxiliary data. The MPEG encoding unit 23 performs MPEG encoding of the image data. The auxiliary data is converted by the variable-length encoding unit 24 into the MPEG-format transport stream output from the MPEG encoding unit 23.
Inserted in user data. Since user data in the transport stream can be inserted (described) in units of coded image data (pictures), auxiliary data is inserted for each user data of each corresponding frame of coded image data.

【0010】補助データが挿入されたuser dataを含む
トランスポートストリームは、所定の伝送路を介して伝
送され、MPEGデコーダ25に入力される。MPEGデコーダ
25内の可変長復号部26は、補助データと画像データ
とを分離する。画像データはMPEGデコード部27で復号
され、合成部28で補助データと合成されて、画像信号
として、図示せぬ表示装置に出力される。
[0010] The transport stream including the user data into which the auxiliary data has been inserted is transmitted via a predetermined transmission path and input to the MPEG decoder 25. The variable length decoding unit 26 in the MPEG decoder 25 separates auxiliary data and image data. The image data is decoded by the MPEG decoding unit 27, combined with the auxiliary data by the combining unit 28, and output as an image signal to a display device (not shown).

【0011】次に、MPEG方式の予測について説明する。
両方向予測に基づいて生成された符号化画像データのピ
クチャはBピクチャと称される。Bピクチャは、時間的
に前または後に位置する2枚の参照画像データから予測
されて生成される。前方予測に基づいて生成された符号
化画像データのピクチャはPピクチャと称される。Pピ
クチャは、時間的に前に位置する1枚の参照画像データ
から予測されて生成される。予測が行われず、そのまま
画像データが符号化(イントラ符号化)された符号化画
像データのピクチャはIピクチャと称される。つまり、
入力された画像データは、Bピクチャ、Pピクチャ、ま
たはIピクチャのいずれかの符号化画像データに符号化
される。
Next, prediction of the MPEG system will be described.
A picture of encoded image data generated based on bidirectional prediction is called a B picture. The B picture is predicted and generated from two pieces of reference image data located before or after in time. A picture of coded image data generated based on forward prediction is called a P picture. The P picture is predicted and generated from one piece of reference image data located earlier in time. A picture of the coded image data in which the prediction is not performed and the image data is coded (intra-coded) as it is is called an I picture. That is,
The input image data is encoded into encoded image data of one of a B picture, a P picture, and an I picture.

【0012】両方向予測および前方予測について、図5
を参照して説明する。図5の例では、1つのGOP(Group
of Picture)が、9枚のピクチャから構成されてい
る。図5の上段は、符号化画像データが生成されるとき
の、予測の方向(依存関係)を示す予測構造を表してお
り、図5の下段は、実際に画像データが符号化される順
序を示す符号化構造を表している。Bピクチャ、または
Pピクチャは、時間的に前または後の画像データから予
測されて生成されるために、Bピクチャ、またはPピク
チャだけでは、符号化を行うことはできない。すなわ
ち、Bピクチャ、またはPピクチャは、参照画像データ
との差分をデータとする符号化画像データであるので、
Bピクチャ、またはPピクチャだけでは、画像データを
復号することもできない。
FIG. 5 shows bidirectional prediction and forward prediction.
This will be described with reference to FIG. In the example of FIG. 5, one GOP (Group
of Picture) is composed of nine pictures. The upper part of FIG. 5 shows a prediction structure indicating the direction (dependency) of prediction when encoded image data is generated, and the lower part of FIG. 5 shows the order in which image data is actually encoded. 4 shows the coding structure shown. Since a B picture or a P picture is predicted and generated from temporally preceding or succeeding image data, encoding cannot be performed using only a B picture or a P picture. That is, since a B picture or a P picture is encoded image data whose data is a difference from reference image data,
Image data cannot be decoded only with B pictures or P pictures.

【0013】予測の依存関係について詳細に説明する
と、例えば、GOP(N-1)において、表示順序が先頭のBピ
クチャは、先頭から3番目のIピクチャと、図示されて
いないGOP(N-2)(GOP(N-1)の直前のGOP)の最後のPピ
クチャから予測されて符号化される。先頭から2番目の
Bピクチャも同様に、先頭から3番目のIピクチャと、
図示されていないGOP(N-2)の最後のPピクチャから予測
されて符号化される。先頭から3番目のIピクチャは、
そのまま符号化(イントラ符号化)される。先頭から4
番目、および5番目のBピクチャは、先頭から3番目の
Iピクチャと先頭から6番目のPピクチャから予測され
て符号化される。先頭から6番目のPピクチャは、先頭
から3番目のIピクチャから予測されて符号化される。
The prediction dependency will be described in detail. For example, in GOP (N-1), a B picture whose display order is the first is a third I picture from the top and a GOP (N-2 not shown). ) (The GOP immediately before GOP (N-1)) is predicted and coded from the last P picture. Similarly, the second B picture from the top is the third I picture from the top,
It is predicted and coded from the last P picture of the GOP (N-2) not shown. The third I picture from the top is
It is coded as it is (intra coded). 4 from the beginning
The fifth and fifth B pictures are predicted and encoded from the third I picture from the beginning and the sixth P picture from the beginning. The sixth P picture from the top is predicted and encoded from the third I picture from the top.

【0014】つまり、予測構造において、Bピクチャ
(例えば、先頭のBピクチャと先頭から2番目のBピク
チャ)が符号化されるには、予測の参照画像データ(例
えば、3番目のIピクチャとGOP(N-2)の最後のPピクチ
ャ)が、先に符号化されている必要がある。すなわち、
図5の下段に示すような、符号化構造の順番で符号化さ
れなければならない。そのため、MPEGエンコーダは、符
号化(エンコード)時、IピクチャとPピクチャの間に
存在する、2枚の連続したBピクチャを符号化するため
に必要な参照画像データ(先頭から3番目のIピクチ
ャ)が入力されるまで、2枚のBピクチャをバッファリ
ングする(Iピクチャが入力されるまで、符号化の開始
を遅延させる)必要がある。このバッファリングによ
り、MPEGエンコーダにおいて、入力された画像信号を符
号化するとき、参照画像データに挟まれたBピクチャの
枚数(=2)+1枚(合計3枚)の遅延時間が発生す
る。
That is, in the prediction structure, in order to encode a B picture (for example, a first B picture and a second B picture from the top), reference image data for prediction (for example, a third I picture and a GOP (The last P picture of (N-2)) needs to be coded first. That is,
The encoding must be performed in the order of the encoding structure as shown in the lower part of FIG. Therefore, at the time of encoding (encoding), the MPEG encoder uses reference image data (third I picture from the top) necessary to encode two continuous B pictures existing between an I picture and a P picture. ) Needs to be buffered (the start of encoding is delayed until an I picture is input). Due to this buffering, when encoding the input image signal in the MPEG encoder, a delay time of the number of B pictures (= 2) +1 (three in total) sandwiched between the reference image data occurs.

【0015】このMPEGエンコーダにおいて発生する遅延
について、図6を参照して、さらに詳細に説明する。図
6の上段はMPEGエンコーダ31における、入力画像(画
像データ)の入力順番(表示順序)とその種別を表して
おり、図6の中段は、入力画像(画像データ)が符号化
された符号化画像データの順番を表している。
The delay that occurs in the MPEG encoder will be described in more detail with reference to FIG. The upper part of FIG. 6 shows the input order (display order) and the type of the input image (image data) in the MPEG encoder 31, and the middle part of FIG. 6 shows the encoding in which the input image (image data) is encoded. This indicates the order of the image data.

【0016】MPEGエンコーダ31は、時刻t4のPピク
チャが入力されるまで(Bピクチャの枚数(=2)+1
枚分の時間だけ)、時刻t1に入力されたIピクチャの
符号化を遅延させる(前述のバッファリングを行う)。
すなわち、MPEGエンコーダ31は、時刻t4で時刻t1
に入力されたIピクチャを符号化し、時刻t5で時刻t
4に入力されたPピクチャを符号化し、時刻t6で時刻
t2に入力されたBピクチャを符号化し、時刻t7で時
刻t3に入力されたBピクチャを符号化する。その後、
MPEGエンコーダ31は、入力画像を図6の中段の符号化
画像データの順番で、順次、符号化する。
The MPEG encoder 31 operates until the P picture at time t4 is input (the number of B pictures (= 2) +1
Then, the encoding of the I picture input at time t1 is delayed (the above-described buffering is performed).
That is, the MPEG encoder 31 outputs the time t1 at the time t4.
Is encoded at time t5 at time t5.
4, the P picture input at time t6 is encoded, the B picture input at time t2 is encoded at time t6, and the B picture input at time t3 is encoded at time t7. afterwards,
The MPEG encoder 31 sequentially encodes the input image in the order of the encoded image data in the middle stage of FIG.

【0017】このように、MPEGエンコーダ31は、入力
画像に対して、予測に必要な参照画像データから順次符
号化する。つまり、MPEGエンコーダ31において、入力
画像(画像データ)は、入力画像の順番から、符号化さ
れる画像の順番に並べ変えられ、図6の中段に示すよう
に、入力画像が符号化された順番にビットストリームと
して、MPEGデコーダ32に出力される。
As described above, the MPEG encoder 31 sequentially encodes an input image from reference image data necessary for prediction. That is, in the MPEG encoder 31, the input images (image data) are rearranged from the order of the input images to the order of the images to be encoded, and as shown in the middle part of FIG. Is output to the MPEG decoder 32 as a bit stream.

【0018】このように、入力画像が符号化される順番
と表示される順番は一致しないので、MPEGにおいては、
符号化順序を表すDTS(Decoding Time Stamp)と、表示
順序を表すPTS(Presentation Time Stamp)が、トラン
スポートストリーム中に挿入されるようになされてい
る。入力画像の符号化順序と表示順序の関係をさらに説
明すると、いま、符号化順序をフレーム単位で表すもの
とすると、図6に示すように、入力画像は符号化される
順番で付番され、時刻t4で符号化されたIピクチャの
符号化順序の値は”1”となり、時刻t5で符号化され
たPピクチャの符号化順序の値は”2”となり、時刻t
6で符号化されたBピクチャの符号化順序の値は”3”
となる。以下、同様に符号化される順番に符号化順序が
付番される。DTSはフレーム単位で符号化順序を表して
いるわけではないが、ほぼ、この符号化順序に対応す
る。DTSはまた、ビットストリームを音声信号などと多
重化して出力するとき、MPEGデコーダ32において、復
号する順番として使用される。
As described above, the order in which the input images are encoded and the order in which they are displayed do not match.
A DTS (Decoding Time Stamp) representing an encoding order and a PTS (Presentation Time Stamp) representing a display order are inserted into a transport stream. To further explain the relationship between the encoding order and the display order of the input images, assuming that the encoding order is expressed in units of frames, as shown in FIG. 6, the input images are numbered in the encoding order, The value of the coding order of the I picture coded at time t4 is “1”, the value of the coding order of the P picture coded at time t5 is “2”, and
The value of the encoding order of the B picture encoded in 6 is “3”
Becomes Hereinafter, the encoding order is numbered in the same encoding order. Although the DTS does not represent the encoding order on a frame basis, it almost corresponds to this encoding order. The DTS is also used by the MPEG decoder 32 as a decoding order when a bit stream is multiplexed with an audio signal or the like and output.

【0019】表示順序は、画像データが復号されて表示
される順番(入力画像データの順番と同じ)となる。具
体的には、時刻t4で符号化されるIピクチャ(符号化
順序=1)の表示順序は、時刻t5でPピクチャ(符号
化順序=2)が符号化されるときに表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
2”となる。時刻t5で符号化されるPピクチャ(符号
化順序=2)の表示順序は、時刻t8でPピクチャ(符
号化順序=5)が符号化されるとき表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
5”となる。時刻t6で符号化されるBピクチャ(符号
化順序=3)は、符号化されると、直ちに復号されて表
示されなければならないので、符号化順序と表示順序は
同一となり、表示順序の値は”3”となる。時刻t7で
符号化されるBピクチャ(符号化順序=4)も同様に、
表示順序=符号化順序=4となる。PTSはフレーム単位
で表示順序を表しているわけではないが、ほぼ、この表
示順序に対応する。PTSはまた、MPEGデコーダ32にお
いて、復号後、出力(表示)する順番として使用され
る。
The display order is the order in which the image data is decoded and displayed (the same order as the input image data). Specifically, the display order of the I picture (encoding order = 1) to be encoded at time t4 must be displayed when the P picture (encoding order = 2) is encoded at time t5. Therefore, the same value as the encoding order of the P picture "
2 ". The display order of the P pictures (encoding order = 2) encoded at time t5 must be displayed when the P pictures (encoding order = 5) are encoded at time t8. , The same value as the encoding order of the P picture ”
5 ". The B picture encoded at time t6 (coding order = 3) must be immediately decoded and displayed as soon as it is coded, so that the coding order and the display order are the same. The value of the display order is “3.” Similarly, the B picture (encoding order = 4) encoded at time t7 is also
Display order = encoding order = 4. The PTS does not represent the display order in frame units, but almost corresponds to this display order. The PTS is also used by the MPEG decoder 32 as an order of outputting (displaying) after decoding.

【0020】MPEGデコーダ32では、符号化順序が連続
する2枚のIピクチャもしくはPピクチャのうち、最初
の1枚目は、2枚目が復号されるとき、表示される。例
えば、MPEGエンコーダ31が出力したビットストリーム
中の符号化画像データの1枚目のIピクチャ(符号化順
序=1,表示順序=2)と、2枚目のPピクチャ(符号
化順序=2,表示順序=5)は、符号化順序が連続して
おり、2枚目のPピクチャが符号化されるとき(時刻t
5のとき)、1枚目のIピクチャが復号されて表示され
る。
In the MPEG decoder 32, of the two I-pictures or P-pictures whose coding order is continuous, the first picture is displayed when the second picture is decoded. For example, the first I picture (coding order = 1, display order = 2) of the encoded image data in the bit stream output from the MPEG encoder 31 and the second P picture (coding order = 2, When the display order = 5), the encoding order is continuous and the second P picture is encoded (time t).
5) The first I picture is decoded and displayed.

【0021】このように、MPEGエンコーダ31は、入力
画像(画像データ)の予測構造(参照画像データに挟ま
れているBピクチャの枚数)を知っているので、画像デ
ータに符号化順序(DTS)と表示順序(PTS)を付番する
ことができる。
As described above, since the MPEG encoder 31 knows the prediction structure (the number of B pictures sandwiched between the reference image data) of the input image (image data), the encoding order (DTS) is added to the image data. And display order (PTS).

【0022】放送局などのスタジオ内で、図7に示すシ
ステム構成で、MPEG符号化されたビットストリームを伝
送することが考えられている。スタジオ41内のMPEGエ
ンコーダ42、MPEGエンコーダ43、MPEGデコーダ4
4、およびMPEGデコーダ45は、それぞれ、SDTI-CP(S
erial Data Transfer Interface - Content Package)
インタフェース46乃至49を介して、SDTI-CPネット
ワーク(例えば、同軸ケーブルにより構成されるネット
ワーク)50に接続される。SDTI-CPネットワーク50
は、SDI(Serial Data Interface)をベースとした27
0Mbpsの伝送速度を有し、MPEG方式のエレメンタリスト
リーム(ES)をそのまま伝送することが可能であり、ス
タジオ内のような閉じたネットワークに適している。
Transmission of an MPEG encoded bit stream in a studio such as a broadcasting station with the system configuration shown in FIG. 7 has been considered. MPEG encoder 42 in studio 41, MPEG encoder 43, MPEG decoder 4
4 and the MPEG decoder 45 are SDTI-CP (S
erial Data Transfer Interface-Content Package)
It is connected to an SDTI-CP network (for example, a network constituted by a coaxial cable) 50 via the interfaces 46 to 49. SDTI-CP Network 50
Is based on SDI (Serial Data Interface) 27
It has a transmission speed of 0 Mbps and can transmit an MPEG elementary stream (ES) as it is, and is suitable for a closed network such as in a studio.

【0023】スタジオ41において、例えば、MPEGエン
コーダ42は、MPEG符号化されたエレメンタリストリー
ム(ES)を、SDTI-CPネットワーク50を介して、MPEG
デコーダ44、MPEGデコーダ45に伝送することができ
る。
In the studio 41, for example, the MPEG encoder 42 converts the MPEG-encoded elementary stream (ES) into an MPEG stream via the SDTI-CP network 50.
The data can be transmitted to the decoder 44 and the MPEG decoder 45.

【0024】このSDTI-CPネットワーク50で伝送され
るエレメンタリストリーム(ES)は、図8に示す構造と
なっており、画像信号のフレーム単位で、画像データ
(図8において薄い影を付けた部分)と音声データ(図
8において濃い影を付けた部分)がパッキングされてお
り、フレームシンク(図8の点線)により区切られたフ
レーム境界で、簡単に編集を行うことができる。このエ
レメンタリストリーム(ES)における画像データと音声
データは、イントラ(フレーム内符号化)処理されたデ
ータである。
The elementary stream (ES) transmitted through the SDTI-CP network 50 has the structure shown in FIG. 8, and is composed of image data (portions shaded in FIG. ) And audio data (portions with dark shadows in FIG. 8) are packed, and editing can be performed easily at frame boundaries separated by frame syncs (dotted lines in FIG. 8). The image data and the audio data in the elementary stream (ES) are data subjected to intra (intra-frame coding) processing.

【0025】図7に示すスタジオ41のシステムは、そ
のMPEGエンコーダ42,43とMPEGデコーダ44,45
が、SDTI-CPインタフェース46乃至49を介して、SDT
I-CPネットワーク50に接続されており、図3に示した
ような、アプリケーションごとに専用のエンコーダ(例
えば、アプリケーションA用MPEGエンコーダ11)とデ
コーダ(例えば、アプリケーションA用MPEGデコーダ1
2)が1対1に対応するシステムとは構成が異なってい
る。すなわち、デコーダ(例えば、図7のMPEGデコーダ
44)は、エンコーダ(例えば、図7のMPEGエンコーダ
42またはMPEGエンコーダ43)で、様々なアプリケー
ションの画像信号が符号化された、エレメンタリストリ
ーム(ES)を受け取ることができる。
The system of the studio 41 shown in FIG. 7 has MPEG encoders 42 and 43 and MPEG decoders 44 and 45.
Is connected to the SDT via the SDTI-CP interfaces 46 to 49.
As shown in FIG. 3, it is connected to the I-CP network 50 and dedicated encoder (for example, MPEG encoder 11 for application A) and decoder (for example, MPEG decoder 1 for application A) for each application.
The configuration is different from the system in which 2) corresponds one-to-one. That is, a decoder (for example, the MPEG decoder 44 in FIG. 7) is an elementary stream (ES) in which image signals of various applications are encoded by an encoder (for example, the MPEG encoder 42 or the MPEG encoder 43 in FIG. 7). Can receive.

【0026】図7のシステム構成を、図3のシステム構
成に対応させた図9を参照して説明すると、アプリケー
ションA用MPEGエンコーダ42で符号化されたエレメン
タリストリーム(ES)と、アプリケーションB用MPEGエ
ンコーダ43で符号化されたエレメンタリストリーム
(ES)は、それぞれSDTI-CPインタフェース46,47
に入力される。SDTI-CPインタフェース46,47は、
それぞれMPEG符号化されたエレメンタリストリーム(E
S)を、SDTIフォーマットのエレメンタリストリーム(E
S)に変換して、SDTI-CPネットワーク50を介して伝送
する。SDTI-CPインタフェース48は、SDTIフォーマッ
トのエレメンタリストリーム(ES)を、MPEG符号化され
たエレメンタリストリーム(ES)に変換し、MPEGデコー
ダ44に出力する。
The system configuration of FIG. 7 will be described with reference to FIG. 9 corresponding to the system configuration of FIG. 3. The elementary stream (ES) encoded by the application A MPEG encoder 42 and the application B The elementary stream (ES) encoded by the MPEG encoder 43 is transmitted to the SDTI-CP interfaces 46 and 47, respectively.
Is input to SDTI-CP interfaces 46 and 47
Each elementary stream (E
S) to an SDTI format elementary stream (E
S), and transmit via the SDTI-CP network 50. The SDTI-CP interface 48 converts the elementary stream (ES) in the SDTI format into an MPEG-encoded elementary stream (ES) and outputs it to the MPEG decoder 44.

【0027】MPEGデコーダ44は、それぞれ入力された
アプリケーションA用のエレメンタリストリーム(ES)
とアプリケーションB用のエレメンタリストリーム(E
S)を復号する。
The MPEG decoder 44 receives the input elementary streams (ES) for application A.
And the elementary stream for application B (E
Decrypt S).

【0028】ところで、補助データがトランスポートス
トリーム中のuser dataに挿入される場合、補助データ
は、対応する符号化画像のフレーム単位で挿入されるた
め、その挿入は1フレーム(2フィールド)ごととな
る。
When the auxiliary data is inserted into the user data in the transport stream, the auxiliary data is inserted for each frame of the corresponding coded image. Become.

【0029】符号化される信号が、3−2プルダウン処
理(例えば、24Hzのフレームレートを持つ映画の画像
信号を、30Hzのフレームレートを持つNTSC方式の画像
信号に変換する処理)された信号である場合、その信号
は、図10に示すように、24Hzの各フレームを、交互
に、リピートフィールドが作成されていない2フィール
ドのフレーム、またはリピートフィールドが作成されて
いる3フィールドのフレームとすることで、30Hzの信
号とされている。
The signal to be encoded is a signal that has been subjected to a 3-2 pull-down process (for example, a process of converting a movie image signal having a frame rate of 24 Hz into an NTSC image signal having a frame rate of 30 Hz). In some cases, the signal is such that, as shown in FIG. 10, each frame of 24 Hz is alternately a two-field frame in which no repeat field is created or a three-field frame in which a repeat field is created. , And a signal of 30 Hz.

【0030】例えば、図4のMPEGエンコーダ21は、3
−2プルダウン処理により30Hzのフレームレートに変
換された画像信号が入力されたとき、フィールドの繰り
返しを検出して、元の24Hzの符号化フレーム単位で符
号化を行い、その処理に対応して、フラグ(Repeat_fir
st_field,Top_field_first)を生成する。
For example, the MPEG encoder 21 shown in FIG.
-2 When an image signal converted to a frame rate of 30 Hz by pull-down processing is input, repetition of a field is detected, coding is performed in units of the original coding frame of 24 Hz, and corresponding to the processing, Flag (Repeat_fir
st_field, Top_field_first).

【0031】Repeat_first_fieldのフラグの”1”は、
リピートフィールドが作成されたことを意味し、Repeat
_first_fieldのフラグの”0”は、リピートフィールド
が作成されていないことを意味する。Top_field_first
のフラグは、フレームを構成するフィールドのうち、最
初のフィールドがトップフィールドであるのか、または
ボトムフィールドであるのかを表している。Top_field_
firstのフラグの”1”は、トップフィールドがボトム
フィールドより時間的に早いフレーム構造であることを
表しており、Top_field_firstのフラグの”0”は、ボ
トムフィールドがトップフィールドより時間的に早いフ
レーム構造であることを表している。
The flag “1” of the Repeat_first_field is
Repeat means that the repeat field was created
"0" of the flag of _first_field means that a repeat field has not been created. Top_field_first
Indicates whether the first field among the fields constituting the frame is the top field or the bottom field. Top_field_
The first flag “1” indicates that the top field has a temporally earlier frame structure than the bottom field, and the Top_field_first flag “0” indicates that the bottom field has a temporally earlier frame structure than the top field. It represents that.

【0032】図10に示すように、原信号のフレームが
3フィールドのフレームである場合、対応する1つの符
号化フレームには、同一位相の2枚のフィールド(3−
2プルダウン処理によりコピーにより生成されたフィー
ルドとそのコピー元のフィールド)が存在する。しかし
ながら、この元の1つのフレームを構成する3フィール
ドが符号化フレーム単位で符号化されるとき、各符号化
フレームごとの補助データは、符号化フレーム単位で、
1つの補助データとして、user dataに記述されるた
め、原信号の同一位相のフィールドに異なった補助デー
タが記述されていても、その異なった補助データを区別
することができなくなってしまう。
As shown in FIG. 10, when the frame of the original signal is a frame of three fields, one corresponding encoded frame includes two fields (3-
2) There is a field generated by the copy through the pull-down process and a field of the copy source. However, when the three fields constituting this original one frame are encoded in units of encoded frames, the auxiliary data for each encoded frame is encoded in units of encoded frames.
Since one piece of auxiliary data is described in the user data, even if different auxiliary data is described in the same phase field of the original signal, the different auxiliary data cannot be distinguished.

【0033】[0033]

【発明が解決しようとする課題】図9において、MPEGデ
コーダ44は、入力された複数のエレメンタリストリー
ム(ES)を、それぞれのアプリケーションに対応して復
号する必要があるが、そのアプリケーションのcoding p
haseに関する情報は、全く知らないのが通常である。従
って、復号した様々なアプリケーションの画像信号を、
図1に示した有効画素エリア2に対応して適切な位相で
復号することができない。つまり、様々なアプリケーシ
ョンの画像データが符号化されたエレメンタリストリー
ム(ES)には、coding phaseに関する情報が含まれてい
ないため、MPEGデコーダ44は、画像信号の位相をあわ
せて復号することが困難となる。
In FIG. 9, the MPEG decoder 44 needs to decode a plurality of input elementary streams (ES) corresponding to each application.
You usually don't know any information about hase. Therefore, the decoded image signals of various applications are
The decoding cannot be performed with an appropriate phase corresponding to the effective pixel area 2 shown in FIG. That is, since the elementary stream (ES) in which the image data of various applications is encoded does not include the information on the coding phase, it is difficult for the MPEG decoder 44 to decode the image signal with the same phase. Becomes

【0034】本発明はこのような状況に鑑みてなされた
ものであり、画像信号のコーディングフェーズをビット
ストリームに挿入するようにし、もって、複数の異なる
エンコード方式のビットストリームを、適正な位相で復
号できるようにするものである。
The present invention has been made in view of such a situation, and is intended to insert a coding phase of an image signal into a bit stream, thereby decoding a plurality of bit streams of different encoding systems with an appropriate phase. To make it possible.

【0035】[0035]

【課題を解決するための手段】請求項1に記載のデジタ
ル信号伝送装置は、画像のうちの所定の範囲の画像信号
を符号化する符号化手段と、符号化手段により符号化さ
れる範囲に対応する範囲情報を、ビットストリームに挿
入する挿入手段と、挿入手段により範囲情報が挿入され
たビットストリームを伝送する伝送手段とを含むことを
特徴とする。
According to a first aspect of the present invention, there is provided a digital signal transmission apparatus which encodes an image signal in a predetermined range of an image, and a range which is encoded by the encoding means. It is characterized by including insertion means for inserting the corresponding range information into the bit stream, and transmission means for transmitting the bit stream with the range information inserted by the insertion means.

【0036】請求項4に記載のデジタル信号伝送方法
は、画像のうちの所定の範囲の画像信号を符号化する符
号化ステップと、符号化ステップで符号化される範囲に
対応する範囲情報を、ビットストリームに挿入する挿入
ステップと、挿入ステップで範囲情報が挿入されたビッ
トストリームを伝送する伝送ステップとを含むことを特
徴とする。
According to a fourth aspect of the present invention, in the digital signal transmission method, an encoding step of encoding an image signal in a predetermined range of the image, and range information corresponding to the range encoded in the encoding step are: The method includes an insertion step of inserting the bit stream into the bit stream, and a transmission step of transmitting the bit stream in which the range information is inserted in the insertion step.

【0037】請求項5に記載の提供媒体は、画像のうち
の所定の範囲の画像信号を符号化する符号化ステップ
と、符号化ステップで符号化される範囲に対応する範囲
情報を、ビットストリームに挿入する挿入ステップと、
挿入ステップで範囲情報が挿入されたビットストリーム
を伝送する伝送ステップとを含む処理を実行させるコン
ピュータが読み取り可能なプログラムを提供することを
特徴とする。
According to a fifth aspect of the present invention, there is provided the providing medium, comprising: an encoding step of encoding an image signal in a predetermined range of an image; and a range information corresponding to the range encoded in the encoding step. An insertion step to insert into the
And a transmission step of transmitting a bit stream in which the range information has been inserted in the insertion step.

【0038】請求項6に記載のデジタル信号受信装置
は、ビットストリームに挿入されている、画像のうち
の、画像信号を符号化する範囲に対応する範囲情報を抽
出する抽出手段と、抽出手段により抽出された範囲情報
に基づいて、ビットストリームを復号する復号手段とを
含むことを特徴とする。
According to a sixth aspect of the present invention, there is provided a digital signal receiving apparatus comprising: extracting means for extracting range information corresponding to a range in which an image signal is to be encoded, of an image inserted into a bit stream; Decoding means for decoding a bit stream based on the extracted range information.

【0039】請求項7に記載のデジタル信号受信方法
は、ビットストリームに挿入されている、画像のうち
の、画像信号を符号化する範囲に対応する範囲情報を抽
出する抽出ステップと、抽出ステップで抽出された範囲
情報に基づいて、ビットストリームを復号する復号ステ
ップとを含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided a digital signal receiving method comprising: an extracting step of extracting range information corresponding to a range in which an image signal is to be encoded, of an image inserted into a bit stream; Decoding a bit stream based on the extracted range information.

【0040】請求項8に記載の提供媒体は、ビットスト
リームに挿入されている、画像のうちの、画像信号を符
号化する範囲に対応する範囲情報を抽出する抽出ステッ
プと、抽出ステップで抽出された範囲情報に基づいて、
ビットストリームを復号する復号ステップとを含む処理
を実行させるコンピュータが読み取り可能なプログラム
を提供することを特徴とする。
[0040] The providing medium according to claim 8 is extracted in an extraction step of extracting range information corresponding to a range in which an image signal is to be encoded, of the image inserted in the bit stream. Based on the range information
And a computer readable program for executing a process including a decoding step of decoding a bit stream.

【0041】請求項1に記載のデジタル信号伝送装置、
請求項4に記載のデジタル信号伝送方法、および請求項
5に記載の提供媒体においては、画像信号が符号化さ
れ、符号化された画像信号の符号化の範囲を示す範囲情
報がビットストリームに挿入されて伝送される。
The digital signal transmission device according to claim 1,
In the digital signal transmission method according to the fourth aspect and the providing medium according to the fifth aspect, the image signal is encoded, and range information indicating an encoding range of the encoded image signal is inserted into the bit stream. Transmitted.

【0042】請求項6に記載のデジタル信号受信装置、
請求項7に記載のデジタル信号受信方法、および請求項
8に記載の提供媒体においては、ビットストリームに挿
入されている範囲情報に対応してビットストリームが復
号される。
A digital signal receiving apparatus according to claim 6,
In the digital signal receiving method according to the seventh aspect and the providing medium according to the eighth aspect, the bit stream is decoded in accordance with the range information inserted in the bit stream.

【0043】[0043]

【発明の実施の形態】図11は、相互に離れた場所に位
置するスタジオ41とスタジオ71の間で、MPEG符号化
されたビットストリームを伝送するシステムの例を表し
ており、図7における場合と対応する部分には、同一の
符号を付してある。この例の場合、各スタジオ内のネッ
トワークを、多重化装置(以下、TS MUX/DEMUXと称す
る)を介して、衛星やATM(Asynchronous Transfer Mod
e)などの公衆網と接続することで、ビットストリーム
の伝送を行うことができる。スタジオ71のMPEGエンコ
ーダ72乃至SDTI-CPインタフェース79は、図7のス
タジオ41のMPEGエンコーダ42乃至SDTI-CPインタフ
ェース49に対応するものであるので、ここでは、その
説明を省略する。
FIG. 11 shows an example of a system for transmitting an MPEG-encoded bit stream between a studio 41 and a studio 71 located at a distance from each other. The parts corresponding to are denoted by the same reference numerals. In this example, the network in each studio is connected to a satellite or an ATM (Asynchronous Transfer Mod) via a multiplexer (hereinafter, referred to as TS MUX / DEMUX).
The bit stream can be transmitted by connecting to a public network such as e). Since the MPEG encoder 72 to the SDTI-CP interface 79 of the studio 71 corresponds to the MPEG encoder 42 to the SDTI-CP interface 49 of the studio 41 in FIG. 7, the description is omitted here.

【0044】SDTI-CPネットワーク50におけるエレメ
ンタリストリーム(ES)は、図12に示すように、TS M
UX/DEMUX61により、188バイト単位のトランスポー
トストリーム(TS)に変換されて所定の伝送媒体を介し
て伝送され、伝送されたトランスポートストリーム(T
S)は、TS MUX/DEMUX62で、SDTIフォーマットのエレ
メンタリストリーム(ES)に変換される。なお、図12
において、薄い影を付けた部分は画像データのパケット
を示しており、濃い影を付けた部分は音声データのパケ
ットを示しており、影をつけていない部分は空きデータ
のパケットを示している。
The elementary stream (ES) in the SDTI-CP network 50 is, as shown in FIG.
The UX / DEMUX 61 converts it into a 188-byte transport stream (TS), transmits it via a predetermined transmission medium, and transmits the transport stream (T
S) is converted by the TS MUX / DEMUX 62 into an elementary stream (ES) in the SDTI format. FIG.
In the figure, the lightly shaded portion indicates a packet of image data, the darkly shaded portion indicates a packet of audio data, and the unshaded portion indicates a packet of free data.

【0045】図11において、スタジオ41内のMPEGエ
ンコーダ42の出力するエレメンタリストリーム(ES)
が、TS MUX/DEMUX61でトランスポートストリーム(T
S)に変換されるまでを、図13を参照して説明する。M
PEGエンコーダ42内のMPEGビデオエンコーダ42A
は、MPEG符号化された画像データのエレメンタリストリ
ーム(ES)を、SDTI-CPインタフェース46に出力し、
オーディオエンコーダ42Bは、音声データのエレメン
タリストリーム(ES)を、SDTI-CPインタフェース46
に出力する。SDTI-CPインタフェース46は、入力され
たエレメンタリストリーム(ES)をSDTIベースのフォー
マットのエレメンタリストリーム(ES)に変換し、SDTI
-CPネットワーク50を介して、SDTI-CPインタフェース
51に出力する。SDTI-CPインタフェース51は、SDTI
フォーマットのESをMPEG符号化のエレメンタリストリ
ーム(ES)に変換し、TS MUX/DEMUX61に出力する。TS
MUX/DEMUX61は、MPEG符号化のエレメンタリストリー
ム(ES)を188バイト単位のトランスポートストリー
ム(TS)に変換して伝送媒体に出力する。
In FIG. 11, the elementary stream (ES) output from the MPEG encoder 42 in the studio 41
However, TS MUX / DEMUX61 uses transport stream (T
Until the conversion to S) will be described with reference to FIG. M
MPEG video encoder 42A in PEG encoder 42
Outputs an elementary stream (ES) of image data encoded by MPEG to the SDTI-CP interface 46,
The audio encoder 42B converts the elementary stream (ES) of the audio data into an SDTI-CP interface 46.
Output to The SDTI-CP interface 46 converts the input elementary stream (ES) into an elementary stream (ES) in an SDTI-based format, and
-Output to the SDTI-CP interface 51 via the CP network 50. SDTI-CP interface 51
The format ES is converted to an MPEG-encoded elementary stream (ES) and output to the TS MUX / DEMUX 61. TS
The MUX / DEMUX 61 converts the MPEG encoded elementary stream (ES) into a 188-byte transport stream (TS) and outputs it to a transmission medium.

【0046】図11において、TS MUX/DEMUX61から伝
送されたトランスポートストリーム(TS)は、ATMなど
の公衆網を介して、TS MUX/DEMUX62に入力され、MPEG
符号化のエレメンタリストリーム(ES)に変換される。
SDTI-CPインタフェース81において、MPEG符号化され
たエレメンタリストリーム(ES)は、SDTIフォーマット
のエレメンタリストリーム(ES)に変換され、スタジオ
71のSDTI-CPネットワーク80に出力される。MPEGデ
コーダ74は、SDTI-CPインタフェース78を介して、
スタジオ21から伝送されたエレメンタリストリーム
(ES)を受信することができる。
In FIG. 11, a transport stream (TS) transmitted from a TS MUX / DEMUX 61 is input to a TS MUX / DEMUX 62 via a public network such as an ATM, and is transmitted to an MPEG.
It is converted into an encoded elementary stream (ES).
In the SDTI-CP interface 81, the MPEG-encoded elementary stream (ES) is converted into an SDTI-formatted elementary stream (ES) and output to the SDTI-CP network 80 of the studio 71. The MPEG decoder 74, via the SDTI-CP interface 78,
The elementary stream (ES) transmitted from the studio 21 can be received.

【0047】図11のシステムにおいて、スタジオ41
とスタジオ71の間で、画像信号を伝送する場合、多重
化装置(例えば、図11のTS MUX/DEMUX61)には、画
像データが符号化されたエレメンタリストリーム(ES)
のみが入力されるので、多重化装置は、エンコーダ(例
えば、図11のMPEGエンコーダ42)において行われた
符号化順序の並べ変えの情報を知らない。このため、多
重化装置は、入力されたエレメンタリストリーム(ES)
を解釈して、エレメンタリストリーム(ES)をトランス
ポートストリーム(TS)に変換する処理をしなければな
らない。
In the system shown in FIG.
When an image signal is transmitted between the STA and the studio 71, a multiplexer (for example, the TS MUX / DEMUX 61 in FIG. 11) includes an elementary stream (ES) in which the image data is encoded.
Since only the input is input, the multiplexing device does not know the information of the rearrangement of the encoding order performed in the encoder (for example, the MPEG encoder 42 in FIG. 11). For this reason, the multiplexing device receives the input elementary stream (ES).
Must be interpreted to convert the elementary stream (ES) into the transport stream (TS).

【0048】このエレメンタリストリームを解釈する処
理は、画像信号の符号化構造を把握する処理である。つ
まり、前述したエンコーダで入力画像をバッファリング
して符号化し、ビットストリームに変換するときと同様
の処理が、多重化装置でも必要となる。この多重化装置
におけるバッファリング処理により、後段での画像デー
タの復号までに遅延が発生し、リアルタイム処理が困難
になる。
The process for interpreting the elementary stream is a process for grasping the coding structure of the image signal. That is, the same processing as when the input image is buffered and encoded by the encoder described above and converted into a bit stream is also required in the multiplexing device. Due to the buffering process in the multiplexing device, a delay occurs until decoding of image data in a subsequent stage, and real-time processing becomes difficult.

【0049】この多重化装置で発生する、システム構成
上、問題となる遅延について、図14を用いて説明す
る。多重化装置に、図14に示す符号化順序で、エンコ
ーダで符号化されたビットストリームが入力された場
合、多重化装置は、2枚の連続したIピクチャ(時刻t
4)とPピクチャ(時刻t5)が入力された後、さらに
それらに挟まれた2枚のBピクチャ(時刻t6と時刻t
7)に続いてPピクチャ(時刻t8)が入力されるま
で、表示順序を確定することができない。つまり、多重
化装置は、図5に示したような符号化構造(Iピクチャ
とPピクチャの間に2枚のBピクチャが挟まれている構
造)を知らないので、2枚のBピクチャが入力され、そ
の次のPピクチャ(時刻t8)が入力されたとき(Bピ
クチャの入力が終了したことを確認したとき)、時刻t
4に入力されたIピクチャの表示順序(PTS)を確定す
ることができる。
With reference to FIG. 14, a description will be given of a delay which occurs in the multiplexing apparatus and causes a problem in the system configuration. When a bit stream coded by the encoder in the coding order shown in FIG. 14 is input to the multiplexing device, the multiplexing device sets two consecutive I pictures (time t
4) and a P picture (time t5) are input, and two B pictures (time t6 and time t6) sandwiched between them are further input.
Until a P picture (time t8) is input following 7), the display order cannot be determined. That is, the multiplexing device does not know the coding structure (a structure in which two B pictures are sandwiched between an I picture and a P picture) as shown in FIG. When the next P picture (time t8) is input (when it is confirmed that the input of the B picture has been completed), the time t
4 can determine the display order (PTS) of the I picture input.

【0050】すなわち、この多重化装置においては、時
刻t8になって初めて、符号化順序=1のIピクチャの
表示順序=2を確定することができる。このため、多重
化装置では、2枚の連続したIピクチャまたはPピクチ
ャ+2枚のBピクチャの出現周期(=4)の遅延が発生
する。この遅延は、エンコーダでの遅延とは別に新たに
発生するため、システム全体として、エンコーダの遅延
(=3)+多重化装置の遅延(=4)=7の大幅な遅延
が生じる。
That is, in this multiplexing apparatus, it is possible to determine the display order = 2 of the I picture having the coding order = 1 only at time t8. For this reason, in the multiplexing device, a delay of an appearance cycle (= 4) of two consecutive I pictures or P pictures + 2 B pictures occurs. Since this delay is newly generated separately from the delay in the encoder, a large delay of encoder delay (= 3) + multiplexer delay (= 4) = 7 occurs in the entire system.

【0051】そこで本発明においては、符号化順序と表
示順序を含む順序情報を、PictureOrder Infoとしてエ
レメンタリストリームに重畳するようにしている。この
点のについては、後に詳述する。
Therefore, in the present invention, the order information including the encoding order and the display order is superimposed on the elementary stream as PictureOrder Info. This will be described in detail later.

【0052】図15は、本発明を適用したMPEGエンコー
ダ42の構成例を表している。MPEGエンコーダ42の分
離部101は、入力された画像信号から、画像データと
補助データを分離し、画像データをMPEGエンコード部1
03に出力し、補助データをエンコードコントローラ1
02に出力する。MPEGエンコード部103は、入力され
た画像データをMPEG方式により符号化するとともに、符
号化順序を示すDTS_counter、および表示順序を示すPTS
_counterを含むPOI(Picture Order Infomation)をエ
ンコードコントローラ102に出力する。また、MPEGエ
ンコード部103は、符号化した範囲の左上の位置(図
1の有効画素エリア2の左上の画素の位置)を表すコー
ディングフェーズ(Coding Phase(V-Phase,H-Phas
e))をエンコードコントローラ102に供給する。
FIG. 15 shows a configuration example of an MPEG encoder 42 to which the present invention is applied. The separating unit 101 of the MPEG encoder 42 separates the image data and the auxiliary data from the input image signal, and converts the image data into the MPEG encoding unit 1.
03, and outputs the auxiliary data to the encode controller 1
02 is output. The MPEG encoding unit 103 encodes the input image data according to the MPEG method, and also includes a DTS_counter indicating an encoding order, and a PTS indicating a display order.
A POI (Picture Order Information) including _counter is output to the encoding controller 102. In addition, the MPEG encoding unit 103 encodes a coding phase (V-Phase, H-Phas, H-Phas
e)) is supplied to the encode controller 102.

【0053】エンコードコントローラ102は、分離部
101より供給された補助データに、それが属するフィ
ールドを識別するField IDと、それが挿入されているラ
インを表すLine_numberを付加し、その補助データと、M
PEGエンコード部103より供給されたPOI、およびCodi
ng Phase Information(CPI)を適宜処理し、user data
のフォーマットのデータとして、可変長符号化部104
に出力し、多重化させる。
The encoding controller 102 adds, to the auxiliary data supplied from the separating unit 101, a Field ID for identifying a field to which the auxiliary data belongs, and a Line_number for a line in which the auxiliary data is inserted.
POI and Codi supplied from the PEG encoder 103
ng Phase Information (CPI) is processed appropriately and user data
Variable-length encoding unit 104
And multiplex it.

【0054】可変長符号化部102は、MPEGエンコード
部103より供給されたエンコードされた画像データを
可変長符号化するとともに、エンコードコントローラ1
02より供給されたuser dataを画像データのエレメン
タリストリームに挿入する。可変長符号化部104より
出力されたエレメンタリストリームは、送信バッファ1
05を介して出力される。
The variable length encoding unit 102 performs variable length encoding on the encoded image data supplied from the MPEG encoding unit 103, and
02 is inserted into the elementary stream of the image data. The elementary stream output from the variable length coding unit 104 is transmitted to the transmission buffer 1
05 is output.

【0055】図16は、本発明を適用したMPEGデコーダ
44の構成例を表している。受信バッファ111は、入
力されたデータを一旦バッファリングした後、可変長復
号部112に出力する。可変長復号部112は、入力さ
れたデータから、画像データとuser dataとを分離し、
画像データをMPEGデコード部114に出力し、user dat
aをデコードコントローラ113に出力する。デコード
コントローラ113は、user dataからPOIとCPIを分離
し、それらをMPEGデコード部114に出力する。また、
デコードコントローラ113は、user dataから分離し
た補助データを合成部115に出力する。MPEGデコード
部114は、可変長復号部112より入力された画像デ
ータを、デコードコントローラ113より入力されたPO
IとCPIを参照してデコードし、デコードした結果を合成
部115に出力している。合成部115は、デコードコ
ントローラ113より供給された補助データをMPEGデコ
ード部114より供給された画像データと合成し、出力
する。
FIG. 16 shows a configuration example of an MPEG decoder 44 to which the present invention is applied. The receiving buffer 111 temporarily buffers the input data, and then outputs the data to the variable-length decoding unit 112. The variable length decoding unit 112 separates image data and user data from the input data,
The image data is output to the MPEG decoding unit 114, and the user data
a is output to the decode controller 113. The decode controller 113 separates the POI and CPI from the user data and outputs them to the MPEG decoding unit 114. Also,
The decode controller 113 outputs the auxiliary data separated from the user data to the synthesizing unit 115. The MPEG decoding unit 114 converts the image data input from the variable length decoding unit 112 into the PO data input from the decode controller 113.
Decoding is performed with reference to I and CPI, and the decoded result is output to the synthesis unit 115. The combining unit 115 combines the auxiliary data supplied from the decode controller 113 with the image data supplied from the MPEG decoding unit 114, and outputs the combined data.

【0056】以下に、MPEGエンコーダ42とMPEGデコー
ダ44の動作について説明する。
The operation of the MPEG encoder 42 and the MPEG decoder 44 will be described below.

【0057】CPIをuser dataに記述して、エレメンタリ
ストリーム(ES)に重畳して出力する動作を、図17を
参照して説明すると、アプリケーションA用MPEGエンコ
ーダ42は、アプリケーションAの画像信号を符号化し
たエレメンタリストリーム(ES)に、CPI(画像信号の
フォーマットにおける有効画素エリアを示すデータであ
るV-PhaseとH-Phase)をuser dataに記述して(図15
の可変長符号化部104がエンコードコントローラ10
2から出力されるCPIのデータをuser dataに記述し
て)、SDTI-CPインタフェース46に出力する。アプリ
ケーションB用MPEGエンコーダ43も、MPEGエンコーダ
42と同様に構成されており、アプリケーションBの画
像信号を符号化したエレメンタリストリーム(ES)に、
CPIをuser dataとして記述して、SDTI-CPインタフェー
ス47に出力する。
The operation of describing the CPI in the user data and superimposing and outputting the CPI on the elementary stream (ES) will be described with reference to FIG. In the encoded elementary stream (ES), CPI (V-Phase and H-Phase which are data indicating an effective pixel area in an image signal format) is described in user data (FIG. 15).
Of the variable length encoding unit 104
2 is described in user data) and output to the SDTI-CP interface 46. The MPEG encoder 43 for the application B is also configured in the same manner as the MPEG encoder 42, and converts the image signal of the application B into an elementary stream (ES) that is encoded.
The CPI is described as user data and output to the SDTI-CP interface 47.

【0058】SDTI-CPインタフェース46の構成例につ
いて、図18を参照して説明する(他のSDTI-CPインタ
フェースも同様に構成されている)。復号部121は、
MPEGエンコーダ42から入力されたMPEG符号化されたエ
レメンタリストリーム(ES)を、符号化パラメータと画
像データに分離し、画像データを復号し、符号化パラメ
ータとともに符号化パラメータ多重化部122に出力す
る。符号化パラメータ多重化部122は、画像信号と符
号化パラメータから、SDTI-CPベースのエレメンタリス
トリーム(ES)を生成して出力する。
An example of the configuration of the SDTI-CP interface 46 will be described with reference to FIG. 18 (other SDTI-CP interfaces have the same configuration). The decoding unit 121
The MPEG-encoded elementary stream (ES) input from the MPEG encoder 42 is separated into encoding parameters and image data, the image data is decoded, and output to the encoding parameter multiplexing unit 122 together with the encoding parameters. . The coding parameter multiplexing unit 122 generates and outputs an SDTI-CP based elementary stream (ES) from the image signal and the coding parameters.

【0059】SDTI-CPインタフェース46に、SDTI-CPベ
ースのエレメンタリストリーム(ES)が入力された場
合、符号化パラメータ分離部123は、エレメンタリス
トリーム(ES)から画像データと符号化パラメータを分
離して、それぞれ符号化部124に出力する。符号化部
124は、符号化パラメータを用いて、画像データを符
号化し、MPEG符号化されたエレメンタリストリーム(E
S)として出力するか、またはパケット化部125でMPE
G符号化されたトランスポートストリーム(TS)として
出力する。
When an SDTI-CP-based elementary stream (ES) is input to the SDTI-CP interface 46, the coding parameter separation unit 123 separates image data and coding parameters from the elementary stream (ES). Then, each is output to the encoding unit 124. The encoding unit 124 encodes the image data using the encoding parameters, and encodes the elementary stream (E
S) or output as MPE
Output as a G-encoded transport stream (TS).

【0060】SDTI-CPインタフェース46,47は、MPE
G符号化されたエレメンタリストリーム(ES)を、SDTI
フォーマットのエレメンタリストリーム(ES)に変換し
て、SDTI-CPネットワーク50を介して、伝送する。SDT
I-CPインタフェース48は、SDTIフォーマットのエレメ
ンタリストリーム(ES)をMPEG符号化されたエレメンタ
リストリーム(ES)に変換し、MPEGデコーダ44に出力
する。
The SDTI-CP interfaces 46 and 47 are MPE
G-encoded elementary stream (ES) is converted to SDTI
It is converted into an elementary stream (ES) in the format and transmitted via the SDTI-CP network 50. SDT
The I-CP interface 48 converts the elementary stream (ES) in the SDTI format into an elementary stream (ES) encoded by MPEG and outputs the same to the MPEG decoder 44.

【0061】MPEGデコーダ44は、入力されたアプリケ
ーションAのエレメンタリストリーム(ES)またはアプ
リケーションBのエレメンタリストリーム(ES)を復号
し、それぞれのエレメンタリストリーム(ES)に記述さ
れている(図16のデコードコントローラ113が出力
する)CPIに基づいて、画像信号を有効画素エリアに配
置するように復号する。
The MPEG decoder 44 decodes the input elementary stream (ES) of the application A or the elementary stream (ES) of the application B, and is described in each of the elementary streams (ES) (FIG. 16). The decoding is performed so that the image signal is arranged in the effective pixel area based on the CPI output by the decoding controller 113).

【0062】MPEGエンコーダ42,43は、それぞれが
符号化したアプリケーションの画像信号のCPIをMPEG符
号化されたエレメンタリストリーム(ES)中のuser dat
aに記述することにより、画像データとともに、CPIを伝
送することができる。また、MPEGエンコーダ42,43
は、CPIを伝送する機能を有することにより、様々なア
プリケーションを符号化して伝送することができる。
Each of the MPEG encoders 42 and 43 converts the CPI of the image signal of the application encoded by the user data into the MPEG encoded elementary stream (ES).
By describing in a, the CPI can be transmitted together with the image data. MPEG encoders 42 and 43
Has a function of transmitting CPI, so that various applications can be encoded and transmitted.

【0063】MPEGデコーダ44は、MPEG符号化されたエ
レメンタリストリーム(ES)に挿入されているCPIを分
離、解釈することにより、様々なCoding Phaseを有する
アプリケーションの画像を、適切に、有効画素エリアに
配置するように復号処理することができる。
The MPEG decoder 44 separates and interprets the CPI inserted in the MPEG-encoded elementary stream (ES) to appropriately convert images of applications having various coding phases into an effective pixel area. The decoding process can be performed so as to be arranged in

【0064】なお、本発明に実施の形態においては、CP
Iを、MPEG符号化されたエレメンタリストリームのuser
dataに挿入したが、ビットストリームに他の方法で挿入
するようにしてもよい。
In the embodiment of the present invention, the CP
I is the user of the MPEG encoded elementary stream
Although inserted into the data, it may be inserted into the bit stream by another method.

【0065】次に、MPEGエンコーダ42において、各フ
ィールドごとの複数の補助データを識別する動作につい
て、図19を参照して説明する。3−2プルダウン処理
が実施されている符号化フレームの原信号(30Hz)の
各フィールドに、補助データが挿入されているものとす
る。この補助データを有する原信号(30Hz)が、元の
フレームレートの符号化フレーム(24Hz)に符号化さ
れるとき、各符号化フレームに含まれる2つまたは3つ
のフィールドに記述されている補助データに、符号化さ
れたフィールドに対応した識別子が、field_ID(0乃至
2のカウンタの値)として付加されて(図15のエンコ
ードコントローラ102で補助データにfield_IDが付加
されて)、補助データともに伝送される。このfield_ID
が補助データに付加されることにより、補助データがど
の符号化フレーム内の、どのフィールドに対応したもの
であるかが識別される。
Next, the operation of the MPEG encoder 42 for identifying a plurality of auxiliary data for each field will be described with reference to FIG. It is assumed that auxiliary data is inserted in each field of the original signal (30 Hz) of the encoded frame on which the 3-2 pull-down process has been performed. When the original signal (30 Hz) having the auxiliary data is encoded into the encoded frame (24 Hz) at the original frame rate, the auxiliary data described in two or three fields included in each encoded frame is obtained. , An identifier corresponding to the encoded field is added as field_ID (the value of the counter of 0 to 2) (field_ID is added to the auxiliary data by the encoding controller 102 in FIG. 15), and transmitted together with the auxiliary data. You. This field_ID
Is added to the auxiliary data to identify which field in the encoded frame the auxiliary data corresponds to.

【0066】具体的に説明すると、図19の先頭の符号
化フレームのフィールドの枚数は、2枚であるので、補
助データは2つ存在する。符号化フレームは2枚のフィ
ールドから生成され、その符号化フレームに対応する2
枚のフィールドの、それぞれの補助データに、field_ID
として、”0”または”1”が付加される。
More specifically, since the number of fields in the first coded frame in FIG. 19 is two, there are two auxiliary data. An encoded frame is generated from two fields, and a 2D frame corresponding to the encoded frame is generated.
Field_ID for each auxiliary data of one field
"0" or "1" is added.

【0067】先頭から2番目の符号化フレームのフィー
ルドの枚数は、3枚であるので、補助データは3つ存在
する。符号化フレームは3枚のフィールドから生成さ
れ、その符号化フレームに対応する3枚のフィールド
の、それぞれの補助データに、field_IDとして、”
0”,”1”または”2”が付加される。
Since the number of fields in the field of the second coded frame from the top is three, there are three auxiliary data. An encoded frame is generated from three fields, and the auxiliary data of each of the three fields corresponding to the encoded frame is represented by field_ID as “field_ID”.
0 ”,“ 1 ”or“ 2 ”is added.

【0068】つまり、1枚の符号化フレームに対して、
1つの補助データが生成されるのではなく、符号化フレ
ームに含まれていたフィールドの枚数と同じ数の補助デ
ータが生成され、それぞれにfield_IDが付加される。そ
の結果、同一の符号化フレームに含まれる複数の補助デ
ータは、付加されたfield_IDにより、符号化フレーム内
で識別されるので、それぞれの補助データに異なった情
報が含まれていても、識別できなくなることはない。
That is, for one encoded frame,
Instead of generating one auxiliary data, the same number of auxiliary data as the number of fields included in the encoded frame is generated, and a field_ID is added to each. As a result, a plurality of auxiliary data included in the same encoded frame is identified in the encoded frame by the added field_ID, so that even if each auxiliary data includes different information, it can be identified. It will not go away.

【0069】MPEGエンコーダ42では、画像データがMP
EGエンコード部103でエンコードされ、可変長符号化
部104で可変長符号化される。また、エンコードコン
トローラ102で補助データにfield_IDと、補助データ
が挿入されていたライン番号(Line_number)が付加さ
れ、エレメンタリストリーム中のuser data中に、ancil
lary dataとして挿入される。これにより、複数の補助
データを識別して伝送することができる。
In the MPEG encoder 42, the image data is
The data is encoded by the EG encoding unit 103 and is variable-length encoded by the variable-length encoding unit 104. Further, the field_ID and the line number (Line_number) in which the auxiliary data is inserted are added to the auxiliary data by the encode controller 102, and the ancil is included in the user data in the elementary stream.
Inserted as lary data. Thus, a plurality of auxiliary data can be identified and transmitted.

【0070】MPEGデコーダ44では、MPEG符号化された
エレメンタリストリーム中のuser dataが可変長復号部
112で分離され、デコードコントローラ113に供給
される。デコードコントローラ113は、user dataに
挿入されているancillary dataのfield_IDとLine_numbe
rに基づいて、複数の補助データを識別、分離し、合成
部115に出力する。合成部115は、MPEGデコード部
114で復号された画像データと、それに対応する補助
データ(テキストデータ)を合成し、出力する。
In the MPEG decoder 44, the user data in the MPEG-encoded elementary stream is separated by the variable length decoding unit 112 and supplied to the decode controller 113. The decode controller 113 sets the field_ID and Line_numbe of the ancillary data inserted in the user data.
Based on r, a plurality of auxiliary data are identified and separated, and output to the synthesizing unit 115. The synthesizing unit 115 synthesizes the image data decoded by the MPEG decoding unit 114 and the corresponding auxiliary data (text data), and outputs the synthesized data.

【0071】MPEGエンコーダ42は、システム全体の遅
延を少なくするために、図20に示すような符号化順序
と表示順序を管理するPOIを生成する。
The MPEG encoder 42 generates a POI for managing the encoding order and the display order as shown in FIG. 20 in order to reduce the delay of the entire system.

【0072】例えば、MPEGエンコーダ42のMPEGエンコ
ード部103に入力された画像データが、3−2プルダ
ウン処理により、24Hzのフレームレートに変換された
画像信号である場合、図20(A)に示すようなフラグ
(Repeat_first_field,Top_field_first)により、各
フレームが管理される。
For example, when the image data input to the MPEG encoding unit 103 of the MPEG encoder 42 is an image signal converted to a frame rate of 24 Hz by 3-2 pull-down processing, as shown in FIG. Each frame is managed by various flags (Repeat_first_field, Top_field_first).

【0073】Repeat_first_fieldのフラグの”1”は、
リピートフィールドを作成する必要があることを意味
し、Repeat_first_fieldのフラグの”0”は、リピート
フィールドを作成する必要がないことを意味する。Top_
field_firstのフラグは、フレームを構成するフィール
ドのうち、最初のフィールドがトップフィールドである
のか、またはボトムフィールドであるのかを表してい
る。Top_field_firstフラグの”1”は、トップフィー
ルドがボトムフィールドより時間的に早いフレーム構造
であることを表しており、Top_field_firstフラグの”
0”は、ボトムフィールドがトップフィールドより時間
的に早いフレーム構造であることを表している。
The flag “1” of the Repeat_first_field is
A repeat field needs to be created, and the flag “0” of Repeat_first_field means that a repeat field need not be created. Top_
The field_first flag indicates whether the first field among the fields constituting the frame is the top field or the bottom field. “1” of the Top_field_first flag indicates that the top field has a temporally earlier frame structure than the bottom field, and “1” of the Top_field_first flag is “1”.
"0" indicates that the bottom field has a temporally earlier frame structure than the top field.

【0074】図20(A)について、具体的に説明する
と、最初にMPEGエンコード部103に入力されるFrame
No1の符号化フレームの符号化画像データ種別は、Iピ
クチャであり、このIピクチャの2フィールド(トップ
フィールドとボトムフィールド)は、トップフィールド
をコピーしてリピートフィールドを作成することで、3
フィールドに変換する必要があるので、対応するRepeat
_first_fieldのフラグは”1”となり、Top_field_firs
tのフラグは”1”となる。
FIG. 20A is specifically described. First, the Frame input to the MPEG encoding unit 103
The encoded image data type of the No. 1 encoded frame is an I picture, and two fields (a top field and a bottom field) of the I picture are obtained by copying the top field and creating a repeat field.
Since it needs to be converted to a field, the corresponding Repeat
The flag of _first_field becomes “1” and Top_field_firs
The flag of t becomes "1".

【0075】Frame No2の符号化フレームの符号化画像
データ種別は、Bピクチャであり、このBピクチャに
は、リピートフィールドが生成する必要がないので、Re
peat_first_fieldのフラグは”0”とされ、ボトムフィ
ールドがトップフィールドより時間的に早いフレームで
あるため、Top_field_firstのフラグは”0”とされ
る。このときのTop_field_firstのフラグの値は、3−
2プルダウン処理には関係しない。
The coded image data type of the coded frame of Frame No. 2 is a B picture, and since there is no need to generate a repeat field in this B picture,
The flag of peat_first_field is set to “0” and the flag of Top_field_first is set to “0” because the bottom field is a frame earlier in time than the top field. The value of the Top_field_first flag at this time is 3-
It is not related to the 2 pull-down processing.

【0076】Frame No3の符号化フレームの符号化画像
データ種別は、Bピクチャであり、Frame No3のBピク
チャでは、そのボトムフィールドをコピーしてリピート
フィールドが作成され、符号化フレームが3フィールド
に変換されている。従って、Repeat_first_fieldのフラ
グは”1”とされ、Top_field_firstのフラグは”0”
とされる。
The coded image data type of the coded frame of Frame No. 3 is B picture, and in the B picture of Frame No. 3, the bottom field is copied to create a repeat field, and the coded frame is converted into three fields. Have been. Therefore, the flag of Repeat_first_field is set to “1” and the flag of Top_field_first is set to “0”.
It is said.

【0077】Frame No4の符号化フレームの符号化画像
データ種別は、Pピクチャであり、このPピクチャに対
しては、リピートフィールドが作成されておらず、Repe
at_first_fieldのフラグは”0”とされ、Top_field_fi
rstのフラグは1とされる。
The coded image data type of the coded frame of Frame No. 4 is P picture, and no repeat field is created for this P picture.
The at_first_field flag is set to “0” and Top_field_fi
The rst flag is set to 1.

【0078】MPEGエンコード部103は、図20(A)
に示すような3−2プルダウン処理が施された画像デー
タが入力されてきたとき、内蔵するカウンタPTS_counte
rでフィールドの数をカウントし、その値PTS_counterを
表示順序としてエンコードコントローラ102に出力す
る。カウンタPTS_counterは、0から127まで増加し
た後、再び0に戻るカウント動作を行う。従って、カウ
ンタPTS_counterの値は、図20(B)に示すように変
化する。
The MPEG encoding unit 103 is configured as shown in FIG.
When image data that has been subjected to the 3-2 pull-down processing as shown in (1) is input, a built-in counter PTS_counte
The number of fields is counted by r, and the value PTS_counter is output to the encoding controller 102 as a display order. The counter PTS_counter performs a counting operation after increasing from 0 to 127 and then returning to 0 again. Therefore, the value of the counter PTS_counter changes as shown in FIG.

【0079】具体的に説明すると、最初に入力されるFr
ame No1のIピクチャのPTS_counterの値は値”0”で
ある。先頭から2番目に入力されるFrame No2のBピク
チャのPTS_counterの値は、Frame No1のIピクチャのP
TS_counterの値”0”に、Pピクチャのフィールド数3
を加算した値”3”(=0+3)となる。
More specifically, the first input Fr
The value of the PTS_counter of the I picture of ame No1 is the value “0”. The value of the PTS_counter of the B picture of Frame No. 2 input second from the top is the PTS of the I picture of Frame No. 1.
When the value of TS_counter is “0”, the number of fields of the P picture is 3
Is added to "3" (= 0 + 3).

【0080】先頭から3番目に入力されるFrame No3の
BピクチャのPTS_counterの値は、Frame No2のBピク
チャのPTS_counterの値”3”に、Bピクチャのフィー
ルド数2を加算した値”5”(=3+2)となる。先頭
から4番目に入力されるFrameNo4のPピクチャのPTS_c
ounterの値は、Frame No3のBピクチャのPTS_counter
の値”5”に、Bピクチャのフィールド数3を加算した
値”8”(=5+3)となる。Frame No5のBピクチャ
以降のPTS_counterの値も同様に算出される。
The value of the PTS_counter of the B picture of Frame No. 3 input third from the beginning is the value “5” obtained by adding the number of fields 2 of the B picture to the value of “3” of the PTS_counter of the B picture of Frame No. = 3 + 2). PTS_c of P picture of FrameNo4 input fourth from the beginning
ounter value is PTS_counter of B picture of Frame No3
Is obtained by adding the number of fields 3 of the B picture to the value "5" of the B picture "8" (= 5 + 3). The value of the PTS_counter for the B picture of Frame No. 5 and thereafter is similarly calculated.

【0081】さらに、MPEGエンコード部103は、内蔵
するカウンタDTS_counterでエンコードしたフレームを
計数し、計数した結果をエンドコントローラ102に出
力する。
Further, the MPEG encoding unit 103 counts the frames encoded by the built-in counter DTS_counter, and outputs the counted result to the end controller 102.

【0082】図20(C)を参照して、具体的に説明す
ると、Frame No1のIピクチャのDTS_counterの値12
5は、Frame No1のIピクチャが表示される表示順序PT
S_counter=0を基準としたとき、1フレーム分の出現
周期前に符号化される必要がある(図14に対応させる
と、先頭のIピクチャの符号化順序の値は”1”であ
り、表示順序の値は”2”であり、符号化順序の値は表
示順序の値より1フレーム分早い必要がある)。つま
り、Iピクチャが3つのフィールドを持っているため、
DTS_counterの値は、0より3だけ前の値”125”(D
TS_counterは27(=128)のモジュロで表されるた
め、その値は0から127の間の値を循環する)とな
る。
More specifically, with reference to FIG. 20C, the DTS_counter value 12 of the I picture of Frame No. 1
5 is a display order PT in which the I picture of Frame No. 1 is displayed.
When S_counter = 0 is used as a reference, it is necessary to perform encoding before the appearance cycle of one frame (in the case of FIG. 14, the value of the encoding order of the leading I picture is “1”, and The value of the order is “2”, and the value of the encoding order needs to be one frame earlier than the value of the display order.) That is, since the I picture has three fields,
The value of DTS_counter is a value "125" (D
TS_counter is represented by a modulo of 2 7 (= 128), so its value circulates between 0 and 127).

【0083】Frame No1のIピクチャの次に符号化され
るFrame No4のPピクチャのDTS_counterの値は、Frame
No1のIピクチャのDTS_counterの値125にIピクチ
ャのフィールド数3を加えた値0(=128=125+
3)となる。
The value of the DTS_counter of the P picture of Frame No. 4 encoded next to the I picture of Frame No. 1 is Frame
The value 0 (= 128 = 125 +) obtained by adding the number of fields of the I picture 3 to the DTS_counter value 125 of the I picture of No1
3).

【0084】Frame No4のPピクチャの次に符号化され
る、Frame No2のBピクチャのDTS_counterの値は、B
ピクチャのためにPTS_counter=DTS_counterであり、PT
S_counterの値と同一とされ、その値は”3”となる。
同様に、Frame No2のBピクチャの次に符号化される、
Frame No3のBピクチャのDTS_counterの値も、PTS_cou
nterの値と同一とされ、その値は”5”とされる。以
下、Frame No7のPピクチャ以降のDTS_counterの値
も、同様に算出されるので、ここでは、その説明を省略
する。
The value of the DTS_counter of the B picture of Frame No. 2 coded next to the P picture of Frame No. 4 is B
PTS_counter = DTS_counter for pictures, PT
It is the same as the value of S_counter, and its value is “3”.
Similarly, encoded next to the B picture of Frame No. 2,
The DTS_counter value of the B picture of Frame No. 3 is also PTS_cou
nter and the value is “5”. Hereinafter, the values of the DTS_counter for the P pictures of Frame No. 7 and thereafter are calculated in the same manner, and the description thereof is omitted here.

【0085】MPEGエンコード部103は、図20に示す
ようなフラグRepeat_first_field,Top_field_first、
並びにカウンタPTS_counter,DTS_counterをPOIとし
て、エンコードコントローラ102に出力する。
The MPEG encoding unit 103 includes flags Repeat_first_field, Top_field_first,
The counters PTS_counter and DTS_counter are output to the encode controller 102 as POI.

【0086】ここで、図11に示した、離れた場所にあ
るスタジオ41のMPEGエンコーダ42から、スタジオ7
1のMPEGデコーダ74に、SDTI-CPネットワーク50,
80、TS MUX/DEMUX61,62、およびATMのネットワ
ークを使用して、画像信号の伝送を行うシステムの、符
号化順序と表示順序について、図21を参照して説明す
る。
Here, the MPEG 7 of the studio 41 at a remote location shown in FIG.
In one MPEG decoder 74, the SDTI-CP network 50,
The encoding sequence and the display sequence of a system for transmitting an image signal using the network 80, the TS MUX / DEMUXs 61 and 62, and the ATM will be described with reference to FIG.

【0087】MPEGエンコーダ42内のMPEGビデオエンコ
ーダ42Aは、MPEG符号化された画像データのエレメン
タリストリーム(ES)を出力するとともに、POIを、そ
のエレメンタリストリーム(ES)中のuser dataに挿入
する(図15のエンコードコントローラ102がPOIの
データをuser dataに記述し、可変長符号化部104に
出力して、多重化させる)。MPEGエンコーダ42内のオ
ーディオエンコーダ42Bは、音声データを符号化して
エレメンタリストリーム(ES)として出力する。SDTI-C
Pインタフェース46は、MPEGビデオエンコーダ42A
からのエレメンタリストリーム(ES)(POIを含んだス
トリーム)と、オーディオエンコーダ42Bからのエレ
メンタリストリーム(ES)を、SDTIフォーマットのエレ
メンタリストリームに変換して、SDTI-CPネットワーク
50に出力する。
The MPEG video encoder 42A in the MPEG encoder 42 outputs an elementary stream (ES) of the image data encoded by MPEG, and inserts the POI into user data in the elementary stream (ES). (The encode controller 102 in FIG. 15 describes the POI data in the user data, outputs the POI data to the variable length encoding unit 104, and multiplexes the data). An audio encoder 42B in the MPEG encoder 42 encodes audio data and outputs it as an elementary stream (ES). SDTI-C
The P interface 46 is an MPEG video encoder 42A
, And converts the elementary stream (ES) from the audio encoder 42B into an elementary stream in the SDTI format, and outputs the elementary stream (ES) from the audio encoder 42B to the SDTI-CP network 50.

【0088】SDTI-CPインタフェース51は、入力され
たSDTIフォーマットのエレメンタリストリーム(ES)
を、MPEG符号化のエレメンタリストリーム(ES)に変換
し(図18を参照してSDTI-CPインタフェース46の動
作として説明したように)、TSMUX/DEMUX61に出力す
る。TS MUX/DEMUX61は、エレメンタリストリーム(E
S)に挿入されているPOIを参照して、PTS_counterの値
をPTS(Presentation TimeStamp)に、また、DTS_count
erの値をDTS(Decoding Time Stamp)に、それぞれ換算
し、多重化処理を行い、188バイト単位のパケットか
ら構成されるトランスポートストリーム(TS)を生成し
て出力する(従って、トランスポートストリーム(TS)
には、PTS_counterとDTS_counterではなく、PTSとDTSが
含まれる)。
The SDTI-CP interface 51 receives an input elementary stream (ES) in the SDTI format.
Is converted to an elementary stream (ES) of MPEG encoding (as described as the operation of the SDTI-CP interface 46 with reference to FIG. 18) and output to the TSMUX / DEMUX 61. TS MUX / DEMUX 61 is an elementary stream (E
Referring to the POI inserted in S), the value of PTS_counter is set to PTS (Presentation TimeStamp), and DTS_count
The value of er is converted to a DTS (Decoding Time Stamp), multiplexed, and a transport stream (TS) composed of 188-byte packets is generated and output (accordingly, the transport stream (TS TS)
Includes PTS and DTS, not PTS_counter and DTS_counter).

【0089】TS MUX/DEMUX61は、エレメンタリストリ
ーム(ES)に挿入されているPOIを解釈することによ
り、前述のバッファリング処理を行うことなく、直ちに
多重化処理を行うことができ、TS MUX/DEMUX61におい
て、新たに遅延が発生することはない。また、POIはエ
レメンタリストリーム(ES)中に挿入されているため、
TS MUX/DEMUX61は、POIを後段に伝達するために、POI
をビットストリームに含ませる処理を行わなくてもよ
い。
The TS MUX / DEMUX 61 can immediately perform the multiplexing processing without performing the buffering processing by interpreting the POI inserted in the elementary stream (ES). In the DEMUX 61, no new delay occurs. Also, since the POI is inserted in the elementary stream (ES),
The TS MUX / DEMUX 61 transmits the POI to the subsequent stage.
May be omitted from the bit stream.

【0090】図11のTS MUX/DEMUX62は、ATMなどの
公衆網を介して入力されたトランスポートストリーム
(TS)から画像データと音声データを分離して、MPEG符
号化のエレメンタリストリーム(ES)に変換する。TS M
UX/DEMUX62はまた、PTS,DTSをPTS_counter,DTS_cou
nterに換算して、エレメンタリストリームのuser data
に挿入し、SDTI-CPインタフェース81に出力する。SDT
I-CPインタフェース81は、MPEG符号化されたエレメン
タリストリーム(ES)をSDTIフォーマットのエレメンタ
リストリーム(ES)に変換し、スタジオ71のSDTI-CP
ネットワーク80に出力する。MPEGデコーダ74(MPEG
デコーダ44と同一の構成)は、SDTI-CPインタフェー
ス78を介して、伝送されてきた画像データと音声デー
タのエレメンタリストリーム(ES)を受信し、復号す
る。
A TS MUX / DEMUX 62 shown in FIG. 11 separates image data and audio data from a transport stream (TS) input via a public network such as an ATM, and outputs an MPEG encoded elementary stream (ES). Convert to TS M
The UX / DEMUX 62 also assigns PTS, DTS to PTS_counter, DTS_cou.
Converted to nter, user data of elementary stream
And outputs it to the SDTI-CP interface 81. SDT
The I-CP interface 81 converts the MPEG-encoded elementary stream (ES) into an elementary stream (ES) in the SDTI format, and
Output to the network 80. MPEG decoder 74 (MPEG
The same configuration as the decoder 44) receives and decodes the transmitted elementary streams (ES) of the image data and the audio data via the SDTI-CP interface 78.

【0091】MPEGデコーダ74は、TS MUX/DEMUX61と
同様に、エレメンタリストリーム(ES)に挿入されてい
るPOIを解釈して、前述のバッファリング処理を行うこ
となく、直ちに復号する(図16のデコードコントロー
ラ113が出力するPOIに基づき、MPEGデコード部11
4が画像データを復号する)ことができ、MPEGデコーダ
74において、新たに遅延が発生することはない。つま
り、MPEGビデオエンコーダ42Aが、MPEG符号化された
エレメンタリストリーム(ES)とともに、POIをエレメ
ンタリストリームに挿入して出力することにより、後段
のTS MUX/DEMUX61と、MPEGデコーダ74は、POIを解
釈して多重化処理、または復号処理を直ちに行うことが
でき、システム全体としての遅延を、MPEGエンコーダ4
2で生ずるBピクチャの枚数(=2)+1枚=3の遅延
のみに抑えることができる。すなわち、このような符号
化、多重化、および復号を含むシステムにおいて、理論
的に最も小さい遅延とすることができる。
The MPEG decoder 74, like the TS MUX / DEMUX 61, interprets the POI inserted in the elementary stream (ES) and immediately decodes it without performing the above-described buffering processing (see FIG. 16). Based on the POI output from the decode controller 113, the MPEG decoding unit 11
4 can decode the image data), and no new delay occurs in the MPEG decoder 74. In other words, the MPEG video encoder 42A inserts the POI into the elementary stream together with the MPEG-encoded elementary stream (ES) and outputs the POI. The multiplexing process or the decoding process can be performed immediately by interpreting, and the delay of the entire system is reduced by the MPEG encoder 4.
2 can be suppressed to only the delay of the number of B pictures (= 2) + 1 = 3. That is, in a system including such encoding, multiplexing, and decoding, the delay can be theoretically minimized.

【0092】また、図21のシステム構成において、図
18に示したSDTI-CPインタフェース46を用いること
により、SDTI-CPネットワーク50を使用して画像信号
を伝送するとき、スタジオ41の内部では、ビットスト
リームを、編集が容易で、短距離伝送に適したエレメン
タリストリーム(ES)の形態で伝送することが可能とな
り、離れたスタジオ間でATMなどの公衆網を使用して画
像信号を伝送するとき、ビットストリームを、長距離伝
送に適したトランスポートストリーム(TS)の形態で伝
送することが可能となる。
In the system configuration shown in FIG. 21, by using the SDTI-CP interface 46 shown in FIG. 18, when transmitting an image signal using the SDTI-CP network 50, a bit Streams can be transmitted in the form of an elementary stream (ES) that is easy to edit and suitable for short-distance transmission, and when transmitting image signals between remote studios using a public network such as ATM. , A bit stream can be transmitted in the form of a transport stream (TS) suitable for long-distance transmission.

【0093】以上においては、POIをエレメンタリスト
リームに挿入するようにしたが、TSMUX/DEMUX61とMPE
Gエンコーダ42の距離が近いような場合には、図22
に示すように、POIをMPEGエンコーダ42から、TS MUX/
DEMUX61に直接供給するようにしてもよい。
In the above, the POI is inserted into the elementary stream, but the TSMUX / DEMUX 61 and the MPE
When the distance of the G encoder 42 is short, FIG.
As shown in the figure, the POI is transmitted from the MPEG encoder 42 to the TS MUX /
You may make it supply directly to DEMUX61.

【0094】しかしながら、このようにすると、エレメ
ンタリストリームを伝送するSDTI-CPネットワーク50
以外の配線処理が必要となる。
However, in this case, the SDTI-CP network 50 for transmitting the elementary stream
Other wiring processing is required.

【0095】以上に述べたように、エンコーダの有する
情報を、エレメンタリストリーム(ES)中のuser data
に記述して、多重化装置またはデコーダに出力すること
により、エンコーダのみが有していた情報(Coding Pha
se(V-PhaseとH-Phase)、Field_ID、符号化順序DTS_co
unter、および表示順序PTS_counter)を、エンコーダよ
り後段の多重化装置、デコーダに供給することができ
る。
As described above, the information held by the encoder is stored in the user data in the elementary stream (ES).
And output to the multiplexing device or the decoder, the information (Coding Pha
se (V-Phase and H-Phase), Field_ID, coding order DTS_co
unter and the display order PTS_counter) can be supplied to a multiplexing device and a decoder subsequent to the encoder.

【0096】次に、図23乃至図36を参照してビット
ストリームのシンタックスについて説明する。
Next, the syntax of the bit stream will be described with reference to FIGS.

【0097】図23は、MPEGのビデオストリームのシン
タックスを表わした図である。MPEGエンコーダ42は、
この図23に示されたシンタックスに従った符号化エレ
メンタリストリームを生成する。以下に説明するシンタ
ックスにおいて、関数や条件文は細活字で表わされ、デ
ータエレメントは、太活字で表されている。データ項目
は、その名称、ビット長およびそのタイプ・伝送順序を
示すニーモニック(Mnemonic)で記述されている。
FIG. 23 is a diagram showing the syntax of an MPEG video stream. MPEG encoder 42
An encoded elementary stream according to the syntax shown in FIG. 23 is generated. In the syntax described below, functions and conditional statements are represented by fine print, and data elements are represented by bold print. The data item is described by a mnemonic (Mnemonic) indicating its name, bit length, and its type and transmission order.

【0098】まず、この図23に示されているシンタッ
クスにおいて使用されている関数について説明する。実
際には、この図23に示されているシンタックスは、MP
EGデコーダ44側において、伝送されてきた符号化ビッ
トストリームから所定の意味のあるデータエレメントを
抽出するために使用されるシンタックスである。MPE
Gエンコーダ42側において使用されるシンタックス
は、図23に示されたシンタックスからif文やwhile
文等の条件文を省略したシンタックスである。
First, functions used in the syntax shown in FIG. 23 will be described. In practice, the syntax shown in FIG.
This is a syntax used on the EG decoder 44 side to extract a predetermined meaningful data element from the transmitted encoded bit stream. MPE
The syntax used on the G encoder 42 side is based on the syntax shown in FIG.
This is a syntax that omits conditional statements such as statements.

【0099】video_sequence()において最初に記述され
ているnext_start_code()関数は、ビットストリーム中
に記述されているスタートコードを探すための関数であ
る。この図23に示されたシンタックスに従って生成さ
れた符号化ストリームには、まず最初に、sequence_hea
der()関数とsequence_extension()関数によって定義さ
れたデータエレメントが記述されている。このsequence
_header()関数は、MPEGビットストリームのシーケンス
レイヤのヘッダデータを定義するための関数であって、
sequence_extension()関数は、MPEGビットストリームの
シーケンスレイヤの拡張データを定義するための関数で
ある。
The next_start_code () function described first in video_sequence () is a function for searching for a start code described in a bit stream. First, in the encoded stream generated according to the syntax shown in FIG. 23, sequence_hea
A data element defined by the der () function and the sequence_extension () function is described. This sequence
The _header () function is a function for defining the header data of the sequence layer of the MPEG bit stream,
The sequence_extension () function is a function for defining extension data of the sequence layer of the MPEG bit stream.

【0100】sequence_extension()関数の次に配置され
ている do{ }while構文は、while文によって定義されて
いる条件が真である間、do文の{ }内の関数に基いて記
述されたデータエレメントが符号化データストリーム中
に記述されていることを示す構文である。このwhile文
に使用されているnextbits()関数は、ビットストリーム
中に記述されているビット又はビット列と、参照される
データエレメントとを比較するための関数である。この
図23に示されたシンタックスの例では、nextbits()関
数は、ビットストリーム中のビット列とビデオシーケン
スの終わりを示すsequence_end_codeとを比較し、ビッ
トストリーム中のビット列とsequence_end_codeとが一
致しないときに、このwhile文の条件が真となる。従っ
て、sequence_extension()関数の次に配置されている d
o{ }while構文は、ビットストリーム中に、ビデオシー
ケンスの終わりを示すsequence_end_codeが現れない
間、do文中の関数によって定義されたデータエレメント
が符号化ビットストリーム中に記述されていることを示
している。
[0100] The do {} while syntax located next to the sequence_extension () function is data described based on the function in {} of the do statement while the condition defined by the while statement is true. This is a syntax indicating that the element is described in the encoded data stream. The nextbits () function used in this while statement is a function for comparing a bit or a bit string described in a bit stream with a referenced data element. In the example of the syntax shown in FIG. 23, the nextbits () function compares the bit sequence in the bit stream with sequence_end_code indicating the end of the video sequence, and when the bit sequence in the bit stream does not match sequence_end_code. , The condition of this while statement becomes true. Therefore, d placed next to the sequence_extension () function
The o {} while syntax indicates that the data element defined by the function in the do statement is described in the encoded bitstream while the sequence_end_code indicating the end of the video sequence does not appear in the bitstream. .

【0101】符号化ビットストリームにおいて、sequen
ce_extension()関数によって定義された各データエレメ
ントの次には、extension_and_user_data(0)関数によっ
て定義されたデータエレメントが記述されている。この
extension_and_user_data
(0)関数は、MPEGビットストリームのシーケンス
レイヤにおける拡張データとユーザデータを定義するた
めの関数である。
In the coded bit stream, the sequence
Following each data element defined by the ce_extension () function, a data element defined by the extension_and_user_data (0) function is described. This extension_and_user_data
The (0) function is a function for defining extension data and user data in the sequence layer of the MPEG bit stream.

【0102】このextension_and_user_data(0)関数の次
に配置されている do{ }while構文は、while文によって
定義されている条件が真である間、do文の{ }内の関数
に基いて記述されたデータエレメントが、ビットストリ
ームに記述されていることを示す関数である。このwhil
e文において使用されているnextbits()関数は、ビット
ストリーム中に現れるビット又はビット列と、picture_
start_code又はgroup_start_codeとの一致を判断するた
めの関数であるって、ビットストリーム中に現れるビッ
ト又はビット列と、picture_start_code又はgroup_star
t_codeとが一致する場合には、while文によって定義さ
れた条件が真となる。よって、このdo{ }while構文は、
符号化ビットストリーム中において、picture_start_co
de又はgroup_start_codeが現れた場合には、そのスター
トコードの次に、do文中の関数によって定義されたデー
タエレメントのコードが記述されていることを示してい
る。
The do {} while syntax located next to the extension_and_user_data (0) function is described based on the function in the {} of the do statement while the condition defined by the while statement is true. This is a function indicating that the data element is described in the bit stream. This whil
The nextbits () function used in the e-statement is a
A function for judging a match with start_code or group_start_code, which consists of bits or bit strings appearing in a bit stream, picture_start_code or group_star
If t_code matches, the condition defined by the while statement is true. Therefore, this do {} while syntax is
In the coded bitstream, picture_start_co
When de or group_start_code appears, it indicates that the code of the data element defined by the function in the do statement is described after the start code.

【0103】このdo文の最初に記述されているif文は、
符号化ビットストリーム中にgroup_start_codeが現れた
場合、という条件を示しいる。このif文による条件は真
である場合には、符号化ビットストリーム中には、この
group_start_codeの次にgroup_of_picture_header()関
数およびextension_and_user_data(1)関数によって定義
されているデータエレメントが順に記述されている。
The if statement described at the beginning of the do statement is
The condition indicates that the group_start_code appears in the encoded bit stream. If the condition by this if statement is true, this
Data elements defined by the group_of_picture_header () function and the extension_and_user_data (1) function are described in order after the group_start_code.

【0104】このgroup_of_picture_header()関数は、M
PEG符号化ビットストリームのGOPレイヤのヘッダデータ
を定義するための関数であって、extension_and_user_d
ata(1)関数は、MPEG符号化ビットストリームのGOPレイ
ヤの拡張データおよびユーザデータを定義するための関
数である。
This group_of_picture_header () function is
A function for defining the header data of the GOP layer of the PEG encoded bit stream, and the extension_and_user_d
The ata (1) function is a function for defining extended data and user data of the GOP layer of the MPEG encoded bit stream.

【0105】さらに、この符号化ビットストリームにお
いて、group_of_picture_header()関数およびextension
_and_user_data(1)関数によって定義されているデータ
エレメントの次には、picture_header()関数とpicture_
coding_extension()関数によって定義されたデータエレ
メントが記述されている。もちろん、先に説明したif文
の条件が真とならない場合には、 group_of_picture_he
ader()関数およびextension_and_user_data(1)関数によ
って定義されているデータエレメントは記述されていな
いので、 extension_and_user_data(0)関数によって定
義されているデータエレメントの次に、picture_header
()関数、picture_coding_extension()関数およびextens
ion_and_user_data(2)関数によって定義されたデータエ
レメントが記述されている。
Further, in this encoded bit stream, a group_of_picture_header () function and an extension
After the data element defined by the _and_user_data (1) function, the picture_header () function and the picture_header
A data element defined by the coding_extension () function is described. Of course, if the condition of the if statement described above is not true, group_of_picture_he
Since the data elements defined by the ader () function and the extension_and_user_data (1) function are not described, the picture_header follows the data element defined by the extension_and_user_data (0) function.
() Function, picture_coding_extension () function and extens
A data element defined by the ion_and_user_data (2) function is described.

【0106】このpicture_header()関数は、MPEG符号化
ビットストリームのピクチャレイヤのヘッダデータを定
義するための関数であって、picture_coding_extension
()関数は、MPEG符号化ビットストリームのピクチャレイ
ヤの第1の拡張データを定義するための関数である。ex
tension_and_user_data(2)関数は、MPEG符号化ビットス
トリームのピクチャレイヤの拡張データおよびユーザデ
ータを定義するための関数である。このextension_and_
user_data(2)関数によって定義されるユーザデータは、
ピクチャレイヤに記述されているデータであって、各ピ
クチャ毎に記述することのできるデータである。
The picture_header () function is a function for defining the header data of the picture layer of the MPEG coded bit stream.
The () function is a function for defining the first extension data of the picture layer of the MPEG encoded bit stream. ex
The tension_and_user_data (2) function is a function for defining extension data and user data of a picture layer of an MPEG encoded bit stream. This extension_and_
User data defined by the user_data (2) function is
This is data described in the picture layer and can be described for each picture.

【0107】符号化ビットストリームにおいて、ピクチ
ャレイヤのユーザデータの次には、picture_data()関数
によって定義されるデータエレメントが記述されてい
る。このpicture_data()関数は、スライスレイヤおよび
マクロブロックレイヤに関するデータエレメントを記述
するための関数である。
[0107] In the coded bit stream, next to the user data of the picture layer, a data element defined by a picture_data () function is described. The picture_data () function is a function for describing data elements relating to the slice layer and the macroblock layer.

【0108】このpicture_data()関数の次に記述されて
いるwhile文は、このwhile文によって定義されている条
件が真である間、次のif文の条件判断を行うための関数
である。このwhile文において使用されているnextbit
s()関数は、符号化ビットストリーム中に、picture_sta
rt_code又はgroup_start_codeが記述されているか否か
を判断するための関数であって、ビットストリーム中に
picture_start_code又はgroup_start_codeが記述されて
いる場合には、このwhile文によって定義された条件が
真となる。
The while statement described next to the picture_data () function is a function for determining the condition of the next if statement while the condition defined by the while statement is true. Nextbit used in this while statement
The s () function converts the picture_sta
A function to determine whether rt_code or group_start_code is described.
When picture_start_code or group_start_code is described, the condition defined by this while statement is true.

【0109】次のif文は、符号化ビットストリーム中に
sequence_end_code が記述されているか否かを判断する
ための条件文であって、sequence_end_code が記述され
ていないのであれば、sequence_header()関数とsequenc
e_extension()関数とによって定義されたデータエレメ
ントが記述されていることを示している。sequence_end
_codeは符号化ビデオストリームのシーケンスの終わり
を示すコードであるので、符号化ストリームが終了しな
い限り、符号化ストリーム中にはsequence_header()関
数とsequence_extension()関数とによって定義されたデ
ータエレメントが記述されている。
The following if statement is included in the encoded bit stream.
If it is a conditional statement for determining whether sequence_end_code is described or not, and sequence_end_code is not described, the sequence_header () function and sequencen
This indicates that the data element defined by the e_extension () function is described. sequence_end
Since _code is a code indicating the end of the sequence of the encoded video stream, the data elements defined by the sequence_header () function and the sequence_extension () function are described in the encoded stream unless the encoded stream ends. ing.

【0110】このsequence_header()関数とsequence_ex
tension()関数によって記述されたデータエレメント
は、ビデオストリームのシーケンスの先頭に記述された
sequence_header()関数とsequence_extension()関数に
よって記述されたデータエレメントと全く同じである。
このように同じデータをストリーム中に記述する理由
は、ビットストリーム受信装置側でデータストリームの
途中(例えばピクチャレイヤに対応するビットストリー
ム部分)から受信が開始された場合に、シーケンスレイ
ヤのデータを受信できなくなり、ストリームをデコード
出来なくなることを防止するためである。
This sequence_header () function and sequence_ex
The data element described by the tension () function is described at the beginning of the video stream sequence.
It is exactly the same as the data element described by the sequence_header () and sequence_extension () functions.
The reason for describing the same data in the stream in this way is that when the bit stream receiving apparatus starts receiving data in the middle of the data stream (for example, the bit stream corresponding to the picture layer), the data of the sequence layer is received. This is to prevent a situation in which the stream cannot be decoded and the stream cannot be decoded.

【0111】この最後のsequence_header()関数とseque
nce_extension()関数とによって定義されたデータエレ
メントの次、つまり、データストリームの最後には、シ
ーケンスの終わりを示す2ビットのsequence_end_code
が記述されている。
The last sequence_header () function and sequence
After the data element defined by the nce_extension () function, that is, at the end of the data stream, a 2-bit sequence_end_code indicating the end of the sequence
Is described.

【0112】以下に、sequence_header()関数、sequenc
e_extension()関数、extension_and_user_data(0)関
数、group_of_picture_header()関数、picture_heade
r()関数、picture_coding_extension()関数、およびpic
ture_data()関数について詳細に説明する。
The sequence_header () function, sequencec
e_extension () function, extension_and_user_data (0) function, group_of_picture_header () function, picture_heade
r () function, picture_coding_extension () function, and pic
The ture_data () function will be described in detail.

【0113】図24は、sequence_header()関数のシン
タックスを説明するための図である。このsequence_hea
der()関数によって定義されたデータエレメントは、seq
uence_header_code、horizontal_size_value、vertical
_size_value、aspect_ratio_information、frame_rate_
code、bit_rate_value、marker_bit、vbv_buffer_size_
value、constrained_parameter_flag、load_intra_quan
tizer_matrix、intra_quantizer_matrix[64]、load_non
_intra_quantizer_matrix、およびnon_intra_quantizer
_matrix等である。
FIG. 24 is a diagram for explaining the syntax of the sequence_header () function. This sequence_hea
The data element defined by the der () function is seq
uence_header_code, horizontal_size_value, vertical
_size_value, aspect_ratio_information, frame_rate_
code, bit_rate_value, marker_bit, vbv_buffer_size_
value, constrained_parameter_flag, load_intra_quan
tizer_matrix, intra_quantizer_matrix [64], load_non
_intra_quantizer_matrix, and non_intra_quantizer
_matrix and so on.

【0114】sequence_header_codeは、シーケンスレイ
ヤのスタート同期コードを表すデータである。horizont
al_size_valueは、画像の水平方向の画素数の下位12
ビットから成るデータである。vertical_size_value
は、画像の縦のライン数の下位12ビットからなるデー
タである。aspect_ratio_informationは、画素のアスペ
クト比(縦横比)または表示画面アスペクト比を表すデ
ータである。frame_rate_codeは、画像の表示周期を表
すデータである。bit_rate_valueは、発生ビット量に対
する制限のためのビット・レートの下位18ビット(4
00bsp単位で切り上げる)データである。marker_bit
は、スタートコードエミュレーションを防止するために
挿入されるビットデータである。vbv_buffer_size_valu
eは、発生符号量制御用の仮想バッファ(ビデオバッフ
ァベリファイヤー)の大きさを決める値の下位10ビッ
トデータである。constrained_parameter_flagは、各パ
ラメータが制限以内であることを示すデータである。lo
ad_intra_quantizer_matrixは、イントラMB用量子化マ
トリックス・データの存在を示すデータである。intra_
quantizer_matrix[64]は、イントラMB用量子化マトリッ
クスの値を示すデータである。load_non_intra_quantiz
er_matrixは、非イントラMB用量子化マトリックス・デ
ータの存在を示すデータである。non_intra_quantizer_
matrixは、非イントラMB用量子化マトリックスの値を表
すデータである。
[0114] sequence_header_code is data representing a start synchronization code of the sequence layer. horizont
al_size_value is the lower 12 pixels of the number of pixels in the horizontal direction of the image.
This is data consisting of bits. vertical_size_value
Is data consisting of lower 12 bits of the number of vertical lines of the image. aspect_ratio_information is data representing an aspect ratio (aspect ratio) or a display screen aspect ratio of a pixel. frame_rate_code is data representing a display cycle of an image. bit_rate_value is the lower 18 bits (4 bits) of the bit rate for limiting the amount of generated bits.
(Rounded up in 00bsp units). marker_bit
Is bit data inserted to prevent start code emulation. vbv_buffer_size_valu
e is the lower 10-bit data of the value that determines the size of the virtual buffer (video buffer verifier) for controlling the generated code amount. constrained_parameter_flag is data indicating that each parameter is within the limit. lo
ad_intra_quantizer_matrix is data indicating the presence of intra MB quantization matrix data. intra_
quantizer_matrix [64] is data indicating the value of the quantization matrix for intra MB. load_non_intra_quantiz
er_matrix is data indicating the existence of non-intra MB quantization matrix data. non_intra_quantizer_
matrix is data representing the value of the non-intra MB quantization matrix.

【0115】図25はsequence_extension()関数のシン
タックスを説明するための図である。このsequence_ext
ension()関数によって定義されたデータエレメントと
は、extension_start_code、extension_start_code_ide
ntifier、profile_and_level_indication、progressive
_sequence、chroma_format、horizontal_size_extensio
n、vertical_size_extension、bit_rate_extension、vb
v_buffer_size_extension、low_delay、frame_rate_ext
ension_n 、および frame_rate_extension_d等のデータ
エレメントである。
FIG. 25 is a diagram for describing the syntax of the sequence_extension () function. This sequence_ext
The data elements defined by the extension () function are extension_start_code, extension_start_code_ide
ntifier, profile_and_level_indication, progressive
_sequence, chroma_format, horizontal_size_extensio
n, vertical_size_extension, bit_rate_extension, vb
v_buffer_size_extension, low_delay, frame_rate_ext
data elements such as extension_n and frame_rate_extension_d.

【0116】extension_start_codeは、エクステンショ
ンデータのスタート同期コードを表すデータである。ex
tension_start_code_identifierは、どの拡張データが
送られるかを示すデータである。profile_and_level_in
dicationは、ビデオデータのプロファイルとレベルを指
定するためのデータである。progressive_sequenceは、
ビデオデータが順次走査であることを示すデータであ
る。chroma_formatは、ビデオデータの色差フォーマッ
トを指定するためのデータである。horizontal_size_ex
tensionは、シーケンスヘッダのhorizntal_size_value
に加える上位2ビットのデータである。vertical_size_
extensionは、シーケンスヘッダのvertical_size_value
加える上位2ビットのデータである。bit_rate_extensi
onは、シーケンスヘッダのbit_rate_valueに加える上位
12ビットのデータである。vbv_buffer_size_extensio
nは、シーケンスヘッダのvbv_buffer_size_valueに加え
る上位8ビットのデータである。low_delayは、Bピク
チャを含まないことを示すデータである。frame_rate_e
xtension_nは、シーケンスヘッダのframe_rate_codeと
組み合わせてフレームレートを得るためのデータであ
る。frame_rate_extension_dは、シーケンスヘッダのfr
ame_rate_codeと組み合わせてフレームレートを得るた
めのデータである。
The extension_start_code is data representing a start synchronization code of the extension data. ex
tension_start_code_identifier is data indicating which extension data is sent. profile_and_level_in
The dication is data for specifying the profile and level of the video data. progressive_sequence is
This is data indicating that the video data is a progressive scan. chroma_format is data for specifying a color difference format of video data. horizontal_size_ex
tension is horizontal_size_value in the sequence header
Is the upper two bits of data to be added to vertical_size_
extension is the vertical_size_value of the sequence header
Higher 2 bits of data to be added. bit_rate_extensi
on is upper 12 bits of data to be added to bit_rate_value of the sequence header. vbv_buffer_size_extensio
n is upper 8-bit data added to vbv_buffer_size_value of the sequence header. low_delay is data indicating that a B picture is not included. frame_rate_e
xtension_n is data for obtaining a frame rate in combination with frame_rate_code of the sequence header. frame_rate_extension_d is fr of the sequence header
This is data for obtaining the frame rate in combination with ame_rate_code.

【0117】図26は、extension_and_user_data(i)関
数のシンタックスを説明するための図である。このexte
nsion_and_user_data(i)関数は、「i」が1以外のとき
は、extension_data()関数によって定義されるデータエ
レメントは記述せずに、user_data()関数によって定義
されるデータエレメントのみを記述する。よって、exte
nsion_and_user_data(0)関数は、user_data()関数によ
って定義されるデータエレメントのみを記述する。
FIG. 26 is a diagram for explaining the syntax of the extension_and_user_data (i) function. This exte
When “i” is other than 1, the nsion_and_user_data (i) function describes only the data element defined by the user_data () function without describing the data element defined by the extension_data () function. So, exte
The nsion_and_user_data (0) function describes only the data elements defined by the user_data () function.

【0118】まず、図26に示されているシンタックス
において使用されている関数について説明する。nextbi
ts()関数は、ビットストリーム中に現れるビットまたは
ビット列と、次に復号されるデータエレメントとを比較
するための関数である。
First, the functions used in the syntax shown in FIG. 26 will be described. nextbi
The ts () function is a function for comparing a bit or a bit string appearing in a bit stream with a data element to be decoded next.

【0119】user_data()関数は、図27に示すよう
に、user_data_start_code,V-phase()関数,H-phas
e()関数,Time_code()関数,Picture-order()関数,Anc
illary_data()関数,history_data()関数,およびuser_
dataのデータエレメントを記述するための関数である。
As shown in FIG. 27, the user_data () function includes user_data_start_code, V-phase () function, and H-phas
e () function, Time_code () function, Picture-order () function, Anc
illary_data () function, history_data () function, and user_
This is a function for describing the data element of data.

【0120】user_data_start_codeは、MPEG方式のビッ
トストリームのピクチャレイヤのユーザデータエリアの
開始を示すためのスタートコードである。このuser_dat
a_start_codeの次に記述されているif文は、user_data
(i)関数のiが”0”のとき、次に記述されているwhile
構文を実行する。このwhile構文は、ビットストリーム
中に、23個の”0”とそれに続く”1”から構成され
る24ビットのデータが現れない限り真となる。
The user_data_start_code is a start code for indicating the start of the user data area of the picture layer of the MPEG bit stream. This user_dat
The if statement described after a_start_code is user_data
(i) When i of the function is "0", while described in the following
Execute the syntax. This while syntax is true unless 24-bit data composed of 23 "0" s and subsequent "1s" appears in the bit stream.

【0121】この23個の”0”とそれに続く”1”か
ら構成される24ビットのデータは、すべてのスタート
コードの先頭に付与されるデータであって、すべてのス
タートコードは、この24ビットの後ろに設けられるこ
とによって、nextbits()関数は、ビットストリーム中に
おいて、各スタートコードの位置を見つけることができ
る。
The 24-bit data consisting of the 23 "0" s and the following "1" is data added to the head of all the start codes. , The nextbits () function can find the position of each start code in the bit stream.

【0122】while構文が真のとき、その次に記述され
ているif文のnextbits()関数は、V-Phaseを示すビット
列(Data_ID)を検出すると、そのビット列(Data_ID)
の次ビットからV-Phase()関数で示されるV-Phaseのデー
タエレメントが記述されていることを知る。次のElse i
f文のnextbits()関数は、H-Phaseを示すビット列(Data
_ID)を検出すると、そのビット列(Data_ID)の次ビッ
トからH-Phase()関数で示されるH-Phaseのデータエレメ
ントが記述されていることを知る。
When the while syntax is true, the nextbits () function of the if statement described next detects the bit string (Data_ID) indicating the V-Phase, and then detects the bit string (Data_ID).
From the next bit of, it is known that the data element of the V-Phase indicated by the V-Phase () function is described. Next Else i
The nextbits () function of the f statement uses a bit string (Data
_ID), it is known that the H-Phase data element indicated by the H-Phase () function is described from the next bit of the bit string (Data_ID).

【0123】ここで、図28に示すように、V-PhaseのD
ata_IDは、”01”を表すビット列であり、H-PhaseのD
ata_IDは、”02”を表すビット列である。
Here, as shown in FIG. 28, D-Phase D
ata_ID is a bit string representing “01”, and D of H-Phase
ata_ID is a bit string representing “02”.

【0124】ビットストリームに記述されるV-Phase()
関数のシンタックスについて、図29を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがV-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
1”である。V-Phaseは、画像信号のフレームにおい
て、符号化される最初のラインを示す16ビットのデー
タである。
V-Phase () described in bit stream
The syntax of the function will be described with reference to FIG. First, as described above, Data_ID is 8-bit data indicating that the data element of the bit string following the Data_ID is a V-Phase, and has the value “0” shown in FIG.
1 ". V-Phase is 16-bit data indicating the first line to be encoded in a frame of an image signal.

【0125】ビットストリームに記述されるH-Phase()
関数のシンタックスについて、図30を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがH-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
2”である。H-Phaseは、画像信号フレームにおいて、
符号化される最初のサンプルを示す8ビットのデータで
ある。
H-Phase () described in bit stream
The syntax of the function will be described with reference to FIG. First, as described above, Data_ID is 8-bit data indicating that the data element of the bit string following the Data_ID is H-Phase, and has the value “0” shown in FIG.
H "is 2". The H-Phase is
This is 8-bit data indicating the first sample to be encoded.

【0126】図27に戻って、次のElse if文は、user_
data(i)関数のiが2のとき、次に記述されているwhile
構文を実行する。while構文の内容は前述した場合と同
様であるので、ここではその説明を省略する。
Returning to FIG. 27, the next Else if statement is
When i of the data (i) function is 2, while described in the following
Execute the syntax. Since the contents of the while syntax are the same as those described above, the description is omitted here.

【0127】while構文が真のとき、次のif文におい
て、nextbits()関数は、Time code1を示すビット列を検
出するか、または、Time code2を示すビット列を検出
すると、そのビット列の次ビットからTime_code()関数
で示されるTime codeのデータエレメントが記述されて
いることを知る。
When the while syntax is true, in the next if statement, the nextbits () function detects a bit string indicating Time code 1 or detects a bit string indicating Time code 2, and returns the Time_code from the next bit of the bit string. It is known that the data element of the time code indicated by the function () is described.

【0128】Time code1のData_IDは、図28に示すよ
うに、”03”を表すビット列であり、Time code1のデ
ータは、画像の垂直ブランキング期間に挿入されたタイ
ムコードを示す、VITC(Vertical Interval Time Cod
e)である。Time code2のData_IDは、図28に示すよ
うに、”04”を表すビット列であり、Time code2の
データは、記録媒体のタイムコードトラックに記録され
たタイムコードを示す、LTC(Longitudinal Time Cod
e)である。
As shown in FIG. 28, Data_ID of Time code 1 is a bit string representing “03”, and data of Time code 1 is VITC (Vertical Interval) indicating a time code inserted in the vertical blanking period of an image. Tim Cod
e). As shown in FIG. 28, Data_ID of Time code 2 is a bit string representing “04”, and the data of Time code 2 is LTC (Longitudinal Time Cod) indicating the time code recorded on the time code track of the recording medium.
e).

【0129】次に、Else if文において、nextbits()関
数は、Picture Orderを示すビット列を検出すると、そ
のビット列の次ビットからPicture_Order()関数で示さ
れるPicture Orderのデータエレメントが記述されてい
ることを知る。ここで、Picture_Order()関数のData_ID
は、図28に示すように、”05”を表すビット列であ
る。
Next, in the Else if statement, when the nextbits () function detects a bit string indicating a Picture Order, the picture element of the Picture Order indicated by the Picture_Order () function is described from the next bit of the bit string. Know. Where Data_ID of Picture_Order () function
Is a bit string representing "05" as shown in FIG.

【0130】実際に、エンコーダでエレメンタリストリ
ーム(ES)に挿入するPicture_Order()関数のシンタッ
クスを、図31を参照して説明する。まず、Data_IDは
前述したように、そのData_ID以降のデータがPOIのデー
タであることを示す8ビットのデータであり、その値
は”05”である。DTS_presenceは、符号化順序DTS_co
unterの有無を表す1ビットのデータである。例えば、
BピクチャのようにDTS_counter=PTS_counterとなる場
合、表示順序PTS_counterのみが存在し、DTS_presence
のビットは”0”となる。逆に、PピクチャおよびIピ
クチャの場合、符号化順序DTS_counterと表示順序PTS_c
ounterは同一ではないので、表示順序PTS_counterと符
号化順序DTS_counterの双方が存在し、DTS_presenceの
ビットは1となる。
Referring to FIG. 31, the syntax of the Picture_Order () function actually inserted into the elementary stream (ES) by the encoder will be described. First, as described above, Data_ID is 8-bit data indicating that data subsequent to Data_ID is POI data, and its value is “05”. DTS_presence is the coding order DTS_co
This is 1-bit data indicating the presence or absence of an unter. For example,
When DTS_counter = PTS_counter as in a B picture, only the display order PTS_counter exists, and DTS_presence
Is "0". Conversely, in the case of a P picture and an I picture, the coding order DTS_counter and the display order PTS_c
Since the ounters are not the same, both the display order PTS_counter and the encoding order DTS_counter exist, and the bit of DTS_presence is 1.

【0131】PTS_counterは、エンコーダに符号化フレ
ーム中の1フィールドが入力されるごとにカウントアッ
プを行う、表示順序を表す7ビットのデータである。こ
の7ビットのデータは、0から127までの値をとるモ
ジュロである。if文以降は、DTS_presenceのビットが1
のとき、すなわち、PピクチャおよびIピクチャのと
き、DTS_counterのカウントアップが実行される。
[0131] PTS_counter is 7-bit data indicating the display order, which counts up each time one field in the encoded frame is input to the encoder. The 7-bit data is modulo having a value from 0 to 127. After the if statement, the bit of DTS_presence is 1
, That is, for a P picture and an I picture, the DTS_counter counts up.

【0132】Marker_bitsは、user dataの記述されたビ
ット列が、偶然に前述したスタートコードと一致し、画
像破錠を引き起こす可能正が高い、スタートコードエミ
ュレーションを防止するために、16ビットごとに挿入
されるビットである。
Marker_bits is inserted every 16 bits in order to prevent a start code emulation in which a bit string in which user data is described coincides with the start code described above by chance and has a high possibility of causing image unlocking. Bit.

【0133】DTS_counterは、エンコーダで、1フィー
ルド分の符号化画像データが符号化されるごとにカウン
トアップを行う、符号化順序を表す7ビットのデータで
ある。この7ビットのデータは、0から127までの値
をとるモジュロである。
[0133] DTS_counter is 7-bit data indicating the encoding order, in which the encoder counts up each time encoded image data for one field is encoded. The 7-bit data is modulo having a value from 0 to 127.

【0134】前述したように、表示順序PTS_counter
は、フィールド単位で付番されるために、例えば、符号
化画像データを24Hzから30Hzのフレームレートに変
換して符号化する場合、3−2プルダウン処理を行った
後に、付番する必要がある。
As described above, the display order PTS_counter
Are assigned in units of fields. For example, in the case where encoded image data is converted from a frame rate of 24 Hz to a frame rate of 30 Hz and encoded, it is necessary to perform numbering after performing a 3-2 pull-down process. .

【0135】図27に戻って、その次に記述されている
while構文も、内容は前述した場合と同様であるので、
ここではその説明を省略する。while構文が真のとき、
次のif文において、nextbits()関数は、Ancillary data
を示すビット列を検出すると、そのビット列の次ビット
からAncillary_data()関数で示されるAncillary dataの
データエレメントが記述されていることを知る。Ancill
ary_data()関数のData_IDは、図28に示すように、”
07”を表すビット列である。
Returning to FIG. 27, the following description
The content of the while syntax is the same as that described above, so
Here, the description is omitted. When the while syntax is true,
In the following if statement, the nextbits () function
Is detected, it is known that the data element of the Ancillary data indicated by the Ancillary_data () function is described from the next bit of the bit string. Ancill
The Data_ID of the ary_data () function is, as shown in FIG.
07 ″.

【0136】この補助データに識別子を付加するancill
ary dataのシンタックスを図32を参照して説明する。
Ancillary_data()関数はピクチャ層のuser dataとして
伝送され、データとしてはField識別子(Field_ID)、
ラインの番号(Line_number)および補如データ(ancil
lary data)が挿入される。
Ancillary which adds an identifier to this auxiliary data
The syntax of the ary data will be described with reference to FIG.
The Ancillary_data () function is transmitted as user data in the picture layer, and the data includes a field identifier (Field_ID),
Line number (Line_number) and supplementary data (ancil
lary data) is inserted.

【0137】Data_IDは、user data領域において、anci
llary dataであることを示す8ビットのデータであり、
その値は図28に示したように”07”である。
Data_ID is anci in the user data area.
8-bit data indicating llary data,
The value is "07" as shown in FIG.

【0138】Field_IDは2ビットのデータであり、prog
ressive_sequence flag(図25)の値が”0”のと
き、符号化フレーム内のフィールドごとにField_IDが付
加される。repeat_first_fieldに”0”が設定されてい
るとき、この符号化フレームにはフィールドが2枚存在
し、Field_IDは、図19に示したように、最初のフィー
ルドに”0”、およびその次のフィールドに”1”が設
定され、repeat_first_fieldに”1”が設定されている
とき、この符号化フレームにはフィールドが3枚存在
し、Field_IDとしては、最初のフィールドに”0”が設
定され、それ以降のフィールドに”1”,”2”が設定
される。
Field_ID is 2-bit data.
When the value of the ressive_sequence flag (FIG. 25) is “0”, a Field_ID is added to each field in the encoded frame. When “0” is set in the repeat_first_field, there are two fields in this encoded frame, and the Field_ID is “0” in the first field and “0” in the next field as shown in FIG. When “1” is set and “1” is set in repeat_first_field, there are three fields in this encoded frame, and as the Field_ID, “0” is set in the first field and subsequent fields are set. "1" and "2" are set in the fields.

【0139】Field_IDは、progressive_sequence flag
の値が”1”のとき、符号化フレームごとに付加され
る。Field_IDには、repeat_first_fieldとTop_field_fi
rstにともに”0”が設定されているとき、その符号化
フレームは1枚のprogressiveframeが存在するので、
値”0”が設定され、repeat_first_fieldに値”1”お
よびTop_field_firstに値”0”が設定されていると
き、その符号化フレームは2枚のprogressive frameが
存在するので、値”0”,”1”が設定され、repeat_f
irst_fieldとTop_field_firstにともに”1”が設定さ
れているとき、その符号化フレームは3枚のprogressiv
e frameが存在するので、値”0”乃至”2”が設定さ
れる。
Field_ID is a progressive_sequence flag
Is "1", it is added for each encoded frame. Field_ID includes repeat_first_field and Top_field_fi
When both “rst” are set to “0”, the encoded frame has one progressive frame.
When the value “0” is set, the value “1” is set in the repeat_first_field, and the value “0” is set in the Top_field_first, the encoded frames include two progressive frames, so the values “0”, “1” Is set and repeat_f
When “1” is set to both irst_field and Top_field_first, the encoded frame is composed of three progressiv
Since an e frame exists, values “0” to “2” are set.

【0140】Line_numberは、14ビットのデータであ
り、各フレームにおける補助データが記述されている、
ITU-R BT.656-3,SMPTE274M,SMPTE293M,SMPTE296Mで規定
されたライン番号を示す。
Line_number is 14-bit data, in which auxiliary data in each frame is described.
Indicates the line number specified by ITU-R BT.656-3, SMPTE274M, SMPTE293M, SMPTE296M.

【0141】Ancillary_data_lengthは、16ビットの
データであり、ancillary_data_payloadのデータ長を示
す。Ancillary_data_payloadは、22ビットのデータか
らなる補助データの内容を表しており、Ancillary_data
_payloadのAncillary_data_lengthの値がjの値(初期
値0)より大きいとき、値j(Ancillary_data_length
のデータ長)を1だけインクリメントして、そのjの値
のビット列目から記述される。
Ancillary_data_length is 16-bit data and indicates the data length of ancillary_data_payload. Ancillary_data_payload represents the contents of auxiliary data composed of 22-bit data.
When the value of Ancillary_data_length of _payload is larger than the value of j (initial value 0), the value j (Ancillary_data_length
Is incremented by 1 and described from the bit string of the value of j.

【0142】次のWhile構文は、bytealigned()関数のた
めのシンタックスを表しており、次のデータがbytealig
ned()関数でないとき(While構文が真のとき)、Zero_b
it(1ビットのデータ”0”)を記述する。
The following While syntax indicates the syntax for the bytealigned () function, and the next data is bytealig
Zero_b if not a ned () function (when While syntax is true)
Describe it (1-bit data "0").

【0143】図27に戻って、次のElse if文におい
て、nextbits()関数は、History dataを示すビット列を
検出すると、そのビット列の次ビットからHistory_data
()関数で示されるHistory dataのデータエレメントが
記述されていることを知る。History_data()関数のDa
ta_IDは、図28に示すように、”08”を表すビット
列であり、Data_IDが”08”で示されるデータは、符
号化パラメータの履歴情報を含むHistory dataを表して
いる。
Returning to FIG. 27, in the next Else if statement, when the nextbits () function detects a bit string indicating History data,
() Know that the data element of History data indicated by the function is described. History_data () function Da
As shown in FIG. 28, ta_ID is a bit string representing “08”, and data represented by Data_ID “08” represents History data including history information of the encoding parameter.

【0144】最後のif文において、nextbits()関数は、
user dataを示すビット列を検出すると、そのビット列
の次ビットからuser_data()関数で示されるuser_dataの
データエレメントが記述されていることを知る。
In the last if statement, the nextbits () function is
When a bit string indicating user data is detected, it is known from the next bit of the bit string that a data element of user_data indicated by the user_data () function is described.

【0145】図27のnextbits()関数が、それぞれのデ
ータエレメントが記述されていることを知るビット列
は、図28に示すData_IDとして記述されている。ただ
し、Data_IDとして”00”を使用することは禁止され
ている。Data_IDが”80”で示されるデータは、制御
フラグを表しており、Data_IDが”FF”で示されるデ
ータは、user dataを表している。
The bit string by which the nextbits () function in FIG. 27 knows that each data element is described is described as Data_ID shown in FIG. However, use of “00” as Data_ID is prohibited. Data indicated by Data_ID “80” indicates a control flag, and data indicated by Data_ID “FF” indicates user data.

【0146】図33は、group_of_picture_header()関
数のシンタックスを説明するための図である。このgrou
p_of_picture_header()関数によって定義されたデータ
エレメントは、group_start_code、time_code、closed_
gop、およびbroken_linkから構成される。
FIG. 33 is a view for explaining the syntax of the group_of_picture_header () function. This grou
The data elements defined by the p_of_picture_header () function are group_start_code, time_code, closed_
It consists of gop and broken_link.

【0147】group_start_codeは、GOPレイヤの開始同
期コードを示すデータである。time_codeは、GOPの先頭
ピクチャのシーケンスの先頭からの時間を示すタイムコ
ードである。closed_gopは、GOP内の画像が他のGOPから
独立再生可能なことを示すフラグデータである。broken
_linkは、編集などのためにGOP内の先頭のBピクチャが
正確に再生できないことを示すフラグデータである。
[0147] group_start_code is data indicating the start synchronization code of the GOP layer. time_code is a time code indicating the time from the beginning of the sequence of the first picture of the GOP. closed_gop is flag data indicating that an image in a GOP can be reproduced independently from another GOP. broken
_link is flag data indicating that the first B picture in the GOP cannot be accurately reproduced for editing or the like.

【0148】extension_and_user_data(1)関数は、 ext
ension_and_user_data(0)関数と同じように、user_data
()関数によって定義されるデータエレメントのみを記述
するための関数である。
The extension_and_user_data (1) function is ext
As in the case of the extension_and_user_data (0) function, user_data
This function describes only the data element defined by the () function.

【0149】次に、図34乃至図36を参照して、符号
化ストリームのピクチャレイヤに関するデータエレメン
トを記述するためのpicture_headr()関数、picture_cod
ing_extension()関数、およびpicture_data()について
説明する。
Next, referring to FIGS. 34 and 36, a picture_headr () function for describing a data element relating to a picture layer of an encoded stream, picture_cod
The ing_extension () function and picture_data () will be described.

【0150】図34はpicture_headr()関数のシンタッ
クスを説明するための図である。このpicture_headr()
関数によって定義されたデータエレメントは、picture_
start_code、temporal_reference、picture_coding_typ
e、vbv_delay、full_pel_forward_vector、forward_f_c
ode、full_pel_backward_vector、backward_f_code、ex
tra_bit_picture、およびextra_information_pictureで
ある。
FIG. 34 is a view for explaining the syntax of the picture_headr () function. This picture_headr ()
The data element defined by the function is picture_
start_code, temporal_reference, picture_coding_typ
e, vbv_delay, full_pel_forward_vector, forward_f_c
ode, full_pel_backward_vector, backward_f_code, ex
tra_bit_picture and extra_information_picture.

【0151】具体的には、picture_start_codeは、ピク
チャレイヤの開始同期コードを表すデータである。temp
oral_referenceは、ピクチャの表示順を示す番号で、GO
Pの先頭でリセットされるデータである。picture_codin
g_typeは、ピクチャタイプを示すデータである。
[0151] Specifically, picture_start_code is data representing the start synchronization code of the picture layer. temp
oral_reference is a number indicating the display order of pictures,
This data is reset at the beginning of P. picture_codin
g_type is data indicating a picture type.

【0152】vbv_delayは、VBVバッファの初期状態を示
すデータであって、各ピクチャ毎に設定されている。送
信側システムから受信側システムに伝送された符号化エ
レメンタリストリームのピクチャは、受信側システムに
設けられたVBVバッファにバッファリングされ、DTS
(Decoding Time Stamp)によって指定された時刻に、
このVBVバッファから引き出され(読み出され)、デコ
ーダに供給される。vbv_delayによって定義される時間
は、復号化対象のピクチャがVBVバッファにバッファリ
ングされ始めてから、符号化対象のピクチャがVBVバッ
ファから引き出されるまでの時間、つまりDTSによって
指定された時刻までの時間を意味する。このピクチャヘ
ッダに格納されたvbv_delayを使用することによって、V
BVバッファのデータ占有量が不連続にならないシームレ
スなスプライシングが実現できる。
Vbv_delay is data indicating the initial state of the VBV buffer, and is set for each picture. The picture of the coded elementary stream transmitted from the transmitting side system to the receiving side system is buffered in a VBV buffer provided in the receiving side system, and DTS
(Decoding Time Stamp)
It is drawn (read) from this VBV buffer and supplied to the decoder. The time defined by vbv_delay means the time from when the picture to be decoded starts to be buffered in the VBV buffer until the picture to be coded is extracted from the VBV buffer, that is, the time specified by DTS. I do. By using vbv_delay stored in this picture header, V
Seamless splicing can be realized in which the data occupancy of the BV buffer does not become discontinuous.

【0153】full_pel_forward_vectorは、順方向動き
ベクトルの精度が整数単位か半画素単位かを示すデータ
である。forward_f_codeは、順方向動きベクトル探索範
囲を表すデータである。full_pel_backward_vectorは、
逆方向動きベクトルの精度が整数単位か半画素単位かを
示すデータである。backward_f_codeは、逆方向動きベ
クトル探索範囲を表すデータである。extra_bit_pictur
eは、後続する追加情報の存在を示すフラグである。こ
のextra_bit_pictureが「1」の場合には、次にextra_i
nformation_pictureが存在し、extra_bit_pictureが
「0」の場合には、これに続くデータが無いことを示し
ている。extra_information_pictureは、規格において
予約された情報である。
[0153] full_pel_forward_vector is data indicating whether the accuracy of the forward motion vector is an integer unit or a half pixel unit. forward_f_code is data representing a forward motion vector search range. full_pel_backward_vector is
This data indicates whether the accuracy of the backward motion vector is an integer unit or a half pixel unit. backward_f_code is data representing a backward motion vector search range. extra_bit_pictur
e is a flag indicating the presence of the following additional information. If this extra_bit_picture is "1", then extra_i
If nformation_picture exists and extra_bit_picture is “0”, it indicates that there is no data following it. extra_information_picture is information reserved in the standard.

【0154】図35は、picture_coding_extension()関
数のシンタックスを説明するための図である。このpict
ure_coding_extension()関数によって定義されたデータ
エレメントは、extension_start_code、extension_star
t_code_identifier、f_code[0][0]、f_code[0][1]、f_c
ode[1][0]、f_code[1][1]、intra_dc_precision、pictu
re_structure、top_field_first、frame_predictive_fr
ame_dct、concealment_motion_vectors、q_scale_typ
e、intra_vlc_format、alternate_scan、repeat_first_
field、chroma_420_type、progressive_frame、composi
te_display_flag、v_axis、field_sequence、sub_carri
er、burst_amplitude、およびsub_carrier_phaseから構
成される。
FIG. 35 is a diagram for describing the syntax of the picture_coding_extension () function. This pict
The data elements defined by the ure_coding_extension () function are extension_start_code, extension_star
t_code_identifier, f_code [0] [0], f_code [0] [1], f_c
ode [1] [0], f_code [1] [1], intra_dc_precision, pictu
re_structure, top_field_first, frame_predictive_fr
ame_dct, concealment_motion_vectors, q_scale_typ
e, intra_vlc_format, alternate_scan, repeat_first_
field, chroma_420_type, progressive_frame, composi
te_display_flag, v_axis, field_sequence, sub_carri
er, burst_amplitude, and sub_carrier_phase.

【0155】extension_start_codeは、ピクチャレイヤ
のエクステンションデータのスタートを示す開始コード
である。extension_start_code_identifierは、どの拡
張データが送られるかを示すコードである。f_code[0]
[0]は、フォアード方向の水平動きベクトル探索範囲を
表すデータである。f_code[0][1]は、フォアード方向の
垂直動きベクトル探索範囲を表すデータである。f_code
[1][0]は、バックワード方向の水平動きベクトル探索範
囲を表すデータである。f_code[1][1]は、バックワード
方向の垂直動きベクトル探索範囲を表すデータである。
intra_dc_precisionは、DC係数の精度を表すデータであ
る。picture_structureは、フレームストラクチャかフ
ィールドストラクチャかを示すデータである。これは、
フィールドストラクチャの場合は、上位フィールドか下
位フィールドかもあわせて示す。
[0155] extension_start_code is a start code indicating the start of extension data of the picture layer. extension_start_code_identifier is a code indicating which extension data is sent. f_code [0]
[0] is data representing the horizontal motion vector search range in the forward direction. f_code [0] [1] is data representing a vertical motion vector search range in the forward direction. f_code
[1] and [0] are data representing the horizontal motion vector search range in the backward direction. f_code [1] [1] is data representing the vertical motion vector search range in the backward direction.
intra_dc_precision is data representing the accuracy of the DC coefficient. picture_structure is data indicating a frame structure or a field structure. this is,
In the case of a field structure, the upper field or the lower field is also indicated.

【0156】top_field_firstは、フレームストラクチ
ャの場合、最初のフィールドがトップフィールドである
のか、ボトムフィールドであるのかを示すフラグであ
る。frame_predictive_frame_dctは、フレーム・ストラ
クチャの場合、フレーム・モードDCTの予測がフレーム
・モードだけであることを示すデータである。concealm
ent_motion_vectorsは、イントラマクロブロックに伝送
エラーを隠蔽するための動きベクトルがついていること
を示すデータである。q_scale_typeは、線形量子化スケ
ールを利用するか、非線形量子化スケールを利用するか
を示すデータである。intra_vlc_formatは、イントラマ
クロブロックに、別の2次元VLC(可変長符号)を使う
かどうかを示すデータである。alternate_scanは、ジグ
ザグスキャンを使うか、オルタネート・スキャンを使う
かの選択を表すデータである。
In the case of a frame structure, top_field_first is a flag indicating whether the first field is a top field or a bottom field. In the case of a frame structure, frame_predictive_frame_dct is data indicating that the prediction of the frame mode DCT is only the frame mode. concealm
ent_motion_vectors is data indicating that a motion vector for concealing a transmission error is attached to an intra macroblock. q_scale_type is data indicating whether to use a linear quantization scale or a non-linear quantization scale. intra_vlc_format is data indicating whether another two-dimensional VLC (variable length code) is used for an intra macroblock. “alternate_scan” is data representing a choice between using a zigzag scan or an alternate scan.

【0157】repeat_first_fieldは、復号化時にリピー
トフィールドを生成するか否かを示すフラグであって、
復号化時の処理において、repeat_first_field が
「1」の場合にはリピートフィールドを生成し、repeat
_first_fieldが「0」の場合にはリピートフィールドを
生成しないという処理が行われる。
Repeat_first_field is a flag indicating whether or not to generate a repeat field at the time of decoding.
In the decoding process, if repeat_first_field is “1”, a repeat field is generated and repeat
When _first_field is “0”, a process is performed in which a repeat field is not generated.

【0158】chroma_420_typeは、信号フォーマットが
4:2:0の場合、次のprogressive_frame と同じ値、
そうでない場合は0を表すデータである。progressive_
frameは、そのピクチャが、順次走査できているかどう
かを示すデータである。composite_display_flagは、ソ
ース信号がコンポジット信号であったかどうかを示すデ
ータである。v_axisは、ソース信号が、PALの場合に使
われるデータである。field_sequenceは、ソース信号
が、PALの場合に使われるデータである。sub_carrier
は、ソース信号が、PALの場合に使われるデータであ
る。burst_amplitudeは、ソース信号が、PALの場合に使
われるデータである。sub_carrier_phaseは、ソース信
号が、PALの場合に使われるデータである。
Chroma_420_type has the same value as the following progressive_frame when the signal format is 4: 2: 0,
Otherwise, it is data representing 0. progressive_
The frame is data indicating whether the picture has been sequentially scanned. composite_display_flag is data indicating whether the source signal is a composite signal. v_axis is data used when the source signal is PAL. field_sequence is data used when the source signal is PAL. sub_carrier
Is data used when the source signal is PAL. burst_amplitude is data used when the source signal is PAL. sub_carrier_phase is data used when the source signal is PAL.

【0159】図36は、picture_data()関数のシンタッ
クスを説明するための図である。このpicture_data()関
数によって定義されるデータエレメントは、slice()関
数によって定義されるデータエレメントである。但し、
ビットストリーム中に、slice()関数のスタートコード
を示すslice_start_codeが存在しない場合には、このsl
ice()関数によって定義されるデータエレメントはビッ
トストリーム中に記述されていない。
FIG. 36 is a diagram for explaining the syntax of the picture_data () function. The data element defined by the picture_data () function is a data element defined by the slice () function. However,
If slice_start_code indicating the start code of the slice () function does not exist in the bit stream,
The data elements defined by the ice () function are not described in the bitstream.

【0160】slice()関数は、スライスレイヤに関する
データエレメントを記述するための関数であって、具体
的には、slice_start_code、slice_quantiser_scale_co
de、intra_slice_flag、intra_slice、reserved_bits、
extra_bit_slice、extra_information_slice、およびex
tra_bit_slice 等のデータエレメントと、macroblock()
関数によって定義されるデータエレメントを記述するた
めの関数である。
[0160] The slice () function is a function for describing a data element relating to a slice layer. Specifically, the slice () function is slice_start_code, slice_quantiser_scale_co.
de, intra_slice_flag, intra_slice, reserved_bits,
extra_bit_slice, extra_information_slice, and ex
data elements such as tra_bit_slice and macroblock ()
A function for describing a data element defined by a function.

【0161】slice_start_codeは、slice()関数によっ
て定義されるデータエレメントのスタートを示すスター
トコードである。slice_quantiser_scale_codeは、この
スライスレイヤに存在するマクロブロックに対して設定
された量子化ステップサイズを示すデータである。しか
し、各マクロブロック毎に、quantiser_scale_codeが設
定されている場合には、各マクロブロックに対して設定
されたmacroblock_quantiser_scale_codeのデータが優
先して使用される。intra_slice_flagは、ビットストリ
ーム中にintra_sliceおよびreserved_bitsが存在するか
否かを示すフラグである。intra_sliceは、スライスレ
イヤ中にノンイントラマクロブロックが存在するか否か
を示すデータである。スライスレイヤにおけるマクロブ
ロックのいずれかがノンイントラマクロブロックである
場合には、intra_sliceは「0」となり、スライスレイ
ヤにおけるマクロブロックの全てがノンイントラマクロ
ブロックである場合には、intra_sliceは「1」とな
る。reserved_bitsは、7ビットのデータであって
「0」の値を取る。extra_bit_sliceは、符号化ストリ
ームとして追加の情報が存在することを示すフラグであ
って、次にextra_information_sliceが存在する場合に
は「1」に設定される。追加の情報が存在しない場合に
は「0」に設定される。
[0161] slice_start_code is a start code indicating the start of a data element defined by the slice () function. slice_quantiser_scale_code is data indicating a quantization step size set for a macroblock existing in this slice layer. However, when quantizer_scale_code is set for each macroblock, the macroblock_quantiser_scale_code data set for each macroblock is used with priority. intra_slice_flag is a flag indicating whether intra_slice and reserved_bits are present in the bit stream. intra_slice is data indicating whether or not a non-intra macroblock exists in the slice layer. When any of the macroblocks in the slice layer is a non-intra macroblock, intra_slice is “0”, and when all of the macroblocks in the slice layer are non-intra macroblocks, intra_slice is “1”. Become. reserved_bits is 7-bit data and takes a value of “0”. extra_bit_slice is a flag indicating that additional information exists as a coded stream, and is set to “1” when extra_information_slice exists next. If there is no additional information, it is set to “0”.

【0162】macroblock()関数は、マクロブロックレイ
ヤに関するデータエレメントを記述するための関数であ
って、具体的には、macroblock_escape、macroblock_ad
dress_increment、およびmacroblock_quantiser_scale_
code等のデータエレメントと、macroblock_modes()関
数、および macroblock_vecters(s)関数によって定義さ
れたデータエレメントを記述するための関数である。
The macroblock () function is a function for describing a data element relating to a macroblock layer, and specifically, macroblock_escape, macroblock_ad
dress_increment, and macroblock_quantiser_scale_
This is a function for describing a data element such as code, and a data element defined by a macroblock_modes () function and a macroblock_vecters (s) function.

【0163】macroblock_escapeは、参照マクロブロッ
クと前のマクロブロックとの水平方向の差が34以上で
あるか否かを示す固定ビット列である。参照マクロブロ
ックと前のマクロブロックとの水平方向の差が34以上
の場合には、macroblock_address_incrementの値に33
をプラスする。macroblock_address_incrementは、参照
マクロブロックと前のマクロブロックとの水平方向の差
を示すデータである。もし、このmacroblock_address_i
ncrementの前にmacroblock_escapeが1つ存在するので
あれば、このmacroblock_address_incrementの値に33
をプラスした値が、実際の参照マクロブロックと前のマ
クロブロックとの水平方向の差分を示すデータとなる。
macroblock_quantiser_scale_codeは、各マクロブロッ
ク毎に設定された量子化ステップサイズである。各スラ
イスレイヤには、スライスレイヤの量子化ステップサイ
ズを示すslice_quantiser_scale_codeが設定されている
が、参照マクロブロックに対してmacroblock_quantiser
_scale_codeが設定されている場合には、この量子化ス
テップサイズを選択する。
Macroblock_escape is a fixed bit string indicating whether or not the horizontal difference between the reference macroblock and the previous macroblock is 34 or more. If the horizontal difference between the reference macroblock and the previous macroblock is 34 or more, the macroblock_address_increment value is set to 33.
Plus macroblock_address_increment is data indicating a horizontal difference between the reference macroblock and the previous macroblock. If this macroblock_address_i
If there is one macroblock_escape before ncrement, the value of this macroblock_address_increment is 33
Is the data indicating the horizontal difference between the actual reference macroblock and the previous macroblock.
macroblock_quantiser_scale_code is a quantization step size set for each macroblock. In each slice layer, slice_quantiser_scale_code indicating the quantization step size of the slice layer is set, but the macroblock_quantiser
If _scale_code is set, this quantization step size is selected.

【0164】図37は、MPEG符号化ストリームのデータ
構造を示す説明図である。この図に示したように、ビデ
オエレメンタリストリームのデータ構造は、少なくとも
シーケンスレイヤ、GOPレイヤ、およびピクチャレイヤ
を含んでいる。
FIG. 37 is an explanatory diagram showing the data structure of an MPEG encoded stream. As shown in this figure, the data structure of the video elementary stream includes at least a sequence layer, a GOP layer, and a picture layer.

【0165】シーケンスレイヤは、next_start_code()
関数201、sequence_header()関数202、extension
_start_code()203、sequence_extension()関数20
4、extension_and_user_data(0)関数205によって定
義されるデータエレメントから構成されている。GOPレ
イヤは、group_start_code206、group_of_picture_h
eader()関数207、extension_and_user_data(1)関数
208によって定義されるデータエレメントから構成さ
れている。ピクチャレイヤは、picture_header()関数2
09、picture_coding_extension()関数210、extens
ion_and_user_data(2)関数211、picture_data()関数
212によって定義されるデータエレメントを含んでい
る。ビデオシーケンスの最後には、sequence_end_code
213が記述されている。
The sequence layer is next_start_code ()
Function 201, sequence_header () function 202, extension
_start_code () 203, sequence_extension () function 20
4. It is composed of data elements defined by the extension_and_user_data (0) function 205. GOP layer is group_start_code206, group_of_picture_h
It is composed of data elements defined by an eader () function 207 and an extension_and_user_data (1) function 208. The picture layer is a picture_header () function 2
09, picture_coding_extension () function 210, extens
It includes data elements defined by an ion_and_user_data (2) function 211 and a picture_data () function 212. At the end of the video sequence, sequence_end_code
213 are described.

【0166】extension_and_user_data(2)関数211
は、既に図26において説明したシンタックスからも理
解できるように、user_data_start_code214、user_d
ata()関数215、next_start_code216によって定義
されるデータエレメントを含んでいる。
Extension_and_user_data (2) function 211
Are user_data_start_code 214 and user_d, as can be understood from the syntax already described in FIG.
It contains data elements defined by the ata () function 215 and next_start_code 216.

【0167】user_data()関数215は、既に図27に
おいて説明したシンタックスからも理解できるように、
time_code()関数217とuser_data218によって定義
されるデータエレメントを含んでいる。
As can be understood from the syntax already described in FIG. 27, the user_data () function 215
It contains data elements defined by the time_code () function 217 and user_data 218.

【0168】なお、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものとす
る。
In this specification, the system is defined as
It is assumed that the device as a whole is constituted by a plurality of devices.

【0169】また、本明細書中において、上記処理を実
行するコンピュータプログラムをユーザに提供する提供
媒体には、磁気ディスク、CD-ROMなどの情報記録媒体の
他、インターネット、デジタル衛星などのネットワーク
による伝送媒体も含まれる。
[0169] In the present specification, a providing medium for providing a user with a computer program for executing the above processing includes an information recording medium such as a magnetic disk and a CD-ROM, and a network such as the Internet and a digital satellite. Transmission media is also included.

【0170】[0170]

【発明の効果】以上のように、請求項1に記載のデジタ
ル信号伝送装置、請求項4に記載のデジタル信号伝送方
法、および請求項5に記載の提供媒体によれば、画像信
号の符号化範囲を示す範囲情報をビットストリームに挿
入するようにしたので、デジタル信号伝送装置より後段
のデジタル信号受信装置に、複数の異なる方式で符号化
されたビットストリームを、正しく復号することが可能
な情報を伝送することができる。
As described above, according to the digital signal transmission device according to the first aspect, the digital signal transmission method according to the fourth aspect, and the providing medium according to the fifth aspect, encoding of an image signal is performed. Since the range information indicating the range is inserted into the bit stream, the bit stream coded by a plurality of different methods can be correctly decoded by the digital signal receiving apparatus subsequent to the digital signal transmitting apparatus. Can be transmitted.

【0171】請求項6に記載のデジタル信号受信装置、
請求項7に記載のデジタル信号受信方法、および請求項
8に記載の提供媒体によれば、ビットストリームに挿入
されている範囲情報を解釈するようにしたので、複数の
異なる方式で符号化されたビットストリームを、正しい
位相で復号することができる。
The digital signal receiving device according to claim 6,
According to the digital signal receiving method described in claim 7 and the providing medium described in claim 8, since the range information inserted in the bit stream is interpreted, the digital signal is encoded by a plurality of different methods. The bit stream can be decoded with the correct phase.

【図面の簡単な説明】[Brief description of the drawings]

【図1】Coding Phaseを説明する図である。FIG. 1 is a diagram illustrating a coding phase.

【図2】補助データを説明する図である。FIG. 2 is a diagram illustrating auxiliary data.

【図3】エレメンタリストリームを伝送するシステムの
構成を示す図である。
FIG. 3 is a diagram showing a configuration of a system for transmitting an elementary stream.

【図4】補助データを伝送するシステムの構成を示す図
である。
FIG. 4 is a diagram showing a configuration of a system for transmitting auxiliary data.

【図5】MPEG方式における予測構造と符号化構造を説明
する図である。
FIG. 5 is a diagram illustrating a prediction structure and an encoding structure in the MPEG system.

【図6】MPEGエンコーダで発生する遅延について説明す
る図である。
FIG. 6 is a diagram illustrating a delay that occurs in an MPEG encoder.

【図7】スタジオの内部の構成を示すブロック図であ
る。
FIG. 7 is a block diagram showing a configuration inside a studio.

【図8】図7のスタジオの内部で伝送されるデータを説
明する図である。
FIG. 8 is a diagram for explaining data transmitted inside the studio of FIG. 7;

【図9】図7のシステムにおいてデータを伝送するシス
テムの構成を示す図である。
FIG. 9 is a diagram showing a configuration of a system for transmitting data in the system of FIG. 7;

【図10】3−2プルダウン処理された画像の補助デー
タを説明する図である。
FIG. 10 is a diagram illustrating auxiliary data of an image that has been subjected to 3-2 pull-down processing.

【図11】2つのスタジオの間でビットストリームを伝
送するときのシステム構成を表すブロック図である。
FIG. 11 is a block diagram illustrating a system configuration when a bit stream is transmitted between two studios.

【図12】図11のシステムで伝送されるストリームの
構成を表す図である。
FIG. 12 is a diagram illustrating a configuration of a stream transmitted by the system of FIG. 11;

【図13】図11のシステムにおいて、トランスポート
ストリームを伝送する構成を表すブロック図である。
FIG. 13 is a block diagram showing a configuration for transmitting a transport stream in the system of FIG.

【図14】符号化処理の遅延を説明する図である。FIG. 14 is a diagram illustrating a delay in an encoding process.

【図15】本発明を適用したMPEGエンコーダの構成を表
すブロック図である。
FIG. 15 is a block diagram illustrating a configuration of an MPEG encoder to which the present invention has been applied.

【図16】本発明を適用したMPEGデコーダの構成を表す
ブロック図である。
FIG. 16 is a block diagram illustrating a configuration of an MPEG decoder to which the present invention has been applied.

【図17】CPIを伝送する場合のシステムの構成を表す
図である。
FIG. 17 is a diagram illustrating a configuration of a system when transmitting a CPI.

【図18】図11のSDTI-CPインタフェース46の構成
を表すブロック図である。
FIG. 18 is a block diagram illustrating a configuration of an SDTI-CP interface 46 in FIG.

【図19】補助データの伝送を説明する図である。FIG. 19 is a diagram illustrating transmission of auxiliary data.

【図20】3−2プルダウン処理におけるPTS_counter
とDTS_counterを説明する図である。
[FIG. 20] PTS_counter in 3-2 pull-down processing
FIG. 3 is a diagram for explaining DTS_counter.

【図21】POIを伝送する場合のシステムの構成を表す
図である。
FIG. 21 is a diagram illustrating a configuration of a system when transmitting a POI.

【図22】POIを伝送する場合の他のシステムの構成を
表す図である。
FIG. 22 is a diagram illustrating a configuration of another system when transmitting a POI.

【図23】video_sequence関数のシンタックスを説明す
る図である。
FIG. 23 is a diagram illustrating the syntax of a video_sequence function.

【図24】sequence_header()関数のシンタックスを説
明する図である。
FIG. 24 is a diagram illustrating the syntax of a sequence_header () function.

【図25】sequence_extension()関数のシンタックスを
説明する図である。
FIG. 25 is a diagram for describing the syntax of the sequence_extension () function.

【図26】extension_and_user_data(i)関数のシンタッ
クスを説明する図である。
FIG. 26 is a diagram illustrating the syntax of an extension_and_user_data (i) function.

【図27】user data()関数のシンタックスを表す図で
ある。
FIG. 27 is a diagram illustrating the syntax of a user data () function.

【図28】user dataに記述される関数のData_IDを説明
する図である。
FIG. 28 is a diagram illustrating Data_ID of a function described in user data.

【図29】V-Phase()関数のシンタックスを説明する図
である。
FIG. 29 is a diagram illustrating the syntax of a V-Phase () function.

【図30】H-Phase()関数のシンタックスを説明する図
である。
FIG. 30 is a diagram illustrating the syntax of the H-Phase () function.

【図31】Picture_Order()関数のシンタックスを説明
する図である。
FIG. 31 is a diagram for describing the syntax of the Picture_Order () function.

【図32】Ancillary_data()関数のシンタックスを説明
する図である。
[Fig. 32] Fig. 32 is a diagram for describing the syntax of the Ancillary_data () function.

【図33】group_of_picture_header()関数のシンタッ
クスを説明する図である。
FIG. 33 is a diagram illustrating the syntax of a group_of_picture_header () function.

【図34】picture_header()関数のシンタックスを説明
する図である。
Fig. 34 is a diagram for describing the syntax of the picture_header () function.

【図35】picture_coding_extension()関数のシンタッ
クスを説明する図である。
FIG. 35 is a diagram for describing the syntax of the picture_coding_extension () function.

【図36】picture_data()関数のシンタックスを説明す
る図である。
FIG. 36 is a diagram for describing the syntax of the picture_data () function.

【図37】MPEG方式のレイヤを説明する図である。[Fig. 37] Fig. 37 is a diagram for describing layers of the MPEG system.

【符号の説明】[Explanation of symbols]

42,43 MPEGエンコーダ, 44,45 MPEGデコ
ーダ, 46乃至49SDTI-CPインタフェース, 50
SDTI-CPネットワーク, 51 SDTI-CPインタフェー
ス, 61,62 TS MUX/DEMUX, 72,73 MPEG
エンコーダ,74,75 MPEGデコーダ, 76乃至8
1 SDTI-CPインタフェース, 80 SDTI-CPネットワ
ーク
42, 43 MPEG encoder, 44, 45 MPEG decoder, 46 to 49 SDTI-CP interface, 50
SDTI-CP network, 51 SDTI-CP interface, 61, 62 TS MUX / DEMUX, 72, 73 MPEG
Encoder, 74, 75 MPEG decoder, 76-8
1 SDTI-CP interface, 80 SDTI-CP network

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 所定の画像に対応する画像信号を符号化
して、ビッストリームとして伝送するデジタル信号伝送
装置において、 前記画像のうちの所定の範囲の前記画像信号を符号化す
る符号化手段と、 前記符号化手段により符号化される前記範囲に対応する
範囲情報を、前記ビットストリームに挿入する挿入手段
と、 前記挿入手段により前記範囲情報が挿入された前記ビッ
トストリームを伝送する伝送手段とを含むことを特徴と
するデジタル信号伝送装置。
1. A digital signal transmission device that encodes an image signal corresponding to a predetermined image and transmits the encoded image signal as a bit stream, wherein an encoding unit that encodes the image signal in a predetermined range of the image. An insertion unit that inserts range information corresponding to the range encoded by the encoding unit into the bit stream, and a transmission unit that transmits the bit stream in which the range information is inserted by the insertion unit A digital signal transmission device characterized by the above-mentioned.
【請求項2】 前記範囲情報は、前記画像のうち、符号
化する範囲の左上の位置を表す情報であることを特徴と
する請求項1に記載のデジタル信号伝送装置。
2. The digital signal transmission device according to claim 1, wherein the range information is information indicating an upper left position of a range to be coded in the image.
【請求項3】 前記挿入手段は、前記範囲情報を、エレ
メンタリストリームに挿入することを特徴とする請求項
1に記載のデジタル信号伝送装置。
3. The digital signal transmission device according to claim 1, wherein the insertion unit inserts the range information into an elementary stream.
【請求項4】 所定の画像に対応する画像信号を符号化
して、ビッストリームとして伝送するデジタル信号伝送
装置のデジタル信号伝送方法において、 前記画像のうちの所定の範囲の前記画像信号を符号化す
る符号化ステップと、 前記符号化ステップで符号化される前記範囲に対応する
範囲情報を、前記ビットストリームに挿入する挿入ステ
ップと、 前記挿入ステップで前記範囲情報が挿入された前記ビッ
トストリームを伝送する伝送ステップとを含むことを特
徴とするデジタル信号伝送方法。
4. A digital signal transmission method of a digital signal transmission device for encoding an image signal corresponding to a predetermined image and transmitting the encoded image signal as a bit stream, wherein the image signal in a predetermined range of the image is encoded. An encoding step; an insertion step of inserting range information corresponding to the range encoded in the encoding step into the bit stream; and transmitting the bit stream in which the range information is inserted in the insertion step. Transmitting a digital signal.
【請求項5】 所定の画像に対応する画像信号を符号化
して、ビッストリームとして伝送するデジタル信号伝送
装置に、 前記画像のうちの所定の範囲の前記画像信号を符号化す
る符号化ステップと、前記符号化ステップで符号化され
る前記範囲に対応する範囲情報を、前記ビットストリー
ムに挿入する挿入ステップと、 前記挿入ステップで前記範囲情報が挿入された前記ビッ
トストリームを伝送する伝送ステップとを含む処理を実
行させるコンピュータが読み取り可能なプログラムを提
供することを特徴とする提供媒体。
5. An encoding step of encoding an image signal corresponding to a predetermined image and transmitting the image signal in a predetermined range of the image to a digital signal transmission device for transmitting the image signal as a bit stream; An insertion step of inserting range information corresponding to the range encoded in the encoding step into the bit stream; and a transmission step of transmitting the bit stream having the range information inserted in the insertion step. A providing medium for providing a computer-readable program for executing a process.
【請求項6】 所定の画像に対応する画像信号を符号化
して、伝送されてきたビッストリームを受信するデジタ
ル信号受信装置において、 前記ビットストリームに挿入されている、前記画像のう
ちの、前記画像信号を符号化する範囲に対応する範囲情
報を抽出する抽出手段と、 前記抽出手段により抽出された前記範囲情報に基づい
て、前記ビットストリームを復号する復号手段とを含む
ことを特徴とするデジタル信号受信装置。
6. A digital signal receiving apparatus for encoding an image signal corresponding to a predetermined image and receiving a transmitted bit stream, wherein the image among the images inserted in the bit stream A digital signal, comprising: extracting means for extracting range information corresponding to a range for encoding a signal; and decoding means for decoding the bit stream based on the range information extracted by the extracting means. Receiver.
【請求項7】 所定の画像に対応する画像信号を符号化
して、伝送されてきたビッストリームを受信するデジタ
ル信号受信装置のデジタル信号受信方法において、 前記ビットストリームに挿入されている、前記画像のう
ちの、前記画像信号を符号化する範囲に対応する範囲情
報を抽出する抽出ステップと、 前記抽出ステップで抽出された前記範囲情報に基づい
て、前記ビットストリームを復号する復号ステップとを
含むことを特徴とするデジタル信号受信方法。
7. A digital signal receiving method for a digital signal receiving apparatus which receives a transmitted bit stream by encoding an image signal corresponding to a predetermined image, the digital signal receiving method comprising: An extracting step of extracting range information corresponding to a range in which the image signal is encoded; anda decoding step of decoding the bit stream based on the range information extracted in the extracting step. Characteristic digital signal receiving method.
【請求項8】 所定の画像に対応する画像信号を符号化
して、伝送されてきたビッストリームを受信するデジタ
ル信号受信装置に、 前記ビットストリームに挿入されている、前記画像のう
ちの、前記画像信号を符号化する範囲に対応する範囲情
報を抽出する抽出ステップと、 前記抽出ステップで抽出された前記範囲情報に基づい
て、前記ビットストリームを復号する復号ステップとを
含む処理を実行させるコンピュータが読み取り可能なプ
ログラムを提供することを特徴とする提供媒体。
8. A digital signal receiving apparatus that encodes an image signal corresponding to a predetermined image and receives a transmitted bitstream, wherein the image among the images inserted in the bitstream is A computer configured to execute a process including: an extraction step of extracting range information corresponding to a range in which a signal is to be encoded; and a decoding step of decoding the bit stream based on the range information extracted in the extraction step. A providing medium characterized by providing a possible program.
JP2937999A 1999-02-05 1999-02-05 Digital signal transmitter, its method, digital signal receiver, its method and served medium Pending JP2000228769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2937999A JP2000228769A (en) 1999-02-05 1999-02-05 Digital signal transmitter, its method, digital signal receiver, its method and served medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2937999A JP2000228769A (en) 1999-02-05 1999-02-05 Digital signal transmitter, its method, digital signal receiver, its method and served medium

Publications (1)

Publication Number Publication Date
JP2000228769A true JP2000228769A (en) 2000-08-15

Family

ID=12274521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2937999A Pending JP2000228769A (en) 1999-02-05 1999-02-05 Digital signal transmitter, its method, digital signal receiver, its method and served medium

Country Status (1)

Country Link
JP (1) JP2000228769A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138940A (en) * 2004-05-12 2012-07-19 Nokia Corp Multiple interoperability points for scalable media coding and transmission

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138940A (en) * 2004-05-12 2012-07-19 Nokia Corp Multiple interoperability points for scalable media coding and transmission

Similar Documents

Publication Publication Date Title
US8160134B2 (en) Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method
KR100420740B1 (en) Encoding device, encoding method, decoding device, decoding method, coding system and coding method
US11601696B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
US11368744B2 (en) Device and associated method for using layer description and decoding syntax in multi-layer video
EP0944249B1 (en) Encoded stream splicing device and method, and an encoded stream generating device and method
JP7192910B2 (en) Transmission method and transmission device
WO1998043423A1 (en) Transport stream generating device and method, and program transmission device
US20230388524A1 (en) Coding apparatus, coding method, transmission apparatus, and reception apparatus
JP6795076B2 (en) Transmission / reception system and transmission / reception method
JP2000228768A (en) Digital signal transmitter, its method and served medium
JP2000228769A (en) Digital signal transmitter, its method, digital signal receiver, its method and served medium
JP3584460B2 (en) Bitstream conversion apparatus and method, and provided medium
JP2018142984A (en) Transmission apparatus and transmission method
JP7230981B2 (en) Receiving device and receiving method
JP2006109513A (en) Encoding device and method, and recording medium
JP6614281B2 (en) Receiving apparatus and receiving method
JP6614275B2 (en) Receiving device, receiving method, transmitting device, and transmitting method
JP6341228B2 (en) Encoding device, encoding method, transmission device, transmission method, reception device, and reception method
JP2004328771A (en) Device and method for encoding and decoding, and recording medium
JP6052354B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051201

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051215

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060113