JP7230981B2 - Receiving device and receiving method - Google Patents

Receiving device and receiving method Download PDF

Info

Publication number
JP7230981B2
JP7230981B2 JP2021153059A JP2021153059A JP7230981B2 JP 7230981 B2 JP7230981 B2 JP 7230981B2 JP 2021153059 A JP2021153059 A JP 2021153059A JP 2021153059 A JP2021153059 A JP 2021153059A JP 7230981 B2 JP7230981 B2 JP 7230981B2
Authority
JP
Japan
Prior art keywords
picture
image data
stream
video stream
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021153059A
Other languages
Japanese (ja)
Other versions
JP2021192557A (en
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020164375A external-priority patent/JP6950802B2/en
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2021153059A priority Critical patent/JP7230981B2/en
Publication of JP2021192557A publication Critical patent/JP2021192557A/en
Application granted granted Critical
Publication of JP7230981B2 publication Critical patent/JP7230981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、受信装置および受信方法に関する The present technology relates to a receiving device and a receiving method .

圧縮動画を、放送、ネット等でサービスする際、受信機のデコード能力によって再生可能なフレーム周波数の上限が制限される。従って、サービス側は普及している受信機の再生能力を考慮して、低フレーム周波数のサービスのみに制限したり、高低複数のフレーム周波数のサービスを同時提供したりする必要がある。 When a compressed moving image is serviced through broadcasting, the Internet, etc., the upper limit of the reproducible frame frequency is limited by the decoding capability of the receiver. Therefore, it is necessary for the service side to consider the reproduction capability of popular receivers, limit the service to only low frame frequencies, or simultaneously provide services of a plurality of high and low frame frequencies.

受信機は、高フレーム周波数のサービスに対応するには、高コストとなり、早期普及の阻害要因となる。初期に低フレーム周波数のサービス専用の安価な受信機のみ普及していて、将来サービス側が高フレーム周波数のサービスを開始する場合、新たな受信機が無いと全く視聴不可能であり、新規サービスの普及の阻害要因となる。 The cost of receivers to support high frame frequency services is high, which is an obstacle to early popularization. In the early days, only inexpensive receivers dedicated to low frame frequency services were popular, but in the future when the service side starts high frame frequency services, it will be impossible to view at all without new receivers, and new services will spread. is a hindrance to

例えば、HEVC(High Efficiency Video Coding)において、動画像データを構成する各ピクチャの画像データを階層符号化することによる時間方向スケーラビリティが提案されている(非特許文献1参照)。受信側では、NAL(Network Abstraction Layer)ユニットのヘッダに挿入されているテンポラルID(temporal_id)に基づき、各ピクチャの階層を識別でき、デコード能力に対応した階層までの選択的なデコードが可能となる。 For example, HEVC (High Efficiency Video Coding) proposes temporal scalability by hierarchically encoding image data of each picture constituting moving image data (see Non-Patent Document 1). On the receiving side, the layer of each picture can be identified based on the temporal ID (temporal_id) inserted in the header of the NAL (Network Abstraction Layer) unit, enabling selective decoding up to the layer corresponding to the decoding capability. .

Gary J. Sullivan, Jens-Rainer Ohm, Woo-Jin Han, Thomas Wiegand, “Overview of the High Efficiency Video Coding (HEVC) Standard” IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECNOROGY, VOL. 22, NO. 12, pp. 1649-1668, DECEMBER 2012Gary J. Sullivan, Jens-Rainer Ohm, Woo-Jin Han, Thomas Wiegand, “Overview of the High Efficiency Video Coding (HEVC) Standard” IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECNOROGY, VOL. 22, NO. 12, pp. 1649-1668, DECEMBER 2012

本技術の目的は、受信側においてデコード能力に応じた良好なデコード処理を可能とすることにある。 An object of the present technology is to enable good decoding processing according to the decoding capability on the receiving side.

本技術の概念は、
動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオデータを生成する画像符号化部と、
上記生成されたビデオデータを含む所定フォーマットのコンテナを送信する送信部と、
上記複数の階層を2以上の所定数の階層組に分割し、上記ビデオデータをコンテナするパケットに、該ビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入する識別情報挿入部を備える
送信装置。
The concept of this technology is
Classifying image data of each picture constituting moving image data into a plurality of hierarchies, encoding the image data of the classified picture of each hierarchy, and video data having the image data of the encoded picture of each hierarchy an image encoding unit that generates
a transmission unit for transmitting a container of a predetermined format containing the generated video data;
dividing the plurality of hierarchies into a predetermined number of hierarchies of two or more, and coding a picture belonging to which hierarchy set the encoded image data of each picture contained in the video data is stored in a packet containing the video data; A transmission device comprising an identification information inserting unit for inserting identification information for identifying image data.

本技術において、画像符号化部により、動画像データを構成する各ピクチャの画像データが符号化されてビデオデータが生成される。この場合、動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化され、各階層のピクチャの符号化像データを持つビデオデータが生成される。 In the present technology, the image encoding unit encodes image data of each picture forming moving image data to generate video data. In this case, the image data of each picture that constitutes the moving image data is classified into a plurality of layers and encoded, and video data having encoded image data of the picture of each layer is generated.

送信部により、上述のビデオデータを含む所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。 The transmitting unit transmits a container of a predetermined format containing the video data described above. For example, the container may be a transport stream (MPEG-2 TS) adopted by digital broadcasting standards. Also, for example, the container may be MP4 used for Internet distribution or a container of other formats.

識別情報挿入部により、複数の階層が2以上の所定数の階層組に分割され、ビデオデータをコンテナするパケットに、このビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入される。例えば、識別情報は、低階層側の階層組ほど高く設定される優先度情報である、ようにされてもよい。 The identification information inserting unit divides the plurality of layers into a predetermined number of layer groups of two or more, and the encoded image data of each picture included in the video data belongs to which layer group in the packet that contains the video data. Identification information is inserted to identify whether it is encoded image data of a picture. For example, the identification information may be priority information that is set higher for a hierarchy set on the lower hierarchy side.

例えば、識別情報は、ペイロードにピクチャ毎の符号化画像データを含むPESパケットのヘッダに挿入される、ようにされてもよい。そして、この場合、例えば、識別情報は、ヘッダのPESプライオリティのフィールドを利用して挿入される、ようにされてもよい。また、例えば、識別情報は、アダプテーションフィールドを持つTSパケットの、このアダプテーションフィールドに挿入される、ようにされてもよい。そして、この場合、例えば、識別情報は、アダプテーションフィールドのESプライオリティインジケータのフィールドを利用して挿入される、ようにされてもよい。また、例えば、識別情報は、該当するピクチャのトラックに関連するヘッダのボックスに挿入される、ようにされてもよい。 For example, the identification information may be inserted into the header of a PES packet containing encoded image data for each picture in the payload. In this case, for example, the identification information may be inserted using the PES priority field of the header. Also, for example, the identification information may be inserted into this adaptation field of a TS packet having an adaptation field. In this case, for example, the identification information may be inserted using the ES priority indicator field of the adaptation field. Also, for example, the identification information may be inserted in a header box associated with the track of the picture in question.

このように本技術においては、ビデオデータをコンテナするパケットに、このビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入されるものである。そのため、受信側においては、この識別情報を利用することで、デコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にデコードすることが容易に可能となる。 As described above, in the present technology, identification information identifying to which layer set the encoded image data of each picture included in the video data belongs to the packet that contains the video data. is inserted. Therefore, on the receiving side, by using this identification information, it becomes possible to selectively decode encoded image data of pictures in a hierarchy below a predetermined hierarchy according to the decoding capability.

なお、本技術において、例えば、画像符号化部は、各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームを生成し、コンテナのレイヤに、このコンテナに含まれるビデオストリームの構成情報を挿入する構成情報挿入部をさらに備える、ようにされてもよい。この場合、例えば、受信側では、コンテナに含まれるビデオストリームの構成情報に基づいて、ビデオストリームの構成を容易に把握可能となる。 In addition, in the present technology, for example, the image encoding unit generates a single video stream having encoded image data of pictures in each layer, or divides a plurality of layers into a predetermined number of layer sets of two or more. a configuration information inserting unit that generates a predetermined number of video streams each having encoded image data of pictures in each layer set, and inserts configuration information of the video streams included in the container into the layer of the container; may be made In this case, for example, the receiving side can easily grasp the structure of the video stream based on the structure information of the video stream included in the container.

また、本技術の他の概念は、
動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオデータを含む所定フォーマットのコンテナを受信する受信部と、
上記受信されたコンテナに含まれる上記ビデオストリームからデコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にバッファに取り込み、該バッファに取り込まれた各ピクチャの符号化画像データをデコードして、上記所定階層以下の階層のピクチャの画像データを得る画像復号化部を備える
受信装置にある。
Another concept of this technology is
A container of a predetermined format containing video data having encoded image data of pictures in each layer obtained by classifying and encoding image data of each picture constituting moving image data into a plurality of layers is received. a receiver;
Selectively fetching into a buffer coded image data of pictures in a hierarchy below a predetermined hierarchy according to decoding capability from the video stream contained in the received container, and coded image data of each picture fetched into the buffer , and obtains image data of a picture in a hierarchy below the predetermined hierarchy.

本技術において、受信部により、所定フォーマットのコンテナが受信される。このコンテナには、動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの画像データを持つビデオデータが含まれている。 In the present technology, the receiving unit receives a container in a predetermined format. This container contains video data having picture image data of each layer obtained by classifying the image data of each picture constituting moving image data into a plurality of layers and encoding them.

画像復号化部により、受信されたコンテナに含まれるビデオデータからデコード能力に応じた所定階層以下の階層のピクチャの符号化画像データが選択的にバッファに取り込まれ、このバッファに取り込まれた各ピクチャの符号化画像データがデコードされて、所定階層以下の階層のピクチャの画像データが得られる。 An image decoding unit selectively fetches encoded image data of pictures in a hierarchy lower than a predetermined hierarchy according to the decoding capability from the video data contained in the received container into a buffer, and each picture fetched into the buffer. is decoded to obtain image data of pictures in a hierarchy below a predetermined hierarchy.

例えば、複数の階層は2以上の所定数の階層組に分割され、ビデオデータをコンテナするパケットに、このビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入されており、画像復号化部は、識別情報に基づいて、デコード能力に応じた所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする、ようにされてもよい。 For example, a plurality of layers are divided into a predetermined number of layer sets of two or more, and encoded image data of each picture included in the video data is encoded in a packet that contains the video data. Identification information for identifying whether it is image data is inserted. Based on the identification information, the image decoding unit takes in the encoded image data of the picture of the predetermined layer set corresponding to the decoding ability into the buffer and decodes it. , may be so.

この場合、例えば、識別情報は、ペイロードにピクチャ毎の符号化画像データを含むPESパケットのヘッダに挿入されている、ようにされてもよい。また、この場合、例えば、識別情報は、アダプテーションフィールドを持つTSパケットの、このアダプテーションフィールドに挿入されている、ようにされてもよい。また、この場合、例えば、識別情報は、該当するピクチャのトラックに関連するヘッダのボックスに挿入されている、ようにされてもよい。 In this case, for example, the identification information may be inserted into the header of the PES packet containing the encoded image data for each picture in the payload. Also in this case, for example, the identification information may be inserted in this adaptation field of a TS packet having an adaptation field. Also in this case, for example, the identification information may be inserted in a box in the header associated with the track of the picture in question.

また、例えば、複数の階層は2以上の所定数の階層組に分割され、受信されたコンテナには、所定数の階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれており、画像符号化部は、ストリーム識別情報に基づいて、デコード能力に応じた所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする、ようにされてもよい。このとき、例えば、画像復号化部は、所定階層組のピクチャの符号化画像データが複数のビデオストリームに含まれている場合、各ピクチャの符号化画像データをデコードタイミング情報に基づいて1つのストリームにしてバッファに取り込む、ようにされてもよい。 Also, for example, the plurality of layers are divided into a predetermined number of layer sets equal to or greater than two, and the received container includes a predetermined number of video streams each having encoded image data of pictures of the predetermined number of layer sets. Based on the stream identification information, the image coding unit may load the coded image data of the picture of the predetermined layer set according to the decoding ability into the buffer and decode the data. At this time, for example, when the encoded image data of the pictures of the predetermined layer group are included in a plurality of video streams, the image decoding unit converts the encoded image data of each picture into one stream based on the decoding timing information. , and then capture it in the buffer.

このように本技術においては、受信されたビデオデータからデコード能力に応じた所定階層以下の階層のピクチャの符号化画像データが選択的にバッファに取り込まれてデコードされるものである。そのため、デコード能力に応じた適切なデコード処理が可能となる。 As described above, according to the present technology, encoded image data of pictures in a hierarchy below a predetermined hierarchy according to decoding capability is selectively loaded into a buffer and decoded from received video data. Therefore, appropriate decoding processing can be performed according to the decoding ability.

なお、本技術において、例えば、画像復号化部は、選択的にバッファに取り込まれる各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する機能を持つ、ようにされてもよい。この場合、デコード能力の低いデコーダでも無理のないデコード処理が可能となる。 Note that in the present technology, for example, the image decoding unit has a function of rewriting the decoding time stamp of the encoded image data of each picture selectively captured in the buffer to adjust the decoding interval of the low-layer pictures. may be In this case, even a decoder with low decoding capability can perform a reasonable decoding process.

また、本技術において、例えば、画像復号化部で得られる各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理部をさらに備える、ようにされてもよい。この場合、デコード能力が低い場合であっても、高表示能力にあったフレームレートの画像データを得ることが可能となる。 Further, in the present technology, for example, a post processing unit that matches the frame rate of image data of each picture obtained by the image decoding unit to the display capability may be provided. In this case, even if the decoding ability is low, it is possible to obtain image data at a frame rate suitable for high display ability.

本技術によれば、受信側においてデコード能力に応じた良好なデコード処理が可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 According to the present technology, it is possible to perform good decoding processing according to the decoding capability on the receiving side. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

実施の形態としての送受信システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a transmission/reception system as an embodiment; FIG. 送信装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a transmitter. エンコーダで行われる階層符号化の一例を示す図である。FIG. 4 is a diagram showing an example of hierarchical encoding performed by an encoder; NALユニットヘッダの構造例(Syntax)およびその構造例における主要なパラメータの内容(Semantics)を示す図である。FIG. 2 is a diagram showing an example structure (Syntax) of a NAL unit header and the contents (Semantics) of main parameters in the example structure. HEVCによる各ピクチャの符号化画像データの構成を説明するための図である。FIG. 2 is a diagram for explaining the configuration of encoded image data of each picture by HEVC; 階層符号化の際のエンコード、デコード、表示順序と遅延の一例を示す図である。FIG. 4 is a diagram showing an example of encoding, decoding, display order and delay in hierarchical coding; 階層符号化の符号化ストリームと、指定階層における表示期待(表示順)を示す図である。FIG. 10 is a diagram showing an encoded stream of hierarchical encoding and display expectations (display order) in a designated layer; HEVCデスクリプタ(HEVC_descriptor)の構造例(Syntax)を示す図である。FIG. 4 is a diagram showing a structural example (Syntax) of an HEVC descriptor (HEVC_descriptor); HEVCデスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。FIG. 2 is a diagram showing the content (semantics) of main information in an example structure of an HEVC descriptor; スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)の構造例(Syntax)を示す図である。FIG. 10 is a diagram showing a structural example (Syntax) of a scalability extension descriptor (scalability_extension_descriptor); スケーラビリティ・エクステンション・デスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。FIG. 10 is a diagram showing the content (Semantics) of main information in a structural example of a scalability extension descriptor; マルチプレクサの構成例を示すブロック図である。4 is a block diagram showing a configuration example of a multiplexer; FIG. マルチプレクサの処理フローの一例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of a multiplexer; 単一ストリームによる配信を行う場合のトランスポートストリームTSの構成例を示す図である。FIG. 10 is a diagram showing a configuration example of a transport stream TS for distribution by a single stream; 受信装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a receiver. デマルチプレクサの構成例を示すブロック図である。It is a block diagram which shows the structural example of a demultiplexer. トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合を示す図である。FIG. 3 is a diagram showing a case where a transport stream TS includes a single video stream (encoded stream); トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合を示す図である。FIG. 3 is a diagram showing a case where a transport stream TS includes two video streams (encoded streams), a base stream and an extension stream. 各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する機能を説明するための図である。FIG. 10 is a diagram for explaining a function of rewriting the decoding time stamp of the encoded image data of each picture to adjust the decoding interval of the low-hierarchy pictures; デマルチプレクサの処理フロー(1フレーム)の一例を示す図である。FIG. 4 is a diagram showing an example of a processing flow (one frame) of a demultiplexer; デマルチプレクサの処理フロー(2フレーム)の一例を示す図である。FIG. 4 is a diagram showing an example of a processing flow (2 frames) of a demultiplexer; デコーダの構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of a decoder; ポスト処理部の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a post-processing unit; デコーダ、ポスト処理部の処理フローの一例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of a decoder and a post-processing unit; アダプテーションフィールドの配置例を示す図である。FIG. 10 is a diagram showing an example of arrangement of adaptation fields; 階層組の識別情報をアダプテーションフィールドに挿入する場合におけるマルチプレクサの構成例を示すブロック図である。FIG. 10 is a block diagram showing a configuration example of a multiplexer when inserting identification information of a hierarchy group into an adaptation field; 階層組の識別情報をアダプテーションフィールドに挿入する場合におけるトランスポートストリームTSの構成例を示す図である。FIG. 10 is a diagram showing a configuration example of a transport stream TS in the case of inserting identification information of a layer set into an adaptation field; 階層組の識別情報をアダプテーションフィールドに挿入する場合におけるデマルチプレクサの構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a demultiplexer when inserting identification information of a hierarchy group into an adaptation field; MP4ストリームの構成例を示す図である。FIG. 4 is a diagram showing a configuration example of an MP4 stream; 「SampleDependencyTypeBox」の構造例を示す図である。FIG. 10 is a diagram showing a structural example of “SampleDependencyTypeBox”; 「SampleDependencyTypeBox」の構造例おける主要な情報の内容を示す図である。FIG. 10 is a diagram showing the contents of main information in the structural example of "SampleDependencyTypeBox"; 「SampleScalablePriorityBox」の構造例を示す図である。It is a figure which shows the structural example of "SampleScalablePriorityBox." 「SampleScalablePriorityBox」の構造例おける主要な情報の内容を示す図である。FIG. 10 is a diagram showing the contents of main information in a structural example of "SampleScalablePriorityBox";

以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, modes for carrying out the invention (hereinafter referred to as "embodiments") will be described. The description will be given in the following order.
1. Embodiment 2. Modification

<1.実施の形態>
[送受信システム]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、送信装置100と、受信装置200とを有する構成となっている。
<1. Embodiment>
[Transmitting/receiving system]
FIG. 1 shows a configuration example of a transmission/reception system 10 as an embodiment. This transmission/reception system 10 has a configuration including a transmission device 100 and a reception device 200 .

送信装置100は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSには、動画像データを構成する各ピクチャの画像データが複数の階層に分類され、各階層のピクチャの画像データの符号化データを持つビデオストリームが含まれる。この場合、例えば、H.264/AVC、HEVCなどの符号化が施され、被参照ピクチャが自己階層および/または自己階層よりも低い階層に所属するように符号化される。 The transmitting device 100 transmits the transport stream TS as a container on broadcast waves. The transport stream TS includes a video stream in which the image data of each picture constituting the moving image data is classified into a plurality of hierarchies, and has encoded data of the image data of the pictures of each hierarchy. In this case, for example, H. H.264/AVC, HEVC, or the like is applied, and the referenced picture is coded so as to belong to the self-layer and/or a layer lower than the self-layer.

各階層のピクチャの符号化画像データに、ピクチャ毎に、所属階層を識別するための階層識別情報が付加される。この実施の形態においては、各ピクチャのNALユニット(nal_unit)のヘッダ部分に、階層識別情報(temporal_id)を意味する“nuh_temporal_id_plus1”が配置される。このように階層識別情報が付加されることで、受信側では、NALユニットのレイヤにおいて各ピクチャの階層識別が可能となり、所定階層以下の階層の符号化画像データを選択的に取り出してデコード処理を行うことができる。 Layer identification information for identifying the layer to which each picture belongs is added to the encoded image data of the picture in each layer. In this embodiment, "nuh_temporal_id_plus1" meaning layer identification information (temporal_id) is arranged in the header portion of the NAL unit (nal_unit) of each picture. By adding the layer identification information in this way, it becomes possible for the receiving side to identify the layer of each picture in the layer of the NAL unit. It can be carried out.

この実施の形態において、複数の階層は2以上の所定数の階層組に分割され、ビデオストリームのレイヤに、このビデオストリームが持つ各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入される。 In this embodiment, a plurality of hierarchies are divided into a predetermined number of hierarchies that are equal to or greater than two. Identification information is inserted to identify whether the data is converted image data.

この実施の形態において、この識別情報は、低階層側の階層組ほど高く設定される優先度情報とされ、ペイロードにピクチャ毎の符号化画像データを含むPESパケットのヘッダに挿入される。この識別情報により、受信側では、自身のデコード能力に応じた階層組のピクチャの符号化画像データのみをバッファに取り込んで処理することが可能となる。 In this embodiment, this identification information is priority information that is set higher for a hierarchy set on the lower hierarchy side, and is inserted into the header of a PES packet containing encoded image data for each picture in the payload. This identification information enables the receiving side to store and process only the coded image data of the picture of the hierarchy set according to its own decoding capability.

トランスポートストリームTSには、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム、あるいは上述の各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれる。このトランスポートストリームTSには、階層符号化の階層情報と、ビデオストリームの構成情報が挿入される。この情報により、受信側では、階層構成やストリーム構成を容易に把握でき、適切なデコード処理を行うことが可能となる。 The transport stream TS includes a single video stream having encoded image data of pictures in each layer, or a predetermined number of video streams each having encoded image data of pictures in each layer set. Hierarchical coding layer information and video stream configuration information are inserted into this transport stream TS. With this information, the receiving side can easily grasp the hierarchical structure and the stream structure, and can perform appropriate decoding processing.

受信装置200は、送信装置100から放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。受信装置200は、このトランスポートストリームTSに含まれるビデオストリームからデコード能力に応じて選択された所定階層以下の階層のピクチャの符号化画像データを選択的にバッファに取り込んでデコードし、各ピクチャの画像データを取得して、画像再生を行う。 The receiving device 200 receives the transport stream TS transmitted from the transmitting device 100 over a broadcast wave. The receiving apparatus 200 selectively stores encoded image data of pictures in a hierarchy below a predetermined hierarchy selected according to the decoding capability from the video stream included in the transport stream TS, decodes the encoded image data, and decodes the encoded image data of each picture. Acquire image data and perform image reproduction.

例えば、上述したように、トランスポートストリームTSに、複数の階層のピクチャの符号化画像データを持つ単一のビデオストリームが含まれている場合がある。その場合、上述の識別情報に基づいて、デコード能力に応じた所定階層組のピクチャの符号化画像データがバッファに取り込まれて処理される。 For example, as described above, the transport stream TS may include a single video stream having encoded image data of pictures in multiple layers. In this case, based on the identification information described above, the coded image data of the picture of the predetermined hierarchy set corresponding to the decoding ability is loaded into the buffer and processed.

また、例えば、上述したように、トランスポートストリームTSに、複数の階層が分割されて得られた2以上の所定数の階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれている場合がある。その場合、ストリーム識別情報に基づいて、デコード能力に応じた所定階層組のピクチャの符号化画像データがバッファに取り込まれて処理される。 Further, for example, as described above, the transport stream TS includes a predetermined number of video streams each having encoded image data of pictures in a predetermined number of two or more layer sets obtained by dividing a plurality of layers. may be In this case, based on the stream identification information, the encoded image data of the picture of the predetermined hierarchy set corresponding to the decoding capability is loaded into the buffer and processed.

また、受信装置200は、選択的にバッファに取り込まれる各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する処理を行う。この調整処理により、デコード能力の低いデコーダでも無理のないデコード処理が可能となる。 In addition, the receiving device 200 rewrites the decoding time stamp of the encoded image data of each picture selectively stored in the buffer to adjust the decoding interval of the low-hierarchy pictures. Due to this adjustment process, even a decoder with a low decoding capability can perform a reasonable decoding process.

また、受信装置200は、上述のようにデコードして得られた各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理を行う。このポスト処理により、例えば、デコード能力が低い場合であっても、高表示能力にあったフレームレートの画像データを得ることが可能となる。 Further, the receiving device 200 performs post-processing for matching the frame rate of the image data of each picture obtained by decoding as described above to the display capability. By this post-processing, for example, even if the decoding capability is low, it is possible to obtain image data with a frame rate suitable for high display capability.

「送信装置の構成」
図2は、送信装置100の構成例を示している。この送信装置100は、CPU(Central Processing Unit)101と、エンコーダ102と、圧縮データバッファ(cpb:coded picture buffer)103と、マルチプレクサ104と、送信部105を有している。CPU101は、制御部であり、送信装置100の各部の動作を制御する。
"Transmitter configuration"
FIG. 2 shows a configuration example of the transmission device 100. As shown in FIG. This transmission device 100 has a CPU (Central Processing Unit) 101 , an encoder 102 , a compressed data buffer (cpb: coded picture buffer) 103 , a multiplexer 104 and a transmission section 105 . The CPU 101 is a control unit and controls the operation of each unit of the transmission device 100 .

エンコーダ102は、非圧縮の動画像データを入力して、階層符号化を行う。エンコーダ102は、この動画像データを構成する各ピクチャの画像データを複数の階層に分類する。そして、エンコーダ102は、この分類された各階層のピクチャの画像データを符号化し、各階層のピクチャの符号化画像データを持つビデオストリームを生成する。エンコーダ102は、例えば、H.264/AVC、HEVCなどの符号化を行う。この際、エンコーダ102は、参照するピクチャ(被参照ピクチャ)が、自己階層および/または自己階層よりも下位の階層に所属するように、符号化する。 The encoder 102 inputs uncompressed moving image data and performs hierarchical encoding. The encoder 102 classifies the image data of each picture forming this moving image data into a plurality of hierarchies. Then, the encoder 102 encodes the classified image data of the pictures in each layer to generate a video stream having the encoded image data of the pictures in each layer. Encoder 102 may be, for example, H.264. H.264/AVC, HEVC, etc. are encoded. At this time, the encoder 102 encodes a picture to be referred to (referenced picture) so as to belong to the self layer and/or a layer lower than the self layer.

図3は、エンコーダ102で行われる階層符号化の一例を示している。この例は、0から4までの5階層に分類され、各階層のピクチャの画像データに対して、例えばHEVCの符号化が施された例である。 FIG. 3 shows an example of hierarchical encoding performed by the encoder 102. As shown in FIG. In this example, the images are classified into five hierarchies from 0 to 4, and the image data of the pictures in each hierarchy are coded by, for example, HEVC.

縦軸は階層を示している。階層0から4のピクチャの符号化画像データを構成するNALユニット(nal_unit)のヘッダ部分に配置されるtemporal_id(階層識別情報)として、それぞれ、0から4が設定される。一方、横軸は表示順(POC:picture order of composition)を示し、左側は表示時刻が前で、右側は表示時刻が後になる。 The vertical axis indicates the hierarchy. 0 to 4 are set as temporal_id (hierarchy identification information) arranged in the header portion of the NAL unit (nal_unit) constituting the encoded image data of the pictures of hierarchies 0 to 4, respectively. On the other hand, the horizontal axis indicates the display order (POC: picture order of composition), with the display time on the left side being earlier and the display time on the right side being later.

図4(a)は、NALユニットヘッダの構造例(Syntax)を示し、図4(b)は、その構造例における主要なパラメータの内容(Semantics)を示している。「Forbidden_zero_bit」の1ビットフィールドは、0が必須である。「Nal_unit_type」の6ビットフィールドは、NALユニットタイプを示す。「Nuh_layer_id」の6ビットフィールドは、0を前提とする。「Nuh_temporal_id_plus1」の3ビットフィールドは、temporal_idを示し、1を加えた値(1~7)をとる。 FIG. 4(a) shows an example structure (Syntax) of the NAL unit header, and FIG. 4(b) shows the contents (Semantics) of main parameters in the example structure. The 1-bit field of "Forbidden_zero_bit" must be 0. A 6-bit field of "Nal_unit_type" indicates the NAL unit type. The 6-bit field of "Nuh_layer_id" is assumed to be 0. A 3-bit field of "Nuh_temporal_id_plus1" indicates temporal_id and takes a value (1 to 7) with 1 added.

図3に戻って、矩形枠のそれぞれがピクチャを示し、数字は、符号化されているピクチャの順、つまりエンコード順(受信側ではデコード順)を示している。「1」から「17」(「2」を除く)の16個のピクチャによりサブ・ピクチャグループ(Sub group of pictures)を構成しており、「1」はそのサブ・ピクチャグループの先頭ピクチャである。「2」は、次のサブ・ピクチャグループの先頭ピクチャとなる。あるいは、「1」を除いて、「2」から「17」までの16個のピクチャによりサブ・ピクチャグループを構成しており、「2」はそのサブ・ピクチャグループの先頭のピクチャとなる。 Returning to FIG. 3, each rectangular frame indicates a picture, and the numbers indicate the order of encoded pictures, that is, the encoding order (decoding order on the receiving side). 16 pictures "1" to "17" (excluding "2") constitute a sub group of pictures, and "1" is the leading picture of the sub picture group. . "2" is the first picture of the next sub-picture group. Alternatively, 16 pictures from "2" to "17" excluding "1" constitute a sub-picture group, and "2" is the top picture of the sub-picture group.

「1」のピクチャは、GOP(Group Of Pictures)の先頭のピクチャとなり得る。GOPの先頭ピクチャの符号化画像データは、図5に示すように、AUD、VPS、SPS、PPS、PSEI、SLICE、SSEI、EOSのNALユニットにより構成される。一方、GOPの先頭ピクチャ以外のピクチャは、AUD、PPS、PSEI、SLICE、SSEI、EOSのNALユニットにより構成される。VPSはSPSと共に、シーケンス(GOP)に一度、PPSはマイピクチャで伝送可能とされている。 A picture of "1" can be the leading picture of a GOP (Group Of Pictures). As shown in FIG. 5, the encoded image data of the top picture of the GOP is composed of NAL units of AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, and EOS. On the other hand, pictures other than the first picture of the GOP are composed of NAL units of AUD, PPS, PSEI, SLICE, SSEI, and EOS. VPS can be transmitted together with SPS once in a sequence (GOP), and PPS can be transmitted in My Picture.

図3に戻って、実線矢印は、符号化におけるピクチャの参照関係を示している。例えば、「1」のピクチャは、Iピクチャであり、他のピクチャを参照しない。「2」のピクチャは、Pピクチャであり、「1」のピクチャを参照して符号化される。また、「3」のピクチャは、Bピクチャであり、「1」、「3」のピクチャを参照して符号化される。以下、同様、その他のピクチャは、表示順で近くのピクチャを参照して符号化される。なお、階層4のピクチャは、他のピクチャからの参照がない。 Returning to FIG. 3, the solid line arrows indicate the reference relationship of pictures in encoding. For example, a "1" picture is an I picture and does not refer to other pictures. The "2" picture is a P picture and is encoded with reference to the "1" picture. Also, the picture of "3" is a B picture and is encoded with reference to the pictures of "1" and "3". Other pictures are coded with reference to pictures nearby in display order. A picture of layer 4 is not referred to by other pictures.

エンコーダ102は、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム(シングルストリーム)を生成するか、あるいは、複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリーム(マルチストリーム)を生成する。例えば、図3の階層符号化の例において、階層0から3を低階層の階層組とし、階層4を高階層の階層組として2つの階層組に分割されるとき、エンコーダ102は、各階層組のピクチャの符号化画像データをそれぞれ持つ2つのビデオストリーム(符号化ストリーム)を生成する。 The encoder 102 generates a single video stream (single stream) having encoded image data of pictures in each layer, or divides a plurality of layers into a predetermined number of two or more layer groups, and divides each layer group into A predetermined number of video streams (multi-streams) each having encoded image data of pictures are generated. For example, in the example of hierarchical encoding in FIG. 2 video streams (encoded streams) each having encoded image data of pictures of .

エンコーダ102は、生成するビデオストリームの数によらず、上述したように、複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する。この場合、例えば、識別情報として、SPSに含まれるビットストリームのレベル指定値である「general_level_idc」が利用され、高階層側の階層組ほど高い値とされる。なお、サブレイヤ(sublayer)毎に「sub_layer_level_idc」をSPSで送ることができるので、識別情報として、この「sub_layer_level_idc」を用いてもよい。以上はSPSだけでなくVPSにおいても供給される。 Regardless of the number of video streams to be generated, the encoder 102 divides a plurality of layers into a predetermined number of layer groups equal to or greater than two, as described above, and encodes the encoded image data of the picture in each layer group into the belonging layer group. Add identification information to identify the In this case, for example, "general_level_idc", which is the level designation value of the bitstream included in the SPS, is used as the identification information, and the higher the layer set, the higher the value. Since "sub_layer_level_idc" can be sent by SPS for each sublayer, this "sub_layer_level_idc" may be used as identification information. The above is supplied in VPS as well as in SPS.

この場合、各階層組のレベル指定値の値は、この階層組のピクチャと、この階層組より低階層側の全ての階層組のピクチャとからなるフレームレートに対応した値とされる。例えば、図3の階層符号化の例において、階層0から3の階層組のレベル指定値は、階層0から3のピクチャのみからなるフレームレートに対応した値とされ、階層4の階層組のレベル指定値は、階層0から4の全ての階層のピクチャからなるフレームレートに対応した値とされる。 In this case, the value of the level designation value of each layer group is a value corresponding to the frame rate of the picture of this layer group and the pictures of all layer groups below this layer group. For example, in the example of hierarchical coding shown in FIG. The specified value is a value corresponding to the frame rate of pictures of all layers 0 to 4. FIG.

図6は、階層符号化の際のエンコード、デコード、表示順序と遅延の一例を示している。この例は、上述の図3の階層符号化例に対応している。この例は、全階層(全レイヤ)を、フル時間解像度で階層符号化する場合を示している。図6(a)はエンコーダ入力を示す。図6(b)に示すように、16ピクチャ分の遅延をもって、各ピクチャがエンコード順にエンコードされて、符号化ストリームが得られる。また、図6(b)はデコーダ入力を示し、各ピクチャがデコード順にデコードされる。そして、図6(c)に示すように、4ピクチャの遅延をもって、各ピクチャの画像データが表示順に得られる。 FIG. 6 shows an example of encoding, decoding, display order and delay in hierarchical coding. This example corresponds to the hierarchical coding example of FIG. 3 described above. This example shows a case where all hierarchies (all layers) are hierarchically encoded with full temporal resolution. FIG. 6(a) shows the encoder input. As shown in FIG. 6B, each picture is encoded in encoding order with a delay of 16 pictures to obtain an encoded stream. Also, FIG. 6(b) shows the decoder input, and each picture is decoded in decoding order. Then, as shown in FIG. 6(c), the image data of each picture is obtained in display order with a delay of 4 pictures.

図7(a)は、上述の図6(b)に示す符号化ストリームと同様の符号化ストリームを、階層0から2、階層3、階層4の3段階に分けて示している。ここで、「Tid」は、temporal_idを示している。図7(b)は、階層0から2、つまりTid=0~2の部分階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。また、図7(c)は、階層0から3、つまりTid=0~3の部分階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。さらに、図7(d)は、階層0から4、つまりTid=0~4の全階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。 FIG. 7A shows an encoded stream similar to the encoded stream shown in FIG. Here, "Tid" indicates temporal_id. FIG. 7(b) shows display expectations (display order) when selectively decoding pictures of layers 0 to 2, that is, partial layers of Tid=0 to 2. FIG. FIG. 7(c) shows display expectations (display order) when selectively decoding pictures of layers 0 to 3, that is, partial layers of Tid=0 to 3. FIG. Furthermore, FIG. 7(d) shows the display expectation (display order) when selectively decoding each picture of layers 0 to 4, that is, all layers of Tid=0 to 4. FIG.

図7(a)の符号化ストリームをデコード能力別にデコード処理するには、時間解像度がフルレートのデコード能力が必要となる。しかし、Tid=0~2のデコードを行う場合、符号化されたフルの時間解像度に対して、1/4のデコード能力をもつデコーダが処理可能とすべきである。また、Tid=0~3のデコードを行う場合、符号化されたフルの時間解像度に対して、1/2のデコード能力をもつデコーダが処理可能とすべきである。 In order to decode the encoded stream of FIG. 7(a) by decoding capability, decoding capability with full-rate temporal resolution is required. However, when decoding Tid = 0 to 2, a decoder with 1/4 decoding capability should be able to handle the full temporal resolution of the encoded data. Also, when decoding Tid=0 to 3, a decoder with half the decoding capability of the encoded full temporal resolution should be able to process.

しかし、階層符号化において参照される低階層に属するピクチャが連続し、それらが時間解像度でフルなタイミングで符号化されると、部分デコードするデコーダの能力が追い付かないことになる。図7(a)のAの期間がそれに該当する。Tid=0~2、あるいはTid=0~3の部分的な階層をデコードするデコーダは、表示の例で示すような、時間軸が1/4あるいは1/2の能力でデコード・表示を行うため、Aの期間符号化された時間解像度がフルで連続するピクチャのデコードはできない。 However, if the pictures belonging to the lower layers that are referred to in the hierarchical coding continue and are coded at full timing with temporal resolution, the ability of the decoder to perform partial decoding cannot catch up. The period A in FIG. 7A corresponds to this. Decoders that decode partial hierarchies with Tid=0 to 2 or Tid=0 to 3 decode and display with the capability of 1/4 or 1/2 of the time axis as shown in the display example. , A, continuous pictures with full temporal resolution encoded cannot be decoded.

TaはTid=0~2をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。TbはTid=0~3をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。TcはTid=0~4(全階層)をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。これらの各時間の関係は、Ta>Tb>Tcとなる。 Ta indicates the time required for the decoding process for each picture in the decoder that decodes Tid=0-2. Tb indicates the time required for the decoding process for each picture in the decoder that decodes Tid=0-3. Tc indicates the time required for decoding processing for each picture in a decoder that decodes Tid=0 to 4 (all hierarchies). The relationship between these times is Ta>Tb>Tc.

この実施の形態においては、後述するように、受信装置200は、デコード能力が低いデコーダを持ち、低階層ピクチャのデコードを選択的に行う場合、デコードタイムスタン(DTS:decoding Time stamp)を書き換えて低階層ピクチャのデコード間隔を調整する機能を持つようにされる。これにより、デコード能力の低いデコーダでも、無理のないデコード処理が可能となる。 In this embodiment, as will be described later, when receiving apparatus 200 has a decoder with low decoding capability and selectively decodes low-layer pictures, decoding time stamp (DTS) is rewritten. It has a function to adjust the decoding interval of low-hierarchical pictures. As a result, even a decoder with a low decoding capability can perform a reasonable decoding process.

図2に戻って、圧縮データバッファ(cpb)103は、エンコーダ102で生成された、各階層のピクチャの符号化データを含むビデオストリームを、一時的に蓄積する。マルチプレクサ104は、圧縮データバッファ103に蓄積されているビデオストリームを読み出し、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。 Returning to FIG. 2, the compressed data buffer (cpb) 103 temporarily accumulates a video stream containing encoded data of pictures in each layer generated by the encoder 102 . The multiplexer 104 reads out the video stream stored in the compressed data buffer 103, converts it into PES packets, further converts it into transport packets, and multiplexes them to obtain a transport stream TS as a multiplexed stream.

この実施の形態においては、上述したように、複数の階層は2以上の所定数の階層組に分割される。マルチプレクサ104は、PESパケットのヘッダ(PESヘッダ)に、ビデオストリームが持つ各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入する。この識別情報により、受信側では、自身のデコード能力に応じた階層組のピクチャの符号化画像データのみをバッファに取り込んで処理することが可能となる。 In this embodiment, as described above, a plurality of hierarchies are divided into a predetermined number of hierarchy sets equal to or greater than two. The multiplexer 104 inserts, into the header of the PES packet (PES header), identification information identifying to which layer set the encoded image data of each picture in the video stream belongs. This identification information enables the receiving side to store and process only the coded image data of the picture of the hierarchy set according to its own decoding capability.

マルチプレクサ104は、例えば、複数の階層を低階層組と高階層組に二分する場合、PESヘッダに存在する、周知のPESプライオリティ(PES_priority)の1ビットフィールドを利用する。この1ビットフィールドは、PESペイロードに低階層側の階層組のピクチャの符号化画像データを含む場合は“1”、つまり優先度が高く設定される。一方、この1ビットフィールドは、PESペイロードに高階層側の階層組のピクチャの符号化画像データを含む場合は“0”、つまり優先度が低く設定される。 The multiplexer 104 uses a well-known PES priority (PES_priority) 1-bit field present in the PES header when, for example, dividing a plurality of hierarchies into a low-hierarchy group and a high-hierarchy group. This 1-bit field is set to "1" when the PES payload contains the encoded image data of the picture of the layer set on the lower layer side, that is, the priority is set high. On the other hand, this 1-bit field is set to "0" when the PES payload contains the encoded image data of the picture of the layer group on the higher layer side, that is, the priority is set low.

トランスポートストリームTSには、上述したように、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム、あるいは上述の各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれる。マルチプレクサ104は、トランスポートストリームTSに、階層情報、ストリーム構成情報を挿入する。 As described above, the transport stream TS includes a single video stream having encoded image data of pictures in each layer, or a predetermined number of video streams each having encoded image data of pictures in each layer group. is included. The multiplexer 104 inserts layer information and stream configuration information into the transport stream TS.

トランスポートストリームTSには、PSI(Program Specific Information)の一つとして、PMT(Program Map Table)が含まれている。このPMTには、各ビデオストリームに関連した情報を持つビデオエレメンタリ・ループ(video ES1 loop)が存在する。このビデオエレメンタリ・ループには、各ビデオストリームに対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。 The transport stream TS includes PMT (Program Map Table) as one of PSI (Program Specific Information). In this PMT there is a video elementary loop (video ES1 loop) with information related to each video stream. In this video elementary loop, information such as a stream type, packet identifier (PID), etc. is arranged corresponding to each video stream, and a descriptor describing information related to the video stream is also arranged.

マルチプレクサ104は、このデスクリプタの一つとして、HEVCデスクリプタ(HEVC_descriptor)を挿入し、さらに、新たに定義するスケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を挿入する。 The multiplexer 104 inserts an HEVC descriptor (HEVC_descriptor) as one of these descriptors, and further inserts a newly defined scalability extension descriptor (scalability_extension_descriptor).

図8は、HEVCデスクリプタ(HEVC_descriptor)の構造例(Syntax)を示している。また、図9は、その構造例における主要な情報の内容(Semantics)を示している。 FIG. 8 shows an example structure (Syntax) of an HEVC descriptor (HEVC_descriptor). Also, FIG. 9 shows the main information contents (Semantics) in the structural example.

「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示し、ここでは、HEVCデスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。 An 8-bit field of "descriptor_tag" indicates a descriptor type, here indicating that it is an HEVC descriptor. An 8-bit field of "descriptor_length" indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.

「level_idc」の8ビットフィールドは、ビットレートのレベル指定値を示す。また、「temporal_layer_subset_flag = 1」であるとき、「temporal_id_min」の5ビットフィールドと、「temporal_id_max」の5ビットフィールドが存在する。「temporal_id_min」は、対応するビデオストリームに含まれる階層符号化データの最も低い階層のtemporal_idの値を示す。「temporal_id_max」は、対応するビデオストリームが持つ階層符号化データの最も高い階層のtemporal_idの値を示す。 An 8-bit field of "level_idc" indicates a bit rate level designation value. Also, when 'temporal_layer_subset_flag=1', there are a 5-bit field of 'temporal_id_min' and a 5-bit field of 'temporal_id_max'. "temporal_id_min" indicates the value of temporal_id of the lowest layer of hierarchically-encoded data included in the corresponding video stream. "temporal_id_max" indicates the value of temporal_id of the highest layer of hierarchically encoded data of the corresponding video stream.

「level_constrained_flag」の1ビットフィールドは、新たに定義するものであり、VPSのNALユニットに含まれるビットストリームのレベル指定値(general_level_idc)がピクチャ毎に変わり得ることを示す。“1”は変わり得ることを示し、“0”は変わらないことを示す。 A 1-bit field of “level_constrained_flag” is newly defined, and indicates that the level specification value (general_level_idc) of the bitstream included in the VPS NAL unit can change for each picture. "1" indicates that it can change, and "0" indicates that it does not change.

上述したように、例えば、“general_level_idc”は、複数の階層を2以上の所定数の階層組に分割した際の所属階層組の識別情報として利用される。そのため、複数の階層組のピクチャの符号化画像データを持つビデオストリームの場合、“general_level_idc”がピクチャ毎に変わり得ることになる。一方、単一の階層組のピクチャの符号化画像データを持つビデオストリームの場合は、“general_level_idc”がピクチャ毎に変わるということはない。あるいは、sublayerごとに“sublayer_level_idc”が付され、デコーダはデコード可能な範囲のtemporal_idのパケットを読むことによって、対応する階層のデータを処理する。 As described above, for example, "general_level_idc" is used as identification information of a hierarchy set to which a plurality of hierarchies belong when a plurality of hierarchies are divided into a predetermined number of hierarchy sets equal to or greater than two. Therefore, in the case of a video stream having encoded image data of pictures of multiple layer sets, "general_level_idc" can change for each picture. On the other hand, in the case of a video stream having encoded image data of pictures of a single layer set, "general_level_idc" does not change for each picture. Alternatively, "sublayer_level_idc" is attached to each sublayer, and the decoder processes the data of the corresponding layer by reading the temporal_id packets within the decodable range.

「scalability_id」の3ビットフィールドは、新たに定義するものであり、複数のビデオストリームがスケーラブルなサービスを供給する際、個々のストリームに付されるスケーラビリティを示すIDである。“0”はベースストリームを示し、“1”~“7”はベースストリームからのスケーラビリティの度合いによって増加するIDである。 A 3-bit field of "scalability_id" is newly defined, and is an ID indicating scalability given to each stream when multiple video streams provide scalable services. "0" indicates the base stream, and "1" to "7" are IDs that increase according to the degree of scalability from the base stream.

図10は、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)の構造例(Syntax)を示している。また、図11は、その構造例における主要な情報の内容(Semantics)を示している。 FIG. 10 shows a structural example (Syntax) of a scalability extension descriptor (scalability_extension_descriptor). Also, FIG. 11 shows the content (semantics) of main information in the structural example.

「scalability_extension_descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示し、ここでは、スケーラビリティ・エクステンション・デスクリプタであることを示す。「scalability_extension_descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。「extension_stream_existing_flag」の1ビットフィールドは、別ストリームによる拡張サービスがあることを示すフラグである。“1”は拡張ストリームがあることを示し、“0”は拡張ストリームがないことを示す。 An 8-bit field of "scalability_extension_descriptor_tag" indicates a descriptor type, here indicating that it is a scalability extension descriptor. An 8-bit field of “scalability_extension_descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor. A 1-bit field of "extension_stream_existing_flag" is a flag indicating that there is an extension service by another stream. A "1" indicates that there is an extension stream, and a "0" indicates that there is no extension stream.

「extension_type」の3ビットフィールドは、拡張のタイプを示す。“001”は、拡張が、時間方向スケーラブルであることを示す。“010”は、拡張が、空間方向スケーラブルであることを示す。“011”は、拡張が、ビットレートスケーラブルであることを示す。 A 3-bit field of “extension_type” indicates the extension type. “001” indicates that the extension is temporally scalable. “010” indicates that the extension is spatially scalable. "011" indicates that the extension is bitrate scalable.

「number_of_streams」の4ビットフィールドは、配信サービスに関与するストリームの総数を示す。「scalability_id」の3ビットフィールドは、複数のビデオストリームがスケーラブルなサービスを供給する際、個々のストリームに付されるスケーラビリティを示すIDである。“0”はベースストリームを示し、“1”~“7”はベースストリームからのスケーラビリティの度合いによって増加するIDである。 A 4-bit field of "number_of_streams" indicates the total number of streams involved in the delivery service. A 3-bit field of "scalability_id" is an ID indicating scalability given to each stream when multiple video streams provide scalable services. "0" indicates the base stream, and "1" to "7" are IDs that increase according to the degree of scalability from the base stream.

「number_of_layers」の3ビットフィールドは、当該ストリームの総階層数を示す。「sublayer_level_idcの8ビットフィールドは、temporal_idで示される該当サブレイヤが、それより下位のレイヤを含んで、デコーダが対応するlevel_idcの値を示す。「Number of layers」は、NALユニットヘッダ(NAL unit header)の「Nuh_temporal_id_plus1」のすべての値を包含するものであり、デマルチプレクサ(demuxer)がこれを検知することで、所定のlevel_idcに対応するデコーダがどの階層までデコードできるかを、「sublayer_level_idc」により事前に認識することが可能となる。 A 3-bit field of "number_of_layers" indicates the total number of layers of the stream. ``The 8-bit field of sublayer_level_idc indicates the value of level_idc that the decoder corresponds to, including the lower layers of the corresponding sublayer indicated by temporal_id. This includes all values of "Nuh_temporal_id_plus1", and the demuxer detects this to determine to what layer the decoder corresponding to the given level_idc can decode in advance by "sublayer_level_idc" It becomes possible to recognize

上述したように、この実施の形態において、SPSに含まれるビットレートのレベル指定値(general_level_idc)などは、複数の階層を2以上の所定数の階層組に分割した際の所属階層組の識別情報として利用される。各階層組のレベル指定値の値は、この階層組のピクチャと、この階層組より低階層側の全ての階層組のピクチャとからなるフレームレートに対応した値とされる。 As described above, in this embodiment, the bit rate level specification value (general_level_idc) included in the SPS is the identification information of the group of layers to which it belongs when dividing a plurality of layers into a predetermined number of layer groups of two or more. used as The value of the level designation value of each layer group is a value corresponding to the frame rate of the picture of this layer group and the pictures of all layer groups lower than this layer group.

図12は、マルチプレクサ104の構成例を示している。PESプライオリティ発生部141と、セクションコーディング部142と、PESパケット化部143-1~143-Nと、スイッチ部144と、トランスポートパケット化部145を有している。 FIG. 12 shows an example configuration of the multiplexer 104 . It has a PES priority generation unit 141 , a section coding unit 142 , PES packetization units 143 - 1 to 143 -N, a switch unit 144 and a transport packetization unit 145 .

PESパケット化部143-1~143-Nは、それぞれ、圧縮データバッファ103に蓄積されているビデオストリーム1~Nを読み込み、PESパケットを生成する。この際、PESパケット化部143-1~143-Nは、ビデオストリーム1~NのHRD情報を元にDTS(Decoding Time Stamp)、PTS(Presentation Time Stamp)のタイムスタンプをPESヘッダに付与する、この場合、各ピクチャの「cpu_removal_delay」、「dpb_output_delay」が参照され、STC(System Time Clock)時刻に同期した精度で、各々DTS、PTSに変換され、PESヘッダの所定位置に配置される。 The PES packetization units 143-1 to 143-N respectively read the video streams 1 to N accumulated in the compressed data buffer 103 and generate PES packets. At this time, the PES packetization units 143-1 to 143-N attach time stamps of DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp) to the PES header based on the HRD information of the video streams 1 to N. In this case, "cpu_removal_delay" and "dpb_output_delay" of each picture are referred to, converted into DTS and PTS, respectively, with accuracy synchronized with the STC (System Time Clock) time, and arranged at a predetermined position of the PES header.

PESプライオリティ発生部141には、CPU101から、階層数(Number of layers)とストリーム数(Number of streams)の情報が供給される。PESプライオリティ発生部141は、階層数で示される複数の階層を2以上の所定数の階層組に分割した場合における、各階層組の優先度情報を発生する。例えば、2分割される場合には、PESパケットヘッダの「PES_priority」の1ビットフィールドに挿入すべき値(低階層組は“1”、高階層組は“0”)を発生する。 Information on the number of layers and the number of streams is supplied from the CPU 101 to the PES priority generation unit 141 . The PES priority generation unit 141 generates priority information for each hierarchy set when a plurality of hierarchies indicated by the number of hierarchies is divided into a predetermined number of hierarchy sets equal to or greater than two. For example, when dividing into two, a value ("1" for a low-layer group and "0" for a high-layer group) to be inserted into the 1-bit field of "PES_priority" of the PES packet header is generated.

PESプライオリティ発生部141で発生される各階層組の優先度情報は、PESパケット化部143-1~143-Nに供給される。PESパケット化部143-1~143-Nは、この各階層組の優先度を、その階層組のピクチャの符号化画像データを含むPESパケットのヘッダに識別情報として挿入する。 The priority information of each layer set generated by the PES priority generator 141 is supplied to the PES packetizers 143-1 to 143-N. The PES packetization units 143-1 to 143-N insert the priority of each layer group into the header of the PES packet containing the encoded image data of the picture of the layer group as identification information.

なお、このようにピクチャ毎にPESパケットのヘッダにそのピクチャが属する階層組の優先度をヘッダ情報として挿入する処理は、エンコーダ102で単一のビデオストリーム(シングルストリーム)が生成される場合に限ってもよい。この場合は、PESパケット化部143-1でのみ処理が行われることとなる。 Note that the process of inserting the priority of the layer group to which the picture belongs to the header of the PES packet for each picture as header information is limited to the case where the encoder 102 generates a single video stream (single stream). may In this case, processing is performed only by the PES packetization unit 143-1.

スイッチ部144は、PESパケット化部143-1~143-Nで生成されたPESパケットを、パケット識別子(PID)に基づいて選択的に取り出し、トランスポートパケット化部145に送る。トランスポートパケット化部145は、PESパケットをペイロードに含むTSパケットを生成し、トランスポートストリームTSを得る。 The switch section 144 selectively extracts the PES packets generated by the PES packetization sections 143 - 1 to 143 -N based on the packet identifier (PID), and sends them to the transport packetization section 145 . The transport packetization unit 145 generates TS packets containing PES packets in their payloads, and obtains a transport stream TS.

セクションコーディング部142は、トランスポートストリームTSに挿入すべき各種のセクションデータを生成する。セクションコーディング部142には、CPU101から、階層数(Number of layers)と、ストリーム数(Number of streams)の情報が供給される。セクションコーディング部142は、この情報に基づいて、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を生成する。 The section coding unit 142 generates various section data to be inserted into the transport stream TS. Information on the number of layers (Number of layers) and the number of streams (Number of streams) is supplied from the CPU 101 to the section coding unit 142 . The section coding unit 142 generates the above-described HEVC descriptor (HEVC_descriptor) and scalability extension descriptor (scalability_extension_descriptor) based on this information.

セクションコーディング部142は、各種セクションデータを、トランスポートパケット化部145に送る。トランスポートパケット化部145は、このセクションデータを含むTSパケットを生成し、トランスポートストリームTSに挿入する。 Section coding section 142 sends various section data to transport packetization section 145 . The transport packetization unit 145 generates TS packets containing this section data and inserts them into the transport stream TS.

図13は、マルチプレクサ104の処理フローを示す。この例は、複数の階層を低階層組と高階層組の2つに分割する例である。マルチプレクサ104は、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、マルチプレクサ104は、ビデオストリーム(ビデオエレメンタリストリーム)の各ピクチャのtemporal_id_と、構成する符号化ストリーム数を設定する。 FIG. 13 shows the processing flow of multiplexer 104 . This example is an example of dividing a plurality of hierarchies into two groups, a low-hierarchy group and a high-hierarchy group. The multiplexer 104 starts processing in step ST1, and then proceeds to processing in step ST2. In this step ST2, the multiplexer 104 sets temporal_id_ of each picture of the video stream (video elementary stream) and the number of coded streams to constitute.

次に、マルチプレクサ104は、ステップST3において、HRD情報(cpu_removal_delay、dpb_output_delay)を参照して、DTS、PTSを決め、PESヘッダの所定位置に挿入する。 Next, in step ST3, the multiplexer 104 refers to the HRD information (cpu_removal_delay, dpb_output_delay) to determine the DTS and PTS, and inserts them at predetermined positions in the PES header.

次に、マルチプレクサ104は、ステップST4において、シングルストリーム(単一ビデオストリーム)か否かを判断する。シングルストリームであるとき、マルチプレクサ104は、ステップST5において、1つのPID(パケット識別子)で多重化処理を進めることとし、その後に、ステップST7の処理に移る。 Next, in step ST4, multiplexer 104 determines whether it is a single stream (single video stream). If it is a single stream, the multiplexer 104 advances the multiplexing process with one PID (packet identifier) in step ST5, and then moves to the process of step ST7.

このステップST7において、マルチプレクサ104は、ピクチャのそれぞれについて低階層組のピクチャ(スライス)であるか判断する。低階層組のピクチャであるとき、マルチプレクサ104は、ステップST8において、ペイロードにそのピクチャの符号化画像データを含むPESパケットのヘッダの「PES_priority」を“1”に設定する。一方、高階層組(非低階層組)のピクチャであるとき、マルチプレクサ104は、ステップST9において、ペイロードにそのピクチャの符号化画像データを含むPESパケットのヘッダの「PES_priority」を“0”に設定する。マルチプレクサ104は、ステップST8、ステップST9の処理の後、ステップST10の処理に移る。 In this step ST7, the multiplexer 104 determines whether each picture is a picture (slice) of the low layer set. If it is a picture of the low hierarchy group, the multiplexer 104 sets "PES_priority" of the header of the PES packet containing the encoded image data of the picture in the payload to "1" in step ST8. On the other hand, if the picture is a high layer set (non-low layer set), the multiplexer 104 sets "PES_priority" of the header of the PES packet containing the encoded image data of the picture in the payload to "0" in step ST9. do. After the processing of steps ST8 and ST9, the multiplexer 104 proceeds to the processing of step ST10.

ここで、ピクチャ(picture)とスライス(slice)の関連付けについて説明する。ピクチャは、概念で、構造定義としてはスライスと同じである。1ピクチャは、複数のスライスに分けられるが、この複数のスライスがアクセスユニットとしては同じであることは、パラメータセット(parameter set)でわかるようになっている。 Here, the association between pictures and slices will be described. A picture is conceptually the same as a slice in structural definition. One picture is divided into a plurality of slices, and the fact that these slices are the same as access units can be understood from a parameter set.

上述のステップST4でシングルストリームでないとき、マルチプレクサ104は、ステップST6において、複数のパケットPID(パケット識別子)で多重化処理を進めることとし、その後に、ステップST10の処理に移る。このステップST10において、マルチプレクサ104は、符号化ストリーム(ビデオエレメンタリストリーム)をPESペイロードに挿入してPESパケット化する。 When it is determined in step ST4 that the stream is not a single stream, the multiplexer 104 proceeds with multiplexing processing using a plurality of packet PIDs (packet identifiers) in step ST6, and then proceeds to processing in step ST10. In this step ST10, the multiplexer 104 inserts the encoded stream (video elementary stream) into the PES payload and PES packetizes it.

次に、マルチプレクサ104は、ステップST11において、HEVCデスクリプタ、スケーラビリティ・エクステンション・デスクリプタなどをコーディングする。そして、マルチプレクサ104は、ステップST12においてトランスポートパケット化し、トランスポートストリームTSを得る。その後、マルチプレクサ104は、ステップST13において、処理を終了する。 Next, multiplexer 104 codes HEVC descriptors, scalability extension descriptors, etc. in step ST11. Then, the multiplexer 104 transport packetizes in step ST12 to obtain a transport stream TS. After that, the multiplexer 104 terminates the processing in step ST13.

図14は、単一ストリームによる配信を行う場合のトランスポートストリームTSの構成例を示している。このトランスポートストリームTSには、1つのビデオストリームが含まれている。すなわち、この構成例では、複数の階層のピクチャの例えばHEVCによる符号化画像データを持つビデオストリームのPESパケット「video PES1」が存在すると共に、オーディオストリームのPESパケット「audio PES1」が存在する FIG. 14 shows a configuration example of a transport stream TS for single-stream distribution. This transport stream TS contains one video stream. That is, in this configuration example, there is a PES packet "video PES1" of a video stream having, for example, HEVC-encoded image data of pictures in a plurality of layers, and a PES packet "audio PES1" of an audio stream.

各ピクチャの符号化画像データには、VPS、SPS、SEIなどのNALユニットが存在する。上述したように、各ピクチャのNALユニットのヘッダには、そのピクチャの階層を示すtemporal_idが挿入されている。また、例えば、VPSにはビットレートのレベル指定値(general_level_idc)が含まれている。また、例えば、ピクチャ・タイミング・SEI(Picture timing SEI)には、「cpb_removal_delay」と「dpb_output_delay」が含まれている。 Encoded image data of each picture includes NAL units such as VPS, SPS, and SEI. As described above, temporal_id indicating the hierarchy of the picture is inserted in the header of the NAL unit of each picture. Also, for example, the VPS includes a bit rate level designation value (general_level_idc). Also, for example, picture timing SEI includes "cpb_removal_delay" and "dpb_output_delay".

また、PESパケットのヘッダ(PESヘッダ)に「PES_priority」の1ビットの優先度を示すフィールドが存在する。この「PES_priority」により、PESペイロードに含まれるピクチャの符号化画像データが、低階層組のピクチャのものか、あるいは高階層組のピクチャのものかが識別可能である。 In addition, there is a field indicating a 1-bit priority of "PES_priority" in the header of the PES packet (PES header). With this "PES_priority", it is possible to identify whether the encoded image data of the picture included in the PES payload is the picture of the low layer group or the picture of the high layer group.

また、トランスポートストリームTSには、PSI(Program Specific Information)の一つとして、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。 The transport stream TS also includes a PMT (Program Map Table) as one of PSI (Program Specific Information). This PSI is information describing to which program each elementary stream included in the transport stream belongs.

PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ(video ES1 loop)が存在すると共に、オーディオエレメンタリ・ループ(audio ES1 loop)が存在する。 A PMT has a program loop that describes information related to the entire program. Also in the PMT there is an elementary loop with information related to each elementary stream. In this configuration example, there is a video elementary loop (video ES1 loop) and an audio elementary loop (audio ES1 loop).

ビデオエレメンタリ・ループには、ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)が挿入される。 In the video elementary loop, information such as stream type and packet identifier (PID) is arranged corresponding to the video stream (video PES1), and descriptors describing information related to the video stream are also arranged. be. As one of these descriptors, the above-described HEVC descriptor (HEVC_descriptor) and scalability extension descriptor (scalability_extension_descriptor) are inserted.

図2に戻って、送信部105は、トランスポートストリームTSを、例えば、QPSK/OFDM等の放送に適した変調方式で変調し、RF変調信号を送信アンテナから送信する。 Returning to FIG. 2, the transmission unit 105 modulates the transport stream TS with a modulation scheme suitable for broadcasting, such as QPSK/OFDM, and transmits an RF modulated signal from a transmission antenna.

図2に示す送信装置100の動作を簡単に説明する。エンコーダ102には、非圧縮の動画像データが入力される。エンコーダ102では、この動画像データに対して、階層符号化が行われる。すなわち、エンコーダ102では、この動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化され、各階層のピクチャの符号化画像データを持つビデオストリームが生成される。この際、参照するピクチャが、自己階層および/または自己階層よりも下位の階層に所属するように、符号化される。 The operation of the transmission device 100 shown in FIG. 2 will be briefly described. Uncompressed moving image data is input to the encoder 102 . The encoder 102 performs hierarchical coding on this moving image data. That is, the encoder 102 classifies the image data of each picture forming the moving image data into a plurality of layers and encodes them, thereby generating a video stream having encoded image data of the pictures of each layer. At this time, the picture to be referred to is coded so as to belong to the self-layer and/or a layer lower than the self-layer.

エンコーダ102では、各階層のピクチャの符号化画像データを持つ単一のビデオストリームが生成されるか、あるいは、複数の階層が2以上の所定数の階層組に分割され、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが生成される。 In the encoder 102, a single video stream having encoded image data of pictures in each layer is generated, or a plurality of layers is divided into a predetermined number of layer sets of two or more, and the pictures in each layer set are divided into two or more layer sets. A predetermined number of video streams each having encoded image data are generated.

また、エンコーダ102で生成された、各階層のピクチャの符号化データを含むビデオストリームは、圧縮データバッファ(cpb)103に供給され、一時的に蓄積される。マルチプレクサ104では、圧縮データバッファ103に蓄積されているビデオストリームが読み出され、PESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。 A video stream containing encoded data of pictures in each layer generated by the encoder 102 is supplied to a compressed data buffer (cpb) 103 and temporarily stored. The multiplexer 104 reads the video stream stored in the compressed data buffer 103, PES-packetizes it, further transport-packets it, and multiplexes it to obtain a transport stream TS as a multiplexed stream.

マルチプレクサ104では、例えば、単一のビデオストリーム(シングルストリーム)の場合、PESパケットのヘッダ(PESヘッダ)に、ビデオストリームが持つ各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入される。例えば、複数の階層を低階層組と高階層組に二分する場合、PESヘッダのPESプライオリティ(PES_priority)の1ビットフィールドが利用される。 In the multiplexer 104, for example, in the case of a single video stream (single stream), the encoded image data of each picture of the video stream is encoded in the header of the PES packet (PES header) to which layer group each picture belongs. Identification information for identifying image data is inserted. For example, when dividing a plurality of hierarchies into a low-hierarchy group and a high-hierarchy group, a 1-bit field of PES priority (PES_priority) of the PES header is used.

また、マルチプレクサ104では、トランスポートストリームTSに、階層情報、ストリーム構成情報が挿入される。すなわち、マルチプレクサ104では、各ビデオストリームに対応したビデオエレメンタリ・ループに、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)が挿入される。 Also, the multiplexer 104 inserts layer information and stream configuration information into the transport stream TS. That is, the multiplexer 104 inserts an HEVC descriptor (HEVC_descriptor) and a scalability extension descriptor (scalability_extension_descriptor) into the video elementary loop corresponding to each video stream.

マルチプレクサ104で生成されるトランスポートストリームTSは、送信部105に送られる。送信部105では、このトランスポートストリームTSが、例えば、QPSK/OFDM等の放送に適した変調方式で変調され、RF変調信号が送信アンテナから送信される。 A transport stream TS generated by the multiplexer 104 is sent to the transmission section 105 . The transmission unit 105 modulates the transport stream TS with a modulation scheme suitable for broadcasting, such as QPSK/OFDM, and transmits an RF modulated signal from a transmission antenna.

「受信装置の構成」
図15は、受信装置200の構成例を示している。この受信装置200は、CPU(Central Processing Unit)201と、受信部202と、デマルチプレクサ203と、圧縮データバッファ(cpb:coded picture buffer)204を有している。また、この受信装置200は、デコーダ205と、非圧縮データバッファ(dpb:decoded picture buffer)206と、ポスト処理部207を有している。CPU201は、制御部を構成し、受信装置200の各部の動作を制御する。
"Receiving Device Configuration"
FIG. 15 shows a configuration example of the receiving device 200. As shown in FIG. This receiver 200 has a CPU (Central Processing Unit) 201 , a receiver 202 , a demultiplexer 203 , and a compressed data buffer (cpb: coded picture buffer) 204 . The receiver 200 also has a decoder 205 , a non-compressed data buffer (dpb: decoded picture buffer) 206 , and a post-processing section 207 . The CPU 201 constitutes a control unit and controls the operation of each unit of the receiving device 200 .

受信部202は、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203は、トランスポートストリームTSから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データを選択的に取り出し、圧縮データバッファ(cpb:coded picture buffer)204に送る。 The receiving section 202 demodulates the RF modulated signal received by the receiving antenna and acquires the transport stream TS. The demultiplexer 203 selectively extracts the coded image data of the picture of the layer set according to the decoding capability (Decoder temporal layer capability) from the transport stream TS, and sends it to the compressed data buffer (cpb: coded picture buffer) 204 . .

図16は、デマルチプレクサ203の構成例を示している。デマルチプレクサ203は、TSアダプテーションフィールド抽出部231と、クロック情報抽出部232と、TSペイロード抽出部233と、セクション抽出部234と、PSIテーブル/デスクリプタ抽出部235と、PESパケット抽出部236を有している。また、デマルチプレクサ203は、PESヘッダ抽出部237と、タイムスタンプ抽出部238と、識別情報抽出部239と、PESペイロード抽出部240と、ストリーム構成部(ストリームコンポーザ)241を有している。 FIG. 16 shows a configuration example of the demultiplexer 203. As shown in FIG. The demultiplexer 203 has a TS adaptation field extractor 231, a clock information extractor 232, a TS payload extractor 233, a section extractor 234, a PSI table/descriptor extractor 235, and a PES packet extractor 236. ing. The demultiplexer 203 also has a PES header extractor 237 , a time stamp extractor 238 , an identification information extractor 239 , a PES payload extractor 240 and a stream composer 241 .

TSアダプテーションフィールド抽出部231は、トランスポートストリームTSのアダプテーションフィールドを持つTSパケットから当該アダプテーションフィールドを抽出する。クロック情報抽出部232は、PCR(Program Clock Reference)が含まれるアダプテーションフィールドから当該PCRを抽出し、CPU201に送る。 The TS adaptation field extraction unit 231 extracts the adaptation field from the TS packet having the adaptation field of the transport stream TS. The clock information extraction unit 232 extracts the PCR (Program Clock Reference) from the adaptation field containing the PCR, and sends the PCR to the CPU 201 .

TSペイロード抽出部233は、トランスポートストリームTSのTSペイロードを持つTSパケットから当該TSペイロードを抽出する。セクション抽出部234は、セクションデータが含まれるTSペイロードから当該セクションデータを抽出する。PSIテーブル/デスクリプタ抽出部235は、セクション抽出部234で抽出されたセクションデータを解析し、PSIテーブルやデスクリプタを抽出する。そして、PSIテーブル/デスクリプタ抽出部235は、temporal_idの最小値(min)と最大値(max)を、CPU201に送ると共に、ストリーム構成部241に送る。 The TS payload extraction unit 233 extracts the TS payload from the TS packets having the TS payload of the transport stream TS. The section extractor 234 extracts the section data from the TS payload containing the section data. A PSI table/descriptor extraction unit 235 analyzes the section data extracted by the section extraction unit 234 and extracts a PSI table and descriptors. The PSI table/descriptor extraction unit 235 then sends the minimum value (min) and maximum value (max) of temporal_id to the CPU 201 and to the stream construction unit 241 .

PESパケット抽出部236は、PESパケットが含まれるTSペイロードから当該PESパケットを抽出する。PESヘッダ抽出部237は、PESパケット抽出部236で抽出されたPESパケットからPESヘッダを抽出する。タイムスタンプ抽出部238は、ピクチャ毎にPESヘッダに挿入されているタイムスタンプ(DTS、PTS)を抽出し、CPU201に送ると共に、ストリーム構成部241に送る。 The PES packet extractor 236 extracts the PES packet from the TS payload containing the PES packet. The PES header extractor 237 extracts the PES header from the PES packets extracted by the PES packet extractor 236 . The time stamp extraction unit 238 extracts the time stamp (DTS, PTS) inserted in the PES header for each picture and sends it to the CPU 201 and the stream construction unit 241 .

識別情報抽出部239は、ピクチャ毎にPESヘッダに挿入されている、そのピクチャが属する階層組を識別する識別情報を抽出し、ストリーム構成部241に送る。例えば、複数の階層が低階層組と高階層組に2分されている場合、PESヘッダの「PES_priority」の1ビットフィールドの優先度情報を抽出し、ストリーム構成部241に送る。なお、この識別情報は、トランスポートストリームTSに単一のビデオストリームが含まれる場合には送信側で必ず挿入されているが、トランスポートストリームTSに複数のビデオストリームが含まれる場合には送信側で挿入されないこともある。 The identification information extracting unit 239 extracts identification information for identifying the layer set to which the picture belongs, which is inserted in the PES header for each picture, and sends it to the stream forming unit 241 . For example, when a plurality of hierarchies are divided into a low hierarchy set and a high hierarchy set, the priority information of the 1-bit field of “PES_priority” of the PES header is extracted and sent to the stream construction section 241 . This identification information is always inserted by the transmitting side when the transport stream TS contains a single video stream, but when the transport stream TS contains a plurality of video streams, the transmitting side may not be inserted with

PESペイロード抽出部240は、PESパケット抽出部236で抽出されたPESパケットからPESペイロード、つまり、各階層のピクチャの符号化画像データを抽出する。ストリーム構成部241は、PESペイロード抽出部240で取り出される各階層のピクチャの符号化画像データから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データを選択的に取り出し、圧縮データバッファ(cpb:coded picture buffer)204に送る。この場合、ストリーム構成部241は、PSIテーブル/デスクリプタ抽出部235で得られる階層情報、ストリーム構成情報、識別情報抽出部239で抽出される識別情報(優先度情報)などを参照する。 The PES payload extractor 240 extracts the PES payload, that is, the encoded image data of the picture of each layer from the PES packets extracted by the PES packet extractor 236 . The stream configuration unit 241 selectively extracts the encoded image data of the picture of the layer set according to the decoding capability (Decoder temporal layer capability) from the encoded image data of the picture of each layer extracted by the PES payload extraction unit 240. , to a compressed data buffer (cpb: coded picture buffer) 204 . In this case, stream configuration section 241 refers to layer information and stream configuration information obtained by PSI table/descriptor extraction section 235, identification information (priority information) extracted by identification information extraction section 239, and the like.

例えば、トランスポートストリームTSに含まれるビデオストリーム(符号化ストリーム)のフレームレートが120fpsである場合を考える。例えば、複数の階層が低階層側の階層組と高階層側の階層組とに2分され、各階層組のピクチャのフレームレートがそれぞれ60fpsであるとする。例えば、上述の図3に示す階層符号化例では、階層0から3は低階層側の階層組とされ、60fpsのlevel_idc対応のデコーダがデコード可能となる。また、階層4は高階層側の階層組とされ、120fpsのlevel_idc対応のデコーダがデコード可能となる。 For example, consider a case where the frame rate of the video stream (encoded stream) included in the transport stream TS is 120 fps. For example, it is assumed that a plurality of hierarchies are divided into a hierarchy group on the low hierarchy side and a hierarchy group on the high hierarchy side, and the frame rate of each picture in each hierarchy group is 60 fps. For example, in the hierarchical encoding example shown in FIG. 3 described above, hierarchies 0 to 3 are set as a hierarchy set on the low hierarchy side, and can be decoded by a decoder that supports level_idc at 60 fps. Hierarchy 4 is a hierarchy group on the higher hierarchy side, and can be decoded by a decoder that supports level_idc at 120 fps.

この場合、トランスポートストリームTSに、各階層のピクチャの符号化データを持つ単一のビデオストリーム(符号化ストリーム)が含まれているか、あるいは、低階層側の階層組のピクチャの符号化画像データ持つベースストリム(B_str)と、高階層側の階層組のピクチャの符号化画像データを持つ拡張ストリーム(E_str)の2つのビデオストリーム(符号化ストリーム)が含まれている。 In this case, the transport stream TS includes a single video stream (coded stream) having coded data of pictures in each layer, or coded image data of pictures in a layer set on the lower layer side. 2 video streams (encoded streams), a base stream (B_str) with the video stream (B_str) and an extended stream (E_str) with encoded image data of the picture of the layer set on the higher layer side.

ストリーム構成部241は、デコード能力が、120fpsに対応している場合、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送る。一方、ストリーム構成部241は、デコード能力が、120fpsに対応していないが60fpsに対応している場合、低階層側の階層組のピクチャの符号化画像データのみを取り出し、圧縮データバッファ(cpb)204に送る。 If the decoding capability is compatible with 120 fps, the stream structuring unit 241 extracts the encoded image data of the pictures of all layers and sends them to the compressed data buffer (cpb) 204 . On the other hand, if the decoding capability is not compatible with 120 fps but is compatible with 60 fps, the stream configuration unit 241 extracts only the encoded image data of the picture of the layer set on the lower layer side, and stores the encoded image data in the compressed data buffer (cpb). 204.

図17は、トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合におけるストリーム構成部241のピクチャ(スライス)選択の一例を示している。ここで、「High」は高階層側の階層組のピクチャを示し、「Low」は低階層側の階層組のピクチャを示す。また、「P」は「PES_priority」を示している。 FIG. 17 shows an example of picture (slice) selection by the stream configuration unit 241 when the transport stream TS contains a single video stream (encoded stream). Here, "High" indicates a picture in a layer group on the high layer side, and "Low" indicates a picture in a layer group on the low layer side. Also, "P" indicates "PES_priority".

デコード能力が、120fpsに対応している場合、ストリーム構成部241は、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送る。一方、デコード能力が、120fpsに対応していないが60fpsに対応している場合、ストリーム構成部241は、「PES_priority」に基づくフィルタリングを行って、P=1である低階層側の階層組のピクチャだけを取り出し、圧縮データバッファ(cpb)204に送る。 If the decoding capability is compatible with 120 fps, the stream construction unit 241 extracts encoded image data of pictures in all layers and sends them to the compressed data buffer (cpb) 204 . On the other hand, if the decoding capability is not compatible with 120 fps but is compatible with 60 fps, the stream configuration unit 241 performs filtering based on "PES_priority" to obtain pictures in the lower layer side layer set with P=1. and send it to compressed data buffer (cpb) 204 .

図18は、トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合におけるストリーム構成部241のピクチャ(スライス)選択の一例を示している。ここで、「High」は高階層側の階層組のピクチャを示し、「Low」は低階層側の階層組のピクチャを示す。また、ベースストリームのパケット識別子(PID)はPID Aであり、拡張ストリームのパケット識別子(PID)はPID Bであるとする。 FIG. 18 shows an example of picture (slice) selection by the stream configuration unit 241 when two video streams (encoded streams), a base stream and an extension stream, are included in the transport stream TS. Here, "High" indicates a picture in a layer group on the high layer side, and "Low" indicates a picture in a layer group on the low layer side. Also assume that the packet identifier (PID) of the base stream is PID A and the packet identifier (PID) of the extended stream is PID B.

デコード能力が、120fpsに対応している場合、ストリーム構成部241は、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送る。この場合、ストリーム構成部241は、各ピクチャの符号化画像データをデコードタイミング情報に基づいて1つのストリームにして圧縮データバッファ(cpb)204に送る。 If the decoding capability is compatible with 120 fps, the stream construction unit 241 extracts encoded image data of pictures in all layers and sends them to the compressed data buffer (cpb) 204 . In this case, the stream construction unit 241 converts the encoded image data of each picture into one stream based on the decode timing information and sends the stream to the compressed data buffer (cpb) 204 .

その場合、デコードタイミングとしてDTSの値をみて、それがピクチャ間で単調増加するようにストリームを一つにまとめる。このピクチャのまとめ処理自体は、圧縮データバッファ(cpb)204がストリーム分だけ複数存在して、その複数の圧縮データバッファ(cpb)204から読み出された複数ストリームに対して行って一つのストリームとしてデコード処理をするようにしもよい。 In that case, the value of DTS is considered as the decoding timing, and the stream is put together so that it monotonously increases between pictures. This picture grouping process itself is performed on a plurality of streams read out from a plurality of compressed data buffers (cpb) 204 corresponding to the number of streams, as one stream. Decoding processing may be performed.

一方、デコード能力が、120fpsに対応していないが60fpsに対応している場合、ストリーム構成部241は、パケット識別子(PID)に基づくフィルタリングを行って、PID Aである低階層側の階層組のピクチャだけを取り出し、圧縮データバッファ(cpb)204に送る。 On the other hand, if the decoding capability is not compatible with 120 fps but is compatible with 60 fps, the stream configuration unit 241 performs filtering based on the packet identifier (PID), and selects a layer set on the lower layer side, which is PID A. Only pictures are retrieved and sent to compressed data buffer (cpb) 204 .

なお、ストリーム構成部241は、選択的に圧縮データバッファ(cpb)204に送る各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する機能を持つ。これにより、デコーダ205のデコード能力の低い場合であっても、無理のないデコード処理が可能となる。 Note that the stream structuring unit 241 has a function of selectively rewriting the decoding time stamp of the encoded image data of each picture sent to the compressed data buffer (cpb) 204 to adjust the decoding interval of the low layer pictures. As a result, even if the decoding capability of the decoder 205 is low, a reasonable decoding process is possible.

図19は、図3に示す階層符号化例で、低階層側の階層組と高階層側の階層組とに2分されている場合であって、ストリーム構成部241で低階層組に属するピクチャの符号化画像データが選択的に取り出されて、圧縮データバッファ(cpb)204に送られる場合を示している。 FIG. 19 is an example of hierarchical encoding shown in FIG. is selectively extracted and sent to the compressed data buffer (cpb) 204 .

図19(a)は、デコード間隔調整前のデコードタイミングを示している。この場合、ピクチャ間のデコード間隔にばらつきがあり、最短のデコード間隔は120fpsフル解像度のデコード間隔と等しくなる。これに対して、図19(b)は、デコード間隔調整後のデコードタイミングを示している。この場合、ピクチャ間のデコード間隔は等しくされ、デコード間隔は、フル解像度のデコード間隔の1/2となる。このように、各階層において対象デコーダの能力に応じてデコード間隔が調整される。 FIG. 19(a) shows the decode timing before the decode interval adjustment. In this case, the decoding interval between pictures varies, and the shortest decoding interval is equal to the decoding interval of 120 fps full resolution. On the other hand, FIG. 19(b) shows the decode timing after adjusting the decode interval. In this case, the decoding interval between pictures is made equal, and the decoding interval is 1/2 of the full resolution decoding interval. In this way, the decoding interval is adjusted in each layer according to the capability of the target decoder.

図20は、デマルチプレクサ203の処理フローの一例を示している。この処理フローは、トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合を示している。 FIG. 20 shows an example of the processing flow of the demultiplexer 203. As shown in FIG. This processing flow shows a case where the transport stream TS contains a single video stream (encoded stream).

デマルチプレクサ203は、ステップST31において、処理を開始し、その後に、ステップST32の処理に移る。このステップST32おいて、CPU201から、デコード能力(Decoder temporal layer capability)が設定される。次に、デマルチプレクサ203は、ステップST33おいて、全階層(レイヤ)をデコードする能力があるか否かを判断する。 The demultiplexer 203 starts processing in step ST31, and then proceeds to processing in step ST32. In this step ST32, the CPU 201 sets the decoding capability (decoder temporal layer capability). Next, in step ST33, demultiplexer 203 determines whether or not it has the ability to decode all layers.

全階層をデコードする能力があるとき、デマルチプレクサ203は、ステップST34において、該当PIDフィルタを通過する全TSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST35の処理に移る。 When it is capable of decoding all layers, the demultiplexer 203 demultiplexes all TS packets passing through the corresponding PID filter and performs section parsing in step ST34. After that, the demultiplexer 203 moves to the process of step ST35.

ステップST33で全階層をデコードする能力がないとき、デマルチプレクサ203は、ステップST36において、「PES_priority」が“1”のTSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST35の処理に移る。 When it is not possible to decode all layers in step ST33, the demultiplexer 203 demultiplexes TS packets with "PES_priority" of "1" and performs section parsing in step ST36. After that, the demultiplexer 203 moves to the process of step ST35.

ステップST35において、デマルチプレクサ203は、対象となるPIDのセクションの中で、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を読み、拡張ストリームの有無、スケーラブルタイプ、ストリームの数とID、temporal_idの最大、最小値、そして、各レイヤのデコーダ対応Levelを得る。 In step ST35, the demultiplexer 203 reads the HEVC descriptor (HEVC_descriptor) and the scalability extension descriptor (scalability_extension_descriptor) in the section of the target PID, and determines the presence or absence of extension streams, the scalability type, the number and ID of streams, Get the maximum and minimum values of temporal_id and the decoder corresponding Level for each layer.

次に、デマルチプレクサ203は、ステップST37で、PIDの対象となる符号化ストリームを圧縮データバッファ(cpb)204へ転送すると共に、DTS、PTSを、CPU201に通知する。デマルチプレクサ203は、ステップST37の処理の後、ステップST38において、処理を終了する。 Next, in step ST37, the demultiplexer 203 transfers the PID-targeted encoded stream to the compressed data buffer (cpb) 204 and notifies the CPU 201 of the DTS and PTS. After the process of step ST37, the demultiplexer 203 ends the process in step ST38.

図21は、デマルチプレクサ203の処理フローの一例を示している。この処理フローは、トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合を示している。 FIG. 21 shows an example of the processing flow of the demultiplexer 203. As shown in FIG. This processing flow shows a case where the transport stream TS contains two video streams (encoded streams), a base stream and an extension stream.

デマルチプレクサ203は、ステップST41において、処理を開始し、その後に、ステップST42の処理に移る。このステップST42おいて、CPU201から、デコード能力(Decoder temporal layer capability)が設定される。次に、デマルチプレクサ203は、ステップST43おいて、全階層(レイヤ)をデコードする能力があるか否かを判断する。 The demultiplexer 203 starts processing in step ST41, and then proceeds to processing in step ST42. In this step ST42, the CPU 201 sets the decoding capability (decoder temporal layer capability). Next, in step ST43, demultiplexer 203 determines whether or not it has the ability to decode all layers.

全階層をデコードする能力があるとき、デマルチプレクサ203は、ステップST44において、PIDフィルタにより全階層を構成する複数のストリームをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST45の処理に移る。 When it has the ability to decode all layers, the demultiplexer 203 demultiplexes a plurality of streams forming all layers using a PID filter and performs section parsing in step ST44. After that, the demultiplexer 203 moves to the process of step ST45.

ステップST43で全階層をデコードする能力がないとき、デマルチプレクサ203は、ステップST46において、PID=PID Aのストリームをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST45の処理に移る。 When it is not possible to decode all layers in step ST43, the demultiplexer 203 demultiplexes the stream of PID=PID A and performs section parsing in step ST46. After that, the demultiplexer 203 moves to the process of step ST45.

ステップST45において、デマルチプレクサ203は、対象となるPIDのセクションの中で、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を読み、拡張ストリームの有無、スケーラブルタイプ、ストリームの数とID、temporal_idの最大、最小値、そして、各レイヤのデコーダ対応Levelを得る。 In step ST45, the demultiplexer 203 reads the HEVC descriptor (HEVC_descriptor) and the scalability extension descriptor (scalability_extension_descriptor) in the section of the target PID, and determines the presence or absence of extension streams, the scalability type, the number and ID of streams, Get the maximum and minimum values of temporal_id and the decoder corresponding Level for each layer.

次に、デマルチプレクサ203は、ステップST47で、PIDの対象となる符号化ストリームをDTS(無い場合はPTS)情報に基づき、1つのストリームに結合し、圧縮データバッファ(cpb)204へ転送すると共に、DTS、PTSを、CPU201に通知する。デマルチプレクサ203は、ステップST47の処理の後、ステップST48において、処理を終了する。 Next, in step ST47, the demultiplexer 203 combines the encoded streams to be PID into one stream based on the DTS (PTS if not present) information, and transfers the stream to the compressed data buffer (cpb) 204. , DTS, and PTS are notified to the CPU 201 . After the process of step ST47, the demultiplexer 203 ends the process in step ST48.

図15に戻って、圧縮データバッファ(cpb)204は、デマルチプレクサ203で取り出されるビデオストリーム(符号化ストリーム)を、一時的に蓄積する。デコーダ205は、圧縮データバッファ204に蓄積されているビデオストリームから、デコードすべき階層として指定された階層のピクチャの符号化画像データを取り出す。そして、デコーダ205は、取り出された各ピクチャの符号化画像データを、それぞれ、そのピクチャのデコードタイミングでデコードし、非圧縮データバッファ(dpb)206に送る。 Returning to FIG. 15, the compressed data buffer (cpb) 204 temporarily stores the video stream (encoded stream) taken out by the demultiplexer 203 . The decoder 205 extracts the encoded image data of the picture of the layer designated as the layer to be decoded from the video stream accumulated in the compressed data buffer 204 . Then, the decoder 205 decodes the extracted encoded image data of each picture at the decoding timing of the picture, and sends the data to the uncompressed data buffer (dpb) 206 .

ここで、デコーダ205には、CPU201からデコードすべき階層がtemporal_idで指定される。この指定階層は、デマルチプレクサ203で取り出されるビデオストリーム(符号化ストリーム)に含まれる全階層、あるいは低階層側の一部の階層とされ、CPU201により自動的に、あるいはユーザ操作に応じて設定される。また、デコーダ205には、CPU201から、DTS(Decoding Time stamp)に基づいて、デコードタイミングが与えられる。なお、デコーダ205は、各ピクチャの符号化画像データをデコードする際に、必要に応じて、非圧縮データバッファ206から被参照ピクチャの画像データを読み出して利用する。 Here, the hierarchy to be decoded from the CPU 201 is designated by temporal_id in the decoder 205 . The designated hierarchy is all the hierarchies included in the video stream (encoded stream) taken out by the demultiplexer 203, or a part of the hierarchies on the lower hierarchy side, and is automatically set by the CPU 201 or according to a user's operation. be. Further, the decoder 205 is given decoding timing from the CPU 201 based on a DTS (Decoding Time Stamp). When decoding the encoded image data of each picture, the decoder 205 reads and uses the image data of the referenced picture from the uncompressed data buffer 206 as necessary.

図22は、デコーダ205の構成例を示している。このデコーダ205は、テンポラルID解析部251と、対象階層選択部252と、デコード部253を有している。テンポラルID解析部251は、圧縮データバッファ204に蓄積されているビデオストリーム(符号化ストリーム)を読み出し、各ピクチャの符号化画像データのNALユニットヘッダに挿入されているtemporal_idを解析する。 FIG. 22 shows a configuration example of the decoder 205. As shown in FIG. This decoder 205 has a temporal ID analysis section 251 , a target hierarchy selection section 252 and a decoding section 253 . The temporal ID analysis unit 251 reads the video stream (encoded stream) accumulated in the compressed data buffer 204 and analyzes the temporal_id inserted in the NAL unit header of the encoded image data of each picture.

対象階層選択部252は、圧縮データバッファ204から読み出されたビデオストリームから、テンポラルID解析部251の解析結果に基づいて、デコードすべき階層として指定された階層のピクチャの符号化画像データを取り出す。デコード部253は、対象階層選択部252で取り出された各ピクチャの符号化画像データを、順次デコードタイミングでデコードし、非圧縮データバッファ(dpb)206に送る。 The target layer selection unit 252 extracts the encoded image data of the picture of the layer designated as the layer to be decoded from the video stream read from the compressed data buffer 204, based on the analysis result of the temporal ID analysis unit 251. . The decoding unit 253 sequentially decodes the encoded image data of each picture extracted by the target layer selection unit 252 at decoding timing, and sends the data to the non-compressed data buffer (dpb) 206 .

この場合、デコード部253は、VPS、SPSの解析を行って、例えば、サブレイヤごとのビットレートのレベル指定値「sublayer_level_idc」を把握し、デコード能力内でデコードし得るものかどうかを確認する。また、この場合、デコード部253は、SEIの解析を行って、例えば、「initial_cpb_removal_time」、「cpb_removal_delay」を把握し、CPU201からのデコードタイミングが適切か確認する。 In this case, the decoding unit 253 analyzes the VPS and SPS, for example, grasps the bit rate level designation value “sublayer_level_idc” for each sublayer, and confirms whether decoding is possible within the decoding capability. Also, in this case, the decoding unit 253 analyzes the SEI, grasps, for example, “initial_cpb_removal_time” and “cpb_removal_delay”, and confirms whether the decoding timing from the CPU 201 is appropriate.

デコード部253は、スライス(Slice)のデコードを行う際に、スライスヘッダ(Slice header)から、時間方向の予測先を表す情報として、「ref_idx_l0_active(ref_idx_l1_active)を取得し、時間方向の予測を行う。なお、デコード後のピクチャは、スライスヘッダ(slice header)から得られる「short_term_ref_pic_set_idx」、あるいは「it_idx_sps」が指標とされて、他のピクチャによる被参照として処理される。 When decoding a slice, the decoding unit 253 acquires “ref_idx_l0_active (ref_idx_l1_active)” from the slice header as information indicating the prediction destination in the time direction, and performs prediction in the time direction. Note that the picture after decoding is processed as being referenced by other pictures, using "short_term_ref_pic_set_idx" or "it_idx_sps" obtained from the slice header as an index.

図15に戻って、非圧縮データバッファ(dpb)206は、デコーダ205でデコードされた各ピクチャの画像データを、一時的に蓄積する。ポスト処理部207は、非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データに対して、そのフレームレートを、表示能力に合わせる処理を行う。この場合、CPU201から、PTS(Presentation Time stamp)に基づいて、表示タイミングが与えられる。 Returning to FIG. 15, the uncompressed data buffer (dpb) 206 temporarily accumulates image data of each picture decoded by the decoder 205 . The post-processing unit 207 performs processing for adjusting the frame rate of the image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing to match the display capability. In this case, the display timing is given from the CPU 201 based on a PTS (Presentation Time Stamp).

例えば、デコード後の各ピクチャの画像データのフレームレートが120fpsであって、表示能力が120fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データをそのままディスプレイに送る。また、例えば、デコード後の各ピクチャの画像データのフレームレートが120fpsであって、表示能力が60fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データに対して時間方向解像度が1/2倍となるようにサブサンプル処理を施し、60fpsの画像データとしてディスプレイに送る。 For example, when the frame rate of the image data of each picture after decoding is 120 fps and the display capability is 120 fps, the post-processing unit 207 sends the image data of each picture after decoding as it is to the display. Further, for example, when the frame rate of the image data of each picture after decoding is 120 fps and the display capability is 60 fps, the post-processing unit 207 sets the temporal resolution of the image data of each picture after decoding to 120 fps. A sub-sampling process is performed so that it becomes 1/2 times, and it is sent to a display as image data of 60 fps.

また、例えば、デコード後の各ピクチャの画像データのフレームレートが60fpsであって、表示能力が120fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データに対して時間方向解像度が2倍となるように補間処理を施し、120fpsの画像データとしてディスプレイに送る。また、例えば、デコード後の各ピクチャの画像データのフレームレートが60fpsであって、表示能力が60fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データをそのままディスプレイに送る。 Further, for example, when the frame rate of the image data of each picture after decoding is 60 fps and the display capability is 120 fps, the post-processing unit 207 sets the temporal resolution of the image data of each picture after decoding. Interpolation processing is performed so as to double the data, and the data is sent to the display as 120 fps image data. Further, for example, when the frame rate of the image data of each picture after decoding is 60 fps and the display capability is 60 fps, the post-processing unit 207 sends the image data of each picture after decoding as it is to the display.

図23は、ポスト処理部207の構成例を示している。この例は、上述したようにデコード後の各ピクチャの画像データのフレームレートが120fpsあるいは60fpsであって、表示能力が120fpsあるいは60fpsである場合に対処可能とした例である。 FIG. 23 shows a configuration example of the post-processing unit 207. As shown in FIG. In this example, as described above, the frame rate of the image data of each picture after decoding is 120 fps or 60 fps and the display capability is 120 fps or 60 fps.

ポスト処理部207は、補間部271と、サブサンプル部272と、スイッチ部273を有している。非圧縮データバッファ206からのデコード後の各ピクチャの画像データは、直接スイッチ部273に入力され、あるいは補間部271で2倍のフレームレートとされた後にスイッチ部273に入力され、あるいはサブサンプル部272で1/2倍のフレームレートとされた後にスイッチ部273に入力される。 The post-processing section 207 has an interpolation section 271 , a sub-sampling section 272 and a switch section 273 . The image data of each picture after decoding from the uncompressed data buffer 206 is input directly to the switch section 273, or input to the switch section 273 after being doubled in the frame rate by the interpolation section 271, or input to the sub-sampling section. After the frame rate is reduced to 1/2 by 272 , it is input to the switch section 273 .

スイッチ部273には、CPU201から、選択情報が供給される。この選択情報は、CPU201が、表示能力を参照して自動的に、あるいは、ユーザ操作に応じて発生する。スイッチ部273は、選択情報に基づいて、入力のいずれかを選択的に出力とする。これにより、非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データのフレームレートは、表示能力に合ったものとされる。 Selection information is supplied to the switch unit 273 from the CPU 201 . This selection information is generated automatically by the CPU 201 with reference to the display capability or according to user operation. The switch unit 273 selectively outputs one of the inputs based on the selection information. As a result, the frame rate of the image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing matches the display capability.

図24は、デコーダ205、ポスト処理部207の処理フローの一例を示している。デコーダ205、ポスト処理部207は、ステップST51において、処理を開始し、その後に、ステップST52の処理に移る。このステップST52において、デコーダ205は、圧縮データバッファ(cpb)204に蓄積されているデコード対象のビデオストリームを読み出し、temporal_idに基づいて、CPU201からデコード対象として指定される階層のピクチャを選択する。 FIG. 24 shows an example of the processing flow of the decoder 205 and post-processing section 207. As shown in FIG. The decoder 205 and post-processing section 207 start processing in step ST51, and then proceed to processing in step ST52. In this step ST52, the decoder 205 reads the video stream to be decoded stored in the compressed data buffer (cpb) 204, and selects a picture of the hierarchy specified by the CPU 201 as a decoding target based on temporal_id.

次に、デコーダ205は、ステップST53において、選択された各ピクチャの符号化画像データをデコードタイミングで順次デコードし、デコード後の各ピクチャの画像データを非圧縮データバッファ(dpb)206に転送して、一時的に蓄積する。次に、ポスト処理部207は、ステップST54において、非圧縮データバッファ(dpb)206から、表示タイミングで各ピクチャの画像データを読み出す。 Next, in step ST53, the decoder 205 sequentially decodes the encoded image data of each selected picture at the decoding timing, and transfers the decoded image data of each picture to the uncompressed data buffer (dpb) 206. , temporarily accumulates. Next, in step ST54, the post-processing section 207 reads the image data of each picture from the uncompressed data buffer (dpb) 206 at the display timing.

次に、ポスト処理部207は、読み出された各ピクチャの画像データのフレームレートが表示能力にあっているか否かを判断する。フレームレートが表示能力に合っていないとき、ポスト処理部207は、ステップST56において、フレームレートを表示能力に合わせて、ディスプレイに送り、その後、ステップST57において、処理を終了する。一方、フレームレートが表示能力に合っているとき、ポスト処理部207は、ステップST58において、フレームレートそのままでディスプレイに送り、その後、ステップST57において、処理を終了する。 Next, the post-processing unit 207 determines whether the frame rate of the read image data of each picture matches the display capability. When the frame rate does not match the display capability, the post-processing section 207 sends the frame rate to the display in step ST56, and then terminates the process in step ST57. On the other hand, when the frame rate matches the display capability, the post-processing section 207 sends the image to the display without changing the frame rate in step ST58, and then ends the processing in step ST57.

図15に示す受信装置200の動作を簡単に説明する。受信部202では、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203に送られる。デマルチプレクサ203では、トランスポートストリームTSから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データが選択的に取り出され、圧縮データバッファ(cpb)204に送られ、一時的に蓄積される。 The operation of the receiver 200 shown in FIG. 15 will be briefly described. The receiving section 202 demodulates the RF modulated signal received by the receiving antenna and acquires the transport stream TS. This transport stream TS is sent to the demultiplexer 203 . In the demultiplexer 203, the encoded image data of the picture of the layer group corresponding to the decoding capability (Decoder temporal layer capability) is selectively extracted from the transport stream TS, sent to the compressed data buffer (cpb) 204, and temporarily accumulated.

デコーダ205では、圧縮データバッファ204に蓄積されているビデオストリームから、デコードすべき階層として指定された階層のピクチャの符号化画像データが取り出される。そして、デコーダ205では、取り出された各ピクチャの符号化画像データが、それぞれ、そのピクチャのデコードタイミングでデコードされ、非圧縮データバッファ(dpb)206に送られ、一時的に蓄積される。この場合、各ピクチャの符号化画像データがデコードされる際に、必要に応じて、非圧縮データバッファ206から被参照ピクチャの画像データが読み出されて利用される。 The decoder 205 extracts the encoded image data of the picture of the layer designated as the layer to be decoded from the video stream accumulated in the compressed data buffer 204 . Then, the decoder 205 decodes the extracted encoded image data of each picture at the decoding timing of the picture, sends the data to the uncompressed data buffer (dpb) 206, and temporarily stores it. In this case, when the encoded image data of each picture is decoded, the image data of the referenced picture is read from the uncompressed data buffer 206 and used as needed.

非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データは、ポスト処理部207に送られる。ポスト処理部207では、各ピクチャの画像データに対して、そのフレームレートを、表示能力に合わせるための補間あるいはサブサンプルが行われる。このポスト処理部207で処理された各ピクチャの画像データは、ディスプレイに供給され、その各ピクチャの画像データによる動画像の表示が行われる。 The image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing is sent to the post-processing unit 207 . The post-processing unit 207 performs interpolation or sub-sampling on the image data of each picture to match the frame rate with the display capability. The image data of each picture processed by the post-processing unit 207 is supplied to a display, and a moving image is displayed using the image data of each picture.

以上説明したように、図1に示す送受信システム10においては、送信側において、ビデオストリームのレイヤ(PESパケットのヘッダ)に、このビデオストリームに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入されるものである。そのため、例えば、受信側においては、この識別情報を利用することで、デコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にデコードすることが容易に可能となる。 As described above, in the transmitting/receiving system 10 shown in FIG. 1, the layer of the video stream (the header of the PES packet) contains the coded image data of each picture included in the video stream on the transmitting side. ID information is inserted to identify whether the encoded image data of a picture belonging to . Therefore, for example, on the receiving side, by using this identification information, it becomes possible to selectively decode encoded image data of pictures in a hierarchy below a predetermined hierarchy according to the decoding capability.

また、図1に示す送受信システム10においては、送信側において、トランスポートストリームTSのレイヤに、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)等が挿入されるものである。そのため、例えば、受信側では、階層符号化における階層情報、トランスポートストリームTSに含まれるビデオストリームの構成情報などを容易に把握でき、適切なデコード処理を行うことが可能となる。 In the transmitting/receiving system 10 shown in FIG. 1, the transmitting side inserts a scalability extension descriptor (scalability_extension_descriptor) into the layer of the transport stream TS. Therefore, for example, the receiving side can easily grasp the hierarchical information in hierarchical coding, the configuration information of the video stream included in the transport stream TS, and the like, and can perform appropriate decoding processing.

また、図1に示す送受信システム10においては、受信側において、受信されたビデオストリームからデコード能力(Decoder temporal layer capability)に応じた所定階層以下の階層のピクチャの符号化画像データが選択的に圧縮データバッファ204に取り込まれてデコードされるものである。そのため、例えば、デコード能力に応じた適切なデコード処理が可能となる。 Further, in the transmitting/receiving system 10 shown in FIG. 1, the receiving side selectively compresses encoded image data of pictures in a hierarchy below a predetermined hierarchy according to the decoder temporal layer capability from the received video stream. It is taken into the data buffer 204 and decoded. Therefore, for example, appropriate decoding processing can be performed according to the decoding ability.

また、図1に示す送受信システム10においては、受信側において、選択的に圧縮データバッファ204に取り込まれる各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する機能を持つものである。そのため、例えば、デコーダ205のデコード能力が低い場合であっても無理のないデコード処理が可能となる。 Further, in the transmitting/receiving system 10 shown in FIG. 1, the receiving side selectively rewrites the decoding time stamp of the encoded image data of each picture taken into the compressed data buffer 204, and adjusts the decoding interval of the low-hierarchical picture. It has Therefore, for example, even if the decoding capability of the decoder 205 is low, a reasonable decoding process is possible.

また、図1に示す送受信システム10においては、受信側において、復号化後の各ピクチャの画像データのフレームレートをポスト処理部207で表示能力に合わせるものである。そのため、例えば、デコード能力が低い場合であっても、高表示能力にあったフレームレートの画像データを得ることが可能となる。 In the transmitting/receiving system 10 shown in FIG. 1, the post-processing unit 207 adjusts the frame rate of the image data of each picture after decoding to match the display capability on the receiving side. Therefore, for example, even if the decoding capability is low, it is possible to obtain image data at a frame rate suitable for high display capability.

<2.変形例>
なお、上述実施の形態においては、ビデオストリームに含まれる各ピクチャの符号化画像データが所定数の階層組のうちどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を、PESパケットのヘッダ(PESヘッダ)に挿入する例を示した。しかし、この識別情報の挿入位置は、これに限定されるものではない。
<2. Variation>
In the above-described embodiment, the identification information that identifies to which layer set among a predetermined number of layer sets the encoded image data of each picture included in the video stream belongs is An example of insertion into the PES packet header (PES header) has been shown. However, the insertion position of this identification information is not limited to this.

例えば、マルチプレクサ104(図2参照)は、この識別情報を、アダプテーションフィールドを持つTSパケットの、当該アダプテーションフィールドに挿入してよい。マルチプレクサ104は、例えば、複数の階層を低階層組と高階層組に二分する場合、アダプテーションフィールドに存在する、周知のエレメンタリ・ストリーム・プライオリティ・インジケータ(elementary_stream_priority_indicator)の1ビットフィールドを利用する。 For example, multiplexer 104 (see FIG. 2) may insert this identification information into the adaptation field of a TS packet that has an adaptation field. The multiplexer 104 utilizes, for example, a 1-bit field of the well-known elementary stream priority indicator (elementary_stream_priority_indicator) present in the adaptation field when dividing multiple hierarchies into a low-hierarchy set and a high-hierarchy set.

この1ビットフィールドは、後続するTSパケットのペイロードに、低階層側の階層組のピクチャの符号化画像データをペイロードに持つPESパケットを含む場合は“1”、つまり優先度が高く設定される。一方、この1ビットフィールドは、後続するTSパケットのペイロードに、低階層側の階層組のピクチャの符号化画像データをペイロードに持つPESパケットを含む場合“0”、つまり優先度が低く設定される。 This 1-bit field is set to "1" when the payload of the subsequent TS packet contains the PES packet having the encoded image data of the picture of the layer set on the lower layer side in the payload, that is, the priority is set high. On the other hand, this 1-bit field is set to "0" when the payload of the subsequent TS packet contains the PES packet having the encoded image data of the picture of the layer set on the lower layer side in the payload, that is, the priority is set low. .

図25は、アダプテーションフィールドの配置例を示している。この例は、複数の階層を低階層組と高階層組に二分されている場合であって、エレメンタリ・ストリーム・プライオリティ・インジケータ(elementary_stream_priority_indicator)の1ビットフィールドを利用した場合の例である。 FIG. 25 shows an example of arrangement of adaptation fields. This example is a case where multiple hierarchies are divided into a low hierarchy group and a high hierarchy group, and a 1-bit field of an elementary stream priority indicator (elementary_stream_priority_indicator) is used.

図示の例において、1ピクチャの符号化画像データをペイロードに持つPESパケットを分割して持つ所定数のTSパケット群毎に、その直前に、アダプテーションフィールドを持つTSパケットが配置される。この場合、その1ピクチャが低階層側の階層組のピクチャであるとき、エレメンタリ・ストリーム・プライオリティ・インジケータの1ビットフィールドは“1”に設定される。一方、その1ピクチャが高階層側の階層組のピクチャであるとき、エレメンタリ・ストリーム・プライオリティ・インジケータの1ビットフィールドは“0”に設定される。 In the illustrated example, a TS packet having an adaptation field is arranged immediately before each predetermined number of TS packet groups each having a divided PES packet having one picture of encoded image data as a payload. In this case, the 1-bit field of the elementary stream priority indicator is set to "1" when the one picture is a picture of the layer set on the lower layer side. On the other hand, when the one picture is a picture of a layer set on the higher layer side, the 1-bit field of the elementary stream priority indicator is set to "0".

図25に示すように、アダプテーションフィールドを持つTSパケットを配置することで、受信側では、ビデオストリームに含まれるピクチャの符号化画像データ毎に、いずれの階層組に属するピクチャの符号化データであるかを容易に識別可能となる。なお、図25の配置例では、1ピクチャ毎にアダプテーションフィールドを持つTSパケットを配置するように示しているが、ピクチャが属する階層組が切り替わるごとに、その直前にアダプテーションフィールドを持つTSパケットを配置するようにされてもよい。 As shown in FIG. 25, by arranging the TS packets having the adaptation field, the receiving side can recognize the coded data of the picture belonging to any layer set for each coded image data of the picture included in the video stream. can be easily identified. In the arrangement example of FIG. 25, a TS packet having an adaptation field is arranged for each picture, but every time the hierarchical group to which the picture belongs is switched, a TS packet having an adaptation field is arranged just before that. may be made to do so.

図26は、階層組の識別情報を上述したようにアダプテーションフィールドに挿入する場合における、送信装置100のマルチプレクサ104Aの構成例を示している。この図26において、図12と対応する部分には同一符号を付し、その詳細説明は省略する。このマルチプレクサ104Aは、図12のマルチプレクサ104におけるPESプライオリティ発生部141の代わりに、アダプテーションフィールド・プライオリティ指示部146を有するものとされる。 FIG. 26 shows a configuration example of the multiplexer 104A of the transmission device 100 when inserting the identification information of the hierarchy set into the adaptation field as described above. In FIG. 26, parts corresponding to those in FIG. 12 are denoted by the same reference numerals, and detailed description thereof will be omitted. This multiplexer 104A has an adaptation field priority indicator 146 instead of the PES priority generator 141 in the multiplexer 104 of FIG.

プライオリティ指示部146には、CPU101から、階層数(Number of layers)とストリーム数(Number of streams)の情報が供給される。プライオリティ指示部146は、階層数で示される複数の階層を2以上の所定数の階層組に分割した場合における、各階層組の優先度情報を発生する。例えば、2分割される場合には、エレメンタリ・ストリーム・プライオリティ・インジケータの1ビットフィールドに挿入すべき値(低階層組は“1”、高階層組は“0”)を発生する。 Information on the number of layers (Number of layers) and the number of streams (Number of streams) is supplied from the CPU 101 to the priority instruction unit 146 . The priority instruction unit 146 generates priority information for each hierarchy set when a plurality of hierarchies indicated by the number of hierarchies is divided into a predetermined number of hierarchy sets equal to or greater than two. For example, in the case of division into two, a value ("1" for the low layer group and "0" for the high layer group) to be inserted into the 1-bit field of the elementary stream priority indicator is generated.

プライオリティ指示部146で発生される各階層組の優先度情報は、トランスポートパケット化部145に供給される。トランスポートパケット化部145は、1ピクチャの符号化画像データをペイロードに持つPESパケットを分割して持つ所定数のTSパケット群毎に、その直前に、アダプテーションフィールドを持つTSパケットを配置する。そして、その場合、トランスポートパケット化部145は、アダプテーションフィールドに、ピクチャが属する階層組に対応した優先度情報を識別情報として挿入する。 The priority information of each layer set generated by the priority instruction section 146 is supplied to the transport packetization section 145 . The transport packetization unit 145 arranges a TS packet having an adaptation field immediately before each predetermined number of TS packet groups having a divided PES packet having one picture of encoded image data as a payload. In that case, the transport packetization unit 145 inserts priority information corresponding to the layer set to which the picture belongs to the adaptation field as identification information.

図27は、階層組の識別情報を上述したようにアダプテーションフィールドに挿入する場合におけるトランスポートストリームTSの構成例を示している。この構成例は、上述の図14に示す構成例とほぼ同様の構成とされている。この構成例では、アダプテーションフィールドを持つTSパケットが存在し、このアダプテーションフィールドに、各ピクチャが属する階層組を識別するための識別情報が挿入される。例えば、複数の階層が低階層組と高階層組に二分される場合には、エレメンタリ・ストリーム・プライオリティ・インジケータ(elementary_stream_priority_indicator)の1ビットフィールドが利用される。 FIG. 27 shows a configuration example of the transport stream TS when the identification information of the layer set is inserted into the adaptation field as described above. This configuration example has substantially the same configuration as the configuration example shown in FIG. In this configuration example, there is a TS packet having an adaptation field, and identification information for identifying the layer group to which each picture belongs is inserted in this adaptation field. For example, when multiple hierarchies are divided into a low hierarchy group and a high hierarchy group, a 1-bit field of elementary stream priority indicator (elementary_stream_priority_indicator) is used.

図28は、階層組の識別情報を上述したようにアダプテーションフィールドに挿入する場合における、受信装置200のデマルチプレクサ203Aの構成例を示している。この図28において、図16と対応する部分には同一符号を付し、その詳細説明は省略する。このデマルチプレクサ203Aは、図16のデマルチプレクサ203における識別情報抽出部239の代わりに、識別情報抽出部242を有するものとされる。 FIG. 28 shows a configuration example of the demultiplexer 203A of the receiving device 200 when inserting the identification information of the hierarchy set into the adaptation field as described above. 28, parts corresponding to those in FIG. 16 are denoted by the same reference numerals, and detailed description thereof will be omitted. This demultiplexer 203A has an identification information extraction section 242 instead of the identification information extraction section 239 in the demultiplexer 203 of FIG.

この識別情報抽出部242は、アダプテーションフィールドから識別情報を抽出し、ストリーム構成部241に送る。例えば、複数の階層が低階層組と高階層組に2分されている場合、アダプテーションフィールドの「elementary_stream_priority_indicator」の1ビットフィールドの優先度情報を抽出し、ストリーム構成部241に送る。 This identification information extraction unit 242 extracts identification information from the adaptation field and sends it to the stream construction unit 241 . For example, when a plurality of hierarchies are divided into a low hierarchy group and a high hierarchy group, the priority information of the 1-bit field “elementary_stream_priority_indicator” of the adaptation field is extracted and sent to the stream configuration unit 241 .

ストリーム構成部241は、PESペイロード抽出部240で取り出される各階層のピクチャの符号化画像データから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データを選択的に取り出し、圧縮データバッファ(cpb)204に送る。この場合、ストリーム構成部241は、PSIテーブル/デスクリプタ抽出部235で得られる階層情報、ストリーム構成情報、識別情報抽出部242で抽出される識別情報(優先度情報)などを参照する。 The stream configuration unit 241 selectively extracts the encoded image data of the picture of the layer set according to the decoding capability (Decoder temporal layer capability) from the encoded image data of the picture of each layer extracted by the PES payload extraction unit 240. , to the compressed data buffer (cpb) 204 . In this case, the stream configuration unit 241 refers to layer information and stream configuration information obtained by the PSI table/descriptor extraction unit 235, identification information (priority information) extracted by the identification information extraction unit 242, and the like.

また、上述実施の形態においては、送信装置100と受信装置200からなる送受信システム10を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、受信装置200の部分が、例えば、(HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックスおよびモニタの構成などであってもよい。なお、「HDMI」は、登録商標である。 Further, although the transmission/reception system 10 including the transmission device 100 and the reception device 200 is shown in the above embodiment, the configuration of the transmission/reception system to which the present technology can be applied is not limited to this. For example, the part of the receiving device 200 may be a configuration of a set-top box and a monitor connected by a digital interface such as HDMI (High-Definition Multimedia Interface). is a trademark.

また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。 Also, in the above-described embodiment, an example in which the container is a transport stream (MPEG-2 TS) has been shown. However, the present technology can be similarly applied to a system configured to distribute to a receiving terminal using a network such as the Internet. Internet distribution is often distributed in MP4 or other format containers. In other words, containers of various formats such as a transport stream (MPEG-2 TS) adopted by the digital broadcasting standard and MP4 used for Internet distribution correspond to containers.

例えば、図29は、MP4ストリームの構成例を示している。このMP4ストリームには、「moov
」、「moof」、「mdat」などのボックスが存在する。「mdat」のボックスに、トラックとして、ビデオの符号化ストリームであるビデオエレメンタリストリーム「track1:video ES1」が存在すると共に、オーディオの符号化ストリームであるオーディオエレメンタリストリーム「track1:audio ES1」が存在する
For example, FIG. 29 shows a configuration example of an MP4 stream. This MP4 stream contains "moov
, ``moof'', and ``mdat''. A video elementary stream "track1:video ES1", which is an encoded video stream, and an audio elementary stream "track1:audio ES1", which is an encoded audio stream, exist as tracks in the "mdat" box. exist

また、「moof」のボックスには、ヘッダ部分として「mfhd(movie fragment header」が存在し、そのデータ部分として、各トラックに対応した、「track fragment」が存在する。ビデオエレメンタリストリーム「track1:video ES1」に対応した「track1 fragment(video)」には、「Independent and disposal samples」が存在し、その中に、各ピクチャにそれぞれ対応した「SampleDependencyTypeBox」というボックスが挿入されている。 Also, in the "moof" box, "mfhd (movie fragment header" exists as a header part, and "track fragment" corresponding to each track exists as its data part. Video elementary stream "track1: "track1 fragment(video)" corresponding to "video ES1" has "Independent and disposal samples", in which a box called "SampleDependencyTypeBox" corresponding to each picture is inserted.

このボックスの中に、各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入できる。例えば、複数の階層を最上位層とそれ以外の下位層の2つの階層組に分割する場合、「sample_depends_on」の2ビットフィールドと、「sample_is_depended_on」の2ビットフィールドを利用して、当該識別情報の挿入が可能である。 In this box, it is possible to insert identification information for identifying to which layer group the encoded image data of each picture belongs. For example, when dividing a plurality of hierarchies into two hierarchies, the highest layer and the other lower layers, using the 2-bit field of "sample_depends_on" and the 2-bit field of "sample_is_dependent_on", the identification information Insertion is possible.

図30は、「SampleDependencyTypeBox」の構造例(Syntax)を示している。また、図31は、その構造例における主要な情報の内容(Semantics)を示している。この場合、「sample_depends_on」を“1”として他のピクチャを参照するものでIピクチャでないことを示すと共に、「sample_is_depended_on」を“2”として他のピクチャに参照されないことを示すことで、最上位層の組に属するピクチャであるとの識別が可能となる。また、これ以外の状態では、そのピクチャは階層層の階層組に属するピクチャであるとの識別が可能となる。 FIG. 30 shows a structural example (Syntax) of "SampleDependencyTypeBox". Also, FIG. 31 shows the content (Semantics) of main information in the structural example. In this case, "sample_depends_on" is set to "1" to indicate that it refers to other pictures and is not an I picture, and "sample_is_dependent_on" is set to "2" to indicate that it is not referred to by other pictures. can be identified as a picture belonging to the set of . In other states, the picture can be identified as a picture belonging to a hierarchy group of hierarchy layers.

なお、「SampleDependencyTypeBox」のボックスを使用する代わりに、新たに定義する、「SampleScalablePriorityBox」というボックスを使用することも考えられる。図32は、「SampleScalablePriorityBox」の構造例(Syntax)を示している。また、図33は、その構造例における主要な情報の内容(Semantics)を示している。 It is also possible to use a newly defined box called "SampleScalablePriorityBox" instead of using the "SampleDependencyTypeBox" box. FIG. 32 shows a structural example (Syntax) of "SampleScalablePriorityBox". Also, FIG. 33 shows the content (Semantics) of main information in the structural example.

この場合、複数の階層を最低階層組と高階層組の2つの階層組に分割する場合、「base_and_priority」の2ビットフィールドを利用して、当該識別情報が挿入される。すなわち、「base_and_priority」を例えば“1”とすることで優先度が低く、高階層組に属するピクチャであるとの識別が可能となる。一方、「base_and_priority」を例えば“2”とすることで優先度が高く、低階層組に属するピクチャであるとの識別が可能となる。 In this case, when dividing a plurality of hierarchies into two hierarchy sets, a lowest hierarchy set and a high hierarchy set, the identification information is inserted using a 2-bit field of “base_and_priority”. That is, by setting "base_and_priority" to, for example, "1", it is possible to identify a picture that has a low priority and belongs to a high hierarchy group. On the other hand, by setting "base_and_priority" to, for example, "2", it is possible to identify the picture as having a high priority and belonging to the low hierarchy set.

また、本技術は、以下のような構成を取ることもできる。
(1)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオデータを生成する画像符号化部と、
上記生成されたビデオデータを含む所定フォーマットのコンテナを送信する送信部と、
上記複数の階層を2以上の所定数の階層組に分割し、上記ビデオデータをコンテナするパケットに、該ビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入する識別情報挿入部を備える
送信装置。
(2)上記識別情報は、低階層側の階層組ほど高く設定される優先度情報である
前記(1)に記載の送信装置。
(3)上記識別情報は、ペイロードにピクチャ毎の符号化画像データを含むPESパケットのヘッダに挿入される
前記(1)に記載の送信装置。
(4)上記識別情報は、上記ヘッダのPESプライオリティのフィールドを利用して挿入される
前記(3)に記載の送信装置。
(5)上記識別情報は、アダプテーションフィールドを持つTSパケットの、該アダプテーションフィールドに挿入される
前記(1)に記載の送信装置。
(6)上記識別情報は、上記アダプテーションフィールドのESプライオリティインジケータのフィールドを利用して挿入される
前記(5)に記載の送信装置。
(7)上記識別情報は、該当するピクチャのトラックに関連するヘッダのボックスに挿入される
前記(1)に記載の送信装置。
(8)上記画像符号化部は、
上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは上記各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオデータを生成し、
上記コンテナのレイヤに、該コンテナに含まれるビデオストリームの構成情報を挿入する構成情報挿入部をさらに備える
前記(1)から(7)のいずれかに記載の送信装置。
(9)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオデータを生成する画像符号化ステップと、
送信部により、上記生成されたビデオデータを含む所定フォーマットのコンテナを送信する送信ステップと、
上記複数の階層を2以上の所定数の階層組に分割し、上記ビデオデータをコンテナするパケットに、該ビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入する識別情報挿入ステップを有する
送信方法。
(10)動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオデータを含む所定フォーマットのコンテナを受信する受信部と、
上記受信されたコンテナに含まれる上記ビデオデータからデコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にバッファに取り込み、該バッファに取り込まれた各ピクチャの符号化画像データをデコードして、上記所定階層以下の階層のピクチャの画像データを得る画像復号化部を備える
受信装置。
(11)上記複数の階層は2以上の所定数の階層組に分割され、上記ビデオデータをコンテナするパケットに、該ビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報が挿入されており、
上記画像復号化部は、上記識別情報に基づいて、上記デコード能力に応じた所定階層組のピクチャの符号化画像データを上記バッファに取り込んでデコードする
前記(10)に記載の受信装置。
(12)上記識別情報は、ペイロードにピクチャ毎の符号化画像データを含むPESパケットのヘッダに挿入されている
前記(11)に記載の受信装置。
(13)上記識別情報は、アダプテーションフィールドを持つTSパケットの、該アダプテーションフィールドに挿入されている
前記(11)に記載の受信装置。
(14)上記識別情報は、該当するピクチャのトラックに関連するヘッダのボックスに挿入されている
前記(11)に記載の送信装置。
(15)上記複数の階層は2以上の所定数の階層組に分割され、上記受信されたコンテナには、上記所定数の階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームが含まれており、
上記画像符号化部は、ストリーム識別情報に基づいて、上記デコード能力に応じた所定階層組のピクチャの符号化画像データを上記バッファに取り込んでデコードする
前記(10)に記載の受信装置。
(16)上記画像復号化部は、
上記所定階層組のピクチャの符号化画像データが複数のビデオストリームに含まれている場合、各ピクチャの符号化画像データをデコードタイミング情報に基づいて1つのストリームにして上記バッファに取り込む
前記(15)に記載の受信装置。
(17)上記画像復号化部は、
上記選択的にバッファに取り込まれる各ピクチャの符号化画像データのデコードタイムスタンプを書き換えて低階層ピクチャのデコード間隔を調整する機能を持つ
前記(10)から(16)のいずれかに記載の受信装置。
(18)上記画像復号化部で得られる各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理部をさらに備える
前記(10)から(17)のいずれかに記載の受信装置。
(19)受信部により、動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオデータを含む所定フォーマットのコンテナを受信する受信ステップと、
上記受信されたコンテナに含まれる上記ビデオデータからデコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にバッファに取り込み、該バッファに取り込まれた各ピクチャの符号化画像データをデコードして、上記所定階層以下の階層のピクチャの画像データを得る画像復号化ステップを有する
受信方法。
Moreover, this technique can also take the following structures.
(1) classifying image data of each picture constituting moving image data into a plurality of hierarchies, encoding the image data of the classified pictures of each hierarchy, and converting the encoded image data of the pictures of each hierarchy; an image encoder that generates video data having
a transmission unit for transmitting a container of a predetermined format containing the generated video data;
dividing the plurality of hierarchies into a predetermined number of hierarchies of two or more, and coding a picture belonging to which hierarchy set the encoded image data of each picture contained in the video data is stored in a packet containing the video data; A transmission device comprising an identification information inserting unit for inserting identification information for identifying image data.
(2) The transmitting device according to (1), wherein the identification information is priority information that is set higher for a layer set on the lower layer side.
(3) The transmission device according to (1), wherein the identification information is inserted into a header of a PES packet containing encoded image data for each picture in a payload.
(4) The transmitting device according to (3), wherein the identification information is inserted using a PES priority field of the header.
(5) The transmitting device according to (1), wherein the identification information is inserted into an adaptation field of a TS packet having an adaptation field.
(6) The transmitting apparatus according to (5), wherein the identification information is inserted using the ES priority indicator field of the adaptation field.
(7) The transmitting device according to (1), wherein the identification information is inserted in a header box associated with the track of the corresponding picture.
(8) The image encoding unit
generating a single video stream having encoded image data of pictures in each layer, or generating a predetermined number of video data each having encoded image data of pictures in each layer set;
The transmission device according to any one of (1) to (7), further comprising a configuration information inserting unit that inserts configuration information of a video stream included in the container into the layer of the container.
(9) classifying the image data of each picture constituting the video data into a plurality of layers, encoding the image data of the classified pictures of each layer, and converting the encoded image data of the pictures of each layer; an image encoding step to generate video data having
a transmission step of transmitting, by a transmission unit, a container of a predetermined format containing the generated video data;
dividing the plurality of hierarchies into a predetermined number of hierarchies of two or more, and coding a picture belonging to which hierarchy set the encoded image data of each picture contained in the video data is stored in a packet containing the video data; A transmission method comprising an identification information inserting step of inserting identification information for identifying image data.
(10) A container of a predetermined format containing video data having coded image data of pictures in each hierarchy obtained by classifying and encoding image data of each picture constituting moving image data into a plurality of hierarchies. a receiver for receiving
coded image data of pictures in a hierarchy below a predetermined hierarchy according to decoding capability are selectively fetched into a buffer from the video data contained in the received container, and coded image data of each picture fetched into the buffer and obtains image data of pictures in layers below the predetermined layer by decoding.
(11) The plurality of hierarchies are divided into a predetermined number of hierarchy sets of two or more, and encoded image data of each picture included in the video data is stored in a packet containing the video data to which hierarchy set each picture belongs. identification information is inserted to identify whether it is encoded image data of
The receiving device according to (10), wherein the image decoding unit loads and decodes encoded image data of pictures of a predetermined hierarchy set according to the decoding ability into the buffer based on the identification information.
(12) The receiving device according to (11), wherein the identification information is inserted in a header of a PES packet containing encoded image data for each picture in a payload.
(13) The receiving device according to (11), wherein the identification information is inserted into an adaptation field of a TS packet having an adaptation field.
(14) The transmitting device according to (11), wherein the identification information is inserted in a header box associated with the track of the corresponding picture.
(15) The plurality of layers are divided into a predetermined number of layer sets equal to or greater than two, and the received container contains the predetermined number of video streams each having encoded image data of pictures of the predetermined number of layer sets. contains
The receiving device according to (10), wherein the image encoding unit captures encoded image data of pictures of a predetermined layer set corresponding to the decoding capability into the buffer and decodes the encoded image data based on the stream identification information.
(16) The image decoding unit
When the coded image data of the pictures of the predetermined layer group are included in a plurality of video streams, the coded image data of each picture are made into one stream based on the decoding timing information and taken into the buffer (15). 2. The receiving device according to .
(17) The image decoding unit
The receiving device according to any one of (10) to (16) above, having a function of rewriting the decoding time stamp of the encoded image data of each picture selectively loaded into the buffer to adjust the decoding interval of the low-hierarchical picture. .
(18) The receiving device according to any one of (10) to (17), further comprising a post processing unit that matches the frame rate of the image data of each picture obtained by the image decoding unit to the display capability.
(19) Includes video data having encoded image data of pictures in each layer obtained by classifying and encoding image data of each picture constituting moving image data into a plurality of layers by a receiving unit. a receiving step of receiving a container in a predetermined format;
coded image data of pictures in a hierarchy below a predetermined hierarchy according to decoding capability are selectively fetched into a buffer from the video data contained in the received container, and coded image data of each picture fetched into the buffer is decoded to obtain image data of a picture in a hierarchy below the predetermined hierarchy.

本技術の主な特徴は、ビデオデータをコンテナするパケットに、このビデオデータに含まれる各ピクチャの符号化画像データがそれぞれどの階層組に属するピクチャの符号化画像データであるかを識別する識別情報を挿入することで、受信側においては、この識別情報を利用して、デコード能力に応じた所定階層以下の階層のピクチャの符号化画像データを選択的にデコードすることを容易に可能としたことである(図12参照)。 The main feature of this technology is that a packet containing video data contains identification information that identifies to which layer set the encoded image data of each picture included in this video data belongs. By inserting , it becomes possible for the receiving side to selectively decode the encoded image data of the picture in the hierarchy below the predetermined hierarchy according to the decoding capability by using this identification information. (see FIG. 12).

10・・・送受信システム
100・・・送信装置
101・・・CPU
102・・・エンコーダ
103・・・圧縮データバッファ(cpb)
104,104A・・・マルチプレクサ
105・・・送信部
141・・・PESプライオリティ発生部
142・・・セクションコーディング部
143-1~143-N・・・PESパケット化部
144・・・スイッチ部
145・・・トランスポートパケット化部
146・・・アダプテーションフィールド・プライオリティ指示部
200・・・受信装置
201・・・CPU
202・・・受信部
203・・・デマルチプレクサ
204・・・圧縮データバッファ(cpb)
205・・・デコーダ
206・・・非圧縮データバッファ(dpb)
207・・・ポスト処理部
231・・・TSアダプテーションフィールド抽出部
232・・・クロック情報抽出部
233・・・TSペイロード抽出部
234・・・セクション抽出部
235・・・PSIテーブル/デスクリプタ抽出部
236・・・PESパケット抽出部
237・・・PESヘッダ抽出部
238・・・タイムスタンプ抽出部
239・・・識別情報抽出部
240・・・PESペイロード抽出部
241・・・ストリーム構成部
242・・・識別情報抽出部
251・・・テンポラルID解析部
252・・・対象階層選択部
253・・・デコード部
271・・・補間部
272・・・サブサンプル部
273・・・スイッチ部
DESCRIPTION OF SYMBOLS 10... Transmission/reception system 100... Transmission apparatus 101... CPU
102 Encoder 103 Compressed data buffer (cpb)
104, 104A Multiplexer 105 Transmitting unit 141 PES priority generating unit 142 Section coding unit 143-1 to 143-N PES packetizing unit 144 Switching unit 145. Transport packetization unit 146 Adaptation field/priority instruction unit 200 Receiving device 201 CPU
202... Receiving unit 203... Demultiplexer 204... Compressed data buffer (cpb)
205 decoder 206 uncompressed data buffer (dpb)
207... Post-processing unit 231... TS adaptation field extractor 232... Clock information extractor 233... TS payload extractor 234... Section extractor 235... PSI table/descriptor extractor 236 PES packet extraction unit 237 PES header extraction unit 238 Timestamp extraction unit 239 Identification information extraction unit 240 PES payload extraction unit 241 Stream configuration unit 242 Identification information extraction unit 251 Temporal ID analysis unit 252 Target hierarchy selection unit 253 Decoding unit 271 Interpolation unit 272 Sub-sampling unit 273 Switch unit

Claims (5)

動画像データを構成する各ピクチャの画像データが階層符号化されて生成された、低階層側のピクチャの符号化画像データを持つ第1のビデオストリームと高階層側のピクチャの符号化画像データを持つ第2のビデオストリームを含むと共に、上記第1のビデオストリームに対応して該第1のビデオストリームに含まれる各ピクチャの符号化画像データが上記低階層側のピクチャの符号化画像データに属することを示す第1のストリーム識別情報と、上記第2のビデオストリームに対応して該第2のビデオストリームに含まれる各ピクチャの符号化画像データが上記高階層側のピクチャの符号化画像データに属することを示す第2のストリーム識別情報と、上記第1のビデオストリームに対応して上記低階層側のピクチャのみからなるフレームレートに基づいた第1値が挿入された第1のデスクリプタと、上記第2のビデオストリームに対応して上記低階層側のピクチャと上記高階層側のピクチャとからなるフレームレートに基づいた第2の値が挿入された第2のデスクリプタを含む多重化ストリームを受信する受信部を備え、
上記第1のストリーム識別情報および上記第2のストリーム識別情報と、上記第1の値および上記第2の値に基づいて、上記多重化ストリームから、上記第1のビデオストリームのみ、あるいは上記第1のビデオストリームおよび上記第2のビデオストリームの双方を抽出してデコード処理を行い、上記デコード処理された各ピクチャの画像データのフレームレートを、表示部の表示能力に基づいて増加または減少させる処理を行う処理部をさらに備える
受信装置。
A first video stream having encoded image data of pictures on the low layer side and encoded image data of pictures on the high layer side, which are generated by hierarchically encoding image data of each picture constituting moving image data, and the coded image data of each picture included in the first video stream corresponding to the first video stream belongs to the coded image data of the picture on the lower hierarchy side and the encoded image data of each picture included in the second video stream corresponding to the second video stream is the encoded image data of the picture on the high layer side. a first descriptor in which a first value based on a frame rate consisting only of pictures on the low layer side corresponding to the first video stream is inserted; receiving a multiplexed stream including a second descriptor in which a second value based on a frame rate is inserted, which is composed of the low-hierarchy picture and the high-hierarchy picture, corresponding to the second video stream; a receiver,
Based on the first stream identification information and the second stream identification information, and the first value and the second value, only the first video stream or the first extracting and decoding both the first video stream and the second video stream, and increasing or decreasing the frame rate of the image data of each decoded picture based on the display capability of the display unit; receiving device, further comprising a processing unit that performs
上記処理部は、上記デコード処理された各ピクチャの画像データのフレームレートを、上記表示部の表示能力に合わせるように増加または減少させる処理を行う
請求項1に記載の受信装置。
The receiving device according to claim 1, wherein the processing unit increases or decreases the frame rate of the decoded image data of each picture so as to match the display capability of the display unit.
上記処理部は、上記デコード処理された各ピクチャの画像データのフレームレートを、上記表示部の表示能力に基づいて増加させる補間処理を行う
請求項1または2に記載の受信装置。
3. The receiving device according to claim 1, wherein the processing unit performs interpolation processing to increase the frame rate of the decoded image data of each picture based on the display capability of the display unit.
上記階層符号化された各ピクチャの符号化画像データには、階層識別情報が付加されている
請求項1から3のいずれか1項に記載の受信装置。
4. The receiving device according to any one of claims 1 to 3, wherein layer identification information is added to the encoded image data of each of the hierarchically encoded pictures.
受信部が、動画像データを構成する各ピクチャの画像データが階層符号化されて生成された、低階層側のピクチャの符号化画像データを持つ第1のビデオストリームと高階層側のピクチャの符号化画像データを持つ第2のビデオストリームを含むと共に、上記第1のビデオストリームに対応して該第1のビデオストリームに含まれる各ピクチャの符号化画像データが上記低階層側のピクチャの符号化画像データに属することを示す第1のストリーム識別情報と、上記第2のビデオストリームに対応して該第2のビデオストリームに含まれる各ピクチャの符号化画像データが上記高階層側のピクチャの符号化画像データに属することを示す第2のストリーム識別情報と、上記第1のビデオストリームに対応して上記低階層側のピクチャのみからなるフレームレートに基づいた第1値が挿入された第1のデスクリプタと、上記第2のビデオストリームに対応して上記低階層側のピクチャと上記高階層側のピクチャとからなるフレームレートに基づいた第2の値が挿入された第2のデスクリプタを含む多重化ストリームを受信する受信ステップを有し、
処理部が、上記第1のストリーム識別情報および上記第2のストリーム識別情報と、上記第1の値および上記第2の値に基づいて、上記多重化ストリームから、上記第1のビデオストリームのみ、あるいは上記第1のビデオストリームおよび上記第2のビデオストリームの双方を抽出してデコード処理を行い、上記デコード処理された各ピクチャの画像データのフレームレートを、表示部の表示能力に基づいて増加または減少させる処理を行う処理ステップをさらに有する
受信方法。
A first video stream having encoded image data of a picture on the low layer side and a code of a picture on the high layer side, which is generated by hierarchically encoding image data of each picture constituting moving image data by a receiving unit. a second video stream having coded image data, and the coded image data of each picture included in the first video stream corresponding to the first video stream is the coding of the picture on the lower layer side; first stream identification information indicating that it belongs to the image data, and encoded image data of each picture included in the second video stream corresponding to the second video stream is the code of the picture on the high layer side. second stream identification information indicating that the first video stream belongs to the converted image data, and a first value based on a frame rate consisting only of pictures on the low layer side corresponding to the first video stream. multiplexing including a descriptor, and a second descriptor in which a second value based on a frame rate is inserted, which is composed of the low-hierarchy-side picture and the high-hierarchy-side picture corresponding to the second video stream; having a receiving step for receiving the stream;
a processing unit extracting only the first video stream from the multiplexed stream based on the first stream identification information, the second stream identification information, and the first value and the second value; Alternatively, both the first video stream and the second video stream are extracted and decoded, and the frame rate of the image data of each decoded picture is increased or increased based on the display capability of the display unit. The receiving method, further comprising a processing step of reducing processing.
JP2021153059A 2020-09-30 2021-09-21 Receiving device and receiving method Active JP7230981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021153059A JP7230981B2 (en) 2020-09-30 2021-09-21 Receiving device and receiving method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020164375A JP6950802B2 (en) 2019-12-19 2020-09-30 Transmission method and transmitter
JP2021153059A JP7230981B2 (en) 2020-09-30 2021-09-21 Receiving device and receiving method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020164375A Division JP6950802B2 (en) 2019-12-19 2020-09-30 Transmission method and transmitter

Publications (2)

Publication Number Publication Date
JP2021192557A JP2021192557A (en) 2021-12-16
JP7230981B2 true JP7230981B2 (en) 2023-03-01

Family

ID=78890656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021153059A Active JP7230981B2 (en) 2020-09-30 2021-09-21 Receiving device and receiving method

Country Status (1)

Country Link
JP (1) JP7230981B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092453A1 (en) 2009-06-16 2012-04-19 Jong Yeul Suh Broadcast transmitter, broadcast receiver and 3d video processing method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092453A1 (en) 2009-06-16 2012-04-19 Jong Yeul Suh Broadcast transmitter, broadcast receiver and 3d video processing method thereof

Also Published As

Publication number Publication date
JP2021192557A (en) 2021-12-16

Similar Documents

Publication Publication Date Title
JP5774652B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
JP7192910B2 (en) Transmission method and transmission device
JP2020014260A (en) Transmission/reception system and transmission/reception method
JP7338745B2 (en) receiver
JP6950802B2 (en) Transmission method and transmitter
JP5905147B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
JP6508270B2 (en) Transmission apparatus, transmission method, reception apparatus and reception method
JP7230981B2 (en) Receiving device and receiving method
JP6773205B2 (en) Transmitter, transmitter, receiver and receiver
JP6648811B2 (en) Transmitting device, transmitting method, receiving device and receiving method
JP5905148B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
JP6213482B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R151 Written notification of patent or utility model registration

Ref document number: 7230981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151