WO2015019798A1 - 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法 - Google Patents

送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法 Download PDF

Info

Publication number
WO2015019798A1
WO2015019798A1 PCT/JP2014/068643 JP2014068643W WO2015019798A1 WO 2015019798 A1 WO2015019798 A1 WO 2015019798A1 JP 2014068643 W JP2014068643 W JP 2014068643W WO 2015019798 A1 WO2015019798 A1 WO 2015019798A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
pictures
picture
hierarchies
hierarchy
Prior art date
Application number
PCT/JP2014/068643
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP23218712.0A priority Critical patent/EP4354889A3/en
Priority to EP14835176.0A priority patent/EP3032834B1/en
Priority to RU2015153006A priority patent/RU2674890C2/ru
Priority to BR112015030897-0A priority patent/BR112015030897B1/pt
Priority to US14/898,283 priority patent/US10306296B2/en
Priority to EP19173244.5A priority patent/EP3585060A3/en
Priority to CN201480034649.3A priority patent/CN105340283B/zh
Publication of WO2015019798A1 publication Critical patent/WO2015019798A1/ja
Priority to US16/366,022 priority patent/US11368744B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/66Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving data partitioning, i.e. separation of data into packets or partitions according to importance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440227Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the present technology relates to a transmission device, a transmission method, a reception device, a reception method, an encoding device, and an encoding method. Specifically, the present technology relates to a transmission apparatus that transmits image data of each picture constituting moving image data by hierarchical encoding.
  • Receivers are expensive to support high-frame-frequency services, which is an impediment to popularization.
  • high-frame-frequency services which is an impediment to popularization.
  • only low-priced receivers dedicated to low-frame frequency services are prevalent, and if the service side starts high-frame frequency services in the future, it will be impossible to view without new receivers. It becomes an obstruction factor.
  • temporal direction scalability has been proposed by hierarchically encoding image data of each picture constituting moving image data (see Non-Patent Document 1).
  • the layer of each picture can be identified based on the temporal ID (temporal_id) inserted in the header of the NAL (Network Abstraction Layer) unit, and selective decoding up to the layer corresponding to the decoding capability becomes possible. .
  • the purpose of this technology is to enable a good decoding process according to the decoding capability on the receiving side.
  • the concept of this technology is The image data of each picture constituting the moving image data is classified into a plurality of layers, the image data of each classified layer is encoded, and a video stream having the encoded image data of each layer is generated.
  • An image encoding unit, A transmission unit that transmits a container of a predetermined format including the generated video stream, and the image encoding unit includes: The transmission apparatus adds decoding timing information set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher, to the encoded image data of the picture of each hierarchy.
  • the image encoding unit encodes the image data of each picture constituting the moving image data to generate a video stream (encoded stream).
  • the image data of each picture constituting the moving image data is classified into a plurality of layers and encoded, and a video stream having the image data of the pictures of each layer is generated.
  • decoding timing information for example, a decoding time stamp set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher is added to the encoded image data of the picture of each layer.
  • the transmission unit transmits a container of a predetermined format including the video stream described above.
  • the container may be a transport stream (MPEG-2 TS) adopted in the digital broadcasting standard.
  • the container may be MP4 used for Internet distribution or the like, or a container of other formats.
  • the image encoding unit generates a single video stream having encoded image data of pictures in each layer, divides a plurality of layers into two or more predetermined number of layer groups, and Identification information for identifying the belonging hierarchy group may be added to the encoded image data.
  • the identification information may be a level designation value of the bit stream, and may be set to a higher value as the hierarchy set on the higher hierarchy side.
  • the image encoding unit divides a plurality of hierarchies into two or more predetermined number of hierarchies, and generates a predetermined number of video streams respectively having encoded image data of pictures in each hierarchic group. May be.
  • the image encoding unit may add identification information for identifying the belonging hierarchical group to the encoded image data of the pictures of each hierarchical group.
  • the identification information may be a level designation value of the bit stream, and may be set to a higher value as the hierarchy set on the higher hierarchy side.
  • the decoding timing information set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy becomes higher is added to the encoded image data of the picture in each hierarchy. . Therefore, it is possible to perform a favorable decoding process according to the decoding performance on the receiving side. For example, even when the decoding capability is low, it is possible to selectively decode the encoded image data of a low-level picture without incurring buffer corruption.
  • the image encoding unit generates a single video stream having encoded image data of pictures in each layer, or divides a plurality of layers into two or more predetermined number of layer sets.
  • an information insertion unit that generates a predetermined number of video streams each having encoded image data of pictures in each hierarchical group, and inserts configuration information of the video streams included in the container into the container layer. May be.
  • the reception side can easily grasp the configuration of the video stream based on the configuration information of the video stream included in the container, and can perform an appropriate decoding process.
  • the transmission unit divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and a higher priority is given to a packet for containerizing encoded image data of pictures in the lower hierarchies. May be set.
  • a higher priority is given to a packet for containerizing encoded image data of pictures in the lower hierarchies. May be set.
  • the transmission unit divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and a higher priority is given to a packet for containerizing encoded image data of pictures in the lower hierarchies. May be set.
  • the transmission unit divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and a higher priority is given to a packet for containerizing encoded image data of pictures in the lower hierarchies. May be set.
  • the transmission unit divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and a higher priority is given to a packet
  • Decoding timing information set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher is added to the encoded image data of the picture of each layer, Decoding the encoded image data of a picture of a hierarchy below the predetermined hierarchy selected from the video stream included in the received container at a decoding timing indicated by the decoding timing information, and a picture of the hierarchy below the predetermined hierarchy
  • the receiving apparatus further includes a processing unit for obtaining the image data.
  • a container of a predetermined format is received by the receiving unit.
  • This container includes a video stream having image data of pictures in each layer obtained by classifying and encoding image data of each picture constituting moving image data into a plurality of layers.
  • Decoded timing information for example, a decoding time stamp set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher is added to the encoded image data of the pictures of each layer.
  • the processing unit decodes the encoded image data of a picture in a hierarchy lower than a predetermined hierarchy selected from the video stream included in the receiving container, and obtains image data of each picture.
  • the decoding of the encoded image data of each picture is as follows: At the latest, it is performed at the decode timing indicated by the added decode timing information.
  • the received container includes a single video stream having encoded image data of pictures of each layer, and the plurality of layers are divided into two or more predetermined number of layer sets, and the lower layer side
  • the priority of the packet for containerizing the encoded image data of the pictures in the hierarchical group is set to be higher, and the processing unit sets the picture of the predetermined hierarchical group in the container with the priority packet selected according to the decoding capability.
  • the encoded image data may be taken into a buffer and decoded.
  • the received container includes a predetermined number of video streams each having image data of pictures of a predetermined number of layer sets of two or more obtained by dividing a plurality of layers, and the processing unit
  • the video stream selected according to the decoding capability may be decoded by fetching the encoded image data of a predetermined layer set of pictures in the buffer.
  • the decoding time stamp set so that the decoding time interval of the encoded image data for each picture becomes smaller as the higher layer is added to the encoded image data of the picture of each layer
  • the encoded image data of the picture of the selected hierarchy below the predetermined hierarchy is performed at the decode timing indicated by the decode timing information added thereto. Therefore, it is possible to perform a favorable decoding process according to the decoding performance. For example, even when the decoding capability is low, it is possible to selectively decode the encoded image data of a low-level picture without incurring buffer corruption.
  • a post processing unit that matches the frame rate of the image data of each picture obtained by the processing unit with the display capability may be further provided. In this case, even if the decoding capability is low, it is possible to obtain image data with a frame rate suitable for the high display capability.
  • a video stream that classifies image data of each picture constituting moving image data into a plurality of hierarchies, encodes image data of pictures of the classified hierarchies, and has image data of the encoded pictures of each hierarchy
  • An image encoding unit for generating The image encoding unit divides the plurality of hierarchies into two or more predetermined number of hierarchies, inserts a bitstream level designation value into each of the substreams corresponding to each hierarchies,
  • the level designation value of the bit stream inserted in each of the substreams corresponding to each of the above layer sets is a level value including pictures of all layers included in the layer set below the own layer set. is there.
  • the image encoding unit classifies the image data of each picture constituting the moving image data into a plurality of hierarchies, and encodes the image data of the classified pictures of the respective hierarchies.
  • a video stream having image data of pictures in each layer is generated.
  • the plurality of hierarchies are divided into a predetermined number of hierarchies of two or more, and a bitstream level designation value is inserted into each of the substreams corresponding to each hierarchic group.
  • the level designation value of the bit stream inserted in each of the substreams corresponding to each layer set is a level value including pictures of all layers included in the layer set below the own layer set. .
  • the image encoding unit may generate a predetermined number of video streams including each of the substreams corresponding to each layer set.
  • the image encoding unit may generate a single video stream including all of the substreams corresponding to each layer set.
  • the bitstream level specification value is inserted into each substream corresponding to each layer set, and the value includes pictures of all layers included in the layer set below the own layer set. This is the level value. Therefore, the video stream receiving side can easily determine whether or not each substream can be decoded based on the level designation value of the inserted bitstream.
  • a video stream that classifies image data of each picture constituting moving image data into a plurality of hierarchies, encodes image data of pictures of the classified hierarchies, and has image data of the encoded pictures of each hierarchy
  • An image encoding unit for generating The image encoding unit divides the plurality of hierarchies into two or more predetermined number of hierarchies, inserts a bitstream level designation value into each of the substreams corresponding to each hierarchies, The level designation value of the bitstream inserted in each of the substreams corresponding to each hierarchical group is a level value including pictures of all the hierarchical levels included in the hierarchical group below the hierarchical group,
  • the transmission device further includes an information
  • the image encoding unit classifies the image data of each picture constituting the moving image data into a plurality of hierarchies, and encodes the image data of the classified pictures of the respective hierarchies.
  • a video stream having image data of pictures in each layer is generated.
  • the plurality of hierarchies are divided into a predetermined number of hierarchies of two or more, and a bitstream level designation value is inserted into each of the substreams corresponding to each hierarchic group.
  • the level designation value of the bitstream inserted in each substream corresponding to each layer set is a level value including pictures of all layers included in the layer set below the layer set.
  • the container of a predetermined format including the generated video stream is transmitted by the transmission unit.
  • the level insertion value of the bit stream inserted into the substream of each hierarchical group is a level value including pictures of all the hierarchical levels included in the hierarchical group below the hierarchical group in the container layer by the information insertion unit.
  • the indicated flag information is inserted.
  • the level designation value of the bit stream inserted in the substream of each hierarchical group is included in the hierarchical group below the hierarchical group by the flag information inserted in the container layer. It can be seen that the level value includes pictures of all hierarchies. Therefore, on the receiving side, there is no need to perform processing for confirming level values including pictures of all layers included in each substream below a predetermined layer set by using level designation values for each layer, and efficiency of decoding processing is reduced. Can be achieved.
  • FIG. 1 It is a block diagram which shows the structural example of an encoder. It is a figure which shows an example of the processing flow of an encoder. It is a figure which shows the structural example (Syntax) of HEVC descriptor (HEVC_descriptor). It is a figure which shows the content (Semantics) of the main information in the structural example of a HEVC descriptor. It is a figure which shows the structural example (Syntax) of a scalability extension descriptor (scalability_extension_descriptor). It is a figure which shows the content (Semantics) of the main information in the structural example of a scalability extension descriptor.
  • FIG. 1 It is a figure which shows the structural example (Syntax) of TS packet. It is a figure which shows the relationship between the bit rate level specification value (general_level_idc) contained in VPS, and the setting value of "transport_priority" of a TS packet header. It is a block diagram which shows the structural example of a multiplexer. It is a figure which shows an example of the processing flow of a multiplexer. It is a figure which shows the structural example of the transport stream TS in the case of performing delivery by a single stream. It is a figure which shows the specific structural example of transport stream TS in the case of performing delivery by a single stream.
  • FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment.
  • the transmission / reception system 10 includes a transmission device 100 and a reception device 200.
  • the transmission device 100 transmits a transport stream TS as a container on a broadcast wave.
  • image data of each picture constituting moving image data is classified into a plurality of layers, and a video stream having encoded data of image data of pictures of each layer is included.
  • H.264 / AVC, H.H. Encoding such as H.265 / HEVC is performed, and the referenced picture is encoded so as to belong to the self hierarchy and / or a hierarchy lower than the self hierarchy.
  • Hierarchy identification information for identifying the affiliation hierarchy is added to the encoded image data of the picture of each hierarchy for each picture.
  • hierarchical identification information (“nuh_temporal_id_plus1” meaning temporal_id) is arranged in the header portion of the NAL unit (nal_unit) of each picture.
  • a single video stream having encoded image data of pictures in each layer or a plurality of layers is divided into a predetermined number of layer sets of two or more, and encoded images of pictures in each layer set A predetermined number of video streams each having data is included.
  • layer information of layer encoding and configuration information of the video stream are inserted into the transport stream TS. This information is inserted into the transport layer. With this information, the receiving side can easily grasp the hierarchical configuration and the stream configuration, and can perform appropriate decoding processing.
  • a plurality of hierarchies are divided into a predetermined number of hierarchies, and the priority of TS packets (transport stream packets) that container the encoded image data of pictures in the lower hierarchies is set high.
  • TS packets transport stream packets
  • the receiving side can process only the encoded image data of the hierarchical set of pictures corresponding to its decoding capability in the buffer.
  • a plurality of hierarchies are divided into a predetermined number of hierarchies, and identification information for identifying the belonging hierarchies is added to the encoded image data of the pictures of each hierarchies.
  • this identification information for example, a level designation value (level_idc) of the bit stream is used, and the higher the hierarchy set, the higher the value.
  • the receiving device 200 receives the above-described transport stream TS transmitted from the transmitting device 100 on a broadcast wave.
  • the receiving apparatus 200 selectively extracts encoded image data of a hierarchy below a predetermined hierarchy from the video stream included in the transport stream TS according to its decoding capability, and acquires image data of each picture. To play back images.
  • the transport stream TS may include a single video stream having encoded image data of a plurality of layers of pictures.
  • the encoded image data of pictures of a predetermined layer set containered with TS packets of the priority selected according to the decoding capability is taken into the buffer and decoded.
  • the transport stream TS includes a predetermined number of video streams each having encoded image data of pictures of a predetermined number of layer sets of two or more obtained by dividing a plurality of layers. May be. In that case, encoded image data of pictures of a predetermined layer set included in the video stream selected according to the decoding capability is taken into the buffer and decoded.
  • the receiving apparatus 200 performs post processing for matching the frame rate of the image data of each picture obtained by decoding as described above to the display capability.
  • this post processing for example, even when the decoding capability is low, it is possible to obtain image data with a frame rate suitable for high display capability.
  • FIG. 2 shows a configuration example of the transmission device 100.
  • the transmission apparatus 100 includes a CPU (Central Processing Unit) 101, an encoder 102, a compressed data buffer (cpb: coded picture buffer) 103, a multiplexer 104, and a transmission unit 105.
  • the CPU 101 is a control unit and controls the operation of each unit of the transmission device 100.
  • Encoder 102 inputs uncompressed moving image data and performs hierarchical encoding.
  • the encoder 102 classifies the image data of each picture constituting the moving image data into a plurality of hierarchies. Then, the encoder 102 encodes the image data of the classified pictures of each layer, and generates a video stream having the encoded image data of the pictures of each layer.
  • the encoder 102 is, for example, H.264. H.264 / AVC, H.H. Encoding such as H.265 / HEVC is performed. At this time, the encoder 102 performs encoding so that a picture to be referred to (referenced picture) belongs to the own hierarchy and / or a hierarchy lower than the own hierarchy.
  • FIG. 3 shows an example of hierarchical encoding performed by the encoder 102.
  • the image data is classified into five layers from 0 to 4, and image data of pictures in each layer is encoded.
  • the vertical axis shows the hierarchy. 0 to 4 are set as temporal_id (hierarchy identification information) arranged in the header portion of the NAL unit (nal_unit) constituting the encoded image data of the pictures of layers 0 to 4, respectively.
  • the horizontal axis indicates the display order (POC: picture order of composition), with the display time on the left and the display time on the right.
  • FIG. 4A shows a structural example (Syntax) of the NAL unit header
  • FIG. 4B shows contents (Semantics) of main parameters in the structural example.
  • the 6-bit field “Nal_unit_type” indicates the NAL unit type.
  • the 6-bit field of “Nuh_layer_id” is assumed to be 0.
  • a 3-bit field of “Nuh_temporal_id_plus1” indicates temporal_id and takes a value (1 to 7) obtained by adding 1.
  • each of the rectangular frames indicates a picture
  • the numbers indicate the order of the encoded pictures, that is, the encoding order (decoding order on the receiving side). For example, 16 pictures from “2” to “17” form a sub picture group (Sub16group ⁇ of pictures), and “2” is the first picture in the sub picture group. “1” is a picture of the previous sub-picture group. Several of these sub-picture groups are gathered to form a GOP (Group Of Pictures).
  • the encoded image data of the first picture of the GOP is composed of NAL units of AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, and EOS as shown in FIG.
  • pictures other than the first picture of the GOP are configured by NAL units of AUD, PPS, PSEI, SLICE, SSEI, and EOS.
  • VPS and SPS can be transmitted once in a sequence (GOP), and PPS can be transmitted in each picture.
  • the solid line arrows indicate the reference relationship of pictures in encoding.
  • the picture “2” is a P picture and is encoded with reference to the picture “1”.
  • the picture “3” is a B picture and is encoded with reference to the pictures “1” and “2”.
  • other pictures are encoded with reference to nearby pictures in display order. Note that the picture of layer 4 is not referred to by other pictures.
  • Encoder 102 generates a video stream having encoded image data of pictures in each layer. For example, the encoder 102 divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and generates a predetermined number of video streams each including a substream corresponding to each hierarchic set, or Generate a single video stream that includes all of the corresponding substreams.
  • the encoder 102 when hierarchies 0 to 3 are set as a lower hierarchy, and hierarchy 4 is set as a higher hierarchy and divided into two hierarchy sets, two substreams Exists. That is, a substream having encoded image data of pictures in layers 0 to 3 and a substream having encoded image data of pictures in layer 4.
  • the encoder 102 generates a single video stream including two substreams or two video streams each including two subvideo streams.
  • the encoder 102 divides a plurality of hierarchies into a predetermined number of hierarchies of two or more as described above, and assigns the hierarchic hierarchies to the encoded image data of the pictures in each hierarchies.
  • Identification information for identifying is added.
  • general_level_idc which is a level designation value of a bitstream included in SPS (Sequence Parameter Set) and ESPS (Enhanced Sequence Parameter Set) is used as identification information.
  • SPS is a conventionally well-known NAL unit, and is included in each sub-stream (base substream) of the lowest hierarchical set, that is, a base substream.
  • ESPS is a newly defined NAL unit, and is included in each sub-stream of the hierarchical set higher than the lowest, that is, the enhanced sub-stream, for each sequence (GOP).
  • the value of “general_level_idc” included in the SPS and ESPS is set to a higher value as the hierarchy set on the higher hierarchy side.
  • sub_layer_level_idc can be sent by SPS and ESPS for each sublayer, it is also possible to use this “sub_layer_level_idc” as identification information for identifying a layer set.
  • the above is supplied not only in SPS but also in VPS.
  • the value of “general_level_idc” inserted into the SPS and ESPS of the substream of each hierarchical group is a level value including pictures of all the hierarchical levels included in the hierarchical group below the own hierarchical group.
  • the value of “general_level_idc” inserted into the SPSs of the substreams of the hierarchical group of layers 0 to 3 is a level value including only the pictures of layers 0 to 3.
  • “level 5.1” is set.
  • the value of “general_level_idc” inserted into the ESPS of the substream of the hierarchical set of hierarchical level 4 is a level value including all the pictures of hierarchical levels 0 to 4 .
  • “level 5.2” is set.
  • FIG. 6 shows an example of encoding, decoding, display order and delay at the time of hierarchical encoding.
  • This example corresponds to the above-described hierarchical encoding example of FIG.
  • FIG. 6A shows the encoder input.
  • FIG. 6B each picture is encoded in the encoding order with a delay of 16 pictures to obtain an encoded stream.
  • FIG. 6B also shows decoder inputs, where each picture is decoded in decoding order.
  • image data in which each picture is decoded is obtained in display order with a delay of four pictures.
  • FIG. 7A shows an encoded stream similar to the encoded stream shown in FIG. 6B described above, divided into three stages of layers 0 to 2, layer 3, and layer 4.
  • “Tid” indicates temporal_id.
  • the pictures belonging to the lower hierarchy of the hierarchical encoding take a large decoding interval for each picture, and perform buffer control so that the decoding interval becomes smaller as going to the higher hierarchy.
  • the minimum decoding capability (Target minimum decoder capability) for the number of layers is defined.
  • the minimum decoding capability is the capability to decode up to layer 2
  • encoding is performed so that pictures in layers 0 to 2 can be decoded at a time resolution of 1/4 of 5 layers.
  • DTS decodingdeTime stamp
  • the interval between pictures belonging to layers 0 to 2 is set to a time interval four times the full resolution, and the interval between pictures belonging to layer 3 Is a time interval twice the full resolution, and the interval between pictures belonging to the layer 4 is a full resolution time interval.
  • FIG. 8A shows the encoder input order (same as FIG. 6A).
  • 8B to 8D show the display order (corresponding to PTS as a system layer) (same as FIGS. 7B to 7D).
  • FIG. 9 shows an example of picture encoding timing (decoding timing at the time of decoding) at the time of hierarchical encoding.
  • This example corresponds to the above-described hierarchical encoding example of FIG.
  • the minimum decoding capability is changed to the capability of decoding up to layer 2.
  • a portion underlined by a solid line indicates pictures (16 pictures “2” to “17”) belonging to one SGP (Sub-Group-of-Picture).
  • the picture indicated by the solid rectangular frame belongs to the current SGP, but the picture indicated by the broken rectangular frame does not belong to the current SGP and does not affect the prediction by the picture belonging to the current SGP.
  • the interval between pictures belonging to layers 0 to 2 that is, the pictures “2”, “3”, “4”, “11”,..., Is Ta, which is four times the time interval of the full resolution.
  • the timing of the picture “8” is set to the next time interval position in order to avoid overlapping with the timing of the picture “11”.
  • the timings of the pictures “12” and “15” are also adjusted so as to avoid overlapping with pictures belonging to the layers 0 to 2.
  • the timing of the picture belonging to the hierarchy 3 is set to the middle of the timing of the pictures belonging to the hierarchy 0 to 2.
  • the interval between pictures belonging to layer 4, that is, “6”, “7”, “9”,... is basically Tc which is a full resolution time interval.
  • the timing of the pictures belonging to layer 4 is set to the middle of the timings of the pictures belonging to layers 0 to 3.
  • encoding processing of pictures for one SGP (16 pictures “2” to “17”) is performed in one SGP period. This indicates that real-time processing is possible even when the encoding interval of pictures belonging to the lower hierarchy is set large as described above.
  • FIG. 10 shows an output example of the encoder 102.
  • the encoder 102 outputs a single video stream (encoded stream).
  • This example corresponds to the hierarchical encoding example of FIG. 3, and is an example in which each picture is encoded at the timing shown in FIG.
  • the video stream is formed by arranging encoded image data of each picture belonging to the layers 0 to 4 in the encoding order (encoding order).
  • the referenced picture (pictures in layers 0 to 3) belonging to the current SGP (picture with a thick frame) is decoded to an uncompressed data buffer (dpb: decoded picture buffer). To prepare for reference from other pictures.
  • FIG. 11 shows an output example of the encoder 102.
  • the encoder 102 outputs two video streams (encoded streams) of a base stream (B_str) and an extended stream (E_str).
  • B_str base stream
  • E_str extended stream
  • the base stream (B-stream) is obtained by arranging the encoded image data of each picture belonging to the layers 0 to 3 in the encoding order (encoding order).
  • the extension stream (E-stream) is obtained by arranging encoded image data of each picture belonging to the layer 4 in an encoding order (encoding order).
  • FIG. 12 shows a configuration example of the encoder 102.
  • the encoder 102 includes a temporal ID generation unit 121, a buffer delay control unit 122, an HRD (Hypothetical Reference Decoder) setting unit 123, a parameter set / SEI encoding unit 124, a slice encoding unit 125, and a NAL packetizing unit 126. have.
  • HRD Hypothetical Reference Decoder
  • the temporal ID generation unit 121 is supplied with information on the number of layers (Number of layers) from the CPU 101.
  • the buffer delay control unit 122 is supplied with information on minimum decoding capability (minimum_target_decoder_level_idc) from the CPU 101 and temporal_id generated by the temporal ID generation unit 121.
  • the buffer delay control unit 122 calculates “cpb_removal_delay” and “dpb_output_delay” of each picture for each layer.
  • the encoding timing of the referenced low-level picture and the encoding timing of the decoded high-level picture are determined. (See FIG. 9).
  • This encoding timing has the same meaning as the decoding timing read from the compressed data buffer (cpb: coded picture buffer) on the receiving side.
  • the buffer delay control unit 122 obtains the encoding interval D of the picture in each layer by the following formula (1) and reflects it in “cpb_removal_delay” and “dpb_output_delay”.
  • the lower layer side is preferentially encoded, and the higher layer side is encoded in the next time slot assigned by the above formula.
  • An HRD (Hypothetical Reference Decoder) setting unit 123 is supplied with “cpb_removal_delay” and “dpb_output_delay” of pictures of each layer calculated by the buffer delay control unit 122 and information on the number of streams (Number of streams) from the CPU 101. Is supplied.
  • the HRD setting unit 123 performs HRD setting based on these pieces of information.
  • the temporary_id is supplied to the parameter set / SEI encoding unit 124 together with the HRD setting information.
  • the parameter set / SEI encoding unit 124 generates a parameter set and SEI such as VPS, SPS (ESPS), and PPS of pictures in each layer according to the number of streams to be encoded.
  • a picture timing SEI Picture timing SEI
  • a buffering period SEI BuffereePerifod SEI
  • the buffering period SEI is generated corresponding to the first picture (access unit) of the GOP.
  • “Initial cpb removal time” indicates a time (initial time) taken out when decoding the encoded image data of the first picture of GOP (Group Of Picture) from the compressed data buffer (cpb).
  • “Cpb_removal_delay” is a time for extracting the encoded image data of each picture from the compressed data buffer (cpb), and the time is determined together with “initial_cpb_removal_time”.
  • “Dpb_output_delay” indicates the time taken to decode and enter the uncompressed data buffer (dpb).
  • the slice encoding unit 125 encodes the image data of the pictures in each layer to obtain slice data (slice segment header, slice segment data).
  • the slice decoding unit 125 inserts “ref_idx_l0_active (ref_idx_l1_active)” indicating the index of the prediction destination picture of “Prediction Unit” into “slice segment header” as information indicating the prediction state in the temporal direction using the frame buffer.
  • the referenced picture is determined together with the hierarchical level indicated by temporal_id.
  • the slice decoding unit 125 inserts the index of the current slice (slice) into “slice segment header” as “short_term_ref_pic_set_idx”, or “it_idx_sps”.
  • the NAL packetizing unit 126 generates encoded image data of pictures in each layer based on the parameter set and SEI generated by the parameter set / SEI encoding unit 124 and the slice data generated by the slice encoding unit 125.
  • the number of video streams (encoded streams) corresponding to the number of streams is output.
  • temporal_id indicating the hierarchy is attached to the NAL unit header for each picture (see FIG. 4).
  • a picture belonging to the layer indicated by temporal_id is bundled as a sublayer (sub_layer), and the bit rate level designation value “Level_idc” for each sublayer is set to “sublayer_level_idc” and inserted into the VPS or SPS (ESPS). .
  • FIG. 13 shows a processing flow of the encoder 102.
  • the encoder 102 starts processing, and then proceeds to processing in step ST2.
  • the encoder 102 sets the number N of layers in the layer encoding.
  • the encoder 102 sets temporal_id of pictures in each layer to 0 to (N ⁇ 1).
  • step ST4 the encoder 102 sets the hierarchical level K that can be decoded by the decoder having the minimum capability among the target decoders within the range of 0 to N-1. Then, in step ST5, the encoder 102 uses the buffer delay control unit 122 to obtain the picture encoding interval D in each layer using the above equation (1).
  • step ST6 the encoder 102 determines whether or not the encoding timing of pictures overlaps between layers.
  • the encoder 102 preferentially encodes the lower layer picture in step ST7, and encodes the higher layer picture at the timing of the next encoding interval D. Thereafter, the encoder 102 proceeds to the process of step ST8.
  • step ST8 the encoder 102 reflects the encoding interval D of the picture of each layer obtained in step ST5 in “cpb_removal_delay” and “dpb_output_delay”, performs HRD setting, parameter set / SEI encoding, slice encoding, and NAL. Transfer to multiplexed block as unit. Then, the encoder 102 complete
  • the compressed data buffer (cpb) 103 temporarily stores the video stream generated by the encoder 102 and including the encoded data of the pictures of each layer.
  • the multiplexer 104 reads the video stream stored in the compressed data buffer 103, converts it into a PES packet, further converts it into a transport packet, multiplexes it, and obtains a transport stream TS as a multiplexed stream.
  • this transport stream TS a single video stream having encoded image data of pictures in each layer, or a plurality of layers are divided into a predetermined number of layer sets of two or more, and encoding of pictures in each layer set A predetermined number of video streams each having image data is included.
  • the multiplexer 104 inserts layer information and stream configuration information into the transport stream TS.
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PMT Program Map Table
  • PSI Program Specific Information
  • this PMT there is a video elementary loop (video ES1 ⁇ ⁇ ⁇ loop) having information related to each video stream.
  • video elementary loop information such as a stream type and a packet identifier (PID) is arranged corresponding to each video stream, and a descriptor describing information related to the video stream is also arranged.
  • PID packet identifier
  • the multiplexer 104 inserts a HEVC descriptor (HEVC_descriptor) as one of the descriptors, and further inserts a newly defined scalability extension descriptor (scalability_extension_descriptor).
  • HEVC_descriptor HEVC descriptor
  • scaling_extension_descriptor a HEVC descriptor
  • FIG. 14 shows a structural example (Syntax) of the HEVC descriptor (HEVC_descriptor).
  • FIG. 15 shows the contents (Semantics) of main information in the structural example.
  • the 8-bit field of “descriptor_tag” indicates a descriptor type, and here indicates that it is a HEVC descriptor.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • the 8-bit field of “level_idc” indicates the bit rate level specification value.
  • temporary_layer_subset_flag_ 1
  • temporary_id_min indicates the value of temporal_id of the lowest hierarchy of the hierarchically encoded data included in the corresponding video stream.
  • Temporal_id_max indicates the value of temporal_id of the highest hierarchy of the hierarchically encoded data included in the corresponding video stream.
  • the 1-bit field of “level_constrained_flag” is newly defined, SPS or ESPS exists in the corresponding substream (substream), and “general_level_idc” of the element is temporal_id (hierarchy identification information) included in the substream It indicates that it has a level value including the following picture. “1” indicates that SPS or ESPS exists in the corresponding substream, and “general_level_idc” of the element has a level value including a picture of temporal_id included in the substream. “0” includes one SPS in the substream group constituting the target service, and “general_level_idc” includes not only the substream but also other substreams under the same service. Indicates the level value.
  • the 3-bit field of “scalability_id” is newly defined, and is an ID indicating the scalability attached to each stream when a plurality of video streams provide a scalable service. “0” indicates a base stream, and “1” to “7” are IDs that increase according to the degree of scalability from the base stream.
  • FIG. 16 shows a structural example (Syntax) of the scalability extension descriptor (scalability_extension_descriptor).
  • FIG. 17 shows the contents (Semantics) of main information in the structural example.
  • the 8-bit field of“ scalability_extension_descriptor_tag ” indicates the descriptor type, and here indicates that it is a scalability extension descriptor.
  • the 8-bit field of “scalability_extension_descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the descriptor length.
  • a 1-bit field of “extension_stream_existing_flag” is a flag indicating that there is an extension service by another stream. “1” indicates that there is an extension stream, and “0” indicates that there is no extension stream.
  • extension_type indicates the extension type. “001” indicates that the extension is scalable in the time direction. “010” indicates that the extension is spatially scalable. “011” indicates that the extension is bit rate scalable.
  • the 4-bit field “number_of_streams” indicates the total number of streams involved in the distribution service.
  • a 3-bit field of “scalability_id” is an ID indicating scalability attached to each stream when a plurality of video streams supplies a scalable service. “0” indicates a base stream, and “1” to “7” are IDs that increase according to the degree of scalability from the base stream.
  • the 8-bit field of “minimum_target_decoder_level_idc” indicates the capability of the decoder targeted by the corresponding stream. This information is used in the receiver to determine whether or not the assumed decoding timing of the encoded picture exceeds the range of the picture decoding processing capability of the decoder before the decoder decodes the stream.
  • the bit rate level specification value (general_level_idc) included in the SPS, ESPS, etc. is the assigned hierarchy set when a plurality of hierarchies are divided into two or more predetermined number of hierarchy sets. Used as identification information.
  • the value of the level designation value of each hierarchical group is a value corresponding to the frame rate made up of the pictures of this hierarchical group and all the pictures of the hierarchical group lower than this hierarchical group.
  • the multiplexer 104 sets the higher the priority of the TS packet that containers the encoded image data of the pictures in the lower layer set. For example, the multiplexer 104 uses a 1-bit field of “transport_priority” of the TS packet header when dividing a plurality of layers into a low layer set and a high layer set.
  • FIG. 18 shows a structural example (Syntax) of a TS packet.
  • the 1-bit field of “transport_priority” is set to “1” in the case of TS packets that container coded image data of pictures in the base layer, that is, the layer set on the lower layer side, and is set to “1” in the non-base layer, that is, the higher layer side.
  • a TS packet that containers encoded image data of a hierarchical set of pictures it is set to “0”.
  • FIG. 19 shows the relationship between the bit rate level specification value (general_level_idc) included in the SPS and ESPS NAL units and the setting value of “transport_priority” of the TS packet header.
  • FIG. 20 shows a configuration example of the multiplexer 104.
  • a TS priority generation unit 141, a section coding unit 142, PES packetization units 143-1 to 143-N, a switch unit 144, and a transport packetization unit 145 are provided.
  • the PES packetizers 143-1 to 143-N read the video streams 1 to N stored in the compressed data buffer 103, respectively, and generate PES packets. At this time, the PES packetizers 143-1 to 143-N add DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp) timestamps to the PES header based on the HRD information of the video streams 1 to N.
  • DTS Decoding Time Stamp
  • PTS Presentation Time Stamp
  • “cpu_removal_delay” and “dpb_output_delay” of each picture are referred to, converted into DTS and PTS, respectively, with accuracy synchronized with STC (System Time Clock) time, and arranged at predetermined positions of the PES header.
  • the switch unit 144 selectively extracts the PES packets generated by the PES packetizing units 143-1 to 143-N based on the packet identifier (PID), and sends the PES packets to the transport packetizing unit 145.
  • the transport packetization unit 145 generates a TS packet including the PES packet in the payload, and obtains a transport stream.
  • the TS priority generation unit 141 is supplied with information on the number of layers (Number ⁇ of layers) and the number of streams (Number of streams) from the CPU 101.
  • the TS priority generation unit 141 generates the priority of each layer set when a plurality of layers indicated by the number of layers is divided into two or more predetermined number of layer sets. For example, when dividing into two, a value to be inserted into the 1-bit field of “transport_priority” of the TS packet header is generated (see FIG. 19).
  • the TS priority generation unit 141 sends the priority information of each layer set to the transport packetization unit 145.
  • the transport packetization unit 145 sets the priority of each TS packet based on this information. In this case, as described above, the priority is set higher as the priority of the TS packet for containerizing the encoded image data of the pictures in the lower hierarchical layer set.
  • the section coding unit 142 is supplied with information on the number of layers (Number ⁇ of layers), the number of streams (Number of streams), and the minimum target decoder level (Minimum_target_decoder_level_idc) from the CPU 101. Based on this information, the section coding unit 142 generates various section data to be inserted into the transport stream TS, for example, the above-described HEVC descriptor (HEVC_descriptor), scalability extension descriptor (scalability_extension_descriptor), and the like.
  • HEVC_descriptor HEVC_descriptor
  • scalability extension descriptor scalability_extension_descriptor
  • the section coding unit 142 sends various section data to the transport packetizing unit 145.
  • the transport packetization unit 145 generates a TS packet including this section data and inserts it in the transport stream TS.
  • FIG. 21 shows a processing flow of the multiplexer 104.
  • a plurality of hierarchies are divided into two groups, a low hierarchy group and a high hierarchy group.
  • the multiplexer 104 starts processing, and then proceeds to processing in step ST12.
  • the multiplexer 104 sets the temporal_id_ of each picture of the video stream (video elementary stream) and the number of encoded streams to be configured.
  • the multiplexer 104 sets “transport_priority” when multiplexing a low-layer set picture or a video stream including a low-layer set picture to “1”.
  • the multiplexer 104 refers to the HRD information (cpu_removal_delay, dpb_output_delay), determines the DTS and PTS, and inserts them in the PES header.
  • step ST15 the multiplexer 104 determines whether or not it is a single stream (single video stream).
  • the multiplexer 104 proceeds with the multiplexing process with one PID (packet identifier) in step ST16, and then proceeds to the process of step ST17.
  • the multiplexer 104 proceeds with the multiplexing process with a plurality of packet PIDs (packet identifiers) in step ST18, and then proceeds to the process of step ST17.
  • the multiplexer 104 codes a HEVC descriptor, a scalability extension descriptor, and the like.
  • the multiplexer 104 inserts the video stream into the PES payload to form a PES packet, and then in step ST20, converts the packet into a transport packet to obtain a transport stream TS. Thereafter, the multiplexer 104 ends the process in step ST21.
  • FIG. 22 shows an example of the configuration of the transport stream TS in the case of delivery using a single video stream.
  • This transport stream TS includes a single video stream. That is, in this configuration example, there is a PES packet “video PES1” of a video stream having picture data encoded by, for example, HEVC of pictures in a plurality of layers, and a PES packet “audio PES1” of an audio stream.
  • This single video stream includes a predetermined number of substreams obtained by dividing a plurality of layers of hierarchical encoding into a predetermined number of layer sets of two or more.
  • SPS is included in the substream (base substream) of the lowest layer set
  • ESPS is included in the substream (enhancement substream) higher than the lowest layer set.
  • the value of “general_level_idc” of the elements of SPS and ESPS is a level value including pictures of all layers included in the layer set below the own layer set.
  • NAL units such as VPS, SPS, ESPS, and SEI.
  • temporal_id indicating the hierarchy of the picture is inserted into the header of the NAL unit of each picture.
  • SPS and ESPS include a bit rate level specification value (general_level_idc).
  • picture timing SEI Picture timing SEI
  • picture timing SEI includes “cpb_removal_delay” and “dpb_output_delay”.
  • transport_priority a field indicating the 1-bit priority of “transport_priority” exists in the header of the TS packet that containers the encoded image data of each picture.
  • transport_priority it is possible to identify whether the encoded image data to be containerized is a low-layer set picture or a high-layer set picture.
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI Program Specific Information
  • the PMT has a program loop that describes information related to the entire program.
  • the PMT includes an elementary loop having information related to each elementary stream.
  • a video elementary loop video ES1 loop
  • an audio elementary loop audio ES1 loop
  • HEVC_descriptor HEVC_descriptor
  • scalability extension descriptor scaling_extension_descriptor
  • FIG. 23 shows a case where a base substream (B stream) is generated for pictures in layers 0 to 3 and an enhanced substream (E stream) is generated for pictures in layer 4 in the example of hierarchical coding in FIG. Show.
  • each picture included in the base substream forms 60P
  • each picture included in the enhanced substream (E stream) is added to each picture included in the base substream to form 120P as a whole PES. .
  • the base sub-stream picture is composed of NAL units such as “AUD”, “VPS”, “SPS”, “PPS”, “PSEI”, “SLICE”, “SSEI”, “EOS”, and the like. “VPS” and “SPS” are inserted in the first picture of the GOP, for example.
  • the value of “general_level_idc” of the SPS element is “level 5.1”. Note that “EOS” may be omitted.
  • the picture of the enhanced substream is composed of NAL units such as “AUD”, “ESPS”, “PPS”, “PSEI”, “SLICE”, “SSEI”, “EOS”, and the like.
  • “ESPS” is inserted into the first picture of the GOP, for example.
  • the value of the “general_level_idc” of the ESPS element is “level 5.2”. Note that “PSEI”, “SSEI”, and “EOS” may be omitted.
  • video ES1 loop information such as a stream type and a packet identifier (PID) is arranged corresponding to the video stream (video PES1), and a descriptor describing information related to the video stream is also arranged.
  • the This stream type is “0x24” indicating the base stream.
  • the HEVC descriptor described above is inserted as one of the descriptors.
  • the 1-bit field of “level_constrained_flag” is set to “1”. This indicates that “the corresponding substream includes SPS or ESPS, and“ general_level_idc ”of the element has a level value including a picture of temporal_idtemp included in the substream. Also, the value of “level_idc” is “level5.2” indicating the overall level value of the video stream (videoSPES1). In addition, “temporal_id_min” is set to 0 and “temporal_id_max” is set to 4, indicating that the video stream (video PES1) includes pictures of layers 0 to 4.
  • each substream is within the range of its own decoder processing capability based on “level_constrained_flag”, SPS, “general_level_idc” of the elements of ESPS, etc. Whether or not the sub-stream within the range is decoded.
  • FIG. 24 shows a configuration example of the transport stream TS in the case of performing delivery by a plurality of streams, here two streams.
  • This transport stream TS includes two video streams. That is, in this configuration example, a plurality of hierarchies are divided into two hierarchies, a low hierarchy set and a high hierarchy set, and a PES packet “video” of a video stream having image data encoded by, for example, HEVC of pictures of the two hierarchies. PES1 ”and“ video PES2 ”exist, and an audio stream PES packet“ audio PES1 ”exists.
  • These two video streams include each of two substreams obtained by dividing a plurality of layers of layered coding into two layer sets.
  • the substream (base substream) of the lower layer set includes SPS
  • the substream (enhancement substream) of the upper layer set includes ESPS.
  • the value of “general_level_idc” of the elements of SPS and ESPS is a level value including pictures of all layers included in the layer set below the own layer set.
  • NAL units such as SPS and ESPS.
  • temporal_id indicating the hierarchy of the picture is inserted into the header of the NAL unit of each picture.
  • SPS and ESPS include a bit rate level specification value (general_level_idc).
  • picture timing SEI Picture timing SEI
  • picture timing SEI includes “cpb_removal_delay” and “dpb_output_delay”.
  • transport_priority a field indicating 1-bit priority of “transport_priority” exists in the header of the TS packet that containers the encoded image data of each picture.
  • transport_priority it is possible to identify whether the encoded image data to be containerized is a low-layer set picture or a high-layer set picture.
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI Program Specific Information
  • the PMT has a program loop that describes information related to the entire program.
  • the PMT includes an elementary loop having information related to each elementary stream.
  • there are two video elementary loops (video ES1 loop, video ES2 loop) and an audio elementary loop (audio ES1 loop).
  • each video elementary loop information such as a stream type and a packet identifier (PID) is arranged corresponding to the video stream (video PES1, video PES2), and information related to the video stream is described.
  • a descriptor is also placed.
  • the HEVC descriptor HEVC_descriptor
  • the scalability extension descriptor scaling_extension_descriptor
  • FIG. 25 shows a case where a base substream (B stream) is generated for pictures in layers 0 to 3 and an enhanced substream (E stream) is generated for pictures in layer 4 in the example of hierarchical coding in FIG. Show.
  • each picture included in the base substream forms 60P
  • each picture included in the enhanced substream (E stream) is added to each picture included in the base substream to form 120P as a whole PES. .
  • the base sub-stream picture is composed of NAL units such as “AUD”, “VPS”, “SPS”, “PPS”, “PSEI”, “SLICE”, “SSEI”, “EOS”, and the like.
  • “VPS” and “SPS” are inserted in the first picture of the GOP, for example.
  • the value of “general_level_idc” of the SPS element is “level 5.1”. Note that “EOS” may be omitted.
  • the picture of the enhanced substream is composed of NAL units such as “AUD”, “ESPS”, “PPS”, “PSEI”, “SLICE”, “SSEI”, “EOS”, and the like.
  • “ESPS” is inserted into the first picture of the GOP, for example.
  • the value of the “general_level_idc” of the ESPS element is “level 5.2”. Note that “PSEI”, “SSEI”, and “EOS” may be omitted.
  • video ES1 loop information such as a stream type and a packet identifier (PID) is arranged corresponding to the video stream (video PES1), and a descriptor describing information related to the video stream is also arranged.
  • the This stream type is “0x24” indicating the base stream.
  • the HEVC descriptor described above is inserted as one of the descriptors.
  • the 1-bit field of “level_constrained_flag” is set to “1”. This indicates that “the corresponding substream includes SPS or ESPS, and“ general_level_idc ”of the element has a level value including a picture of temporal_idtemp included in the substream.
  • the value of “level_idc” is “level 5.1” indicating the level value of the base substream (B (stream).
  • “temporal_id_min” is set to 0 and “temporal_id_max” is set to 3, indicating that the base substream (B stream) includes pictures in layers 0 to 3.
  • video ES2 loop information such as a stream type and a packet identifier (PID) is arranged corresponding to a video stream (video PES2), and a descriptor describing information related to the video stream is also arranged.
  • the stream type is “0x25” indicating an enhanced stream.
  • the HEVC descriptor described above is inserted as one of the descriptors.
  • level_constrained_flag The 1-bit field of “level_constrained_flag” is set to “1”. This indicates that “the corresponding substream includes SPS or ESPS, and“ general_level_idc ”of the element has a level value including a picture of temporal_idtemp included in the substream.
  • level_idc The value of “level_idc” is “level5.2” indicating the level values of the base substream (B stream) and the enhanced stream (E stream).
  • temporary_id_min is set to 4
  • temporary_id_max is set to 4, which indicates that a picture of layer 4 is included in the enhanced stream (E stream).
  • each substream is within the range of its decoder processing capability based on “level_constrained_flag”, “general_level_idc” of the SPS, ESPS element, etc. It is determined whether or not the sub-stream within the range is decoded.
  • FIG. 26 shows a case where a base substream (B stream) is generated with pictures in layers 0 to 3 and an enhanced substream (E stream) is generated with pictures in layer 4 in the example of hierarchical coding in FIG.
  • the other structural example of the transport stream TS is shown.
  • each picture included in the base substream forms 60P
  • each picture included in the enhanced substream (E stream) is added to each picture included in the base substream to form 120P as a whole PES. .
  • the base sub-stream picture is composed of NAL units such as “AUD”, “VPS”, “SPS”, “PPS”, “PSEI”, “SLICE”, “SSEI”, “EOS”, and the like.
  • “VPS” and “SPS” are inserted in the first picture of the GOP, for example.
  • the value of “general_level_idc” of the SPS element is “level 5.2”.
  • “sub_layer_level_present_flag” of the SPS element is “1”
  • “sublayer_level_idc [3]” indicates the level value “level5.1” of the base substream.
  • EOS may be omitted.
  • the picture of the enhancement substream is composed of NAL units such as “AUD”, “PPS”, and “SLICE”. However, there is no “ESPS” NAL unit as shown in FIG.
  • video ES1 loop information such as a stream type and a packet identifier (PID) is arranged corresponding to the video stream (video PES1), and a descriptor describing information related to the video stream is also arranged.
  • the This stream type is “0x24” indicating the base stream.
  • the HEVC descriptor described above is inserted as one of the descriptors.
  • Level_constrained_flag as in FIG. 25 does not exist.
  • the value of “level_idc” is “level 5.1” indicating the level value of the base substream (B stream).
  • “temporal_id_min” is set to 0 and “temporal_id_max” is set to 3, indicating that the base substream (B stream) includes pictures in layers 0 to 3.
  • video ES2 loop information such as a stream type and a packet identifier (PID) is arranged corresponding to a video stream (video PES2), and a descriptor describing information related to the video stream is also arranged.
  • the stream type is “0x25” indicating an enhanced stream.
  • the HEVC descriptor described above is inserted as one of the descriptors.
  • Level_constrained_flag as in FIG. 25 does not exist.
  • the value of “level_idc” is “level 5.2” indicating the level values of the base substream (B (stream) and the enhanced stream (E stream).
  • “temporal_id_min” is set to 4
  • “temporal_id_max” is set to 4, which indicates that a picture of layer 4 is included in the enhanced stream (E stream).
  • the receiving side determines whether each substream is within the range of its decoder processing capability based on the SPS elements “general_level_idc”, “sublayer_level_idc”, etc. Is determined, and substreams within the range are decoded.
  • the transmission unit 105 modulates the transport stream TS with a modulation scheme suitable for broadcasting such as QPSK / OFDM, and transmits an RF modulation signal from the transmission antenna.
  • a modulation scheme suitable for broadcasting such as QPSK / OFDM
  • Uncompressed moving image data is input to the encoder 102.
  • the encoder 102 performs hierarchical encoding on the moving image data. That is, in the encoder 102, the image data of each picture constituting the moving image data is classified into a plurality of layers and encoded, and a video stream having the encoded image data of the pictures of each layer is generated. At this time, encoding is performed so that the picture to be referenced belongs to the self hierarchy and / or a hierarchy lower than the self hierarchy.
  • the encoder 102 generates a video stream having encoded image data of pictures in each layer. For example, in the encoder 102, a plurality of hierarchies are divided into a predetermined number of layer sets of two or more, and a predetermined number of video streams including each of the substreams corresponding to each layer set are generated, or each layer set A single video stream including all of the substreams corresponding to is generated.
  • identification information for identifying the belonging hierarchical group is added to the encoded image data of the pictures of each hierarchical group.
  • “general_level_idc” which is an element of SPS and ESPS is used as identification information.
  • the SPS is included for each sequence (GOP) in the substream (base substream) of the lowest layer set.
  • ESPS is included for each sequence (GOP) in a substream (enhanced substream) of a layer set higher than the lowest.
  • the value of “general_level_idc” included in the SPS and ESPS is set to a higher value as the hierarchy set on the higher hierarchy side.
  • the value of “general_level_idc” inserted in the SPS and ESPS of the substream of each hierarchical group is a level value including pictures of all the hierarchical groups included in the hierarchical group below the own hierarchical group.
  • the video stream generated by the encoder 102 and including the encoded data of the pictures of each layer is supplied to the compressed data buffer (cpb) 103 and temporarily accumulated.
  • the video stream stored in the compressed data buffer 103 is read out, converted into a PES packet, further converted into a transport packet, and multiplexed to obtain a transport stream TS as a multiplexed stream.
  • the transport stream TS includes a single video stream having encoded image data of pictures in each layer, or a predetermined number of video streams of two or more.
  • layer information and stream configuration information are inserted into the transport stream TS. That is, in the multiplexer 104, the HEVC descriptor (HEVC_descriptor) and the scalability extension descriptor (scalability_extension_descriptor) are inserted into the video elementary loop corresponding to each video stream.
  • the higher the priority of the TS packet that containers the encoded image data of the pictures in the lower hierarchy layer set is set.
  • the priority is set using the 1-bit field of “transport_priority” of the TS packet header.
  • the transport stream TS generated by the multiplexer 104 is sent to the transmission unit 105.
  • the transport stream TS is modulated by a modulation method suitable for broadcasting such as QPSK / OFDM, and an RF modulation signal is transmitted from the transmission antenna.
  • FIG. 27 illustrates a configuration example of the receiving device 200.
  • the receiving apparatus 200 includes a CPU (Central Processing Unit) 201, a receiving unit 202, a demultiplexer 203, and a compressed data buffer (cpb: coded picture buffer) 204.
  • the receiving apparatus 200 includes a decoder 205, an uncompressed data buffer (dpb: decoded picture buffer) 206, and a post processing unit 207.
  • the CPU 201 constitutes a control unit and controls the operation of each unit of the receiving device 200.
  • the receiving unit 202 demodulates the RF modulation signal received by the receiving antenna, and acquires the transport stream TS.
  • the demultiplexer 203 selectively extracts, from the transport stream TS, encoded image data of a picture of a layer set corresponding to a decoding capability (Decoder temporal layer capability) and sends it to a compressed data buffer (cpb: coded picture buffer) 204. .
  • FIG. 28 shows a configuration example of the demultiplexer 203.
  • the demultiplexer 203 includes a PCR extraction unit 231, a time stamp extraction unit 232, a section extraction unit 233, a TS priority extraction unit 234, a PES payload extraction unit 235, and a picture selection unit 236.
  • the PCR extraction unit 231 extracts the PCR from the TS packet including the PCR (Program Clock Reference) and sends it to the CPU 201.
  • the time stamp extraction unit 232 extracts the time stamp (DTS, PTS) inserted in the PES header for each picture and sends it to the CPU 201.
  • the section extraction unit 233 extracts section data from the transport stream TS and sends it to the CPU 201.
  • This section data includes the above-described HEVC descriptor (HEVC_descriptor), scalability extension descriptor (scalability_extension_descriptor), and the like.
  • the TS priority extraction unit 234 extracts priority information set in each TS packet.
  • this priority is a priority of each hierarchy set when a plurality of hierarchies are divided into two or more predetermined number of hierarchy sets, and is set higher as the hierarchy set on the lower hierarchy side. For example, in the case of being divided into two groups, a low layer group and a high layer group, the value of the 1-bit field of “transport_priority” of the TS packet header is extracted. This value is set to “1” in the low hierarchy group and is set to “0” in the high hierarchy group.
  • the PES payload extraction unit 235 extracts the PES payload from the transport stream TS, that is, encoded image data of pictures in each layer.
  • the picture selection unit 236 selectively extracts, from the encoded image data of the pictures in each layer extracted by the PES payload extraction unit 235, the encoded image data of the pictures in the layer set corresponding to the decoding capability (Decoder temporal layer capability).
  • the compressed data buffer (cpb: codedbpicture buffer) 204 is sent.
  • the picture selection unit 236 refers to the hierarchy information obtained by the section extraction unit 233, the stream configuration information, and the priority information extracted by the TS priority extraction unit 234.
  • the frame rate of the video stream (encoded stream) included in the transport stream TS is 120 fps.
  • a plurality of hierarchies are divided into two, ie, a lower hierarchy and a higher hierarchy, and the frame rate of pictures in each hierarchy is 60 fps.
  • the hierarchies 0 to 3 are the lower hierarchies, and the hierarchy 4 is the higher hierarchies.
  • the 1-bit field of “transport_priority” included in the header of the TS packet is set to “1” in the case of a TS packet that containers encoded image data of pictures in a base layer, that is, a layer set on the lower layer side. In the case of a TS packet that containers encoded image data of pictures in a base layer, that is, a layer set on the higher layer side, it is set to “0”.
  • the transport stream TS may include a single video stream (encoded stream) (see FIG. 10) having encoded data of pictures in each layer.
  • the transport stream TS includes a base stream (B-stream) having encoded image data of a picture in a lower hierarchy layer and an enhancement image having encoded image data of a picture in a higher hierarchy layer.
  • B-stream base stream
  • E-stream enhancement image
  • the picture selection unit 236 extracts encoded image data of pictures in all layers and sends the encoded image data to the compressed data buffer (cpb) 204.
  • the picture selection unit 236 extracts only the encoded image data of the pictures in the lower layer set and compresses them. The data is sent to the data buffer (cpb) 204.
  • FIG. 29 shows a case where a single video stream (encoded stream) is included in the transport stream TS.
  • “High” indicates a picture of a hierarchy set on the higher hierarchy side
  • “Low” indicates a picture of a hierarchy set on the lower hierarchy side
  • “P” represents “transport_priority”.
  • the picture selection unit 236 extracts the encoded image data of the pictures in all layers, sends them to the compressed data buffer (cpb) 204, and stores them in the area 1 (cpb_1).
  • the decoding capability does not correspond to 120P but corresponds to 60P
  • the data is sent to the buffer (cpb) 204 and stored in the area 1 (cpb_1).
  • FIG. 30 shows a case where the transport stream TS includes two video streams (encoded streams) of a base stream and an extended stream.
  • “High” indicates a picture of a hierarchy set on the higher hierarchy side
  • “Low” indicates a picture of a hierarchy set on the lower hierarchy side.
  • P represents “transport_priority”.
  • the packet identifier (PID) of the base stream is PID1
  • the packet identifier (PID) of the extension stream is PID2.
  • the picture selection unit 236 extracts the encoded image data of the pictures in all layers and sends them to the compressed data buffer (cpb) 204. Then, the encoded image data of the pictures in the lower layer set is stored in the region 1 (cpb_1), and the encoded image data of the pictures in the lower layer set is stored in the region 2 (cpb_2).
  • filtering based on the packet identifier is performed to extract only the pictures in the lower hierarchy side layer set as PID1, and compressed data
  • the data is sent to the buffer (cpb) 204 and stored in the area 1 (cpb_1). Also in this case, filtering based on “transport_priority” may be performed.
  • FIG. 31 shows an example of the processing flow of the demultiplexer 203. This processing flow shows a case where a single video stream (encoded stream) is included in the transport stream TS.
  • the demultiplexer 203 starts processing in step ST31, and then proceeds to processing in step ST32.
  • the CPU 201 sets a decoding capability (Decoder temporal layer capability).
  • the demultiplexer 203 determines whether or not it has the ability to decode all layers.
  • the demultiplexer 203 demultiplexes all TS packets passing through the corresponding PID filter in step ST34 and performs section parsing. Thereafter, the demultiplexer 203 proceeds to the process of step ST35.
  • step ST33 When there is no capability to decode all layers in step ST33, the demultiplexer 203 demultiplexes TS packets whose “transport_priority” is “1” in step ST36 and performs section parsing. Thereafter, the demultiplexer 203 proceeds to the process of step ST35.
  • the demultiplexer 203 reads the HEVC descriptor (HEVC_descriptor) and the scalability extension descriptor (scalability_extension_descriptor) in the section of the target PID, and the presence / absence of the extension stream, the scalable type, the number and ID of the streams, Get the maximum, minimum, and minimum target decoder levels for temporal_id.
  • HEVC_descriptor HEVC_descriptor
  • scaling_extension_descriptor scalability extension descriptor
  • step ST37 the demultiplexer 203 transfers the encoded stream to be subjected to PID to the compressed data buffer (cpb) 204 and notifies the CPU 201 of DTS and PTS.
  • the demultiplexer 203 ends the process in step ST38 after the process of step ST37.
  • FIG. 32 shows an example of the processing flow of the demultiplexer 203.
  • This processing flow shows a case where the transport stream TS includes two video streams (encoded streams) of a base stream and an extended stream.
  • the demultiplexer 203 starts processing in step ST41, and then proceeds to processing in step ST42.
  • the decoding capability (Decoder temporal layer capability) is set from the CPU 201.
  • the demultiplexer 203 determines whether or not it has the ability to decode all layers.
  • step ST44 the demultiplexer 203 demultiplexes all TS packets passing through the corresponding PID filter, and performs section parsing. Thereafter, the demultiplexer 203 proceeds to the process of step ST45.
  • the demultiplexer 203 reads the HEVC descriptor (HEVC_descriptor) and the scalability extension descriptor (scalability_extension_descriptor) in the section of the target PID, the presence / absence of the extension stream, the scalable type, the number of streams and the ID, Get the maximum, minimum, and minimum target decoder levels for temporal_id.
  • HEVC_descriptor HEVC_descriptor
  • scaling_extension_descriptor scalability extension descriptor
  • step ST47 the demultiplexer 203 transfers the encoded stream to be subjected to PID to the compressed data buffer (cpb) 204 and notifies the CPU 201 of DTS and PTS.
  • the demultiplexer 203 ends the process in step ST48 after the process of step ST47.
  • the compressed data buffer (cpb) 204 temporarily stores the video stream (encoded stream) extracted by the demultiplexer 203.
  • the decoder 205 extracts from the video stream stored in the compressed data buffer 204 encoded image data of a picture of a hierarchy designated as a hierarchy to be decoded. Then, the decoder 205 decodes the encoded image data of each extracted picture at the decoding timing of the picture, and sends the decoded picture data to the uncompressed data buffer (dpb) 206.
  • the hierarchy to be decoded from the CPU 201 is designated by temporal_id.
  • This designated layer is the entire layer included in the video stream (encoded stream) extracted by the demultiplexer 203 or a part of the lower layer, and is set automatically by the CPU 201 or in response to a user operation.
  • the decoder 205 is given a decoding timing from the CPU 201 based on DTS (Decoding Time stamp). Note that the decoder 205 reads the image data of the referenced picture from the uncompressed data buffer 206 and uses it as necessary when decoding the encoded image data of each picture.
  • DTS Decoding Time stamp
  • FIG. 33 shows a configuration example of the decoder 205.
  • the decoder 205 includes a temporal ID analysis unit 251, a target hierarchy selection unit 252, a stream integration unit 253, and a decoding unit 254.
  • the temporal ID analysis unit 251 reads the video stream (encoded stream) stored in the compressed data buffer 204 and analyzes temporal_id inserted in the NAL unit header of the encoded image data of each picture.
  • the target hierarchy selection unit 252 extracts, from the video stream read from the compressed data buffer 204, encoded image data of a picture of a hierarchy designated as a hierarchy to be decoded based on the analysis result of the temporal ID analysis unit 251. .
  • the target layer selection unit 252 outputs one or a plurality of video streams (encoded streams) according to the number of video streams read from the compressed data buffer 204 and the specified layer.
  • the stream integration unit 253 integrates a predetermined number of video streams (encoded streams) output from the target layer selection unit 252 into one.
  • the decoding unit 254 sequentially decodes the encoded image data of each picture included in the video stream (encoded stream) integrated by the stream integration unit 253 at a decoding timing, and sends the decoded image data to the uncompressed data buffer (dpb) 206.
  • the decoding unit 254 analyzes the SPS and ESPS according to the Level_constrained_flag obtained from the demultiplexer 203, and grasps “general_level_idc”, “sublayer_level_idc”, etc. Check if it can be decoded. In this case, the decoding unit 254 analyzes the SEI, grasps, for example, “initial_cpb_removal_time” and “cpb_removal_delay”, and confirms whether the decoding timing from the CPU 201 is appropriate.
  • the decoding unit 254 acquires “ref_idx_l0_active (ref_idx_l1_active) as information indicating a prediction destination in the time direction from the slice header (Slice header), and performs prediction in the time direction. Note that the decoded picture is processed as a reference by another picture, using “short_term_ref_pic_set_idx” or “it_idx_sps” obtained from the slice header (slice header) as an index.
  • Reception apparatus 200 starts processing in step ST61, and in step ST62, reads HEVC descriptor (HEVC_descriptor).
  • step ST63 the receiving apparatus 200 determines whether “level_constrained_flag” is present in the HEVC descriptor. If present, the receiving apparatus 200 determines in step ST64 whether “level_constrained_flag” is “1”. When it is “1”, the receiving apparatus 200 proceeds to the process of step ST65.
  • step ST65 the receiving device 200 refers to the time stamp of the PES packet (PES packet) of the corresponding PID, and reads the SPS or ESPS of the video stream in the payload part.
  • step ST66 the receiving apparatus 200 reads “general_level_idc” which is an element of SPS or ESPS.
  • step ST67 the receiving apparatus 200 determines whether “general_level_idc” is within the decoder processing capability range. When it is within the decoder processing capability range, the receiving apparatus 200 decodes the corresponding stream or substream in step ST68. Thereafter, the receiving apparatus 200 ends the process in step ST69. On the other hand, when it is not within the decoder processing capability range in step ST67, the receiving apparatus 200 immediately proceeds to step ST69 and ends the process.
  • step ST70 the receiving apparatus 200 refers to the time stamp of the PES packet (PES packet) of the corresponding PID, and reads the SPS of the video stream in the payload part.
  • PES packet PES packet
  • SPS of the substream including the lower picture Picture
  • step ST71 the receiving apparatus 200 reads “general_level_idc” that is an element of the SPS.
  • step ST72 the receiving apparatus 200 determines whether “general_level_idc” is within the decoder processing capability range. When it is within the decoder processing capability range, the receiving apparatus 200 proceeds to the process of step ST73.
  • the receiving apparatus 200 checks “Sublayer_level_idc” of the SPS element in step ST74. In step ST75, the receiving apparatus 200 determines whether “Sublayer” having “Sublayer_level_idc” within the decoder processing capability range exists. If not, the receiving apparatus 200 immediately proceeds to step ST69 and ends the process. On the other hand, when it exists, the receiving apparatus 200 moves to the process of step ST73.
  • step ST73 the receiving apparatus 200 decodes the entire stream or the corresponding sublayer part by referring to the temporal_id value. Thereafter, receiving apparatus 200 ends the process in step ST69.
  • the uncompressed data buffer (dpb) 206 temporarily stores the image data of each picture decoded by the decoder 205.
  • the post processing unit 207 performs processing for matching the frame rate with the display capability for the image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing. In this case, display timing is given from the CPU 201 based on PTS (Presentation Time stamp).
  • the post processing unit 207 sends the image data of each decoded picture to the display as it is.
  • the post processing unit 207 has a temporal resolution for the image data of each picture after decoding. Sub-sample processing is performed so as to be 1 ⁇ 2 times, and the image data is sent to the display as 60 fps image data.
  • the post processing unit 207 has a temporal resolution for the image data of each picture after decoding. Interpolation processing is performed so as to be doubled, and the image data is sent to the display as 120 fps image data. For example, when the frame rate of the image data of each picture after decoding is 60 fps and the display capability is 60 fps, the post processing unit 207 sends the image data of each decoded picture to the display as it is.
  • FIG. 35 shows a configuration example of the post processing unit 207.
  • the frame rate of the image data of each picture after decoding is 120 fps or 60 fps and the display capability is 120 fps or 60 fps.
  • the post processing unit 207 includes an interpolation unit 271, a subsample unit 272, and a switch unit 273.
  • the decoded image data of each picture from the uncompressed data buffer 206 is directly input to the switch unit 273, or is input to the switch unit 273 after the frame rate is doubled by the interpolation unit 271, or the subsample unit After the frame rate is set to 1/2 the frame rate at 272, the frame rate is input to the switch unit 273.
  • Selection information is supplied from the CPU 201 to the switch unit 273.
  • the selection information is generated automatically by the CPU 201 with reference to the display capability or in response to a user operation.
  • the switch unit 273 selectively outputs any of the inputs based on the selection information.
  • the frame rate of the image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing is adapted to the display capability.
  • FIG. 36 shows an example of the processing flow of the decoder 205 and the post processing unit 207.
  • the decoder 205 and the post processing unit 207 start the processing, and then move to the processing in step ST52.
  • the decoder 205 reads out the decoding target video stream stored in the compressed data buffer (cpb) 204, and selects a picture in a hierarchy designated as a decoding target from the CPU 201 based on temporal_id.
  • step ST53 the decoder 205 sequentially decodes the encoded image data of each selected picture at the decode timing, and transfers the decoded image data of each picture to the uncompressed data buffer (dpb) 206. , Temporarily accumulate.
  • step ST54 the post processing unit 207 reads the image data of each picture from the uncompressed data buffer (dpb) 206 at the display timing.
  • the post processing unit 207 determines whether or not the frame rate of the read image data of each picture matches the display capability. When the frame rate does not match the display capability, the post processing unit 207 sends the frame rate to the display in accordance with the display capability in step ST56, and then ends the processing in step ST57. On the other hand, when the frame rate matches the display capability, the post processing unit 207 sends the frame rate as it is to the display in step ST58, and then ends the process in step ST57.
  • the receiving apparatus 200 shown in FIG. 27 will be briefly described.
  • the RF modulation signal received by the reception antenna is demodulated, and the transport stream TS is acquired.
  • This transport stream TS is sent to the demultiplexer 203.
  • the encoded image data of the layer set of pictures corresponding to the decoding capability (Decoder temporal layer capability) is selectively extracted from the transport stream TS, sent to the compressed data buffer (cpb) 204, and temporarily Accumulated.
  • encoded image data of a picture of a hierarchy designated as a hierarchy to be decoded is extracted from the video stream stored in the compressed data buffer 204. Then, the decoder 205 decodes the extracted encoded image data of each picture at the decoding timing of the picture, sends it to the uncompressed data buffer (dpb) 206, and temporarily accumulates it. In this case, when the encoded image data of each picture is decoded, the image data of the referenced picture is read from the uncompressed data buffer 206 and used as necessary.
  • Image data of each picture sequentially read from the uncompressed data buffer (dpb) 206 at the display timing is sent to the post processing unit 207.
  • the post processing unit 207 interpolation or sub-sampling is performed on the image data of each picture so that the frame rate matches the display capability.
  • the image data of each picture processed by the post processing unit 207 is supplied to a display, and a moving image is displayed using the image data of each picture.
  • the encoding interval is calculated for each layer, and the decoding time interval of the encoded image data for each picture is set to be smaller as the layer is higher.
  • the decoding time stamp is added to the encoded image data of the picture of each layer. Therefore, for example, a favorable decoding process according to the decoding capability can be performed on the receiving side. For example, even when the decoding capability is low, it is possible to selectively decode the encoded image data of a low-level picture without incurring buffer corruption of the compressed data buffer 204.
  • a scalability extension descriptor (scalability_extension_descriptor) or the like is inserted in the layer of the transport stream TS. Therefore, for example, the reception side can easily grasp the layer information in layer encoding, the configuration information of the video stream included in the transport stream TS, and can perform an appropriate decoding process.
  • the transmission unit divides a plurality of hierarchies into a predetermined number of hierarchies of two or more, and a TS packet for containerizing encoded image data of pictures in the lower hierarchies
  • the 1-bit field of “transport_priority” is set to “1” in the case of a TS packet that containers encoded image data of pictures in a base layer, that is, a layer set on the lower layer side.
  • a TS packet that containers encoded image data of a layer that is, a picture of a layer set on the higher layer side, it is set to “0”.
  • a bitstream level designation value is inserted into each substream corresponding to each layer set, and the value is included in the layer set below the own layer set.
  • the level value includes the pictures of all layers. Therefore, the video stream receiving side can easily determine whether or not each substream can be decoded based on the level designation value of the inserted bitstream.
  • the level designation value of the bit stream inserted in the substream of each hierarchical group is added to the layer of the transport stream TS (container layer).
  • Flag information level_constrained_flag
  • the level designation value of the bit stream inserted into the substream of each layer set is a level value including pictures of all layers included in the layer set below the layer set by this flag information.
  • the transmission / reception system 10 including the transmission device 100 and the reception device 200 is shown, but the configuration of the transmission / reception system to which the present technology can be applied is not limited to this.
  • the receiving device 200 may have a configuration of a set-top box and a monitor connected by a digital interface such as (High-Definition Multimedia Interface (HDMI)).
  • HDMI High-Definition Multimedia Interface
  • the container is a transport stream (MPEG-2 TS)
  • MPEG-2 TS transport stream
  • the present technology can be similarly applied to a system configured to be distributed to receiving terminals using a network such as the Internet.
  • the Internet distribution it is often distributed in a container of MP4 or other formats.
  • containers of various formats such as transport stream (MPEG-2 TS) adopted in the digital broadcasting standard and MP4 used in Internet distribution correspond to the container.
  • this technique can also take the following structures.
  • the image data of each picture constituting the moving image data is classified into a plurality of layers, the image data of the classified pictures of each layer is encoded, and the encoded image data of each layer of pictures
  • the image encoding unit Generating a single video stream having the encoded image data of the picture of each layer,
  • the identification information is a level designation value of the bitstream, and is set to a higher value as a hierarchy set on a higher hierarchy side.
  • the image encoding unit Dividing the plurality of hierarchies into two or more predetermined number of hierarchies; The transmission apparatus according to (1), wherein the predetermined number of video streams each having the encoded image data of the pictures in each layer set are generated.
  • the image encoding unit The transmitting apparatus according to (4), wherein identification information for identifying the belonging hierarchical group is added to the encoded image data of the pictures of each hierarchical group.
  • the identification information is a bit stream level designation value, and is set to a higher value in a higher hierarchy group.
  • the image encoding unit Generate a single video stream having the encoded image data of the picture of each hierarchy, or divide the plurality of hierarchies into two or more predetermined number of hierarchy sets, and encode the encoded image data of the pictures of each hierarchy set Generate a predetermined number of video streams with The transmission device according to any one of (1) to (6), further including an information insertion unit that inserts configuration information of a video stream included in the container in the container layer.
  • the transmission unit The plurality of hierarchies are divided into a predetermined number of hierarchies of two or more, and the higher the packet priority of the encoded image data of the pictures in the lower hierarchies, the higher the packet priority is set The transmission device according to any one of the above.
  • the image data of each picture constituting the moving image data is classified into a plurality of layers, the image data of the classified pictures of each layer is encoded, and the encoded image data of each layer of pictures
  • An image encoding step for generating a video stream having: A transmission step of transmitting a container of a predetermined format including the video stream generated by the transmission unit; In the image encoding step, A transmission method of adding decoding timing information set so that a decoding time interval of encoded image data for each picture becomes smaller as a higher layer is added to encoded image data of a picture of each layer.
  • a receiving unit for receiving Decoding timing information set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher is added to the encoded image data of the picture of each layer, Decoding the encoded image data of a picture of a hierarchy below the predetermined hierarchy selected from the video stream included in the received container at a decoding timing indicated by the decoding timing information, and a picture of the hierarchy below the predetermined hierarchy
  • a receiving device further comprising a processing unit for obtaining the image data.
  • the received container includes a single video stream having encoded image data of the pictures of the respective layers,
  • the plurality of hierarchies are divided into a predetermined number of hierarchies of two or more, and are set higher as the priority of the packet containering the encoded image data of the pictures in the lower hierarchies
  • the receiving device wherein the processing unit fetches and decodes encoded image data of a picture of a predetermined layer set containered with a packet having a priority selected according to a decoding capability, into the buffer.
  • the received container includes the predetermined number of video streams each having encoded image data of pictures of a predetermined number of layer sets of two or more obtained by dividing the plurality of layers.
  • the receiving device wherein the processing unit fetches encoded image data of a predetermined layer set of pictures included in a video stream selected according to a decoding capability into a buffer and decodes the encoded image data.
  • the receiving device according to any one of (10) to (12), further including a post processing unit that adjusts a frame rate of image data of each picture obtained by the processing unit to display capability.
  • Predetermined including a video stream having encoded image data of pictures in each layer obtained by classifying and encoding image data of each picture constituting moving image data by a receiving unit into a plurality of layers
  • a receiving step for receiving a container of the format Decoding timing information set so that the decoding time interval of the encoded image data for each picture becomes smaller as the hierarchy is higher is added to the encoded image data of the picture of each layer, Decoding the encoded image data of a picture of a hierarchy below the predetermined hierarchy selected from the video stream included in the received container at a decoding timing indicated by the decoding timing information, and a picture of the hierarchy below the predetermined hierarchy
  • a receiving method further comprising a processing step of obtaining the image data.
  • the image data of each picture constituting the moving image data is classified into a plurality of layers, the image data of the classified pictures of each layer is encoded, and the encoded image data of each layer of pictures
  • the image data of each picture constituting the moving image data is classified into a plurality of hierarchies, the image data of the sorted pictures of each hierarchy is encoded, and the encoded picture data of each hierarchy of pictures
  • An image encoding unit for generating a video stream having;
  • the transmitter is A transmitting apparatus that divides the plurality of hierarchies into a predetermined number of hierarchies of two or more, and sets higher priority for packets that container encoded image data of pictures in the lower hierarchies.
  • the image data of each picture constituting the moving image data is classified into a plurality of hierarchies, the image data of the classified pictures of each hierarchy is encoded, and the encoded picture data of each hierarchy of pictures is An image encoding unit for generating a video stream having
  • the image encoding unit divides the plurality of hierarchies into two or more predetermined number of hierarchies, inserts a bitstream level designation value into each of the substreams corresponding to each hierarchies,
  • the encoding device which sets the level designation value of the bit stream inserted in each of the substreams corresponding to each layer set to a level value including pictures of all layers included in the layer set below the own layer set.
  • the image encoding unit The predetermined number of video streams including each of the substreams corresponding to each layer set is generated, or a single video stream including all of the substreams corresponding to each layer set is generated.
  • the image encoding unit classifies the image data of each picture constituting the moving image data into a plurality of hierarchies, encodes the image data of the classified pictures of each hierarchy, and the encoded hierarchies
  • An encoding method in which a level designation value of a bitstream inserted in each of the substreams corresponding to each layer set is a level value including pictures of all layers included in the layer set below the own layer set.
  • the image data of each picture constituting the moving image data is classified into a plurality of hierarchies, the image data of the classified pictures of each hierarchy is encoded, and the encoded picture data of each hierarchy of pictures is An image encoding unit for generating a video stream having The image encoding unit divides the plurality of hierarchies into two or more predetermined number of hierarchies, inserts a bitstream level designation value into each of the substreams corresponding to each hierarchies, The level designation value of the bitstream inserted in each of the substreams corresponding to each hierarchical group is a level value including pictures of all the hierarchical levels included in the hierarchical group below the hierarchical group, A transmission unit for transmitting a container in a predetermined format including the generated video stream; Flag information indicating that the level designation value of the bitstream inserted in the substream of each hierarchical group is a level value including pictures of all the hierarchical layers included in the hierarchical group below the hierarchical group in the container layer.
  • a transmission device further comprising
  • the main feature of this technology is that the encoding interval is calculated for each layer, and the decoding time stamp set so that the decoding time interval of the encoded image data for each picture becomes smaller as the higher layer is encoded. By adding it to the image data, it is possible to perform a good decoding process according to the decoding performance on the receiving side (see FIG. 9). Also, the main feature of the present technology is that a plurality of hierarchies are divided into two or more predetermined number of hierarchies, and the higher the priority of the packet that container the encoded image data of the pictures in the lower hierarchies, the higher the hierarchy is set. As a result, only the encoded image data of the hierarchical set of pictures corresponding to the decoding capability of the receiver is fetched into the buffer based on the priority on the receiving side, and the buffer failure can be avoided (see FIG. 19).

Abstract

 受信側においてデコード能力に応じた良好なデコード処理を可能とする。 動画像データを構成する各ピクチャの画像データを複数の階層に分類し、この分類された各階層の画像データを符号化し、この符号化された各階層のピクチャの画像データを持つビデオストリームを生成する。このビデオストリームを含む所定フォーマットのコンテナを送信する。高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を各階層のピクチャの符号化画像データに付加する。

Description

送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法
 本技術は、送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法に関する。詳しくは、本技術は、動画像データを構成する各ピクチャの画像データを階層符号化して送信する送信装置等に関する。
 圧縮動画を、放送、ネット等でサービスする際、受信機のデコード能力によって再生可能なフレーム周波数の上限が制限される。従って、サービス側は普及している受信機の再生能力を考慮して、低フレーム周波数のサービスのみに制限したり、高低複数のフレーム周波数のサービスを同時提供したりする必要がある。
 受信機は、高フレーム周波数のサービスに対応するには、高コストとなり、普及の阻害要因となる。初期に低フレーム周波数のサービス専用の安価な受信機のみ普及していて、将来サービス側が高フレーム周波数のサービスを開始する場合、新たな受信機が無いと全く視聴不可能であり、サービスの普及の阻害要因となる。
 例えば、HEVC(High Efficiency Video Coding)において、動画像データを構成する各ピクチャの画像データを階層符号化することによる時間方向スケーラビリティが提案されている(非特許文献1参照)。受信側では、NAL(Network Abstraction Layer)ユニットのヘッダに挿入されているテンポラルID(temporal_id)に基づき、各ピクチャの階層を識別でき、デコード能力に対応した階層までの選択的なデコードが可能となる。
Gary J. Sullivan, Jens-Rainer Ohm, Woo-Jin Han, Thomas Wiegand, "Overview of the High Efficiency Video Coding (HEVC) Standard" IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECNOROGY, VOL. 22, NO. 12,pp. 1649-1668, DECEMBER 2012
 本技術の目的は、受信側においてデコード能力に応じた良好なデコード処理を可能とすることにある。
 本技術の概念は、
 動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層の画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え
 上記画像符号化部は、
 高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を上記各階層のピクチャの符号化画像データに付加する
 送信装置にある。
 本技術において、画像符号化部により、動画像データを構成する各ピクチャの画像データが符号化されてビデオストリーム(符号化ストリーム)が生成される。この場合、動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化され、各階層のピクチャの画像データを持つビデオストリームが生成される。この場合、各階層のピクチャの符号化画像データに、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報、例えばデコードタイムスタンプが付加される。
 送信部により、上述のビデオストリームを含む所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。
 例えば、画像符号化部は、各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成し、複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する、ようにされてもよい。この場合、例えば、識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる、ようにされてもよい。
 また、例えば、画像符号化部は、複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームを生成する、ようにされてもよい。この場合、例えば、画像符号化部は、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する、ようにされてもよい。そして、この場合、例えば、識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる、ようにされてもよい。
 このように本技術においては、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が各階層のピクチャの符号化画像データに付加されるものである。そのため、受信側においてデコード性能に応じた良好なデコード処理が可能となる。例えば、デコード能力が低い場合であっても、バッファ破たんを招くことなく、低階層のピクチャの符号化画像データを選択的にデコードすることが可能となる。
 なお、本技術において、例えば、画像符号化部は、各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームを生成し、コンテナのレイヤに、このコンテナに含まれるビデオストリームの構成情報を挿入する情報挿入部をさらに備える、ようにされてもよい。この場合、例えば、受信側では、コンテナに含まれるビデオストリームの構成情報に基づいて、ビデオストリームの構成を容易に把握でき、適切なデコード処理を行うことが可能となる。
 また、本技術において、例えば、送信部は、複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定する、ようにされてもよい。この場合、例えば、受信側では、このパケットの優先度に基づいて、自身のデコード能力に応じた階層組のピクチャの符号化画像データのみをバッファに取り込むことが可能となる。
 また、本技術の他の概念は、
 動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
 上記各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が付加されており、
 上記受信されたコンテナに含まれる上記ビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データを、上記デコードタイミング情報が示すデコードタイミングでデコードして、上記所定階層以下の階層のピクチャの画像データを得る処理部をさらに備える
 受信装置にある。
 本技術において、受信部により、所定フォーマットのコンテナが受信される。このコンテナには、動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの画像データを持つビデオストリームが含まれている。各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報、例えばデコードタイムスタンプが付加されている。
 処理部により、受信コンテナに含まれるビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データがデコードされて各ピクチャの画像データが得られる。この場合、各ピクチャの符号化画像データのデコードは,
遅くとも、それぞれ、付加されているデコードタイミング情報が示すデコードタイミングで行われる。
 例えば、受信されたコンテナには、各階層のピクチャの符号化画像データを持つ単一のビデオストリームが含まれており、複数の階層は2以上の所定数の階層組に分割され、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定されており、処理部は、デコード能力に応じて選択された優先度のパケットでコンテナされた所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする、ようにされてもよい。
 また、例えば、受信されたコンテナには、複数の階層が分割されて得られた2以上の所定数の階層組のピクチャの画像データをそれぞれ持つ所定数のビデオストリームが含まれており、処理部は、デコード能力に応じて選択されたビデオストリームが持つ所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする、ようにされてもよい。
 このように本技術においては、各階層のピクチャの符号化画像データには高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイムスタンプが付加されており、選択された所定階層以下の階層のピクチャの符号化画像データがそれに付加されているデコードタイミング情報が示すデコードタイミングで行われるものである。そのため、デコード性能に応じた良好なデコード処理が可能となる。例えば、デコード能力が低い場合であっても、バッファ破たんを招くことなく、低階層のピクチャの符号化画像データを選択的にデコードすることが可能となる。
 なお、本技術において、例えば、処理部で得られる各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理部をさらに備える、ようにされてもよい。この場合、デコード能力が低い場合であっても、高表示能力にあったフレームレートの画像データを得ることが可能となる。
 また、本技術の他の概念は、
 動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
 上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
 上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる
 符号化装置にある。
 本技術において、画像符号化部により、動画像データを構成する各ピクチャの画像データが複数の階層に分類され、この分類された各階層のピクチャの画像データが符号化され、この符号化された各階層のピクチャの画像データを持つビデオストリームが生成される。
 この場合、複数の階層は2以上の所定数の階層組に分割され、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値が挿入される。そして、この場合、各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。
 例えば、画像符号化部は、各階層組に対応したサブストリームのそれぞれを含む所定数のビデオストリームを生成する、ようにされてもよい。また、例えば、画像符号化部は、各階層組に対応したサブストリームの全てを含む単一のビデオストリームを生成する、ようにされてもよい。
 このように本技術においては、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値が挿入され、その値は自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされるものである。そのため、ビデオストリームの受信側では、各サブストリームのデコードが可能か否かの判断を、挿入されているビットストリームのレベル指定値に基づいて容易に判断することが可能となる。
 また、本技術の他の概念は、
 動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
 上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
 上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされ、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記コンテナのレイヤに、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることを示すフラグ情報を挿入する情報挿入部をさらに備える
 送信装置にある。
 本技術において、画像符号化部により、動画像データを構成する各ピクチャの画像データが複数の階層に分類され、この分類された各階層のピクチャの画像データが符号化され、この符号化された各階層のピクチャの画像データを持つビデオストリームが生成される。
 この場合、複数の階層は2以上の所定数の階層組に分割され、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値が挿入される。そして、この場合、各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。
 送信部により、生成されたビデオストリームを含む所定フォーマットのコンテナが送信される。情報挿入部により、コンテナのレイヤに、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることを示すフラグ情報が挿入される。
 このように本技術においては、受信側では、コンテナのレイヤに挿入されるフラグ情報により、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることがわかる。そのため、受信側では、所定の階層組以下の各サブストリームに含まれる全ての階層のピクチャを含むレベル値を階層毎のレベル指定値を用いるなどして確認する処理が不要となり、デコード処理の効率化を図ることが可能となる。
 本技術によれば、デコード能力に応じた良好なデコード処理が可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 送信装置の構成例を示すブロック図である。 エンコーダで行われる階層符号化の一例を示す図である。 NALユニットヘッダの構造例(Syntax)およびその構造例における主要なパラメータの内容(Semantics)を示す図である。 HEVCによる各ピクチャの符号化画像データの構成を説明するための図である。 階層符号化の際のエンコード、デコード、表示順序と遅延の一例を示す図である。 階層符号化の符号化ストリームと、指定階層における表示期待(表示順)を示す図である。 エンコーダ入力順と、指定階層におけるデコーダ出力の表示順を示す図である。 階層符号化の際のピクチャのエンコードタイミング(デコード時にはデコードタイミングとなる)の一例を示す図である。 エンコーダの単一のビデオストリーム(符号化ストリーム)の出力例を示す図である。 エンコーダのベースストリーム(B-stream)と拡張ストリーム(E-stream)の2つのビデオストリーム(符号化ストリーム)の出力例を示す図である。 エンコーダの構成例を示すブロック図である。 エンコーダの処理フローの一例を示す図である。 HEVCデスクリプタ(HEVC_descriptor)の構造例(Syntax)を示す図である。 HEVCデスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。 スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)の構造例(Syntax)を示す図である。 スケーラビリティ・エクステンション・デスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。 TSパケットの構造例(Syntax)を示す図である。 VPSに含まれるビットレートのレベル指定値(general_level_idc)と、TSパケットヘッダの「transport_priority」の設定値との関係を示す図である。 マルチプレクサの構成例を示すブロック図である。 マルチプレクサの処理フローの一例を示す図である。 単一ストリームによる配信を行う場合のトランスポートストリームTSの構成例を示す図である。 単一ストリームによる配信を行う場合のトランスポートストリームTSの具体的な構成例を示す図である。 複数ストリーム(2ストリーム)による配信を行う場合のトランスポートストリームTSの構成例を示す図である。 2ストリームによる配信を行う場合のトランスポートストリームTSの具体的な構成例を示す図である。 2ストリームによる配信を行う場合のトランスポートストリームTSの他の具体的な構成例を示す図である。 受信装置の構成例を示すブロック図である。 デマルチプレクサの構成例を示すブロック図である。 トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合を示す図である。 トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合を示す図である。 デマルチプレクサの処理フロー(1フレーム)の一例を示す図である。 デマルチプレクサの処理フロー(2フレーム)の一例を示す図である。 デコーダの構成例を示すブロック図である。 受信装置におけるデコーダ処理能力を考慮したビデオストリーム毎のデコード処理手順の一例を示すフローチャートである。 ポスト処理部の構成例を示す図である。 デコーダ、ポスト処理部の処理フローの一例を示す図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [送受信システム]
 図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、送信装置100と、受信装置200とを有する構成となっている。
 送信装置100は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSには、動画像データを構成する各ピクチャの画像データが複数の階層に分類され、各階層のピクチャの画像データの符号化データを持つビデオストリームが含まれる。この場合、例えば、H.264/AVC、H.265/HEVCなどの符号化が施され、被参照ピクチャが自己階層および/または自己階層よりも低い階層に所属するように符号化される。
 各階層のピクチャの符号化画像データに、ピクチャ毎に、所属階層を識別するための階層識別情報が付加される。この実施の形態においては、各ピクチャのNALユニット(nal_unit)のヘッダ部分に、階層識別情報(temporal_idを意味する“nuh_temporal_id_plus1”)が配置される。このように階層識別情報が付加されることで、受信側では、所定階層以下の階層の符号化画像データを選択的に取り出してデコード処理を行うことができる。
 トランスポートストリームTSには、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム、あるいは複数の階層が2以上の所定数の階層組に分割され、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれる。また、このトランスポートストリームTSには、階層符号化の階層情報と、ビデオストリームの構成情報が挿入される。この情報は、トランスポートレイヤに挿入される。この情報により、受信側では、階層構成やストリーム構成を容易に把握でき、適切なデコード処理を行うことが可能となる。
 また、上述したように複数の階層が所定数の階層組に分割され、低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケット(トランスポートストリームパケット)の優先度が高く設定される。この優先度により、受信側では、自身のデコード能力に応じた階層組のピクチャの符号化画像データのみをバッファに取り込んで処理することが可能となる。
 また、上述したように複数の階層が所定数の階層組に分割され、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報が付加される。この識別情報として、例えば、ビットストリームのレベル指定値(level_idc)が利用され、高階層側の階層組ほど高い値とされる。
 受信装置200は、送信装置100から放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。受信装置200は、このトランスポートストリームTSに含まれるビデオストリームから自身のデコード能力に応じて選択的に所定階層以下の階層の符号化画像データを取り出してデコードし、各ピクチャの画像データを取得して、画像再生を行う。
 例えば、上述したように、トランスポートストリームTSに、複数の階層のピクチャの符号化画像データを持つ単一のビデオストリームが含まれている場合がある。その場合、デコード能力に応じて選択された優先度のTSパケットでコンテナされた所定階層組のピクチャの符号化画像データがバッファに取り込まれてデコードされる。
 また、例えば、上述したように、トランスポートストリームTSに、複数の階層が分割されて得られた2以上の所定数の階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれている場合がある。その場合、デコード能力に応じて選択されたビデオストリームが持つ所定階層組のピクチャの符号化画像データがバッファに取り込まれてデコードされる。
 また、受信装置200は、上述のようにデコードして得られた各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理を行う。このポスト処理により、例えば、デコード能力が低い場合であっても、高表示能力にあったフレームレートの画像データを得ることが可能となる。
 「送信装置の構成」
 図2は、送信装置100の構成例を示している。この送信装置100は、CPU(Central Processing Unit)101と、エンコーダ102と、圧縮データバッファ(cpb:coded picture buffer)103と、マルチプレクサ104と、送信部105を有している。CPU101は、制御部であり、送信装置100の各部の動作を制御する。
 エンコーダ102は、非圧縮の動画像データを入力して、階層符号化を行う。エンコーダ102は、この動画像データを構成する各ピクチャの画像データを複数の階層に分類する。そして、エンコーダ102は、この分類された各階層のピクチャの画像データを符号化し、各階層のピクチャの符号化画像データを持つビデオストリームを生成する。エンコーダ102は、例えば、H.264/AVC、H.265/HEVCなどの符号化を行う。この際、エンコーダ102は、参照するピクチャ(被参照ピクチャ)が、自己階層および/または自己階層よりも下位の階層に所属するように、符号化する。
 図3は、エンコーダ102で行われる階層符号化の一例を示している。この例は、0から4までの5階層に分類され、各階層のピクチャの画像データに対して符号化が施された例である。
 縦軸は階層を示している。階層0から4のピクチャの符号化画像データを構成するNALユニット(nal_unit)のヘッダ部分に配置されるtemporal_id(階層識別情報)として、それぞれ、0から4が設定される。一方、横軸は表示順(POC:picture order of composition)を示し、左側は表示時刻が前で、右側は表示時刻が後になる。
 図4(a)は、NALユニットヘッダの構造例(Syntax)を示し、図4(b)は、その構造例における主要なパラメータの内容(Semantics)を示している。「Forbidden_zero_bit」の1ビットフィールドは、0が必須である。「Nal_unit_type」の6ビットフィールドは、NALユニットタイプを示す。「Nuh_layer_id」の6ビットフィールドは、0を前提とする。「Nuh_temporal_id_plus1」の3ビットフィールドは、temporal_idを示し、1を加えた値(1~7)をとる。
 図3に戻って、矩形枠のそれぞれがピクチャを示し、数字は、符号化されているピクチャの順、つまりエンコード順(受信側ではデコード順)を示している。例えば、「2」から「17」の16個のピクチャによりサブ・ピクチャグループ(Sub group of pictures)が構成されており、「2」はそのサブ・ピクチャグループの先頭のピクチャとなる。「1」は前のサブ・ピクチャグループのピクチャである。このサブ・ピクチャグループがいくつか集まってGOP(Group Of Pictures)となる。
 GOPの先頭ピクチャの符号化画像データは、図5に示すように、AUD、VPS、SPS、PPS、PSEI、SLICE、SSEI、EOSのNALユニットにより構成される。一方、GOPの先頭ピクチャ以外のピクチャは、AUD、PPS、PSEI、SLICE、SSEI、EOSのNALユニットにより構成される。VPSはSPSと共に、シーケンス(GOP)に一度、PPSは毎ピクチャで伝送可能とされている。
 図3に戻って、実線矢印は、符号化におけるピクチャの参照関係を示している。例えば、「2」のピクチャは、Pピクチャであり、「1」のピクチャを参照して符号化される。また、「3」のピクチャは、Bピクチャであり、「1」、「2」のピクチャを参照して符号化される。同様に、その他のピクチャは、表示順で近くのピクチャを参照して符号化される。なお、階層4のピクチャは、他のピクチャからの参照がない。
 エンコーダ102は、各階層のピクチャの符号化画像データを持つビデオストリームを生成する。例えば、エンコーダ102は、複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれを含む所定数のビデオストリームを生成するか、または、各階層組に対応したサブストリームの全てを含む単一のビデオストリームを生成する。
 例えば、図3の階層符号化の例において、階層0から3が低階層の階層組とされ、階層4が高階層の階層組とされて2つの階層組に分割されるとき、2つのサブストリームが存在する。すなわち、階層0から3のピクチャの符号化画像データを持つサブストリームと、階層4のピクチャの符号化画像データを持つサブストリームである。この場合、エンコーダ102は、2つのサブストリームを含む単一のビデオストリーム、または2つのサブビデオストリームをそれぞれ含む2つのビデオストリームを生成する。
 エンコーダ102は、生成するビデオストリームの数によらず、上述したように、複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する。この場合、例えば、識別情報として、SPS(Sequence Parameter Set)と、ESPS(Enhanced Sequence Parameter Set)に含まれるビットストリームのレベル指定値である「general_level_idc」が利用される。
 SPSは、従来周知のNALユニットであり、最下位の階層組のサブストリーム、つまりベースサブストリームに、シーケンス(GOP)毎に含まれる。一方、ESPSは、新規定義するNALユニットであり、最下位より上位の階層組のサブストリーム、つまりエンハンスサブストリームに、シーケンス(GOP)毎に含まれる。SPS,ESPSに含まれる「general_level_idc」の値は、高階層側の階層組ほど高い値とされる。
 なお、サブレイヤ(sublayer)毎に「sub_layer_level_idc」をSPS,ESPSで送ることができるので、階層組を識別する識別情報として、この「sub_layer_level_idc」を用いることも可能である。以上はSPSだけでなくVPSにおいても供給される。
 この場合、各階層組のサブストリームのSPS,ESPSに挿入される「general_level_idc」の値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。例えば、図3の階層符号化の例において、階層0から3の階層組のサブストリームのSPSに挿入される「general_level_idc」の値は、階層0から3のピクチャのみを含むレベル値とされる。例えば、そのフレームレートが60Pであるときは、“level5.1”とされる。また、例えば、図3の階層符号化の例において、階層4の階層組のサブストリームのESPSに挿入される「general_level_idc」の値は、階層0から4の全てのピクチャを含むレベル値とされる。例えば、そのフレームレートが120Pであるときは、“level5.2”とされる。
 図6は、階層符号化の際のエンコード、デコード、表示順序と遅延の一例を示している。この例は、上述の図3の階層符号化例に対応している。この例は、全階層(全レイヤ)を、フル時間解像度で階層符号化する場合を示している。図6(a)はエンコーダ入力を示す。図6(b)に示すように、16ピクチャ分の遅延をもって、各ピクチャがエンコード順にエンコードされて、符号化ストリームが得られる。また、図6(b)はデコーダ入力も示し、各ピクチャがデコード順にデコードされる。そして、図6(c)に示すように、4ピクチャの遅延をもって、各ピクチャがデコードの画像データが表示順に得られる。
 図7(a)は、上述の図6(b)に示す符号化ストリームと同様の符号化ストリームを、階層0から2、階層3、階層4の3段階に分けて示している。ここで、「Tid」は、temporal_idを示している。図7(b)は、階層0から2、つまりTid=0~2の部分階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。また、図7(c)は、階層0から3、つまりTid=0~3の部分階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。さらに、図7(d)は、階層0から4、つまりTid=0~4の全階層の各ピクチャを選択的にデコードする場合の表示期待(表示順)を示している。
 図7(a)の符号化ストリームをデコード能力別にデコード処理するには、時間解像度がフルレートのデコード能力が必要となる。しかし、Tid=0~2のデコードを行う場合、符号化されたフルの時間解像度に対して、1/4のデコード能力をもつデコーダが処理可能とすべきである。また、Tid=0~3のデコードを行う場合、符号化されたフルの時間解像度に対して、1/2のデコード能力をもつデコーダが処理可能とすべきである。
 しかし、階層符号化において参照される低階層に属するピクチャが連続し、それらが時間解像度でフルなタイミングで符号化されると、部分デコードするデコーダの能力が追い付かないことになる。図7(a)のAの期間がそれに該当する。Tid=0~2、あるいはTid=0~3の部分的な階層をデコードするデコーダは、表示の例で示すような、時間軸が1/4あるいは1/2の能力でデコード・表示を行うため、Aの期間符号化された時間解像度がフルで連続するピクチャのデコードはできない。その間、cpbにエンコーダの想定外のバッファ占有量になる。
 TaはTid=0~2をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。TbはTid=0~3をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。TcはTid=0~4(全階層)をデコードするデコーダにおけるピクチャ毎のデコード処理に要する時間を示す。これらの各時間の関係は、Ta>Tb>Tcとなる。
 そこで、この実施の形態においては、階層符号化の低階層に属するピクチャは、ピクチャ毎のデコード間隔を大きく取り、高階層に行くにつれ、デコード間隔が小さくなるようにバッファ制御を行う。その際、階層数に対してのミニマムデコード能力(Target minimum decoder capability)を定義する。例えば、図3の階層符号化の例において、ミニマムデコード能力が階層2までデコードできる能力とすると、5階層のうちの1/4の時間解像度で階層0から2のピクチャをデコードできるように、エンコード時の間隔をとり、後述のマルチプレクサ104で多重化する際に、そのデコード時刻の差をデコードタイムスタンプ(DTS:decoding Time stamp)の値に反映させる。
 図3の階層符号化例ように、階層数が0~4の5つである場合、階層0から2に属するピクチャの間隔はフル解像度の4倍の時間間隔とし、階層3に属するピクチャの間隔は、フル解像度の2倍の時間間隔とし、階層4に属するピクチャの間隔は、フル解像度の時間間隔とする。
 一方で、エンコーダ102は、階層間でピクチャのエンコード(=デコード)のタイミングが重ならないようにする。すなわち、エンコーダ102は、上述の方法で各ピクチャのエンコードを行う際、低階層のピクチャと高階層のピクチャとでエンコードタイミングが重なる場合には、より多くのピクチャから参照される低階層のピクチャのエンコードを優先し、高階層のピクチャは、それに準じたタイミングとする。ただし、最高階層に属するピクチャは非参照のBピクチャなので、デコードしてそのまま表示(つまりdpb(decoded picture buffer)に貯めない)とするタイミングとなるよう制御することが可能となる。
 図8(a)はエンコーダ入力順を示している(図6(a)と同じ)。また、図8(b)~(d)は、表示順(システムレイヤとしてはPTSに相当)を示している(図7(b)~(d)と同じ)。
 図9は、階層符号化の際のピクチャのエンコードタイミング(デコード時にはデコードタイミングとなる)の一例を示している。この例は、上述の図3の階層符号化例に対応している。そして、この例は、ミニマムデコード能力を、階層2までデコードできる能力としたものである。実線による下線が付された部分は、1つのSGP(Sub Group of Picture)に属するピクチャ(「2」~「17」の16個のピクチャ)を示している。また、実線矩形枠で示すピクチャは現在のSGPに属しているが、破線矩形枠で示すピクチャは現在のSGPには属してはおらず、現在のSGPに属するピクチャによる予測には影響を与えない。
 この場合、階層0から2に属するピクチャ、つまりピクチャ「2」、「3」、「4」、「11」・・・の間隔は、フル解像度の4倍の時間間隔であるTaとされる。また、階層3に属するピクチャ、つまり「5」、「8」、「12」・・・の間隔は、基本的には、フル解像度の2倍の時間間隔であるTbとされる。
 しかし、「8」のピクチャのタイミングは、「11」のピクチャのタイミングとの重なりを避けるために、エンコードのタイミングが、次の時間間隔位置とされる。以下、同様に、「12」、「15」のピクチャのタイミングも、階層0から2に属するピクチャとの重なりを避けるように調整される。この結果、階層3に属するピクチャのタイミングは、階層0から2に属するピクチャのタイミングの中間とされる。
 また、階層4に属するピクチャ、つまり「6」、「7」、「9」・・の間隔は、基本的には、フル解像度の時間間隔であるTcとされる。しかし、階層0から3に属する各ピクチャのタイミングとの重なりを避けるように調整される結果、階層4に属するピクチャのタイミングは、階層0から3に属するピクチャのタイミングの中間とされる。
 図示のように、1SGP期間で、1SGP分のピクチャ(「2」~「17」の16個のピクチャ)のエンコード処理が行われる。これは、上述したように低階層に属するピクチャのエンコード間隔を大きく取る場合であっても実時間処理が可能であることを示している。
 図10は、エンコーダ102の出力例を示している。この例は、エンコーダ102が単一のビデオストリーム(符号化ストリーム)を出力する例である。この例は、図3の階層符号化例に対応し、図9に示すタイミングで各ピクチャがエンコードされた場合の例である。
 ビデオストリームは、階層0から4に属する各ピクチャの符号化画像データがエンコード順(符号化順)に配列されたものなっている。なお、このビデオストリームを受信側でデコードするに当たっては、現在のSGP(太線枠のピクチャ)に属する被参照ピクチャ(階層0から3のピクチャ)はデコード後に非圧縮データバッファ(dpb:decoded picture buffer)に滞留し、他のピクチャからの参照に備える。
 図11は、エンコーダ102の出力例を示している。この例は、エンコーダ102がベースストリム(B_str)と拡張ストリーム(E_str)の2つのビデオストリーム(符号化ストリーム)を出力する例である。この例は、図3の階層符号化例に対応し、図9に示すタイミングで各ピクチャがエンコードされた場合の例である。
 ベースストリム(B-stream)は、階層0から3に属する各ピクチャの符号化画像データがエンコード順(符号化順)に配列されたものなっている。また、拡張ストリーム(E-stream)は、階層4に属する各ピクチャの符号化画像データがエンコード順(符号化順)に配列されたものなっている。なお、このビデオストリームを受信側でデコードするに当たっては、現在のSGP(太線枠のピクチャ)に属する被参照ピクチャ(階層0から3のピクチャ)はデコード後に非圧縮画像データバッファ(dpb:decoded picture buffer)に滞留し、他のピクチャからの参照に備える。
 図12は、エンコーダ102の構成例を示している。このエンコーダ102は、テンポラルID発生部121と、バッファ遅延制御部122と、HRD(Hypothetical Reference Decoder)設定部123と、パラメータセット/SEIエンコード部124と、スライスエンコード部125と、NALパケット化部126を有している。
 テンポラルID発生部121には、CPU101から、階層数(Number of layers)の情報が供給される。テンポラルID発生部121は、この階層数の情報に基づいて、階層数に応じたtemporal_idを発生する。例えば、図3の階層符号例においては、temporal_id=0~4が発生される。
 バッファ遅延制御部122には、CPU101から、ミニマムデコード能力(minimum_target_decoder_level_idc)の情報が供給されると共に、テンポラルID発生部121で発生されるtemporal_idが供給される。バッファ遅延制御部122は、階層毎に、各ピクチャの「cpb_removal_delay」、「dpb_output_delay」を計算する。
 この場合、階層数に対しての、それをデコードするターゲットデコーダのミニマムデコード能力が指定されることで、被参照の低階層ピクチャのエンコードタイミング、そしてデコード即表示の高階層ピクチャのエンコードタイミングが決定される(図9参照)。このエンコードタイミングは、受信側で圧縮データバッファ(cpb:coded picture buffer)から読み出されるデコードタイミングと同じ意味を示す。
 「cpb_removal_delay」は、ピクチャが属する階層を反映して決められる。例えば、階層数をNとし、temporal_id(Tid)が0~N-1の範囲の値をとるものとする。また、ミニマムデコード能力は、temporal_id=Kの階層のピクチャをデコードできる能力とする。バッファ遅延制御部122は、各階層におけるピクチャのエンコード間隔Dを、以下の数式(1)で求め、「cpb_removal_delay」、「dpb_output_delay」に反映させる。
   D = 2 ** (N-1 - K )       (Tid <= K )
   D = 2 ** (N-1 - Tid )      (K < Tid < N - 1 )
   D = 入力シーケンス間隔      (Tid = N ? 1 )
                              ・・・(1)
 なお、階層間で、時間的にエンコードタイミングが重なってしまう場合は、低階層側が優先的にエンコードされ、高階層側は上記の式で割り当てられる、次のタイムスロット(timeslot)でエンコードされる。
 HRD(Hypothetical Reference Decoder)設定部123には、バッファ遅延制御部122で計算された各階層のピクチャの「cpb_removal_delay」、「dpb_output_delay」が供給されると共に、CPU101からストリーム数(Number of streams)の情報が供給される。HRD設定部123は、これらの情報に基づいてHRD設定を行う。
 パラメータセット/SEIエンコード部124には、HRD設定情報と共に、temporal_idが供給される。パラメータセット/SEIエンコード部124は、符号化するストリーム数に応じて、各階層のピクチャのVPS、SPS(ESPS)、PPSなどのパラメータセットとSEIを生成する。
 例えば、「cpb_removal_delay」と「dpb_output_delay」を含むピクチャ・タイミング・SEI(Picture timing SEI)が生成される。また、例えば、「initial_cpb_removal_time」を含むバッファリング・ピリオド・SEI(Buffereing Perifod SEI)が生成される。バッファリング・ピリオド・SEIは、GOPの先頭のピクチャ(アクセスユニット)に対応して生成される。
 「initial cpb removal time」は、圧縮データバッファ(cpb)からGOP(Group Of Picture)の先頭のピクチャの符号化画像データをデコードする際に取り出す時刻(初期時刻)を示す。「cpb_removal_delay」は、各ピクチャの符号化画像データを圧縮データバッファ(cpb)から取り出す時間であり、「initial_cpb_removal_time」と合わせて時刻が決まる。また、「dpb_output_delay」は、デコードして非圧縮データバッファ(dpb)に入ってから取り出す時間を示す。
 スライスエンコード部125は、各階層のピクチャの画像データをエンコードしてスライスデータ(slice segment header, slice segment data)を得る。スライスデコード部125は、フレームバッファにより、時間方向の予測の状態を表す情報として、「Prediction Unit」の予測先ピクチャのインデックスを示す「ref_idx_l0_active(ref_idx_l1_active)を、「slice segment header」に挿入する。これにより、デコード時には、temporal_idで示される階層レベルと共に、被参照ピクチャが決定される。また、スライスデコード部125は、現在のスライス(slice)のインデックスを、「short_term_ref_pic_set_idx」、 あるいは「it_idx_sps」として、「slice segment header」に挿入する。
 NALパケット化部126は、パラメータセット/SEIエンコード部124で生成されたパラメータセットおよびSEIと、スライスエンコード部125で生成されるスライスデータに基づき、各階層のピクチャの符号化画像データを生成し、ストリーム数に応じた数のビデオストリーム(符号化ストリーム)を出力する。
 その際、ピクチャごとに、その階層を示すtemporal_idがNALユニットヘッダに付される(図4参照)。また、temporal_idで示される階層に属するピクチャは、サブレイヤ(sub_layer)として括られ、サブレイヤごとのビットレートのレベル指定値「Level_idc」が「sublayer_level_idc」とされて、VPSやSPS(ESPS)に挿入される。
 図13は、エンコーダ102の処理フローを示す。エンコーダ102は、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、エンコーダ102は、階層符号化における階層数Nを設定する。次に、エンコーダ102は、ステップST3において、各階層のピクチャのtemporal_idを0~(N-1)とする。
 次に、エンコーダ102は、ステップST4において、対象デコーダのうち、最小能力のデコーダがデコードできる階層レベルKを、0~N-1の範囲内に設定する。そして、エンコーダ102は、ステップST5において、バッファ遅延制御部122で、各階層におけるピクチャエンコード間隔Dを、上述の数式(1)で求める。
 次に、エンコーダ102は、ステップST6において、階層間でピクチャのエンコードタイミングが時間的に重なるか否かを判断する。エンコードタイミングが重なるとき、エンコーダ102は、ステップST7において、低階層のピクチャを優先して符号化し、高階層のピクチャは、次のエンコード間隔Dのタイミングでエンコードする。その後、エンコーダ102は、ステップST8の処理に移る。
 ステップST6でエンコードタイミングが重ならないとき、エンコーダ102は、直ちに、ステップST8の処理に移る。このステップST8において、エンコーダ102は、ステップST5で求めた各階層のピクチャのエンコード間隔Dを「cpb_removal_delay」、「dpb_output_delay」に反映し、HRD設定、パラメータセット/SEIのエンコード、スライスエンコードを行い、NALユニットとして多重化ブロックへ転送する。その後、エンコーダ102は、ステップST9において、処理を終了する。
 図2に戻って、圧縮データバッファ(cpb)103は、エンコーダ102で生成された、各階層のピクチャの符号化データを含むビデオストリームを、一時的に蓄積する。マルチプレクサ104は、圧縮データバッファ103に蓄積されているビデオストリームを読み出し、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
 このトランスポートストリームTSには、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム、あるいは複数の階層が2以上の所定数の階層組に分割され、各階層組のピクチャの符号化画像データをそれぞれ持つ所定数のビデオストリームが含まれる。マルチプレクサ104は、トランスポートストリームTSに、階層情報、ストリーム構成情報を挿入する。
 トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。このPMTには、各ビデオストリームに関連した情報を持つビデオエレメンタリ・ループ(video ES1 loop)が存在する。このビデオエレメンタリ・ループには、各ビデオストリームに対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。
 マルチプレクサ104は、このデスクリプタの一つとして、HEVCデスクリプタ(HEVC_descriptor)を挿入し、さらに、新たに定義するスケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を挿入する。
 図14は、HEVCデスクリプタ(HEVC_descriptor)の構造例(Syntax)を示している。また、図15は、その構造例における主要な情報の内容(Semantics)を示している。
 「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示し、ここでは、HEVCデスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
 「level_idc」の8ビットフィールドは、ビットレートのレベル指定値を示す。また、「temporal_layer_subset_flag = 1」であるとき、「temporal_id_min」の5ビットフィールドと、「temporal_id_max」の5ビットフィールドが存在する。「temporal_id_min」は、対応するビデオストリームに含まれる階層符号化データの最も低い階層のtemporal_idの値を示す。「temporal_id_max」は、対応するビデオストリームが持つ階層符号化データの最も高い階層のtemporal_idの値を示す。
 「level_constrained_flag」の1ビットフィールドは、新たに定義するものであり、該当サブストリーム(substream)にSPSあるいはESPSが存在し、その要素の“general_level_idc”は、そのサブストリームが含むtemporal_id(階層識別情報)以下のピクチャ(Picture)を含むレベル(Level)値をもつことを示す。“1”は、該当サブストリームにSPSあるいはESPSが存在し、その要素の“general_level_idc”は、そのサブストリームが含むtemporal_id 以下のピクチャを含むレベル値をもつ、ことを示す。“0”は、対象となるサービスを構成するサブストリーム群の中にはSPSが1つ存在し、その“general_level_idc”は、当該サブストリームのみならず、同一サービスの下の他のサブストリームも含むレベル値を示す。
 「scalability_id」の3ビットフィールドは、新たに定義するものであり、複数のビデオストリームがスケーラブルなサービスを供給する際、個々のストリームに付されるスケーラビリティを示すIDである。“0”はベースストリームを示し、“1”~“7”はベースストリームからのスケーラビリティの度合いによって増加するIDである。
 図16は、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)の構造例(Syntax)を示している。また、図17は、その構造例における主要な情報の内容(Semantics)を示している。
 「scalability_extension_descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示し、ここでは、スケーラビリティ・エクステンション・デスクリプタであることを示す。「scalability_extension_descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。「extension_stream_existing_flag」の1ビットフィールドは、別ストリームによる拡張サービスがあることを示すフラグである。“1”は拡張ストリームがあることを示し、“0”は拡張ストリームがないことを示す。
 「extension_type」の3ビットフィールドは、拡張のタイプを示す。“001”は、拡張が、時間方向スケーラブルであることを示す。“010”は、拡張が、空間方向スケーラブルであることを示す。“011”は、拡張が、ビットレートスケーラブルであることを示す。
 「number_of_streams」の4ビットフィールドは、配信サービスに関与するストリームの総数を示す。「scalability_id」の3ビットフィールドは、複数のビデオストリームがスケーラブルなサービスを供給する際、個々のストリームに付されるスケーラビリティを示すIDである。“0”はベースストリームを示し、“1”~“7”はベースストリームからのスケーラビリティの度合いによって増加するIDである。「minimum_target_decoder_level_idc」の8ビットフィールドは、該当ストリームが対象とするデコーダの能力を示す。この情報は、受信機において、デコーダがストリームをデコードする前に符号化ピクチャの想定デコードタイミングがデコーダのpictureデコード処理能力の範囲を超えていないかどうかの判断に利用する。
 上述したように、この実施の形態において、SPS,ESPSに含まれるビットレートのレベル指定値(general_level_idc)などは、複数の階層を2以上の所定数の階層組に分割した際の所属階層組の識別情報として利用される。各階層組のレベル指定値の値は、この階層組のピクチャと、この階層組より低階層側の全ての階層組のピクチャとからなるフレームレートに対応した値とされる。
 マルチプレクサ104は、低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの優先度ほど高く設定する。マルチプレクサ104は、例えば、複数の階層を低階層組と高階層組に二分する場合、TSパケットヘッダの「transport_priority」の1ビットフィールドを利用する。
 図18は、TSパケットの構造例(Syntax)を示している。「transport_priority」の1ビットフィールドは、ベースレイヤ、つまり低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合は“1”に設定され、ノンベースレイヤ、つまり高階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合は“0”に設定される。
 図19は、SPS,ESPSのNALユニットに含まれるビットレートのレベル指定値(general_level_idc)と、TSパケットヘッダの「transport_priority」の設定値との関係を示している。受信側では、これらの情報の一方あるいは双方を用いて、低階層側の階層組のピクチャの符号化画像データと、高階層側の階層組のピクチャの符号化画像データとを、分別することが可能となる。
 図20は、マルチプレクサ104の構成例を示している。TSプライオリティ発生部141と、セクションコーディング部142と、PESパケット化部143-1~143-Nと、スイッチ部144と、トランスポートパケット化部145を有している。
 PESパケット化部143-1~143-Nは、それぞれ、圧縮データバッファ103に蓄積されているビデオストリーム1~Nを読み込み、PESパケットを生成する。この際、PESパケット化部143-1~143-Nは、ビデオストリーム1~NのHRD情報を元にDTS(Decoding Time Stamp)、PTS(Presentation Time Stamp)のタイムスタンプをPESヘッダに付与する、この場合、各ピクチャの「cpu_removal_delay」、「dpb_output_delay」が参照され、STC(System Time Clock)時刻に同期した精度で、各々DTS、PTSに変換され、PESヘッダの所定位置に配置される。
 スイッチ部144は、PESパケット化部143-1~143-Nで生成されたPESパケットを、パケット識別子(PID)に基づいて選択的に取り出し、トランスポートパケット化部145に送る。トランスポートパケット化部145は、PESパケットをペイロードに含むTSパケットを生成し、トランスポートストリームを得る。
 TSプライオリティ発生部141には、CPU101から、階層数(Number of layers)とストリーム数(Number of streams)の情報が供給される。TSプライオリティ発生部141は、階層数で示される複数の階層を2以上の所定数の階層組に分割した場合における、各階層組の優先度を発生する。例えば、2分割される場合には、TSパケットヘッダの「transport_priority」の1ビットフィールドに挿入すべき値が発生される(図19参照)。
 TSプライオリティ発生部141は、各階層組の優先度の情報を、トランスポートパケット化部145に送る。トランスポートパケット化部145は、この情報に基づいて、各TSパケットの優先度を設定する。この場合、上述したように、低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの優先度ほど高く設定する。
 セクションコーディング部142には、CPU101から、階層数(Number of layers)と、ストリーム数(Number of streams)と、最小ターゲットデコーダ・レベル(Minimum_target_decoder_level_idc)の情報が供給される。セクションコーディング部142は、この情報に基づいて、トランスポートストリームTSに挿入すべき各種のセクションデータ、例えば、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)などを生成する。
 セクションコーディング部142は、各種セクションデータを、トランスポートパケット化部145に送る。トランスポートパケット化部145は、このセクションデータを含むTSパケットを生成し、トランスポートストリームTSに挿入する。
 図21は、マルチプレクサ104の処理フローを示す。この例は、複数の階層を低階層組と高階層組の2つに分割する例である。マルチプレクサ104は、ステップST11において、処理を開始し、その後に、ステップST12の処理に移る。このステップST12において、マルチプレクサ104は、ビデオストリーム(ビデオエレメンタリストリーム)の各ピクチャのtemporal_id_、構成する符号化ストリーム数を設定する。
 次に、マルチプレクサ104は、ステップST13において、低階層組のピクチャ、あるいは低階層組のピクチャを含むビデオストリームを多重化する際の「transport_priority」を“1”に設定する。また、マルチプレクサ104は、ステップST14において、HRD情報(cpu_removal_delay、dpb_output_delay)を参照して、DTS、PTSを決め、PESヘッダに挿入する。
 次に、マルチプレクサ104は、ステップST15において、シングルストリーム(単一ビデオストリーム)か否かを判断する。シングルストリームであるとき、マルチプレクサ104は、ステップST16において、1つのPID(パケット識別子)で多重化処理を進めることとし、その後に、ステップST17の処理に移る。一方、シングルストリームでないとき、マルチプレクサ104は、ステップST18において、複数のパケットPID(パケット識別子)で多重化処理を進めることとし、その後に、ステップST17の処理に移る。
 このステップST17において、マルチプレクサ104は、HEVCデスクリプタ、スケーラビリティ・エクステンション・デスクリプタなどをコーディングする。そして、マルチプレクサ104は、ステップST19において、ビデオストリームをPESペイロードに挿入してPESパケット化し、その後、ステップST20において、トランスポートパケット化し、トランスストリームTSを得る。その後、マルチプレクサ104は、ステップST21において、処理を終了する。
 図22は、単一ビデオストリームによる配信を行う場合のトランスポートストリームTSの構成例を示している。このトランスポートストリームTSには、単一ビデオストリームが含まれている。すなわち、この構成例では、複数の階層のピクチャの例えばHEVCによる符号化画像データを持つビデオストリームのPESパケット「video PES1」が存在すると共に、オーディオストリームのPESパケット「audio PES1」が存在する
 この単一のビデオストリームには、階層符号化の複数の階層が2以上の所定数の階層組に分割されて得られた所定数のサブストリームが含まれる。ここで、最下位の階層組のサブストリーム(ベースサブストリーム)にはSPSが含まれ、最下位より上位の階層組のサブストリーム(エンハンスサブストリーム)にはESPSが含まれる。そして、SPS,ESPSの要素の“general_level_idc”の値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。
 各ピクチャの符号化画像データには、VPS、SPS、ESPS、SEIなどのNALユニットが存在する。上述したように、各ピクチャのNALユニットのヘッダには、そのピクチャの階層を示すtemporal_idが挿入されている。また、例えば、SPS,ESPSにはビットレートのレベル指定値(general_level_idc)が含まれている。また、例えば、ピクチャ・タイミング・SEI(Picture timing SEI)には、「cpb_removal_delay」と「dpb_output_delay」が含まれている。
 なお、各ピクチャの符号化画像データをコンテナするTSパケットのヘッダに「transport_priority」の1ビットの優先度を示すフィールドが存在する。この「transport_priority」により、コンテナする符号化画像データが、低階層組のピクチャのものか、あるいは高階層組のピクチャのものかが識別可能である。
 また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
 PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ(video ES1 loop)が存在すると共に、オーディオエレメンタリ・ループ(audio ES1 loop)が存在する。
 ビデオエレメンタリ・ループには、ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)が挿入される。
 図23は、図3の階層符号化の例において、階層0~3のピクチャでベースサブストリーム(B stream)が生成され、階層4のピクチャでエンハンスサブストリーム(E stream)が生成される場合を示している。この場合、ベースサブストリームに含まれる各ピクチャは60Pを構成し、エンハンスサブストリーム(E stream)に含まれる各ピクチャは、ベースサブストリームに含まれる各ピクチャに追加されてPES全体で120Pを構成する。
 ベースサブストリームのピクチャは、「AUD」、「VPS」、「SPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」、「EOS」などのNALユニットにより構成される。「VPS」、「SPS」は、例えば、GOPの先頭ピクチャに挿入される。SPSの要素の“general_level_idc”の値は、“level5.1”とされる。なお、「EOS」はなくてもよい。
 一方、エンハンスサブストリームのピクチャは、「AUD」、「ESPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」、「EOS」などのNALユニットにより構成される。なお、「ESPS」は、例えば、GOPの先頭ピクチャに挿入される。ESPSの要素の“general_level_idc”の値は、“level5.2”とされる。なお、「PSEI」、「SSEI」、「EOS」はなくてもよい。
 「video ES1 loop」には、ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、ベースストリームを示す“0x24”とされる。また、デスクリプタの一つとして、上述したHEVCデスクリプタが挿入される。
 「level_constrained_flag」の1ビットフィールドは、“1”とされる。これにより、「該当サブストリームにSPSあるいはESPSが存在し、その要素の“general_level_idc”は、そのサブストリームが含むtemporal_id 以下のピクチャを含むレベル値をもつ」ことが示される。また、「level_idc」の値は、ビデオストリーム(video PES1)の全体のレベル値を示す“level5.2”とされる。また、「temporal_id_min」は0とされ、「temporal_id_max」は4とされ、ビデオストリーム(video PES1)に階層0~4のピクチャが含まれていることが示される。
 このような単一ビデオストリームによる配信が行われる場合、受信側では、「level_constrained_flag」、SPS、ESPSの要素の“general_level_idc”などに基づいて、各サブストリームが自身のデコーダ処理能力の範囲内にあるか否かが判断され、範囲内にあるサブストリームのデコードが行われる。
 図24は、複数ストリーム、ここでは2ストリームによる配信を行う場合のトランスポートストリームTSの構成例を示している。このトランスポートストリームTSには、2つのビデオストリームが含まれている。すなわち、この構成例では、複数の階層が低階層組と高階層組の2つの階層組に分割され、2つの階層組のピクチャの例えばHEVCによる符号化画像データを持つビデオストリームのPESパケット「video PES1」、「video PES2」が存在すると共に、オーディオストリームのPESパケット「audio PES1」が存在する。
 この2つのビデオストリームには、階層符号化の複数の階層が2つの階層組に分割されて得られた2つのサブストリームのそれぞれが含まれる。ここで、下位側の階層組のサブストリーム(ベースサブストリーム)にはSPSが含まれ、上位側の階層組のサブストリーム(エンハンスサブストリーム)にはESPSが含まれる。そして、SPS,ESPSの要素の“general_level_idc”の値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。
 各ピクチャの符号化画像データには、SPS、ESPSなどのNALユニットが存在する。上述したように、各ピクチャのNALユニットのヘッダには、そのピクチャの階層を示すtemporal_idが挿入されている。また、例えば、SPS、ESPSにはビットレートのレベル指定値(general_level_idc)が含まれている。また、例えば、ピクチャ・タイミング・SEI(Picture timing SEI)には、「cpb_removal_delay」と「dpb_output_delay」が含まれている。
 また、各ピクチャの符号化画像データをコンテナするTSパケットのヘッダに「transport_priority」の1ビットの優先度を示すフィールドが存在する。この「transport_priority」により、コンテナする符号化画像データが、低階層組のピクチャのものか、あるいは高階層組のピクチャのものかが識別可能である。
 また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
 PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、2つのビデオエレメンタリ・ループ(video ES1 loop, video ES2 loop )が存在すると共に、オーディオエレメンタリ・ループ(audio ES1 loop)が存在する。
 各ビデオエレメンタリ・ループには、ビデオストリーム(video PES1, video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)が挿入される。
 図25は、図3の階層符号化の例において、階層0~3のピクチャでベースサブストリーム(B stream)が生成され、階層4のピクチャでエンハンスサブストリーム(E stream)が生成される場合を示している。この場合、ベースサブストリームに含まれる各ピクチャは60Pを構成し、エンハンスサブストリーム(E stream)に含まれる各ピクチャは、ベースサブストリームに含まれる各ピクチャに追加されてPES全体で120Pを構成する。
 ベースサブストリームのピクチャは、「AUD」、「VPS」、「SPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」、「EOS」などのNALユニットにより構成される。なお、「VPS」、「SPS」は、例えば、GOPの先頭ピクチャに挿入される。SPSの要素の“general_level_idc”の値は、“level5.1”とされる。なお、「EOS」はなくてもよい。
 一方、エンハンスサブストリームのピクチャは、「AUD」、「ESPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」、「EOS」などのNALユニットにより構成される。なお、「ESPS」は、例えば、GOPの先頭ピクチャに挿入される。ESPSの要素の“general_level_idc”の値は、“level5.2”とされる。なお、「PSEI」、「SSEI」、「EOS」はなくてもよい。
 「video ES1 loop」には、ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、ベースストリームを示す“0x24”とされる。また、デスクリプタの一つとして、上述したHEVCデスクリプタが挿入される。
 「level_constrained_flag」の1ビットフィールドは、“1”とされる。これにより、「該当サブストリームにSPSあるいはESPSが存在し、その要素の“general_level_idc”は、そのサブストリームが含むtemporal_id 以下のピクチャを含むレベル値をもつ」ことが示される。また、「level_idc」の値は、ベースサブストリーム(B stream)のレベル値を示す“level5.1”とされる。また、「temporal_id_min」は0とされ、「temporal_id_max」は3とされ、ベースサブストリーム(B stream)に階層0~3のピクチャが含まれていることが示される。
 「video ES2 loop」には、ビデオストリーム(video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、エンハンススストリームを示す“0x25”とされる。また、デスクリプタの一つとして、上述したHEVCデスクリプタが挿入される。
 「level_constrained_flag」の1ビットフィールドは、“1”とされる。これにより、「該当サブストリームにSPSあるいはESPSが存在し、その要素の“general_level_idc”は、そのサブストリームが含むtemporal_id 以下のピクチャを含むレベル値をもつ」ことが示される。また、「level_idc」の値は、ベースサブストリーム(B stream)およびエンハンスストリーム(E stream)のレベル値を示す“level5.2”とされる。また、「temporal_id_min」は4とされ、「temporal_id_max」は4とされ、エンハンスストリーム(E stream))に階層4のピクチャが含まれていることが示される。
 このような複数ビデオストリームによる配信が行われる場合、受信側では、「level_constrained_flag」、SPS、ESPSの要素の“general_level_idc”などに基づいて、各サブストリームが自身のデコーダ処理能力の範囲内にあるか否かが判断され、範囲内にあるサブストリームのデコードが行われる。
 図26は、図3の階層符号化の例において、階層0~3のピクチャでベースサブストリーム(B stream)が生成され、階層4のピクチャでエンハンスサブストリーム(E stream)が生成される場合におけるトランスポートストリームTSの他の構成例を示している。この場合、ベースサブストリームに含まれる各ピクチャは60Pを構成し、エンハンスサブストリーム(E stream)に含まれる各ピクチャは、ベースサブストリームに含まれる各ピクチャに追加されてPES全体で120Pを構成する。
 ベースサブストリームのピクチャは、「AUD」、「VPS」、「SPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」、「EOS」などのNALユニットにより構成される。なお、「VPS」、「SPS」は、例えば、GOPの先頭ピクチャに挿入される。SPSの要素の“general_level_idc”の値は、“level5.2”とされる。この場合、SPSの要素の“sub_layer_level_present_flag”は“1”とされ、“sublayer_level_idc[3]”で、ベースサブストリームのレベル値“level5.1”が示される。なお、「EOS」はなくてもよい。
 エンハンスサブストリームのピクチャは、「AUD」、「PPS」、「SLICE」などのNALユニットにより構成される。しかし、図25におけるような「ESPS」のNALユニットは存在しない。
 「video ES1 loop」には、ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、ベースストリームを示す“0x24”とされる。また、デスクリプタの一つとして、上述したHEVCデスクリプタが挿入される。
 図25におけるような「level_constrained_flag」は存在しない。「level_idc」の値は、ベースサブストリーム(B stream)のレベル値を示す“level5.1”とされる。また、「temporal_id_min」は0とされ、「temporal_id_max」は3とされ、ベースサブストリーム(B stream)に階層0~3のピクチャが含まれていることが示される。
 「video ES2 loop」には、ビデオストリーム(video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、エンハンススストリームを示す“0x25”とされる。また、デスクリプタの一つとして、上述したHEVCデスクリプタが挿入される。
 図25におけるような「level_constrained_flag」は存在しない。「level_idc」の値は、ベースサブストリーム(B stream)およびエンハンスストリーム(E stream)のレベル値を示す“level5.2”とされる。また、「temporal_id_min」は4とされ、「temporal_id_max」は4とされ、エンハンスストリーム(E stream))に階層4のピクチャが含まれていることが示される。
 このような複数ビデオストリームによる配信が行われる場合、受信側では、SPSの要素の“general_level_idc”、“sublayer_level_idc”などに基づいて、各サブストリームが自身のデコーダ処理能力の範囲内にあるか否かが判断され、範囲内にあるサブストリームのデコードが行われる。
 図2に戻って、送信部105は、トランスポートストリームTSを、例えば、QPSK/OFDM等の放送に適した変調方式で変調し、RF変調信号を送信アンテナから送信する。
 図2に示す送信装置100の動作を簡単に説明する。エンコーダ102には、非圧縮の動画像データが入力される。エンコーダ102では、この動画像データに対して、階層符号化が行われる。すなわち、エンコーダ102では、この動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化され、各階層のピクチャの符号化画像データを持つビデオストリームが生成される。この際、参照するピクチャが、自己階層および/または自己階層よりも下位の階層に所属するように、符号化される。
 エンコーダ102では、各階層のピクチャの符号化画像データを持つビデオストリームが生成される。例えば、エンコーダ102では、複数の階層が2以上の所定数の階層組に分割され、各階層組に対応したサブストリームのそれぞれを含む所定数のビデオストリームが生成されるか、または、各階層組に対応したサブストリームの全てを含む単一のビデオストリームが生成される。
 エンコーダ102では、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報が付加される。この場合、例えば、識別情報として、SPS,ESPSの要素である「general_level_idc」が利用される。SPSは、最下位の階層組のサブストリーム(ベースサブストリーム)に、シーケンス(GOP)毎に含まれる。一方、ESPSは、最下位より上位の階層組のサブストリーム(エンハンスサブストリーム)に、シーケンス(GOP)毎に含まれる。SPS,ESPSに含まれる「general_level_idc」の値は、高階層側の階層組ほど高い値とされる。例えば、各階層組のサブストリームのSPS,ESPSに挿入される「general_level_idc」の値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる。
 エンコーダ102で生成された、各階層のピクチャの符号化データを含むビデオストリームは、圧縮データバッファ(cpb)103に供給され、一時的に蓄積される。マルチプレクサ104では、圧縮データバッファ103に蓄積されているビデオストリームが読み出され、PESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
 このトランスポートストリームTSには、各階層のピクチャの符号化画像データを持つ単一のビデオストリーム、あるいは2以上の所定数のビデオストリームが含まれる。マルチプレクサ104では、トランスポートストリームTSに、階層情報、ストリーム構成情報が挿入される。すなわち、マルチプレクサ104では、各ビデオストリームに対応したビデオエレメンタリ・ループに、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)が挿入される。
 また、マルチプレクサ104では、低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの優先度ほど高く設定される。マルチプレクサ104では、例えば、複数の階層を低階層組と高階層組に二分される場合、TSパケットヘッダの「transport_priority」の1ビットフィールドが利用されて優先度が設定される。
 マルチプレクサ104で生成されるトランスポートストリームTSは、送信部105に送られる。送信部105では、このトランスポートストリームTSが、例えば、QPSK/OFDM等の放送に適した変調方式で変調され、RF変調信号が送信アンテナから送信される。
 「受信装置の構成」
 図27は、受信装置200の構成例を示している。この受信装置200は、CPU(Central Processing Unit)201と、受信部202と、デマルチプレクサ203と、圧縮データバッファ(cpb:coded picture buffer)204を有している。また、この受信装置200は、デコーダ205と、非圧縮データバッファ(dpb:decoded picture buffer)206と、ポスト処理部207を有している。CPU201は、制御部を構成し、受信装置200の各部の動作を制御する。
 受信部202は、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203は、トランスポートストリームTSから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データを選択的に取り出し、圧縮データバッファ(cpb:coded picture buffer)204に送る。
 図28は、デマルチプレクサ203の構成例を示している。このデマルチプレクサ203は、PCR抽出部231と、タイムスタンプ抽出部232と、セクション抽出部233と、TSプライオリティ抽出部234と、PESペイロード抽出部235と、ピクチャ選択部236を有している。
 PCR抽出部231は、PCR(Program Clock Reference)が含まれるTSパケットからPCRを抽出し、CPU201に送る。タイムスタンプ抽出部232は、ピクチャ毎にPESヘッダに挿入されているタイムスタンプ(DTS、PTS)を抽出し、CPU201に送る。セクション抽出部233は、トランスポートストリームTSからセクションデータを抽出し、CPU201に送る。このセクションデータには、上述したHEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)などが含まれている。
 TSプライオリティ抽出部234は、各TSパケットに設定されている優先度情報を抽出する。この優先度は、上述したように、複数の階層を2以上の所定数の階層組に分割した場合における各階層組の優先度であり、低階層側の階層組ほど高く設定されている。例えば、低階層組と高階層組に2分されている場合、TSパケットヘッダの「transport_priority」の1ビットフィールドの値が抽出される。この値は、低階層組では“1”とされ、高階層組では“0”に設定されている。
 PESペイロード抽出部235は、トランスポートストリームTSからPESペイロード、つまり、各階層のピクチャの符号化画像データを抽出する。ピクチャ選択部236は、PESペイロード抽出部235で取り出される各階層のピクチャの符号化画像データから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データを選択的に取り出し、圧縮データバッファ(cpb:coded picture buffer)204に送る。この場合、ピクチャ選択部236は、セクション抽出部233で得られる階層情報、ストリーム構成情報、TSプライオリティ抽出部234で抽出される優先度情報を参照する。
 例えば、トランスポートストリームTSに含まれるビデオストリーム(符号化ストリーム)のフレームレートが120fpsである場合を考える。例えば、複数の階層が低階層側の階層組と高階層側の階層組とに2分割され、各階層組のピクチャのフレームレートがそれぞれ60fpsであるとする。例えば、上述の図3に示す階層符号化例では、階層0から3は低階層側の階層組とされ、階層4は高階層側の階層組とされる。
 TSパケットのヘッダに含まれる「transport_priority」の1ビットフィールドは、ベースレイヤ、つまり低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合には“1”に設定され、ノンベースレイヤ、つまり高階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合には“0”に設定されている。
 この場合、トランスポートストリームTSに、各階層のピクチャの符号化データを持つ単一のビデオストリーム(符号化ストリーム)(図10参照)が含まれている場合がある。また、この場合、トランスポートストリームTSに、低階層側の階層組のピクチャの符号化画像データ持つベースストリーム(B-stream)と、高階層側の階層組のピクチャの符号化画像データを持つエンハンスストリーム(E-stream)の2つのビデオストリーム(符号化ストリーム)が含まれている場合(図11参照)がある。
 ピクチャ選択部236は、例えば、デコード能力が、120P(120fps)に対応している場合、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送る。一方、ピクチャ選択部236は、例えば、デコード能力が、120Pに対応していないが60P(60fps)に対応している場合、低階層側の階層組のピクチャの符号化画像データのみを取り出し、圧縮データバッファ(cpb)204に送る。
 図29は、トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合を示している。ここで、「High」は高階層側の階層組のピクチャを示し、「Low」は低階層側の階層組のピクチャを示す。また、「P」は「transport_priority」を示している。
 デコード能力が、120Pに対応している場合、ピクチャ選択部236は、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送り、領域1(cpb_1)に蓄積する。一方、デコード能力が、120Pに対応していないが60Pに対応している場合、「transport_priority」に基づくフィルタリングを行って、P=1である低階層側の階層組のピクチャだけを取り出し、圧縮データバッファ(cpb)204に送り、領域1(cpb_1)に蓄積する。
 図30は、トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合を示している。ここで、「High」は高階層側の階層組のピクチャを示し、「Low」は低階層側の階層組のピクチャを示す。また、「P」は「transport_priority」を示している。また、ベースストリームのパケット識別子(PID)はPID1であり、拡張ストリームのパケット識別子(PID)はPID2であるとする。
 デコード能力が、120Pに対応している場合、ピクチャ選択部236は、全階層のピクチャの符号化画像データを取り出し、圧縮データバッファ(cpb)204に送る。そして、低階層側の階層組のピクチャの符号化画像データは領域1(cpb_1)に蓄積し、低階層側の階層組のピクチャの符号化画像データは領域2(cpb_2)に蓄積する。
 一方、デコード能力が、120Pに対応していないが120Pに対応している場合、パケット識別子(PID)に基づくフィルタリングを行って、PID1である低階層側の階層組のピクチャだけを取り出し、圧縮データバッファ(cpb)204に送り、領域1(cpb_1)に蓄積する。なお、この場合も、「transport_priority」に基づくフィルタリングを行ってもよい。
 図31は、デマルチプレクサ203の処理フローの一例を示している。この処理フローは、トランスポートストリームTSに単一のビデオストリーム(符号化ストリーム)が含まれている場合を示している。
 デマルチプレクサ203は、ステップST31において、処理を開始し、その後に、ステップST32の処理に移る。このステップST32おいて、CPU201から、デコード能力(Decoder temporal layer capability)が設定される。次に、デマルチプレクサ203は、ステップST33おいて、全階層をデコードする能力があるか否かを判断する。
 全階層をデコードする能力があるとき、デマルチプレクサ203は、ステップST34において、該当PIDフィルタを通過する全TSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST35の処理に移る。
 ステップST33で全階層をデコードする能力がないとき、デマルチプレクサ203は、ステップST36において、「transport_priority」が“1”のTSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST35の処理に移る。
 ステップST35において、デマルチプレクサ203は、対象となるPIDのセクションの中で、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を読み、拡張ストリームの有無、スケーラブルタイプ、ストリームの数とID、temporal_idの最大、最小値、最小ターゲットデコーダ・レベルを得る。
 次に、デマルチプレクサ203は、ステップST37で、PIDの対象となる符号化ストリームを圧縮データバッファ(cpb)204へ転送すると共に、DTS、PTSを、CPU201に通知する。デマルチプレクサ203は、ステップST37の処理の後、ステップST38において、処理を終了する。
 図32は、デマルチプレクサ203の処理フローの一例を示している。この処理フローは、トランスポートストリームTSにベースストリームと拡張ストリームの2つのビデオストリーム(符号化ストリーム)が含まれている場合を示している。
 デマルチプレクサ203は、ステップST41において、処理を開始し、その後に、ステップST42の処理に移る。このステップST42おいて、CPU201から、デコード能力(Decoder temporal layer capability)が設定される。次に、デマルチプレクサ203は、ステップST43おいて、全階層をデコードする能力があるか否かを判断する。
 全階層をデコードする能力があるとき、デマルチプレクサ203は、ステップST44において、該当PIDフィルタを通過する全TSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST45の処理に移る。
 ステップST43で全階層をデコードする能力がないとき、デマルチプレクサ203は、ステップST46において、PID=PID1のTSパケットをデマルチプレクスし、セクションパーシング(Section parsing)を行う。その後、デマルチプレクサ203は、ステップST45の処理に移る。
 ステップST45において、デマルチプレクサ203は、対象となるPIDのセクションの中で、HEVCデスクリプタ(HEVC_descriptor)、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)を読み、拡張ストリームの有無、スケーラブルタイプ、ストリームの数とID、temporal_idの最大、最小値、最小ターゲットデコーダ・レベルを得る。
 次に、デマルチプレクサ203は、ステップST47で、PIDの対象となる符号化ストリームを圧縮データバッファ(cpb)204へ転送すると共に、DTS、PTSを、CPU201に通知する。デマルチプレクサ203は、ステップST47の処理の後、ステップST48において、処理を終了する。
 図27に戻って、圧縮データバッファ(cpb)204は、デマルチプレクサ203で取り出されるビデオストリーム(符号化ストリーム)を、一時的に蓄積する。デコーダ205は、圧縮データバッファ204に蓄積されているビデオストリームから、デコードすべき階層として指定された階層のピクチャの符号化画像データを取り出す。そして、デコーダ205は、取り出された各ピクチャの符号化画像データを、それぞれ、そのピクチャのデコードタイミングでデコードし、非圧縮データバッファ(dpb)206に送る。
 ここで、デコーダ205には、CPU201からデコードすべき階層がtemporal_idで指定される。この指定階層は、デマルチプレクサ203で取り出されるビデオストリーム(符号化ストリーム)に含まれる全階層、あるいは低階層側の一部の階層とされ、CPU201により自動的に、あるいはユーザ操作に応じて設定される。また、デコーダ205には、CPU201から、DTS(Decoding Time stamp)に基づいて、デコードタイミングが与えられる。なお、デコーダ205は、各ピクチャの符号化画像データをデコードする際に、必要に応じて、非圧縮データバッファ206から被参照ピクチャの画像データを読み出して利用する。
 図33は、デコーダ205の構成例を示している。このデコーダ205は、テンポラルID解析部251と、対象階層選択部252と、ストリーム統合部253と、デコード部254を有している。テンポラルID解析部251は、圧縮データバッファ204に蓄積されているビデオストリーム(符号化ストリーム)を読み出し、各ピクチャの符号化画像データのNALユニットヘッダに挿入されているtemporal_idを解析する。
 対象階層選択部252は、圧縮データバッファ204から読み出されたビデオストリームから、テンポラルID解析部251の解析結果に基づいて、デコードすべき階層として指定された階層のピクチャの符号化画像データを取り出す。この場合、対象階層選択部252からは、圧縮データバッファ204から読み出されたビデオストリームの数および指定階層に応じて、単一または複数のビデオストリーム(符号化ストリーム)が出力される。
 ストリーム統合部253は、対象階層選択部252から出力される所定数のビデオストリーム(符号化ストリーム)を一つに統合する。デコード部254は、ストリーム統合部253で統合されたビデオストリーム(符号化ストリーム)が持つ各ピクチャの符号化画像データを、順次デコードタイミングでデコードし、非圧縮データバッファ(dpb)206に送る。
 この場合、デコード部254はデマルチプレクサ203から得られるLevel_constrained_flagにより、SPS,ESPSの解析を行って、「general_level_idc」、「sublayer_level_idc」などを把握し、ストリームあるいはサブストリームが自身のデコーダ処理能力範囲内でデコードし得るものかどうかを確認する。また、この場合、デコード部254は、SEIの解析を行って、例えば、「initial_cpb_removal_time」、「cpb_removal_delay」を把握し、CPU201からのデコードタイミングが適切か確認する。
 また、デコード部254は、スライス(Slice)のデコードを行う際に、スライスヘッダ(Slice header)から、時間方向の予測先を表す情報として、「ref_idx_l0_active(ref_idx_l1_active)を取得し、時間方向の予測を行う。なお、デコード後のピクチャは、スライスヘッダ(slice header)から得られる「short_term_ref_pic_set_idx」、あるいは「it_idx_sps」が指標とされて、他のピクチャによる被参照として処理される。
 図34のフローチャートは、受信装置200におけるデコーダ処理能力を考慮したビデオストリーム毎のデコード処理手順の一例を示している。受信装置200は、ステップST61で処理を開始し、ステップST62において、HEVCデスクリプタ(HEVC_descriptor)を読む。
 次に、受信装置200は、ステップST63において、HEVCデスクリプタに“level_constrained_flag”が存在するか判断する。存在するとき、受信装置200は、ステップST64において、“level_constrained_flag”が“1”であるか判断する。“1”であるとき、受信装置200は、ステップST65の処理に進む。
 このステップST65において、受信装置200は、該当するPIDのPESパケット(PES packet)のタイムスタンプを参照し、ペイロード(payload)部分のビデオストリームのSPSあるいはESPSを読む。そして、受信装置200は、ステップST66において、SPSあるいはESPSの要素である「general_level_idc」を読む。
 次に、受信装置200は、ステップST67において、「general_level_idc」がデコーダ処理能力範囲内か判断する。デコーダ処理能力範囲内であるとき、受信装置200は、ステップST68において、該当するストリームあるいはサブストリームをデコードする。その後に、受信装置200は、ステップST69において、処理を終了する。一方、ステップST67でデコーダ処理能力範囲内でないとき、受信装置200は、直ちにステップST69に進み、処理を終了する。
 また、ステップST63で“level_constrained_flag”が存在しないとき、あるいはステップST64で“level_constrained_flag”が“0”であるとき、受信装置200は、ステップST70の処理に移る。このステップST70において、受信装置200は、該当するPIDのPESパケット(PES packet)のタイムスタンプを参照し、ペイロード(payload)部分のビデオストリームのSPSを読む。一方、該当するビデオストリームにSPSが存在しない場合は、temporal_layer が下位のピクチャ(Picture)を含むサブストリームのSPSを参照する。
 次に、受信装置200は、ステップST71において、SPSの要素である「general_level_idc」を読む。そして、受信装置200は、ステップST72において、「general_level_idc」がデコーダ処理能力範囲内か判断する。デコーダ処理能力範囲内であるとき、受信装置200は、ステップST73の処理に移る。
 一方、デコーダ処理能力範囲内でないとき、受信装置200は、ステップST74において、SPSの要素の「Sublayer_level_idc」をチェックする。そして、受信装置200は、ステップST75において、「Sublayer_level_idc」がデコーダ処理能力範囲内である「Sublayer」が存在するか判断する。存在しないとき、受信装置200は、直ちにステップST69に進み、処理を終了する。一方、存在するとき、受信装置200は、ステップST73の処理に移る。
 このステップST73において、受信装置200は、ストリームの全体、あるいは該当するサブレイヤ(Sublayer)部分を、temporal_id値を参照してデコードする。その後、受信装置200は、ステップST69において、処理を終了する。
 図27に戻って、非圧縮データバッファ(dpb)206は、デコーダ205でデコードされた各ピクチャの画像データを、一時的に蓄積する。ポスト処理部207は、非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データに対して、そのフレームレートを、表示能力に合わせる処理を行う。この場合、CPU201から、PTS(Presentation Time stamp)に基づいて、表示タイミングが与えられる。
 例えば、デコード後の各ピクチャの画像データのフレームレートが120fpsであって、表示能力が120fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データをそのままディスプレイに送る。また、例えば、デコード後の各ピクチャの画像データのフレームレートが120fpsであって、表示能力が60fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データに対して時間方向解像度が1/2倍となるようにサブサンプル処理を施し、60fpsの画像データとしてディスプレイに送る。
 また、例えば、デコード後の各ピクチャの画像データのフレームレートが60fpsであって、表示能力が120fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データに対して時間方向解像度が2倍となるように補間処理を施し、120fpsの画像データとしてディスプレイに送る。また、例えば、デコード後の各ピクチャの画像データのフレームレートが60fpsであって、表示能力が60fpsであるとき、ポスト処理部207は、デコード後の各ピクチャの画像データをそのままディスプレイに送る。
 図35は、ポスト処理部207の構成例を示している。この例は、上述したようにデコード後の各ピクチャの画像データのフレームレートが120fpsあるいは60fpsであって、表示能力が120fpsあるいは60fpsである場合に対処可能とした例である。
 ポスト処理部207は、補間部271と、サブサンプル部272と、スイッチ部273を有している。非圧縮データバッファ206からのデコード後の各ピクチャの画像データは、直接スイッチ部273に入力され、あるいは補間部271で2倍のフレームレートとされた後にスイッチ部273に入力され、あるいはサブサンプル部272で1/2倍のフレームレートとされた後にスイッチ部273に入力される。
 スイッチ部273には、CPU201から、選択情報が供給される。この選択情報は、CPU201が、表示能力を参照して自動的に、あるいは、ユーザ操作に応じて発生する。スイッチ部273は、選択情報に基づいて、入力のいずれかを選択的に出力とする。これにより、非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データのフレームレートは、表示能力に合ったものとされる。
 図36は、デコーダ205、ポスト処理部207の処理フローの一例を示している。デコーダ205、ポスト処理部207は、ステップST51において、処理を開始し、その後に、ステップST52の処理に移る。このステップST52において、デコーダ205は、圧縮データバッファ(cpb)204に蓄積されているデコード対象のビデオストリームを読み出し、temporal_idに基づいて、CPU201からデコード対象として指定される階層のピクチャを選択する。
 次に、デコーダ205は、ステップST53において、選択された各ピクチャの符号化画像データをデコードタイミングで順次デコードし、デコード後の各ピクチャの画像データを非圧縮データバッファ(dpb)206に転送して、一時的に蓄積する。次に、ポスト処理部207は、ステップST54において、非圧縮データバッファ(dpb)206から、表示タイミングで各ピクチャの画像データを読み出す。
 次に、ポスト処理部207は、読み出された各ピクチャの画像データのフレームレートが表示能力にあっているか否かを判断する。フレームレートが表示能力に合っていないとき、ポスト処理部207は、ステップST56において、フレームレートを表示能力に合わせて、ディスプレイに送り、その後、ステップST57において、処理を終了する。一方、フレームレートが表示能力に合っているとき、ポスト処理部207は、ステップST58において、フレームレートそのままでディスプレイに送り、その後、ステップST57において、処理を終了する。
 図27に示す受信装置200の動作を簡単に説明する。受信部202では、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203に送られる。デマルチプレクサ203では、トランスポートストリームTSから、デコード能力(Decoder temporal layer capability)に応じた階層組のピクチャの符号化画像データが選択的に取り出され、圧縮データバッファ(cpb)204に送られ、一時的に蓄積される。
 デコーダ205では、圧縮データバッファ204に蓄積されているビデオストリームから、デコードすべき階層として指定された階層のピクチャの符号化画像データが取り出される。そして、デコーダ205では、取り出された各ピクチャの符号化画像データが、それぞれ、そのピクチャのデコードタイミングでデコードされ、非圧縮データバッファ(dpb)206に送られ、一時的に蓄積される。この場合、各ピクチャの符号化画像データがデコードされる際に、必要に応じて、非圧縮データバッファ206から被参照ピクチャの画像データが読み出されて利用される。
 非圧縮データバッファ(dpb)206から表示タイミングで順次読み出された各ピクチャの画像データは、ポスト処理部207に送られる。ポスト処理部207では、各ピクチャの画像データに対して、そのフレームレートを、表示能力に合わせるための補間あるいはサブサンプルが行われる。このポスト処理部207で処理された各ピクチャの画像データは、ディスプレイに供給され、その各ピクチャの画像データによる動画像の表示が行われる。
 以上説明したように、図1に示す送受信システム10においては、送信側において、階層毎にエンコード間隔が算出され、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイムスタンプが各階層のピクチャの符号化画像データに付加されるものである。そのため、例えば、受信側においてデコード能力に応じた良好なデコード処理が可能となる。例えば、デコード能力が低い場合であっても、圧縮データバッファ204のバッファ破たんを招くことなく、低階層のピクチャの符号化画像データを選択的にデコードすることが可能となる。
 また、図1に示す送受信システム10においては、送信側において、トランスポートストリームTSのレイヤに、スケーラビリティ・エクステンション・デスクリプタ(scalability_extension_descriptor)等が挿入されるものである。そのため、例えば、受信側では、階層符号化における階層情報、トランスポートストリームTSに含まれるビデオストリームの構成情報などを容易に把握でき、適切なデコード処理を行うことが可能となる。
 また、図1に示す送受信システム10においては、送信部において、複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの優先度ほど高く設定されるものである。例えば、2分割の場合、「transport_priority」の1ビットフィールドは、ベースレイヤ、つまり低階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合は“1”に設定され、ノンベースレイヤ、つまり高階層側の階層組のピクチャの符号化画像データをコンテナするTSパケットの場合は“0”に設定される。そのため、例えば、受信側では、このTSパケットの優先度に基づいて、自身のデコード能力に応じた階層組のピクチャの符号化画像データのみを圧縮データバッファ(cpb)204に取り込むことが可能となり、バッファ破たんを回避することが容易となる。
 また、図1に示す送受信システム10においては、送信側において、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値が挿入され、その値は自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされるものである。そのため、ビデオストリームの受信側では、各サブストリームのデコードが可能か否かの判断を、挿入されているビットストリームのレベル指定値に基づいて容易に判断することが可能となる。
 また、図1に示す送受信システム10においては、送信側において、トランスポートストリームTSのレイヤ(コンテナのレイヤ)に、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることを示すフラグ情報(level_constrained_flag)が挿入されるものである。そのため、受信側では、このフラグ情報により、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることがわかり、sublayer_level_idcを用いた確認処理が不要となり、デコード処理の効率化を図ることが可能となる
 <2.変形例>
 なお、上述実施の形態においては、送信装置100と受信装置200からなる送受信システム10を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、受信装置200の部分が、例えば、(HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックスおよびモニタの構成などであってもよい。
 また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG-2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。
 また、本技術は、以下のような構成を取ることもできる。
 (1)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
 上記画像符号化部は、
 高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を上記各階層のピクチャの符号化画像データに付加する
 送信装置。
 (2)上記画像符号化部は、
 上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成し、
 上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する
 前記(1)に記載の送信装置。
 (3)上記識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる
 前記(2)に記載の送信装置。
 (4)上記画像符号化部は、
 上記複数の階層を2以上の所定数の階層組に分割し、
 上記各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成する
 前記(1)に記載の送信装置。
 (5)上記画像符号化部は、
 上記各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する
 前記(4)に記載の送信装置。
 (6)上記識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる
 前記(5)に記載の送信装置。
 (7)上記画像符号化部は、
 上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成し、
 上記コンテナのレイヤに、該コンテナに含まれるビデオストリームの構成情報を挿入する情報挿入部をさらに備える
 前記(1)から(6)のいずれかに記載の送信装置。
 (8)上記送信部は、
 上記複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定する
 前記(1)から(8)のいずれかに記載の送信装置。
 (9)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化ステップと、
 送信部により上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信ステップとを有し、
 上記画像符号化ステップでは、
 高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を上記各階層のピクチャの符号化画像データに付加する
 送信方法。
 (10)動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
 上記各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が付加されており、
 上記受信されたコンテナに含まれる上記ビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データを、上記デコードタイミング情報が示すデコードタイミングでデコードして、上記所定階層以下の階層のピクチャの画像データを得る処理部をさらに備える
 受信装置。
 (11)上記受信されたコンテナには、上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームが含まれており、
 上記複数の階層は2以上の所定数の階層組に分割され、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定されており、
 上記処理部は、デコード能力に応じて選択された優先度のパケットでコンテナされた所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする
 前記(10)に記載の受信装置。
 (12)上記受信されたコンテナには、上記複数の階層が分割されて得られた2以上の所定数の階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームが含まれており、
 上記処理部は、デコード能力に応じて選択されたビデオストリームが持つ所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする
 前記(10)に記載の受信装置。
 (13)上記処理部で得られる各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理部をさらに備える
 前記(10)から(12)のいずれかに記載の受信装置。
 (14)受信部により動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
 上記各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が付加されており、
 上記受信されたコンテナに含まれる上記ビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データを、上記デコードタイミング情報が示すデコードタイミングでデコードして、上記所定階層以下の階層のピクチャの画像データを得る処理ステップをさらに有する
 受信方法。
 (15)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
 上記画像符号化部は、
 上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成し、
 上記コンテナのレイヤに、該コンテナに含まれるビデオストリームの構成情報を挿入する情報挿入部をさらに備える
 送信装置。
 (16)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
 上記送信部は、
 上記複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定する
 送信装置。
 (17)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
 上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
 上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる
 符号化装置。
 (18)上記画像符号化部は、
 上記各階層組に対応したサブストリームのそれぞれを含む上記所定数のビデオストリームを生成する、または上記各階層組に対応したサブストリームの全てを含む単一のビデオストリームを生成する
 前記(17)に記載の符号化装置。
 (19)画像符号化部により、動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化ステップを有し、
 上記画像符号化ステップでは、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
 上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる
 符号化方法。
 (20)動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
 上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
 上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされ、
 上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記コンテナのレイヤに、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることを示すフラグ情報を挿入する情報挿入部をさらに備える
 送信装置。
 本技術の主な特徴は、階層毎にエンコード間隔を算出し、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイムスタンプが各階層のピクチャの符号化画像データに付加することで、受信側においてデコード性能に応じた良好なデコード処理を可能としたことである(図9参照)。また、本技術の主な特徴は、複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定することで、受信側において優先度をもとに自身のデコード能力に応じた階層組のピクチャの符号化画像データのみをバッファに取り込み、バッファ破綻を回避可能にしたことである(図19参照)。
 10・・・送受信システム
 100・・・送信装置
 101・・・CPU
 102・・・エンコーダ
 103・・・圧縮データバッファ(cpb)
 104・・・マルチプレクサ
 105・・・送信部
 121・・・テンポラルID発生部
 122・・・バッファ遅延制御部
 123・・・HRD設定部
 124・・・パラメータセット/SEIエンコード部
 125・・・スライスエンコード部
 126・・・NALパケット化部
 141・・・TSプライオリティ発生部
 142・・・セクションコーディング部
 143-1~143-N・・・PESパケット化部
 144・・・トランスポートパケット化部
 200・・・受信装置
 201・・・CPU
 202・・・受信部
 203・・・デマルチプレクサ
 204・・・圧縮データバッファ(cpb)
 205・・・デコーダ
 206・・・非圧縮データバッファ(dpb)
 207・・・ポスト処理部
 231・・・PCR抽出部
 232・・・タイムスタンプ抽出部
 233・・・セクション抽出部
 234・・・TSプライオリティ抽出部
 235・・・PESペイロード抽出部
 236・・・ピクチャ選択部
 251・・・テンポラルID解析部
 252・・・対象階層選択部
 253・・・ストリーム統合部
 254・・・デコード部
 271・・・補間部
 272・・・サブサンプル部
 273・・・スイッチ部

Claims (20)

  1.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
     上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
     上記画像符号化部は、
     高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を上記各階層のピクチャの符号化画像データに付加する
     送信装置。
  2.  上記画像符号化部は、
     上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成し、
     上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する
     請求項1に記載の送信装置。
  3.  上記識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる
     請求項2に記載の送信装置。
  4.  上記画像符号化部は、
     上記複数の階層を2以上の所定数の階層組に分割し、
     上記各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成する
     請求項1に記載の送信装置。
  5.  上記画像符号化部は、
     上記各階層組のピクチャの符号化画像データに、所属階層組を識別するための識別情報を付加する
     請求項4に記載の送信装置。
  6.  上記識別情報は、ビットストリームのレベル指定値であり、高階層側の階層組ほど高い値とされる
     請求項5に記載の送信装置。
  7.  上記画像符号化部は、
     上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成し、
     上記コンテナのレイヤに、該コンテナに含まれるビデオストリームの構成情報を挿入する情報挿入部をさらに備える
     請求項1に記載の送信装置。
  8.  上記送信部は、
     上記複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定する
     請求項1に記載の送信装置。
  9.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化ステップと、
     送信部により上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信ステップとを有し、
     上記画像符号化ステップでは、
     高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報を上記各階層のピクチャの符号化画像データに付加する
     送信方法。
  10.  動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
     上記各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が付加されており、
     上記受信されたコンテナに含まれる上記ビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データを、上記デコードタイミング情報が示すデコードタイミングでデコードして、上記所定階層以下の階層のピクチャの画像データを得る処理部をさらに備える
     受信装置。
  11.  上記受信されたコンテナには、上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームが含まれており、
     上記複数の階層は2以上の所定数の階層組に分割され、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定されており、
     上記処理部は、デコード能力に応じて選択された優先度のパケットでコンテナされた所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする
     請求項10に記載の受信装置。
  12.  上記受信されたコンテナには、上記複数の階層が分割されて得られた2以上の所定数の階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームが含まれており、
     上記処理部は、デコード能力に応じて選択されたビデオストリームが持つ所定階層組のピクチャの符号化画像データをバッファに取り込んでデコードする
     請求項10に記載の受信装置。
  13.  上記処理部で得られる各ピクチャの画像データのフレームレートを表示能力に合わせるポスト処理部をさらに備える
     請求項10に記載の受信装置。
  14.  受信部により動画像データを構成する各ピクチャの画像データが複数の階層に分類されて符号化されることで得られた各階層のピクチャの符号化画像データを持つビデオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
     上記各階層のピクチャの符号化画像データには、高階層ほどピクチャ毎の符号化画像データのデコード時間間隔が小さくなるように設定されたデコードタイミング情報が付加されており、
     上記受信されたコンテナに含まれる上記ビデオストリームから選択された所定階層以下の階層のピクチャの符号化画像データを、上記デコードタイミング情報が示すデコードタイミングでデコードして、上記所定階層以下の階層のピクチャの画像データを得る処理ステップをさらに有する
     受信方法。
  15.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
     上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
     上記画像符号化部は、
     上記各階層のピクチャの符号化画像データを持つ単一のビデオストリームを生成するか、あるいは上記複数の階層を2以上の所定数の階層組に分割し、各階層組のピクチャの符号化画像データをそれぞれ持つ上記所定数のビデオストリームを生成し、
     上記コンテナのレイヤに、該コンテナに含まれるビデオストリームの構成情報を挿入する情報挿入部をさらに備える
     送信装置。
  16.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部と、
     上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部とを備え、
     上記送信部は、
     上記複数の階層を2以上の所定数の階層組に分割し、低階層側の階層組のピクチャの符号化画像データをコンテナするパケットの優先度ほど高く設定する
     送信装置。
  17.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
     上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
     上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる
     符号化装置。
  18.  上記画像符号化部は、
     上記各階層組に対応したサブストリームのそれぞれを含む上記所定数のビデオストリームを生成する、または上記各階層組に対応したサブストリームの全てを含む単一のビデオストリームを生成する
     請求項17に記載の符号化装置。
  19.  画像符号化部により、動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化ステップを有し、
     上記画像符号化ステップでは、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
     上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、自己の階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされる
     符号化方法。
  20.  動画像データを構成する各ピクチャの画像データを複数の階層に分類し、該分類された各階層のピクチャの画像データを符号化し、該符号化された各階層のピクチャの画像データを持つビデオストリームを生成する画像符号化部を備え、
     上記画像符号化部は、上記複数の階層を2以上の所定数の階層組に分割し、各階層組に対応したサブストリームのそれぞれにビットストリームのレベル指定値を挿入し、
     上記各階層組に対応したサブストリームのそれぞれに挿入されるビットストリームのレベル指定値は、当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値とされ、
     上記生成されたビデオストリームを含む所定フォーマットのコンテナを送信する送信部と、
     上記コンテナのレイヤに、各階層組のサブストリームに挿入されるビットストリームのレベル指定値が当該階層組以下の階層組に含まれる全ての階層のピクチャを含むレベル値であることを示すフラグ情報を挿入する情報挿入部をさらに備える
     送信装置。
PCT/JP2014/068643 2013-08-09 2014-07-11 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法 WO2015019798A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP23218712.0A EP4354889A3 (en) 2013-08-09 2014-07-11 Transmission device, transmission method, reception device, reception method, encoding device, and encoding method
EP14835176.0A EP3032834B1 (en) 2013-08-09 2014-07-11 Transmission apparatus, transmission method, reception apparatus, reception method, encoding apparatus, and encoding method
RU2015153006A RU2674890C2 (ru) 2013-08-09 2014-07-11 Устройство передачи, способ передачи, устройство приема, способ приема, устройство кодирования и способ кодирования
BR112015030897-0A BR112015030897B1 (pt) 2013-08-09 2014-07-11 Dispositivo e método de transmissão, e, dispositivo e método de recepção
US14/898,283 US10306296B2 (en) 2013-08-09 2014-07-11 Device and method for transmission and reception for performing hierarchical encoding of image data
EP19173244.5A EP3585060A3 (en) 2013-08-09 2014-07-11 Reception device, reception method for temporally layered coded video
CN201480034649.3A CN105340283B (zh) 2013-08-09 2014-07-11 发送装置、发送方法、接收装置、接收方法、编码装置以及编码方法
US16/366,022 US11368744B2 (en) 2013-08-09 2019-03-27 Device and associated method for using layer description and decoding syntax in multi-layer video

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-167168 2013-08-09
JP2013167168 2013-08-09
JP2014007306A JP5789004B2 (ja) 2013-08-09 2014-01-17 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法
JP2014-007306 2014-01-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/898,283 A-371-Of-International US10306296B2 (en) 2013-08-09 2014-07-11 Device and method for transmission and reception for performing hierarchical encoding of image data
US16/366,022 Continuation US11368744B2 (en) 2013-08-09 2019-03-27 Device and associated method for using layer description and decoding syntax in multi-layer video

Publications (1)

Publication Number Publication Date
WO2015019798A1 true WO2015019798A1 (ja) 2015-02-12

Family

ID=52461137

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068643 WO2015019798A1 (ja) 2013-08-09 2014-07-11 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法

Country Status (7)

Country Link
US (2) US10306296B2 (ja)
EP (3) EP3032834B1 (ja)
JP (1) JP5789004B2 (ja)
CN (1) CN105340283B (ja)
BR (1) BR112015030897B1 (ja)
RU (1) RU2674890C2 (ja)
WO (1) WO2015019798A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10284858B2 (en) * 2013-10-15 2019-05-07 Qualcomm Incorporated Support of multi-mode extraction for multi-layer video codecs
JP5886341B2 (ja) 2014-03-07 2016-03-16 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10205949B2 (en) * 2014-05-21 2019-02-12 Arris Enterprises Llc Signaling for addition or removal of layers in scalable video
US9686074B2 (en) * 2014-10-09 2017-06-20 Xerox Corporation Methods and systems of securely storing documents on a mobile device
BR112017017792A2 (ja) 2015-02-27 2018-04-10 Sony Corporation A sending set, a transmission method, a receiving set, and a receiving method
EP3343927A4 (en) * 2015-08-25 2019-03-13 Sony Corporation TRANSMISSION APPARATUS, TRANSMISSION METHOD, RECEIVING APPARATUS, AND RECEIVING METHOD
JP5976188B2 (ja) * 2015-11-30 2016-08-23 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR20180109889A (ko) * 2016-02-09 2018-10-08 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP6969559B2 (ja) * 2016-08-22 2021-11-24 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US10491964B2 (en) * 2017-01-23 2019-11-26 Cisco Technology, Inc. Assisted acceleration for video streaming clients
CN109151612B (zh) 2017-06-27 2020-10-16 华为技术有限公司 一种视频传输方法、设备及系统
CN107566837B (zh) * 2017-08-30 2019-05-07 苏州科达科技股份有限公司 视频的时间标记方法及系统
JP7067367B2 (ja) * 2018-08-24 2022-05-16 日本電信電話株式会社 映像送信装置及び映像送信方法
KR20220024007A (ko) * 2019-06-18 2022-03-03 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법, 및 복호 방법
US11438627B2 (en) * 2020-12-22 2022-09-06 GM Global Technology Operations LLC Rate adaptive encoding decoding scheme for prioritized segmented data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006515132A (ja) * 2003-03-03 2006-05-18 ノキア コーポレイション ブロードバンド伝送で搬送されるトランスポートストリーム用の階層的モードを指示する方法、システムおよびネットワークエンティティ
WO2012023281A1 (ja) * 2010-08-17 2012-02-23 パナソニック株式会社 動画像復号方法、動画像符号化方法、動画像復号装置、及び、動画像符号化装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3824678B2 (ja) * 1995-05-09 2006-09-20 株式会社ルネサステクノロジ 画像復号表示装置
TW527832B (en) * 2000-04-20 2003-04-11 Matsushita Electric Ind Co Ltd Video encoding apparatus that adjusts code amount by skipping encoding of image data
JP2002010251A (ja) * 2000-06-19 2002-01-11 Matsushita Electric Ind Co Ltd 映像信号符号化装置および映像信号復号化装置
US20020191625A1 (en) * 2001-05-25 2002-12-19 Patrick Kelly Table-based correlation of base and enhancement layer frames
JP3843101B2 (ja) * 2002-03-04 2006-11-08 富士通株式会社 階層符号化データ配信装置および方法
JP4281309B2 (ja) 2002-08-23 2009-06-17 ソニー株式会社 画像処理装置、画像処理方法、および画像フレームデータ記憶媒体、並びにコンピュータ・プログラム
EP3554076B1 (en) * 2003-07-24 2020-11-25 Nippon Telegraph And Telephone Corporation Image decoding method with hierarchical reference picture selection
EP1653731A4 (en) 2003-07-25 2008-06-04 Matsushita Electric Ind Co Ltd BROADCAST CHANNEL modification DETECTION DEVICE
US7369610B2 (en) * 2003-12-01 2008-05-06 Microsoft Corporation Enhancement layer switching for scalable video coding
JP2005192013A (ja) 2003-12-26 2005-07-14 Sharp Corp 圧縮動画データデコード装置および圧縮動画データデコードプログラム
US20050254575A1 (en) 2004-05-12 2005-11-17 Nokia Corporation Multiple interoperability points for scalable media coding and transmission
US7778474B2 (en) * 2004-10-06 2010-08-17 Nippon Telegraph And Telephone Corporation Scalable encoding method and apparatus, scalable decoding method and apparatus, programs therefor, and storage media for storing the programs
US8245264B2 (en) * 2006-05-26 2012-08-14 John Toebes Methods and systems to reduce channel selection transition delay in a digital network
JP2008109637A (ja) * 2006-09-25 2008-05-08 Toshiba Corp 動画像符号化装置及びその方法
CN100581257C (zh) * 2006-12-19 2010-01-13 浙江工业大学 基于视频帧拆分的实时流媒体传输方法及系统
JP2008167061A (ja) 2006-12-27 2008-07-17 Toshiba Corp 符号化装置及び符号化方法
AU2008206744B2 (en) * 2007-01-18 2011-09-22 Nokia Technologies Oy Carriage of SEI messages in RTP payload format
WO2009120047A2 (ko) * 2008-03-28 2009-10-01 한국전자통신연구원 셀룰러 시스템에서 가변 품질 서비스를 위한 계층적 전송 장치 및 방법
US20110110436A1 (en) * 2008-04-25 2011-05-12 Thomas Schierl Flexible Sub-Stream Referencing Within a Transport Data Stream
JP5335294B2 (ja) 2008-06-16 2013-11-06 キヤノン株式会社 動画像処理システム、動画像処理方法、プログラム及び記憶媒体
US8509434B2 (en) * 2008-06-20 2013-08-13 Korean Broadcasting System Method and apparatus for protecting scalable video coding contents
CN102150432A (zh) * 2008-09-17 2011-08-10 夏普株式会社 可分级视频流解码装置以及可分级视频流生成装置
JP5199196B2 (ja) 2009-08-04 2013-05-15 日本電信電話株式会社 動画像復号方法,動画像復号装置および動画像復号プログラム
CN102598657B (zh) 2009-10-27 2015-03-25 佳能株式会社 视频回放设备和用于控制视频回放设备的方法
JP5577823B2 (ja) * 2010-04-27 2014-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2012100162A (ja) 2010-11-04 2012-05-24 Toshiba Corp 画像デコード装置及びデコードプログラム
CN103416003B (zh) * 2011-01-14 2015-05-27 维德约股份有限公司 改进的nal单元头部
US20120183055A1 (en) * 2011-01-18 2012-07-19 Vidyo, Inc. Temporal Prediction Structure Aware Temporal Filter
EP2525587B1 (en) * 2011-05-17 2017-07-05 Alcatel Lucent Method for streaming video content, node in a network for monitoring video content streaming
JP5995111B2 (ja) * 2011-10-19 2016-09-21 サン パテント トラスト 画像符号化方法及び画像符号化装置
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006515132A (ja) * 2003-03-03 2006-05-18 ノキア コーポレイション ブロードバンド伝送で搬送されるトランスポートストリーム用の階層的モードを指示する方法、システムおよびネットワークエンティティ
WO2012023281A1 (ja) * 2010-08-17 2012-02-23 パナソニック株式会社 動画像復号方法、動画像符号化方法、動画像復号装置、及び、動画像符号化装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GARY J. SULLIVAN; JENS-RAINER OHM; WOO-JIN HAN; THOMAS WIEGAND: "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECNOROGY, vol. 22, no. 12, December 2012 (2012-12-01), pages 1649 - 1668
See also references of EP3032834A4

Also Published As

Publication number Publication date
JP5789004B2 (ja) 2015-10-07
BR112015030897B1 (pt) 2023-02-23
RU2015153006A (ru) 2017-06-15
EP4354889A3 (en) 2024-04-24
US20160142762A1 (en) 2016-05-19
EP3032834B1 (en) 2019-09-04
US20190222887A1 (en) 2019-07-18
EP3585060A2 (en) 2019-12-25
JP2015057875A (ja) 2015-03-26
RU2674890C2 (ru) 2018-12-13
US11368744B2 (en) 2022-06-21
BR112015030897A2 (ja) 2017-07-25
CN105340283A (zh) 2016-02-17
EP4354889A2 (en) 2024-04-17
EP3585060A3 (en) 2020-01-15
CN105340283B (zh) 2019-06-18
RU2015153006A3 (ja) 2018-05-30
EP3032834A4 (en) 2017-05-10
EP3032834A1 (en) 2016-06-15
US10306296B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
JP5789004B2 (ja) 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法
JP6876241B2 (ja) 送受信システムおよびその処理方法
KR102130871B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP5947269B2 (ja) 符号化装置、符号化方法、送信装置および受信装置
WO2015064287A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP7338745B2 (ja) 受信装置
JP5905147B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6508270B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6614275B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP6773205B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6341228B2 (ja) 符号化装置、符号化方法、送信装置、送信方法、受信装置および受信方法
JP5954509B2 (ja) 符号化装置、符号化方法、送信装置および受信装置
JP5954508B2 (ja) 符号化装置、符号化方法、送信装置および受信装置
JP5905148B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP2019062566A (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480034649.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14835176

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015153006

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014835176

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112015030897

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 112015030897

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20151210