KR102366503B1 - 송신 장치, 송신 방법 및 수신 장치 - Google Patents
송신 장치, 송신 방법 및 수신 장치 Download PDFInfo
- Publication number
- KR102366503B1 KR102366503B1 KR1020177000890A KR20177000890A KR102366503B1 KR 102366503 B1 KR102366503 B1 KR 102366503B1 KR 1020177000890 A KR1020177000890 A KR 1020177000890A KR 20177000890 A KR20177000890 A KR 20177000890A KR 102366503 B1 KR102366503 B1 KR 102366503B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- unit
- encoded image
- format
- video stream
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000005540 biological transmission Effects 0.000 title description 49
- 238000003780 insertion Methods 0.000 claims description 7
- 230000037431 insertion Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 description 61
- 239000010410 layer Substances 0.000 description 47
- 238000010586 diagram Methods 0.000 description 17
- 239000011229 interlayer Substances 0.000 description 13
- 238000007726 management method Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234309—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2351—Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving encryption of additional data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4545—Input to filtering algorithms, e.g. filtering a region of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/633—Control signals issued by server directed to the network components or client
- H04N21/6332—Control signals issued by server directed to the network components or client directed to client
- H04N21/6336—Control signals issued by server directed to the network components or client directed to client directed to decoder
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신한다. 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는, 또는, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성한다. 생성된 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신한다. 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입한다.
Description
본 기술은, 송신 장치, 송신 방법 및 수신 장치에 관한 것으로서, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 송신하는 송신 장치 등에 관한 것이다.
종래, 기본 포맷 화상 데이터와 함께 고품질 포맷 화상 데이터를 송신하고, 수신측에 있어서, 기본 포맷 화상 데이터 또는 고품질 포맷 화상 데이터를 선택적으로 사용하는 것이 알려져 있다. 예를 들어, 특허문헌 1에는, 미디어 부호화를 스케일러블로 행하고, 저해상도의 비디오 서비스를 위한 베이스 레이어의 스트림과, 고해상도의 비디오 서비스를 위한 확장 레이어의 스트림을 생성하고, 이들을 포함하는 방송 신호를 송신하는 것이 기재되어 있다. 또한, 고품질 포맷에는, 고해상도 이외에, 고프레임 주파수, 고다이내믹 레인지, 광색 영역, 고비트 길이 등이 있다.
본 기술의 목적은, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신하는 데 있다.
본 기술의 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치에 있다.
본 기술에 있어서, 화상 부호화부에 의해, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림이 생성된다. 예를 들어, 기본 포맷 화상 데이터에 대해서는, 이 기본 포맷 화상 데이터 내의 예측 부호화 처리가 행하여진다. 또한, 고품질 포맷 화상 데이터에 대해서는, 이 고품질 포맷 화상 데이터 내의 예측 부호화 처리 또는 기본 포맷 화상 데이터 또는 다른 고품질 포맷 화상 데이터와의 사이의 예측 부호화 처리가 행하여진다.
송신부에 의해, 화상 부호화부에서 생성된 기본 비디오 스트림 및 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너가 송신된다. 예를 들어, 컨테이너는, 디지털 방송 규격으로 채용되어 있는 트랜스포트 스트림(MPEG-2 TS)이어도 된다. 또한, 예를 들어, 컨테이너는, 인터넷의 배신 등에서 사용되는 MP4, 또는 그 이외의 포맷의 컨테이너여도 된다.
화상 부호화부에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 화상 부호화부는, 식별 정보를 NAL 유닛의 헤더에 삽입하도록 되어도 된다. 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하도록 되어도 된다. 또한, 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하도록 되어도 된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하도록 되어도 된다. 이 경우, 예를 들어, 컨테이너는, MPEG2-TS이며, 정보 삽입부는, 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 확장 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하도록 되어도 된다. 이 경우, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 기본 비디오 스트림 및 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다. 여기서, 기본 비디오 스트림에는, 기본 포맷 화상 데이터의 부호화 화상 데이터가 포함된다. 확장 비디오 스트림에는, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터가 포함된다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 식별 정보는, NAL 유닛의 헤더에 삽입되어 있도록 되어도 된다. 처리부에 의해, 수신된 컨테이너가 갖는 각 비디오 스트림이, 식별 정보와 표시 능력 정보에 기초하여 처리된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에 삽입되어 있는, 대응하는 포맷을 식별하기 위한 식별 정보와, 표시 능력 정보에 기초하여, 수신된 컨테이너가 갖는 확장 비디오 스트림이 처리되는 것이다. 그로 인해, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고, 처리부는, 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하도록 되어도 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치에 있다.
본 기술에 있어서, 화상 부호화부에 의해, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림이 생성된다. 예를 들어, 기본 포맷 화상 데이터에 대해서는, 이 기본 포맷 화상 데이터 내의 예측 부호화 처리가 행하여진다. 또한, 고품질 포맷 화상 데이터에 대해서는, 이 고품질 포맷 화상 데이터 내의 예측 부호화 처리 또는 기본 포맷 화상 데이터 또는 다른 고품질 포맷 화상 데이터와의 사이의 예측 부호화 처리가 행하여진다.
송신부에 의해, 화상 부호화부에서 생성된 비디오 스트림을 포함하는 소정 포맷의 컨테이너가 송신된다. 예를 들어, 컨테이너는, 디지털 방송 규격으로 채용되고 있는 트랜스포트 스트림(MPEG-2 TS)이어도 된다. 또한, 예를 들어, 컨테이너는, 인터넷의 배신 등에서 사용되는 MP4, 또는 그 이외의 포맷의 컨테이너여도 된다.
화상 부호화부에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 화상 부호화부는, 식별 정보를 NAL 유닛의 헤더에 삽입하도록 되어도 된다. 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하도록 되어도 된다. 또한, 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하도록 되어도 된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하도록 되어도 된다. 이 경우, 예를 들어, 컨테이너는, MPEG2-TS이며, 정보 삽입부는, 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하도록 되어도 된다. 이 경우, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 식별 정보는, NAL 유닛의 헤더에 삽입되어 있도록 되어도 된다. 처리부에 의해, 수신된 컨테이너가 갖는 비디오 스트림이, 식별 정보와 표시 능력 정보에 기초하여 처리된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에 삽입되어 있는, 대응하는 포맷을 식별하기 위한 식별 정보와, 표시 능력 정보에 기초하여, 수신된 컨테이너가 갖는 비디오 스트림이 처리되는 것이다. 그로 인해, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고, 처리부는, 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하도록 되어도 된다.
본 기술에 의하면, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신할 수 있다. 또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니며, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은 실시 형태로서의 송수신 시스템의 구성예를 도시하는 블록도이다.
도 2는 송신 장치의 구성예를 도시하는 블록도이다.
도 3은 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 생성하는 화상 데이터 생성부의 구성예를 도시하는 블록도이다.
도 4는 인코드부의 주요부의 구성예를 도시하는 블록도이다.
도 5는 NAL 유닛 헤더의 구조예와, 그 구조예에 있어서의 주요한 파라미터의 내용을 도시하는 도면이다.
도 6은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 7은 스케일러블 익스텐션 디스크립터의 구조예를 도시하는 도면이다.
도 8은 스케일러블 익스텐션 디스크립터의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면이다.
도 9는 NAL 유닛 헤더의 「nuh_layer_id」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 10은 트랜스포트 스트림 TS의 구성예(2 스트림의 경우)를 도시하는 도면이다.
도 11은 트랜스포트 스트림 TS의 구성예(1 스트림의 경우)를 도시하는 도면이다.
도 12는 수신 장치의 구성예를 도시하는 블록도이다.
도 13은 디코드부의 주요부의 구성예를 도시하는 블록도이다.
도 14는 2 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 15는 1 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 16은 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 일례를 도시하는 흐름도이다.
도 17은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 18은 NAL 유닛 헤더의 「nuh_layer_id」, 「nuh_temporal_id_plus1」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 19는 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 다른 일례를 도시하는 흐름도이다.
도 2는 송신 장치의 구성예를 도시하는 블록도이다.
도 3은 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 생성하는 화상 데이터 생성부의 구성예를 도시하는 블록도이다.
도 4는 인코드부의 주요부의 구성예를 도시하는 블록도이다.
도 5는 NAL 유닛 헤더의 구조예와, 그 구조예에 있어서의 주요한 파라미터의 내용을 도시하는 도면이다.
도 6은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 7은 스케일러블 익스텐션 디스크립터의 구조예를 도시하는 도면이다.
도 8은 스케일러블 익스텐션 디스크립터의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면이다.
도 9는 NAL 유닛 헤더의 「nuh_layer_id」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 10은 트랜스포트 스트림 TS의 구성예(2 스트림의 경우)를 도시하는 도면이다.
도 11은 트랜스포트 스트림 TS의 구성예(1 스트림의 경우)를 도시하는 도면이다.
도 12는 수신 장치의 구성예를 도시하는 블록도이다.
도 13은 디코드부의 주요부의 구성예를 도시하는 블록도이다.
도 14는 2 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 15는 1 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 16은 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 일례를 도시하는 흐름도이다.
도 17은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 18은 NAL 유닛 헤더의 「nuh_layer_id」, 「nuh_temporal_id_plus1」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 19는 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 다른 일례를 도시하는 흐름도이다.
이하, 발명을 실시하기 위한 구체적인 내용(이하, 「실시 형태」로 한다)에 대하여 설명한다. 또한, 설명은 이하의 순서로 행한다.
1. 실시 형태
2. 변형예
<1. 실시 형태>
[송수신 시스템]
도 1은, 실시 형태로서의 송수신 시스템(10)의 구성예를 도시하고 있다. 이 송수신 시스템(10)은 송신 장치(100)와, 수신 장치(200)를 갖고 있다. 송신 장치(100)로부터 수신 장치(200)에 컨테이너로서의 트랜스포트 스트림 TS가 방송파 또는 네트워크의 패킷에 실어서 송신된다. 이 실시 형태에 있어서는, (1) 트랜스포트 스트림 TS가 기본 비디오 스트림 및 확장 비디오 스트림의 2개의 비디오 스트림을 갖는 2 스트림 구성인 경우와, (2) 트랜스포트 스트림 TS가 1개의 비디오 스트림을 갖는 1 스트림 구성인 경우의 2가지가 있다.
「2 스트림 구성의 경우」
송신 장치(100)는 컨테이너로서의 트랜스포트 스트림 TS를 방송파 또는 네트워크의 패킷에 실어서 송신한다. 이 트랜스포트 스트림 TS에는, 기본 비디오 스트림과 확장 비디오 스트림의 2개의 비디오 스트림이 포함된다. 기본 비디오 스트림은, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 것이다. 기본 비디오 스트림은, 예를 들어, 기본 포맷 화상 데이터에 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
확장 비디오 스트림은, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 것이다. 이 확장 비디오 스트림은, 소정수의 고품질 화상 데이터에, 각각, 예를 들어, H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 수신측에서는, 이 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다. 이 실시 형태에 있어서, 식별 정보는, NAL 유닛의 헤더에 삽입된다.
컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다. 수신측에서는, 이 정보에 의해, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다. 이 실시 형태에 있어서, 정보는, 프로그램 맵 테이블의 관리 하에 존재하는 확장 비디오 스트림에 대응한 각 비디오 엘리멘터리 스트림 루프 내에 삽입된다.
수신 장치(200)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS는, 상술한 바와 같이, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖고 있다.
소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 상술한 바와 같이, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 수신 장치(200)는 이 식별 정보와 표시 능력 정보에 기초하여, 트랜스포트 스트림 TS에 포함되어 있는 각 비디오 스트림을 처리하고, 표시 능력에 따른 화상 데이터를 취득한다.
「1 스트림 구성의 경우」
송신 장치(100)는 컨테이너로서의 트랜스포트 스트림 TS를 방송파 또는 네트워크의 패킷에 실어서 송신한다. 이 트랜스포트 스트림 TS에는, 1개의 비디오 스트림이 포함된다. 이 비디오 스트림은, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 것이다. 이 비디오 스트림은, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터에, 각각, 예를 들어, H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 기본 포맷 또는 대응하는 고품질 포맷을 식별하기 위한 식별 정보가 삽입된다. 수신측에서는, 이 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다. 이 실시 형태에 있어서, 식별 정보는, NAL 유닛의 헤더에 삽입된다.
컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다. 수신측에서는, 이 정보에 의해, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다. 이 실시 형태에 있어서, 정보는, 프로그램 맵 테이블의 관리 하에 존재하는 비디오 스트림에 대응한 각 비디오 엘리멘터리 스트림 루프 내에 삽입된다.
수신 장치(200)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS는, 상술한 바와 같이, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖고 있다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 상술한 바와 같이, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 수신 장치(200)는 이 식별 정보와 표시 능력 정보에 기초하여, 트랜스포트 스트림 TS에 포함되어 있는 비디오 스트림을 처리하고, 표시 능력에 따른 화상 데이터를 취득한다.
「송신 장치의 구성」
도 2는, 송신 장치(100)의 구성예를 도시하고 있다. 이 송신 장치(100)는 송신 화상 데이터로서, 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 취급한다. 여기서, 기본 포맷 화상 데이터 Vb는, 프레임 주파수가 50Hz인 LDR(Low Dynamic Lange) 화상 데이터이다. 고품질 포맷 화상 데이터 Vh1은, 프레임 주파수가 100Hz인 LDR 화상 데이터이다. LDR 화상 데이터는, 종래의 LDR 화상의 백색 피크의 밝기에 대하여 0%부터 100%의 휘도 범위를 갖는다.
고품질 포맷 화상 데이터 Vh2는, 프레임 주파수가 50Hz인 HDR(High Dynamic Range) 화상 데이터이다. 고품질 포맷 화상 데이터 Vh3는, 프레임 주파수가 100Hz인 HDR 화상 데이터이다. 이 HDR 화상 데이터는, 종래의 LDR 화상의 백색 피크의 밝기를 100%라 하면, 0 내지 100%*N, 예를 들어 0 내지 1000% 또는 그 이상의 범위의 휘도를 가진다.
도 3은, 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 생성하는 화상 데이터 생성부(150)의 구성예를 도시하고 있다. 이 화상 데이터 생성부(150)는 HDR 카메라(151)와, 프레임 레이트 변환부(152)와, 다이내믹 레인지 변환부(153)와, 프레임 레이트 변환부(154)를 갖고 있다.
HDR 카메라(151)는 피사체를 촬상하고, 프레임 주파수가 100Hz인 HDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh3를 출력한다. 프레임 레이트 변환부(152)는 HDR 카메라(151)로부터 출력되는 고품질 포맷 화상 데이터 Vh3에 대하여 프레임 주파수를 100Hz로부터 50Hz로 변환하는 처리를 행하여, 프레임 주파수가 50Hz인 HDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh2를 출력한다.
다이내믹 레인지 변환부(153)는 HDR 카메라(151)로부터 출력되는 고품질 포맷 화상 데이터 Vh3에 대하여 HDR로부터 LDR로 변환하는 처리를 행하여, 프레임 주파수가 100Hz인 LDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh1을 출력한다. 프레임 레이트 변환부(154)는 다이내믹 레인지 변환부(153)로부터 출력되는 고품질 포맷 화상 데이터 Vh1에 대하여 프레임 주파수를 100Hz로부터 50Hz로 변환하는 처리를 행하여, 프레임 주파수가 50Hz인 LDR 화상 데이터, 즉 기본 포맷 화상 데이터 Vb를 출력한다.
도 2로 돌아가서, 송신 장치(100)는 제어부(101)와, LDR 광전 변환부(102, 103)와, HDR 광전 변환부(104, 105)와, 비디오 인코더(106)와, 시스템 인코더(107)와, 송신부(108)를 갖고 있다. 제어부(101)는 CPU(Central Processing Unit)를 구비하여 구성되고, 제어 프로그램에 기초하여, 송신 장치(100)의 각 부의 동작을 제어한다.
LDR 광전 변환부(102)는 기본 포맷 화상 데이터 Vb에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)을 적용하여, 전송용의 기본 포맷 화상 데이터 Vb´를 얻는다. LDR 광전 변환부(103)는 고품질 포맷 화상 데이터 Vh1에 대하여 LDR 화상용의 광전 변환 특성을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh1´를 얻는다.
HDR 광전 변환부(104)는 고품질 포맷 화상 데이터 Vh2에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh2´를 얻는다. HDR 광전 변환부(105)는 고품질 포맷 화상 데이터 Vh3에 대하여 HDR 화상용의 광전 변환 특성을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh3´를 얻는다.
비디오 인코더(106)는 4개의 인코드부(106-0, 106-1, 106-2, 106-3)를 갖는다. 인코드부(106-0)는, 전송용의 기본 포맷 화상 데이터 Vb´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Cb를 얻는다. 이 경우, 인코드부(106-0)는, 화상 데이터 Vb´ 내의 예측을 행한다.
인코드부(106-1)는, 전송용의 고품질 포맷 화상 데이터 Vh1´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch1을 얻는다. 이 경우, 인코드부(106-1)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh1´ 내의 예측, 또는 화상 데이터 Vb´와의 사이의 예측을, 선택적으로 행한다.
인코드부(106-2)는, 전송용의 고품질 포맷 화상 데이터 Vh2´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch2를 얻는다. 이 경우, 인코드부(106-2)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh2´ 내의 예측, 또는 화상 데이터 Vb´와의 사이의 예측을, 선택적으로 행한다.
인코드부(106-3)는, 전송용의 고품질 포맷 화상 데이터 Vh3´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch3를 얻는다. 이 경우, 인코드부(106-3)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh3´ 내의 예측, 또는 화상 데이터 Vh2´와의 사이의 예측을, 선택적으로 행한다.
도 4는, 인코드부(160)의 주요부의 구성예를 도시하고 있다. 이 인코드부(160)는 인코드부(106-1, 106-2, 106-3)에 적용할 수 있는 것이다. 이 인코드부(160)는 레이어 내 예측부(161)와, 레이어 간 예측부(162)와, 예측 조정부(163)와, 선택부(164)와, 인코드 기능부(165)를 갖고 있다.
레이어 내 예측부(161)는 부호화 대상의 화상 데이터 V1에 대하여 이 화상 데이터 V1 내에서의 예측(레이어 내 예측)을 행하여 예측 잔차 데이터를 얻는다. 레이어 간 예측부(162)는 부호화 대상의 화상 데이터 V1에 대하여 참조 대상의 화상 데이터 V2와의 사이에서의 예측(레이어 간 예측)을 행하여 예측 잔차 데이터를 얻는다.
예측 조정부(163)는 레이어 간 예측부(162)에 있어서의 레이어 간 예측을 효율적으로 행하기 위해서, 화상 데이터 V1의, 화상 데이터 V2에 대한 스케일러블 확장의 타입에 따라, 이하의 처리를 행한다. 다이내믹 레인지 확장의 경우에는, LDR로부터 HDR로 변환하기 위한 레벨 조정을 행한다. 공간 스케일러블 확장의 경우에는, 다른 레이어의 블록을 소정의 사이즈로 스케일링 처리를 실시한 것을 대상으로 한다. 프레임 레이트 확장의 경우에는, 바이패스한다. 색 영역 확장의 경우에는, 휘도·색차 각각에 대하여 맵핑을 행한다. 비트 길이 확장의 경우에는, 화소의 MSB를 정렬시키는 변환을 행한다.
예를 들어, 인코드부(106-1)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh1´(100Hz, LDR)이며, 화상 데이터 V2는 기본 포맷 화상 데이터 Vb´(50Hz, LDR)이며, 스케일러블 확장의 타입은 프레임 레이트 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´가 그대로 바이패스된다.
또한, 예를 들어, 인코드부(106-2)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh2´(50Hz, HDR)이며, 화상 데이터 V2는 기본 포맷 화상 데이터 Vb´(50Hz, LDR)이며, 스케일러블 확장의 타입은 다이내믹 레인지 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´에 대하여 LDR로부터 HDR로 변환하기 위한 레벨 조정이 행하여진다. 또한, 레벨 조정은, 다이내믹 레인지 변환부(153)로부터 공급되는 정보를 바탕으로 행하여져도 된다.
또한, 예를 들어, 인코드부(106-3)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh3´(100Hz, HDR)이며, 화상 데이터 V2는 고품질 포맷 화상 데이터 Vh2´(50Hz, HDR)이며, 스케일러블 확장의 타입은 프레임 레이트 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´가 그대로 바이패스된다.
선택부(164)는 부호화 블록마다, 레이어 내 예측부(161)에서 얻어지는 예측 잔차 데이터, 또는 레이어 간 예측부(162)에서 얻어지는 예측 잔차 데이터를 선택적으로 취출하여, 인코드 기능부(165)로 보낸다. 이 경우, 선택부(164)에서는, 예를 들어, 예측 잔차가 작은 쪽이 취출된다. 인코드 기능부(165)는 선택부(164)로부터 취출된 예측 잔차 데이터에 대하여 변환 부호화, 양자화, 엔트로피 부호화 등의 인코드 처리를 행하여, 부호화 화상 데이터 CV를 얻는다.
도 2로 돌아가서, 비디오 인코더(106)는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3 각각에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입한다. 비디오 인코더(106)는 이 식별 정보를, 예를 들어, NAL 유닛의 헤더에 삽입한다.
도 5의 (a)는 NAL 유닛 헤더의 구조예(Syntax)를 도시하고, 도 5의 (b)는 그 구조예에 있어서의 주요한 파라미터의 내용(Semantics)을 도시하고 있다. 「forbidden_zero_bit」의 1비트 필드는, 0이 필수이다. 「nal_unit_type」의 6비트 필드는, NAL 유닛 타입을 나타낸다. 「nuh_layer_id」의 6비트 필드는, 스트림의 레이어 확장 종별을 나타내는 ID이다. 「nuh_temporal_id_plus1」의 3비트 필드는, temporal_id(0 내지 6)를 나타내고, 1을 더한 값(1 내지 7)을 취한다.
이 실시 형태에 있어서, 「nuh_layer_id」의 6비트 필드는, 당해 NAL 유닛(부호화 화상 데이터)이 대응하는 포맷을 식별하기 위한 식별 정보를 나타낸다. 예를 들어, "0"은, 기본을 나타낸다. "1"은, 공간 확장을 나타낸다. "2"는, 프레임 레이트 확장을 나타낸다. "3"은, 비트 길이 확장을 나타낸다. "4"는, 다이내믹 레인지 확장을 나타낸다. "5"는, 광색 영역 확장을 나타낸다. "6"은, 프레임 레이트 확장과 다이내믹 레인지 확장을 나타낸다. "7"은, 공간 확장과 프레임 레이트 확장을 나타낸다.
부호화 화상 데이터 Cb는 기본 포맷 화상 데이터 Vb에 대응하고, 이 부호화 화상 데이터 Cb의 「nuh_layer_id」는 "0"으로 된다. 또한, 부호화 화상 데이터 Ch1은, 프레임 레이트 확장 포맷 화상 데이터 Vh1에 대응하고, 이 부호화 화상 데이터 Ch1의 「nuh_layer_id」는 "2"로 된다. 또한, 부호화 화상 데이터 Ch2는, 다이내믹 레인지 확장 포맷 화상 데이터 Vh2에 대응하고, 이 부호화 화상 데이터 Ch2의 「nuh_layer_id」는 "4"로 된다. 또한, 부호화 화상 데이터 Ch3는, 프레임 레이트 확장과 다이내믹 레인지 확장의 포맷 화상 데이터 Vh3에 대응하고, 이 부호화 화상 데이터 Ch3 「nuh_layer_id」는 "6"으로 된다.
도 6은, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하고 있다. 횡축은 표시순(POC: picture order of composition)을 나타내고, 좌측은 표시 시각이 전이고, 우측은 표시 시각이 후로 된다. 직사각형 프레임 각각이 픽처를 나타내고, 화살표는, 예측 부호화 처리에 있어서의 픽처의 참조 관계의 일례를 도시하고 있다. 레이어 간, 레이어 내의 양쪽 모두 예측은 블록마다 대상 픽처가 바뀌고, 또한, 예측의 방향, 참조수는 도시된 예에 한정되는 것은 아니다.
부호화 화상 데이터 Cb는, 「00」, 「01」, ···의 픽처의 부호화 화상 데이터로 구성된다. 부호화 화상 데이터 Ch1은, 부호화 화상 데이터 Cb의 각 픽처의 사이에 위치하는 「10」, 「11」, ···의 픽처의 부호화 화상 데이터로 구성된다. 부호화 화상 데이터 Ch2는, 부호화 화상 데이터 Cb의 각 픽처와 동일 위치의 「20」, 「21」, ···의 픽처의 부호화 화상 데이터로 구성된다. 그리고, 부호화 화상 데이터 Ch3는, 부호화 화상 데이터 Ch2의 각 픽처의 사이에 위치하는 「30」, 「31」, ···의 픽처의 부호화 화상 데이터로 구성된다.
도 2로 돌아가서, 시스템 인코더(107)는 비디오 인코더(106)에서 생성된 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 사용하여, 비디오 스트림을 생성하고, PES 패킷화 및 TS 패킷화를 행하고, 트랜스포트 스트림 TS를 생성한다. 그리고, 송신부(108)는 이 트랜스포트 스트림 TS를, 방송파 또는 네트워크의 패킷에 실어, 수신 장치(200)로 송신한다.
여기서, 2 스트림 구성의 경우, 시스템 인코더(107)는 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림을 생성한다. 즉, 이 경우, 트랜스포트 스트림 TS는, 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림을 갖는 것이 된다.
또한, 1 스트림 구성의 경우, 시스템 인코더(107)는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 비디오 스트림을 생성한다. 즉, 이 경우, 트랜스포트 스트림 TS는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림을 갖는 것이 된다.
시스템 인코더(107)는 컨테이너(트랜스포트 스트림)의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입한다.
이 실시 형태에 있어서, 2 스트림 구성의 경우, PMT(Program Map Table)의 관리 하에 존재하는 확장 비디오 스트림(부호화 데이터 Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)를 삽입한다. 이 경우, 부호화 화상 데이터 Ch1, Ch2, Ch3에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의한다.
또한, 이 실시 형태에 있어서, 1 스트림 구성의 경우, PMT(Program Map Table)의 관리 하에 존재하는 비디오 스트림(부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)를 삽입한다. 이 경우, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의한다.
도 7은, 이 스케일러블 익스텐션 디스크립터의 구조예(Syntax)를 도시하고 있다. 도 8은, 도 7에 도시하는 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다. 「descriptor_tag」이라는 8비트 필드는, 디스크립터 타입을 나타내고, 여기에서는, 스케일러블 익스텐션 디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는, 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서 이후의 바이트수를 나타낸다.
「Extended_spatial_resolution_flag」이라는 플래그는, 공간 해상도의 확장 성분을 포함하는지를 나타낸다. "1"은 공간 해상도 확장 성분을 포함하는 것을 나타내고, "0"은 공간 해상도 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_frame_rate_flag」이라는 플래그는, 프레임 레이트 확장 성분을 포함하는지를 나타낸다. "1"은 프레임 레이트 확장 성분을 포함하는 것을 나타내고, "0"은 프레임 레이트 확장 성분을 포함하지 않는 것을 나타낸다.
「Extended_bit_depth_flag」이라는 플래그는, 비트 길이 확장 성분을 포함하는지를 나타낸다. "1"은 비트 길이 확장 성분을 포함하는 것을 나타내고, "0"은 비트 길이 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_dynamic_range_flag」이라는 플래그는, 다이내믹 레인지 확장 성분을 포함하는지를 나타낸다. "1"은 다이내믹 레인지 확장 성분을 포함하는 것을 나타내고, "0"은 다이내믹 레인지 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_color_gamut_flag」이라는 플래그는, 색 영역 확장 성분을 포함하는지를 나타낸다. "1"은 색 영역 확장 성분을 포함하는 것을 나타내고, "0"은 색 영역 확장 성분을 포함하지 않는 것을 나타낸다.
「number_of_layerIDs」의 8비트 필드는, 스트림이 포함하는 레이어수를 나타낸다. 레이어수분만큼 「layerID」의 6비트 필드가 존재한다. 이 「layerID」라는 필드는, 레이어 ID(Layer_id)를 나타낸다.
여기서, 2 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 화상 데이터 Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layerIDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "2", "4", "6"이 설정된다.
이와 같은 설정에 의해, 「layerID」="2"는 프레임 레이트 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="4"는 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
또한, 1 스트림 구성의 경우이며, 비디오 스트림에 부호화 데이터 Cb, Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layerIDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "2", "4", "6"이 설정된다.
이와 같은 설정에 의해, 「layerID」="0"은 기본을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="2"는 프레임 레이트 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="4"는 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 9는, NAL 유닛 헤더의 「nuh_layer_id」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 나타내고 있다. 즉, 스트림에, 「nuh_layer_id」="0"인 기본 포맷의 부호화 화상 데이터(기본 성분)가 포함되는 경우, 「layerID」로서, "0"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="1"인 공간 확장의 부호화 화상 데이터(공간 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」은 "1"로 되고, 「layerID」로서, "1"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="2"인 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」은 "1"로 되고, 「layerID」로서, "2"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="3"인 프레임 레이트 확장의 부호화 화상 데이터(비트 길이 확장 성분)가 포함되는 경우, 「Extended_bit_depth_flag」은 "1"로 되고, 「layerID」로서, "3"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="4"인 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="5"인 색 영역 확장의 부호화 화상 데이터(색 영역 확장 성분)가 포함되는 경우, 「Extended_color_gamut_flag」은 "1"로 되고, 「layerID」로서, "5"가 설정된다.
또한, 스트림에, 「nuh_layer_id」="6"인 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분과 다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "6"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="7"인 공간 확장과 프레임 레이트 확장의 부호화 화상 데이터(공간 확장 성분과 프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」 및 「Extended_frame_rate_flag」은 "1"로 되고, 「layerID」로서, "7"이 설정된다.
[트랜스포트 스트림 TS의 구성]
도 10은, 2 스트림 구성의 경우에 있어서의 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 이 트랜스포트 스트림 TS에는, 기본 비디오 스트림 STb와 확장 비디오 스트림 STe의 2개의 비디오 스트림이 포함되어 있다. 이 구성예에서는, 각 비디오 스트림의 PES 패킷 「video PES」가 존재한다.
기본 비디오 스트림 STb의 패킷 식별자(PID)는 예를 들어 PID1로 되어 있다. 이 기본 비디오 스트림 STb에는, 기본 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다. 이 기본 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 이 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, 예를 들어, "0"으로 되어, 기본 포맷에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 확장 비디오 스트림 STe의 패킷 식별자(PID)는 예를 들어 PID2로 되어 있다. 이 확장 비디오 스트림 STe에는, 프레임 레이트 확장, 다이내믹 레인지 확장, 나아가 프레임 레이트 확장 및 다이내믹 레인지 확장의 3가지의 고품질 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다. 이 고품질 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다.
또한, 기본 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS와, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, 「nal_unit_type」의 값은 동일하고, 그 중에 익스텐션을 포함하는지 여부가 상이하다. 즉, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, SPS 익스텐션을 포함한다. 또한, 기본 포맷의 SPS와 고품질 포맷의 SPS를 다른 「nal_unit_type」의 값으로 하는 것도 가능하다.
프레임 레이트 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "2"로 되어, 프레임 레이트 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "4"로 되어, 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "6"으로 되어, 프레임 레이트 확장 및 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 트랜스포트 스트림 TS에는, PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다.
PMT에는, 프로그램 전체에 관련된 정보를 기술하는 프로그램 루프(Program loop)가 존재한다. 또한, PMT에는, 각 엘리멘터리 스트림에 관련한 정보를 갖는 엘리멘터리 스트림 루프가 존재한다. 이 구성예에서는, 기본 비디오 스트림 STb와 확장 비디오 스트림 STe의 2개의 비디오 스트림에 대응하여 2개의 비디오 엘리멘터리 스트림 루프(video ES loop)가 존재한다. 기본 비디오 스트림 STb에 대응한 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST0), 패킷 식별자(PID1) 등의 정보가 배치된다.
또한, 확장 비디오 스트림 STe에 대응한 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST1), 패킷 식별자(PID2) 등의 정보가 배치됨과 함께, 이 확장 비디오 스트림 STe에 관련하는 정보를 기술하는 디스크립터도 배치된다. 이 디스크립터의 하나로서, 상술한 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)(도 7 참조)가 삽입된다.
이 디스크립터에 있어서, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정되고, 「number_of_layerIDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "2", "4", "6"이 설정된다. 이에 의해, NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 11은, 1 스트림 구성의 경우에 있어서의 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 이 트랜스포트 스트림 TS에는, 1개의 비디오 스트림 ST가 포함되어 있다. 이 구성예에서는, 이 비디오 스트림 ST의 PES 패킷 「video PES」가 존재한다.
이 비디오 스트림 ST의 패킷 식별자(PID)는 예를 들어 PID1로 되어 있다. 이 비디오 스트림 ST에는, 기본 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있음과 함께, 프레임 레이트 확장, 다이내믹 레인지 확장, 나아가 프레임 레이트 확장 및 다이내믹 레인지 확장의 3가지의 고품질 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다.
기본 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 이 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, 예를 들어, "0"으로 되어, 기본 포맷에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 고품질 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 또한, 기본 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS와, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, 「nal_unit_type」의 값은 동일하고, 그 중에 익스텐션을 포함하는지 여부가 상이하다. 즉, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, SPS 익스텐션을 포함한다.
프레임 레이트 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "2"로 되어, 프레임 레이트 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "4"로 되어, 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "6"으로 되어, 프레임 레이트 확장 및 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 트랜스포트 스트림 TS에는, PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다.
PMT에는, 프로그램 전체에 관련하는 정보를 기술하는 프로그램 루프(Program loop)가 존재한다. 또한, PMT에는, 각 엘리멘터리 스트림에 관련한 정보를 갖는 엘리멘터리 스트림 루프가 존재한다. 이 구성예에서는, 1개의 비디오 스트림 ST에 대응하여 1개의 비디오 엘리멘터리 스트림 루프(video ES loop)가 존재한다.
이 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST0), 패킷 식별자(PID1) 등의 정보가 배치됨과 함께, 이 비디오 스트림 ST에 관련하는 정보를 기술하는 디스크립터도 배치된다. 이 디스크립터의 하나로서, 상술한 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)(도 7 참조)가 삽입된다.
이 디스크립터에 있어서, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정되고, 「number_of_layerIDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "2", "4", "6"이 설정된다. 이에 의해, NAL 유닛의 헤더의 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 2에 도시하는 송신 장치(100)의 동작을 간단하게 설명한다. 프레임 주파수가 50Hz인 LDR 화상 데이터인 기본 포맷 화상 데이터 Vb는, LDR 광전 변환부(102)에 공급된다. 이 LDR 광전 변환부(102)에서는, 기본 포맷 화상 데이터 Vb에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)이 적용되어서, 전송용의 기본 포맷 화상 데이터 Vb´가 얻어진다. 이 기본 포맷 화상 데이터 Vb´는, 비디오 인코더(106)의 인코드부(106-0, 106-1, 106-2)에 공급된다.
또한, 프레임 주파수가 100Hz인 LDR 화상 데이터인 고품질 포맷 화상 데이터 Vh1은, LDR 광전 변환부(103)에 공급된다. 이 LDR 광전 변환부(103)에서는, 고품질 포맷 화상 데이터 Vh1에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh1´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh1´는, 비디오 인코더(106)의 인코드부(106-1)에 공급된다.
또한, 프레임 주파수가 50Hz인 HDR 화상 데이터인 고품질 포맷 화상 데이터 Vh2는, HDR 광전 변환부(104)에 공급된다. 이 HDR 광전 변환부(104)에서는, 고품질 포맷 화상 데이터 Vh2에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh2´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh2´는, 비디오 인코더(106)의 인코드부(106-2, 106-3)에 공급된다.
또한, 프레임 주파수가 100Hz인 HDR 화상 데이터인 고품질 포맷 화상 데이터 Vh3는, HDR 광전 변환부(105)에 공급된다. 이 HDR 광전 변환부(105)에서는, 고품질 포맷 화상 데이터 Vh3에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh3´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh3´는, 비디오 인코더(106)의 인코드부(106-3)에 공급된다.
비디오 인코더(106)에서는, 기본 포맷 화상 데이터 Vb´, 고품질 포맷 화상 데이터 Vh1´, Vh2´, Vh3´ 각각에 대하여 부호화 처리가 실시되어서, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3가 생성된다. 즉, 인코드부(106-0)에서는, 전송용의 기본 포맷 화상 데이터 Vb´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Cb가 얻어진다.
또한, 인코드부(106-1)에서는, 전송용의 고품질 포맷 화상 데이터 Vh1´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch1이 얻어진다. 또한, 인코드부(106-2)에서는, 전송용의 고품질 포맷 화상 데이터 Vh2´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch2가 얻어진다. 또한, 인코드부(106-3)에서는, 전송용의 고품질 포맷 화상 데이터 Vh3´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch3가 얻어진다.
비디오 인코더(106)에서는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3 각각에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 즉, 비디오 인코더(106)에서는, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드에, 당해 NAL 유닛(부호화 화상 데이터)이 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다.
비디오 인코더(106)에서 얻어지는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3는, 시스템 인코더(107)에 공급된다. 시스템 인코더(107)에서는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 사용하여, 비디오 스트림이 생성되어, PES 패킷화 및 TS 패킷화가 행하여져서, 트랜스포트 스트림 TS가 생성된다.
여기서, 2 스트림 구성의 경우, 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림이 생성된다. 또한, 1 스트림 구성의 경우, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림이 생성된다.
시스템 인코더(107)에서는, 컨테이너(트랜스포트 스트림)의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다.
여기서, 2 스트림 구성의 경우, PMT의 관리 하에 존재하는 확장 비디오 스트림(부호화 화상 데이터 Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터가 삽입된다. 또한, 1 스트림 구성의 경우, PMT의 관리 하에 존재하는 비디오 스트림(부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터가 삽입된다.
시스템 인코더(107)에서 생성되는 트랜스포트 스트림 TS는, 송신부(108)로 보내진다. 송신부(108)에서는, 이 트랜스포트 스트림 TS가, 방송파 또는 네트워크의 패킷에 실어, 수신 장치(200)로 송신된다.
「수신 장치의 구성」
도 12는, 수신 장치(200)의 구성예를 도시하고 있다. 이 수신 장치(200)는 도 2의 송신 장치(100)의 구성예에 대응한 것이다. 이 수신 장치(200)는 제어부(201)와, 수신부(202)와, 시스템 디코더(203)와, 압축 데이터 버퍼(cpb)(204)와, 비디오 디코더(205)와, LDR 전광 변환부(206, 207)와, HDR 전광 변환부(208, 209)와, 표시부(표시 디바이스)(210)를 갖고 있다.
제어부(201)는 CPU(Central Processing Unit)를 구비하여 구성되고, 제어 프로그램에 기초하여, 수신 장치(200)의 각 부의 동작을 제어한다. 수신부(202)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 시스템 디코더(203)는 이 트랜스포트 스트림 TS로부터 비디오 스트림을 추출한다.
2 스트림 구성의 경우(도 10 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림을 추출한다. 또한, 1 스트림 구성의 경우(도 11 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb 및 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림을 추출한다.
또한, 시스템 디코더(203)는 컨테이너(트랜스포트 스트림)의 레이어에 삽입되어 있는 여러가지 정보를 추출하고, 제어부(201)로 보낸다. 이 정보에는, 상술한 스케일러블 익스텐션 디스크립터도 포함된다. 제어부(201)는 이 디스크립터에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보(이 실시 형태에 있어서는, NAL 유닛의 헤더의 「nuh_layer_id」)가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
압축 데이터 버퍼(204)는 시스템 디코더(203)로 추출되는 비디오 스트림을, 일시적으로 축적한다. 비디오 디코더(205)는 4개의 디코드부(205-0, 205-1, 205-2, 205-3)를 갖는다. 디코드부(205-0)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 기본 포맷의 부호화 화상 데이터(기본 성분) Cb에 대하여 복호화 처리를 행하여, 기본 포맷 화상 데이터 Vb´를 생성한다. 이 경우, 디코드부(205-0)는, 화상 데이터 Vb´ 내에서 예측 보상을 행한다.
디코드부(205-1)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분) Ch1에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh1´를 생성한다. 이 경우, 디코드부(205-1)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh1´ 내의 예측 보상, 또는 화상 데이터 Vb´와의 사이의 예측 보상을 행한다.
디코드부(205-2)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분) Ch2에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh2´를 생성한다. 이 경우, 디코드부(205-2)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh2´ 내의 예측 보상, 또는 화상 데이터 Vb´와의 사이의 예측 보상을 행한다.
디코드부(205-3)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분과 다이내믹 레인지 확장 성분) Ch3에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh3´를 생성한다. 이 경우, 디코드부(205-3)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh3´ 내의 예측 보상, 또는 화상 데이터 Vh2´와의 사이의 예측 보상을 행한다.
도 13은, 디코드부(250)의 주요부의 구성예를 도시하고 있다. 이 디코드부(250)는 디코드부(205-1, 205-2, 205-3)에 적용할 수 있는 것이다. 이 디코드부(250)는 도 4의 인코드부(165)의 처리와는 역의 처리를 행한다. 이 디코드부(250)는 디코드 기능부(251)와, 레이어 내 예측 보상부(252)와, 레이어 간 예측 보상부(253)와, 예측 조정부(254)와, 선택부(255)를 갖고 있다.
디코드 기능부(251)는 부호화 화상 데이터 CV에 대하여 예측 보상 이외의 디코드 처리를 행하여 예측 잔차 데이터를 얻는다. 레이어 내 예측 보상부(252)는 예측 잔차 데이터에 대하여 화상 데이터 V1 내에서의 예측 보상(레이어 내 예측 보상)을 행하여, 화상 데이터 V1을 얻는다. 레이어 간 예측 보상부(253)는 예측 잔차 데이터에 대하여 참조 대상의 화상 데이터 V2와의 사이에서의 예측 보상(레이어 간 예측 보상)을 행하여, 화상 데이터 V1을 얻는다.
예측 조정부(254)는 상세 설명은 생략하지만, 도 4의 인코드부(160)의 예측 조정부(163)와 마찬가지로, 화상 데이터 V1의, 화상 데이터 V2에 대한 스케일러블 확장의 타입에 따른 처리를 행한다. 선택부(255)는 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 레이어 내 예측 보상부(252)에서 얻어지는 화상 데이터 V1, 또는 레이어 간 예측 보상부(253)에서 얻어지는 화상 데이터 V1을 선택적으로 취출하여, 출력으로 한다.
도 12로 돌아가서, LDR 전광 변환부(206)는 디코드부(205-0)에서 얻어지는 기본 포맷 화상 데이터 Vb´에, 상술한 송신 장치(100)에 있어서의 LDR 광전 변환부(102)와는 역특성의 전광 변환을 실시하여, 기본 포맷 화상 데이터 Vb를 얻는다. 이 기본 포맷 화상 데이터는, 프레임 주파수가 50Hz인 LDR 화상 데이터이다.
또한, LDR 전광 변환부(207)는 디코드부(205-1)에서 얻어지는 고품질 포맷 화상 데이터 Vh1´에, 상술한 송신 장치(100)에 있어서의 LDR 광전 변환부(103)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh1을 얻는다. 이 고품질 포맷 화상 데이터 Vh1은, 프레임 주파수가 100Hz인 LDR 화상 데이터이다.
또한, HDR 전광 변환부(208)는 디코드부(205-2)에서 얻어지는 고품질 포맷 화상 데이터 Vh2´에, 상술한 송신 장치(100)에 있어서의 HDR 광전 변환부(104)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh2를 얻는다. 이 고품질 포맷 화상 데이터 Vh2는, 프레임 주파수가 50Hz인 HDR 화상 데이터이다.
또한, HDR 전광 변환부(209)는 디코드부(205-3)에서 얻어지는 고품질 포맷 화상 데이터 Vh3´에, 상술한 송신 장치(100)에 있어서의 HDR 광전 변환부(105)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh3를 얻는다. 이 고품질 포맷 화상 데이터 Vh3는, 프레임 주파수가 100Hz인 HDR 화상 데이터이다.
표시부(210)는 예를 들어, LCD(Liquid Crystal Display), 유기 EL(Organic Electro-Luminescence) 패널 등으로 구성되어 있다. 표시부(210)는 표시 능력에 따라, 기본 포맷 화상 데이터 Vb, 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3 중 어느 하나에 의한 화상을 표시한다.
이 경우, 제어부(201)는 표시부(210)에 공급해야 할 화상 데이터를 제어한다. 이 제어는, 각 부호화 화상 데이터에 삽입되어 있는 기본 포맷, 고품질 포맷의 식별 정보와, 표시부(209)의 표시 능력 정보에 기초하여 행하여진다.
즉, 표시부(210)가 고프레임 주파수의 표시도, 고다이내믹 레인지의 표시도 불가능한 경우에는, 표시부(210)에 기본 포맷의 부호화 화상 데이터(기본 성분) Cb의 복호화에 관한 기본 포맷 화상 데이터 Vb가 공급되도록 제어한다. 이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, LDR 전광 변환부(206)가 기본 포맷 화상 데이터 Vb를 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시는 가능하지만 고다이내믹 레인지의 표시가 불가능한 경우에는, 표시부(210)에 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분) Ch1의 복호화에 관한 고품질 포맷 화상 데이터 Vh1이 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 프레임 레이트 확장의 부호화 화상 데이터 Ch1을 선택적으로 취출하여 디코드부(205-1)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-1)가 부호화 화상 데이터 Ch1을 복호화하고, LDR 전광 변환부(207)가 고품질 포맷 화상 데이터 Vh1을 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시는 불가능하지만 고다이내믹 레인지의 표시가 가능한 경우에는, 표시부(210)에 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분) Ch2의 복호화에 관한 고품질 포맷 화상 데이터 Vh2가 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2를 선택적으로 취출하여 디코드부(205-2)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-2)가 부호화 화상 데이터 Ch2를 복호화하고, LDR 전광 변환부(208)가 고품질 포맷 화상 데이터 Vh2를 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시도, 고다이내믹 레인지의 표시도 가능한 경우에는, 표시부(210)에 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분 및 다이내믹 레인지 확장 성분) Ch3의 복호화에 관한 고품질 포맷 화상 데이터 Vh3가 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2를 선택적으로 취출하여 디코드부(205-1)로 보내고, 또한, 압축 데이터 버퍼(204)로부터 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3를 선택적으로 취출하여 디코드부(205-3)로 보낸다.
그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-2)가 부호화 화상 데이터 Ch2를 복호화하고, 디코드부(205-3)가 부호화 화상 데이터 Ch3를 복호화하고, HDR 전광 변환부(209)가 고품질 포맷 화상 데이터 Vh3를 출력하도록 제어한다.
도 14는, 2 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)(204)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하고 있다.
2 스트림 구성의 경우, 도 14의 (a)에 도시한 바와 같이, 압축 데이터 버퍼(cpb)(204)로부터, 기본 비디오 스트림(PID1)에 포함되어 있던 기본 포맷의 부호화 화상 데이터 Cb 및 확장 비디오 스트림(PID2)에 포함되어 있던 고품질 포맷의 부호화 화상 데이터 Ch1, Ch2, Ch3의 각 픽처의 부호화 화상 데이터가 순차 판독되어 간다.
여기서, 「00」, 「01」, ···은, 부호화 화상 데이터 Cb를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "0"으로 설정되어 있다. 제어부(201)는 이 부호화 화상 데이터 Cb가 기본 비디오 스트림에 포함되어 있던 것이라는 점에서, 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「10」, 「11」, ···은, 부호화 화상 데이터 Ch1을 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "2"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「20」, 「21」, ···은, 부호화 화상 데이터 Ch2를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "4"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「30」, 「31」, ···은, 부호화 화상 데이터 Ch3를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "6"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
압축 데이터 버퍼(204)로부터 판독된 각 픽처의 부호화 화상 데이터는, 도 14의 (b)에 도시한 바와 같이, 「nuh_layer_id」에 기초하여, 대응하는 디코드부로 보내진다. 이 경우, 디코드에 관계하지 않는 레이어의 부호화 화상 데이터는. 읽고 버려진다. 도시된 예는, 전부를 디코드하는 경우의 예를 도시하고 있다.
도 15는, 1 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)(204)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하고 있다.
1 스트림 구성의 경우, 도 15의 (a)에 도시한 바와 같이, 압축 데이터 버퍼(cpb)(204)로부터, 1개의 비디오 스트림(PID1)에 포함되어 있던 기본 포맷의 부호화 화상 데이터 Cb 및 고품질 포맷의 부호화 화상 데이터 Ch1, Ch2, Ch3의 각 픽처의 부호화 화상 데이터가 순차 판독되어 간다.
여기서, 「00」, 「01」, ···은, 부호화 화상 데이터 Cb를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "0"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「10」, 「11」, ···은, 부호화 화상 데이터 Ch1을 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "2"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「20」, 「21」, ···은, 부호화 화상 데이터 Ch2를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "4"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「30」, 「31」, ···은, 부호화 화상 데이터 Ch3를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "6"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
압축 데이터 버퍼(204)로부터 판독된 각 픽처의 부호화 화상 데이터는, 도 15의 (b)에 도시한 바와 같이, 「nuh_layer_id」에 기초하여, 대응하는 디코드부로 보내진다. 이 경우, 디코드에 관계하지 않는 레이어의 부호화 화상 데이터는. 읽고 버려진다. 도시된 예는, 전부를 디코드하는 경우의 예를 도시하고 있다.
도 16의 흐름도는, 제어부(201)가 표시 능력 정보(표시 성능 정보)로부터, 디코드 범위를 판단하는 처리의 일례를 도시하고 있다. 제어부(201)는 스텝 ST1에 있어서, 처리를 개시한다.
이어서, 제어부(201)는 스텝 ST2에 있어서, 스케일러블 익스텐션 디스크립터를 참조하여, 각 포맷의 「nuh_layer_id」를 파악한다. 이 실시 형태에서는, 기본 포맷에서는 「nuh_layer_id」="0"이고, 프레임 레이트 확장에서는 「nuh_layer_id」="2"이고, 다이내믹 레인지 레이트 확장에서는 「nuh_layer_id」="4"이고, 프레임 레이트 확장 및 다이내믹 레인지 레이트 확장에서는 「nuh_layer_id」="6"인 것을 파악한다.
이어서, 제어부(201)는 스텝 ST3에 있어서, 100p HDR의 표시, 즉 프레임 주파수 100Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST4에 있어서, 「nuh_layer_id」가 "0", "4", "6"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch2, Ch3를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST3에서 가능하지 않을 때, 제어부(201)는 스텝 ST5에 있어서, 50p HDR의 표시, 즉 프레임 주파수 50Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST6에 있어서, 「nuh_layer_id」가 "0", "4"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch2를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST5에서 가능하지 않을 때, 제어부(201)는 스텝 ST7에 있어서, 100p LDR의 표시, 즉 프레임 주파수 100Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST8에 있어서, 「nuh_layer_id」가 "0", "2"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch1을 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST7에서 가능하지 않을 때, 제어부(201)는 스텝 ST9에 있어서, 50p LDR의 표시, 즉 프레임 주파수 50Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST10에 있어서, 「nuh_layer_id」가 "0"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다. 또한, 스텝 ST9에서 가능하지 않을 때, 제어부(201)는 스텝 ST11에 있어서, 처리를 종료한다.
도 12에 도시하는 수신 장치(200)의 동작을 간단하게 설명한다. 수신부(202)에서는, 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS가 수신된다. 이 트랜스포트 스트림 TS는, 시스템 디코더(203)에 공급된다. 시스템 디코더(203)에서는, 이 트랜스포트 스트림 TS로부터 비디오 스트림이 추출된다. 이 비디오 스트림은, 압축 데이터 버퍼(204)에 일시적으로 축적된다.
여기서, 2 스트림 구성의 경우(도 10 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림이 추출된다. 또한, 1 스트림 구성의 경우((도 11 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb 및 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림이 추출된다.
또한, 시스템 디코더(203)에서는, 컨테이너(트랜스포트 스트림)의 레이어에 삽입되어 있는 여러가지 정보가 추출되어, 제어부(201)로 보내진다. 이 정보에는, 스케일러블 익스텐션 디스크립터도 포함된다. 제어부(201)에서는, 이 디스크립터에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보(이 실시 형태에 있어서는, NAL 유닛의 헤더의 「nuh_layer_id」)가 어떠한 포맷의 부호화 화상 데이터를 나타내는지가 파악된다.
표시부(210)가 고프레임 주파수의 표시도 고다이내믹 레인지의 표시도 불가능한 경우에는, LDR 전광 변환부(206)로부터 표시부(210)에 기본 포맷 화상 데이터 Vb가 공급된다. 표시부(210)에는, 이 기본 포맷 화상 데이터 Vb, 즉 프레임 주파수 50Hz에서 LDR 화상 데이터에 의한 50p LDR 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다. 이 기본 포맷 화상 데이터 Vb´는, LDR 전광 변환부(206)에 공급된다. LDR 전광 변환부(206)에서는, 이 기본 포맷 화상 데이터 Vb´에 전광 변환이 실시되어, 기본 포맷 화상 데이터 Vb가 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시는 가능하지만 고다이내믹 레인지의 표시가 불가능한 경우에는, LDR 전광 변환부(207)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh1이 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh1, 즉 프레임 주파수가 100Hz에서 LDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "2"인 프레임 레이트 확장의 부호화 화상 데이터 Ch1이 선택적으로 취출되어서 디코드부(205-1)에 공급된다. 디코드부(205-1)에서는, 부호화 화상 데이터 Ch1에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh1´가 생성된다.
디코드부(205-1)에서 생성되는 고품질 포맷 화상 데이터 Vh1´는, LDR 전광 변환부(207)에 공급된다. LDR 전광 변환부(207)에서는, 이 고품질 포맷 화상 데이터 Vh1´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh1이 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시는 불가능하지만 고다이내믹 레인지의 표시가 가능한 경우에는, HDR 전광 변환부(208)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh2가 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh2, 즉 프레임 주파수가 50Hz에서 HDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "4"인 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2가 선택적으로 취출되어서 디코드부(205-2)에 공급된다. 디코드부(205-2)에서는, 부호화 화상 데이터 Ch2에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh2´가 생성된다.
디코드부(205-2)에서 생성되는 고품질 포맷 화상 데이터 Vh2´는, HDR 전광 변환부(208)에 공급된다. HDR 전광 변환부(208)에서는, 이 고품질 포맷 화상 데이터 Vh2´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh2가 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시도 고다이내믹 레인지의 표시도 가능한 경우에는, HDR 전광 변환부(209)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh3가 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh3, 즉 프레임 주파수가 100Hz에서 HDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "4"인 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2가 선택적으로 취출되어서 디코드부(205-2)에 공급된다. 디코드부(205-2)에서는, 부호화 화상 데이터 Ch2에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh2´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "6"인 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3가 선택적으로 취출되어서 디코드부(205-3)에 공급된다. 디코드부(205-3)에서는, 부호화 화상 데이터 Ch2에 대하여 고품질 포맷 화상 데이터 Vh2´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh3´가 생성된다.
디코드부(205-3)에서 생성되는 고품질 포맷 화상 데이터 Vh3´는, HDR 전광 변환부(209)에 공급된다. HDR 전광 변환부(209)에서는, 이 고품질 포맷 화상 데이터 Vh3´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh3가 얻어지고, 표시부(210)에 공급된다.
이상 설명한 바와 같이, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)에서는, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
<2. 변형예>
또한, 상술 실시 형태에 있어서는, 부호화 화상 데이터에 식별 정보를 삽입하기 위하여 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하는 예를 나타냈지만, 「nuh_layer_id」 및 「nuh_temporal_id_plus1」의 2개의 필드를 사용하는 것도 생각된다.
예를 들어, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」은, 예를 들어, 도 17에 도시한 바와 같이, 설정된다. 즉, 기본 포맷의 부호화 화상 데이터 Cb에 대해서는, 「nuh_layer_id」는 "0"으로 되고, 「nuh_temporal_id_plus1」은 "1 내지 6"으로 된다. 또한, 프레임 레이트 확장의 부호화 화상 데이터 Ch1에 대해서는, 「nuh_layer_id」는 "0"으로 되고, 「nuh_temporal_id_plus1」은 "7"로 된다.
또한, 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2에 대해서는, 「nuh_layer_id」는 "4"로 되고, 「nuh_temporal_id_plus1」은 "1 내지 6"으로 된다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3에 대해서는, 「nuh_layer_id」는 "4"로 되고, 「nuh_temporal_id_plus1」은 "7"로 된다.
이 경우, 스케일러블 익스텐션 디스크립터(도 7 참조)는 이하와 같이 설정된다. 즉, 2 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 데이터 Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layer IDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "4", "4"가 설정된다.
이와 같은 설정에 의해, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"은 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"은 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"은, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
또한, 1 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 데이터 Cb, Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layer IDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "0", "4", "4"가 설정된다.
이와 같은 설정에 의해, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"은 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"은 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"은, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 18은, NAL 유닛 헤더의 「nuh_layer_id」, 「nuh_temporal_id_plus1」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하고 있다. 즉, 스트림에, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"인 기본 포맷의 부호화 화상 데이터(기본 성분)가 포함되는 경우, 「layerID」로서, "0"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"인 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」은 "1"로 되고, 「layerID」로서, "0"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"인 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"인 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분 및 다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다.
도 19의 흐름도는, 상술한 바와 같이 부호화 화상 데이터에 식별 정보를 삽입하기 위하여 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」의 2개의 필드를 사용한 경우에 있어서, 제어부(201)가 표시 능력 정보(표시 성능 정보)로부터, 디코드 범위를 판단하는 처리의 일례를 도시하고 있다.
제어부(201)는 스텝 ST21에 있어서, 처리를 개시한다. 이어서, 제어부(201)는 스텝 ST22에 있어서, 스케일러블 익스텐션 디스크립터를 참조하여, 각 포맷의 「nuh_layer_id」, 「nuh_temporal_id_plus1」을 파악한다.
여기에서는, 기본 포맷에서는 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"이고, 프레임 레이트 확장에서는 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"이고, 다이내믹 레인지 확장에서는 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"이고, 프레임 레이트 확장 및 다이내믹 레인지 확장에서는, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"인 것을 파악한다.
이어서, 제어부(201)는 스텝 ST23에 있어서, 100p HDR의 표시, 즉 프레임 주파수가 100Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST24에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb와, 「nuh_layer_id」="4" 또한 「nuh_temporal_id_plus1」="1 내지 7"인 부호화 화상 데이터 Ch2, Ch3를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST23에서 가능하지 않을 때, 제어부(201)는 스텝 ST25에 있어서, 50p HDR의 표시, 즉 프레임 주파수가 50Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST26에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb와, 「nuh_layer_id」="4" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Ch2를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST25에서 가능하지 않을 때, 제어부(201)는 스텝 ST27에 있어서, 100p LDR의 표시, 즉 프레임 주파수가 100Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST28에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 7"인 부호화 화상 데이터 Cb, Ch1을 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST27에서 가능하지 않을 때, 제어부(201)는 스텝 ST29에 있어서, 50p LDR의 표시, 즉 프레임 주파수가 50Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST30에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다. 또한, 스텝 ST29에서 가능하지 않을 때, 제어부(201)는 스텝 ST31에 있어서, 처리를 종료한다.
또한, 상술 실시 형태에 있어서는, 송신 장치(100)와 수신 장치(200)를 포함하는 송수신 시스템(10)을 나타냈지만, 본 기술을 적용할 수 있는 송수신 시스템의 구성은, 이것에 한정되는 것은 아니다. 예를 들어, 수신 장치(200)의 부분이, HDMI(High-Definition Multimedia Interface) 등의 디지털 인터페이스에서 접속된 셋톱 박스 및 모니터의 구성 등이어도 된다. 이 경우, 셋톱 박스는, 모니터로부터 EDID(Extended display identification data)를 취득하는 등 하여 표시 능력 정보를 얻을 수 있다. 또한, 「HDMI」는, 등록 상표이다.
또한, 상술 실시 형태에 있어서는, 컨테이너가 트랜스포트 스트림(MPEG-2 TS)인 예를 나타냈다. 그러나, 본 기술은, 인터넷 등의 네트워크를 이용하여 수신 단말기에 배신되는 구성의 시스템에도 마찬가지로 적용할 수 있다. 인터넷의 배신에서는, MP4나 그 이외의 포맷의 컨테이너로 배신되는 경우가 많다. 즉, 컨테이너로서는, 디지털 방송 규격으로 채용되고 있는 트랜스포트 스트림(MPEG-2 TS), 인터넷 배신에서 사용되고 있는 MP4 등의 다양한 포맷의 컨테이너가 해당한다.
또한, 본 기술은, 이하와 같은 구성을 취할 수도 있다.
(1) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치.
(2) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
상기 (1)에 기재된 송신 장치.
(3) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
상기 (2)에 기재된 송신 장치.
(4) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
상기 (2)에 기재된 송신 장치.
(5) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
상기 (1)부터 (4) 중 어느 하나에 기재된 송신 장치.
(6) 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 확장 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
상기 (5)에 기재된 송신 장치.
(7) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 방법.
(8) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치.
(9) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
상기 (8)에 기재된 수신 장치.
(10) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하는
상기 (8) 또는 (9)에 기재된 수신 장치.
(11) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치.
(12) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
상기 (11)에 기재된 송신 장치.
(13) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
상기 (12)에 기재된 송신 장치.
(14) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
상기 (12)에 기재된 송신 장치.
(15) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
상기 (11)부터 (14) 중 어느 하나에 기재된 송신 장치.
(16) 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
상기 (15)에 기재된 송신 장치.
(17) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 방법.
(18) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치.
(19) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
상기 (18)에 기재된 수신 장치.
(20) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하는
상기 (18) 또는 (19)에 기재된 수신 장치.
본 기술의 주된 특징은, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하여 송신함으로써, 수신측에 있어서, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것을 용이하게 한 것이다(도 10, 도 11 참조).
10: 송수신 시스템
100: 송신 장치
101: 제어부
102, 103: LDR 광전 변환부
104, 105: HDR 광전 변환부
106: 비디오 인코더
106-0, 106-1, 106-2, 106-3: 인코드부
107: 시스템 인코더
108: 송신부
150: 화상 데이터 생성부
151: HDR 카메라
152, 154: 프레임 레이트 변환부
153: 다이내믹 레인지 변환부
160: 인코드부
161: 레이어 내 예측부
162: 레이어 간 예측부
163: 예측 조정부
164: 선택부
165: 인코드 기능부
200: 수신 장치
201: 제어부
202: 수신부
203: 시스템 디코더
204: 압축 데이터 버퍼
205: 비디오 디코더
205-0, 205-1, 205-2, 205-3: 디코드부
206, 207: LDR 전광 변환부
208, 209: HDR 전광 변환부
210: 표시부
250: 디코드부
251: 디코드 기능부
252: 레이어 내 예측 보상부
253: 레이어 간 예측 보상부
254: 예측 조정부
255: 선택부
100: 송신 장치
101: 제어부
102, 103: LDR 광전 변환부
104, 105: HDR 광전 변환부
106: 비디오 인코더
106-0, 106-1, 106-2, 106-3: 인코드부
107: 시스템 인코더
108: 송신부
150: 화상 데이터 생성부
151: HDR 카메라
152, 154: 프레임 레이트 변환부
153: 다이내믹 레인지 변환부
160: 인코드부
161: 레이어 내 예측부
162: 레이어 간 예측부
163: 예측 조정부
164: 선택부
165: 인코드 기능부
200: 수신 장치
201: 제어부
202: 수신부
203: 시스템 디코더
204: 압축 데이터 버퍼
205: 비디오 디코더
205-0, 205-1, 205-2, 205-3: 디코드부
206, 207: LDR 전광 변환부
208, 209: HDR 전광 변환부
210: 표시부
250: 디코드부
251: 디코드 기능부
252: 레이어 내 예측 보상부
253: 레이어 간 예측 보상부
254: 예측 조정부
255: 선택부
Claims (20)
- 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
송신 장치. - 제1항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
송신 장치. - 제2항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
송신 장치. - 제2항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
송신 장치. - 제1항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
송신 장치. - 제5항에 있어서, 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
송신 장치. - 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
송신 방법. - 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치. - 제8항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
수신 장치. - 제8항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 파악하는
수신 장치. - 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
송신 장치. - 제11항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
송신 장치. - 제12항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
송신 장치. - 제12항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
송신 장치. - 제11항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
송신 장치. - 제15항에 있어서, 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
송신 장치. - 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
송신 방법. - 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치. - 제18항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
수신 장치. - 제18항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 파악하는
수신 장치.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2014-161833 | 2014-08-07 | ||
JP2014161833 | 2014-08-07 | ||
PCT/JP2015/069793 WO2016021365A1 (ja) | 2014-08-07 | 2015-07-09 | 送信装置、送信方法および受信装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170040189A KR20170040189A (ko) | 2017-04-12 |
KR102366503B1 true KR102366503B1 (ko) | 2022-02-23 |
Family
ID=55263639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177000890A KR102366503B1 (ko) | 2014-08-07 | 2015-07-09 | 송신 장치, 송신 방법 및 수신 장치 |
Country Status (12)
Country | Link |
---|---|
US (1) | US10397642B2 (ko) |
EP (2) | EP3179729B1 (ko) |
JP (5) | JP6652058B2 (ko) |
KR (1) | KR102366503B1 (ko) |
CN (1) | CN106664445B (ko) |
ES (1) | ES2885548T3 (ko) |
HU (1) | HUE055488T2 (ko) |
MX (1) | MX368827B (ko) |
PL (1) | PL3179729T3 (ko) |
PT (1) | PT3179729T (ko) |
RU (1) | RU2687956C2 (ko) |
WO (1) | WO2016021365A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10750217B2 (en) * | 2016-03-21 | 2020-08-18 | Lg Electronics Inc. | Broadcast signal transmitting/receiving device and method |
FR3070566B1 (fr) * | 2017-08-30 | 2020-09-04 | Sagemcom Broadband Sas | Procede de recuperation d'un fichier cible d'un logiciel d'exploitation et dispositif d'utilisation |
US11606528B2 (en) * | 2018-01-03 | 2023-03-14 | Saturn Licensing Llc | Advanced television systems committee (ATSC) 3.0 latency-free display of content attribute |
WO2021128295A1 (en) * | 2019-12-27 | 2021-07-01 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods for inter prediction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100260254A1 (en) | 2006-12-13 | 2010-10-14 | Viasat, Inc. | Multiple transmission paths for hierarchical layers |
US8467656B2 (en) | 2005-03-09 | 2013-06-18 | Kabushiki Kaisha Toshiba | Information storage medium, information recording method, information playback method, information recording apparatus, and information playback apparatus |
WO2013151814A1 (en) * | 2012-04-06 | 2013-10-10 | Vidyo, Inc. | Level signaling for layered video coding |
WO2014034463A1 (ja) * | 2012-08-27 | 2014-03-06 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5144425A (en) * | 1991-08-26 | 1992-09-01 | General Electric Company | Apparatus for hierarchically dividing video signals |
JPH10248051A (ja) * | 1997-03-05 | 1998-09-14 | Matsushita Electric Ind Co Ltd | ディジタルデータ送信方法、ディジタルデータ送信装置およびディジタルデータ受信装置 |
EP1439705A3 (en) * | 1997-03-17 | 2011-09-14 | Panasonic Corporation | Method and apparatus for processing, transmitting and receiving dynamic image data |
US6490705B1 (en) * | 1998-10-22 | 2002-12-03 | Lucent Technologies Inc. | Method and apparatus for receiving MPEG video over the internet |
US6501797B1 (en) * | 1999-07-06 | 2002-12-31 | Koninklijke Phillips Electronics N.V. | System and method for improved fine granular scalable video using base layer coding information |
US6263022B1 (en) * | 1999-07-06 | 2001-07-17 | Philips Electronics North America Corp. | System and method for fine granular scalable video with selective quality enhancement |
US8284845B1 (en) * | 2000-01-24 | 2012-10-09 | Ati Technologies Ulc | Method and system for handling data |
US7095782B1 (en) * | 2000-03-01 | 2006-08-22 | Koninklijke Philips Electronics N.V. | Method and apparatus for streaming scalable video |
US6496217B1 (en) * | 2001-06-12 | 2002-12-17 | Koninklijke Philips Electronics N.V. | Video communication system using model-based coding and prioritzation techniques |
US7958532B2 (en) * | 2001-06-18 | 2011-06-07 | At&T Intellectual Property Ii, L.P. | Method of transmitting layered video-coded information |
JP4329358B2 (ja) * | 2003-02-24 | 2009-09-09 | 富士通株式会社 | ストリーム配信方法、及びストリーム配信システム |
US20040208239A1 (en) * | 2003-04-21 | 2004-10-21 | Lars Karlsson | Method and apparatus for the intelligent and automatic gathering of sudden short duration communications signals |
WO2006084959A1 (fr) * | 2005-02-09 | 2006-08-17 | Previsite | Procede de realisation en masse de visites virtuelles interactives pour diffusion multimedia, ainsi que systeme de mise en œuvre. |
EP1869888B1 (en) * | 2005-04-13 | 2016-07-06 | Nokia Technologies Oy | Method, device and system for effectively coding and decoding of video data |
WO2006125850A1 (en) | 2005-05-24 | 2006-11-30 | Nokia Corporation | Method and apparatuses for hierarchical transmission/reception in digital broadcast |
WO2007005947A1 (en) * | 2005-07-01 | 2007-01-11 | Terahop Networks, Inc. | Nondeterministic and deterministic network routing |
KR100961743B1 (ko) * | 2005-12-09 | 2010-06-07 | 삼성전자주식회사 | 다중 홉 중계방식의 광대역 무선 접속통신시스템에서 중계서비스를 지원하기 위한 장치 및 방법 |
US8072943B2 (en) * | 2005-12-09 | 2011-12-06 | Samsung Electronics Co., Ltd. | Wireless communication system and methodology for communicating via multiple information streams |
US7836016B2 (en) * | 2006-01-13 | 2010-11-16 | International Business Machines Corporation | Method and apparatus for disseminating new content notifications in peer-to-peer networks |
US9209934B2 (en) * | 2006-06-09 | 2015-12-08 | Qualcomm Incorporated | Enhanced block-request streaming using cooperative parallel HTTP and forward error correction |
US8467457B2 (en) * | 2007-01-16 | 2013-06-18 | Mobixell Networks (Israel) Ltd | System and a method for controlling one or more signal sequences characteristics |
WO2008125900A1 (en) * | 2007-04-13 | 2008-10-23 | Nokia Corporation | A video coder |
CN103281563B (zh) * | 2007-04-18 | 2016-09-07 | 汤姆森许可贸易公司 | 解码方法 |
KR20090004660A (ko) * | 2007-07-02 | 2009-01-12 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
CA2650151C (en) * | 2008-01-17 | 2013-04-02 | Lg Electronics Inc. | An iptv receiving system and data processing method |
KR101580516B1 (ko) * | 2008-04-07 | 2015-12-28 | 엘지전자 주식회사 | 방송 신호 수신 방법 및 방송 신호 수신 장치 |
JP2009267537A (ja) * | 2008-04-22 | 2009-11-12 | Toshiba Corp | 階層化されたエレメンタリーストリームの多重化装置、分離装置及び多重化方法並びにプログラム |
EP2334082A1 (en) * | 2008-09-17 | 2011-06-15 | Sharp Kabushiki Kaisha | Scalable video stream decoding apparatus and scalable video stream generating apparatus |
JP5541488B2 (ja) * | 2009-02-09 | 2014-07-09 | ソニー株式会社 | コンテンツ受信装置および方法 |
JP2010263615A (ja) * | 2009-04-08 | 2010-11-18 | Sony Corp | 情報処理装置、情報処理方法、再生装置、再生方法 |
CN102804785A (zh) * | 2009-04-13 | 2012-11-28 | 瑞尔D股份有限公司 | 编码、解码和发布增强分辨率的立体视频 |
US20110096828A1 (en) * | 2009-09-22 | 2011-04-28 | Qualcomm Incorporated | Enhanced block-request streaming using scalable encoding |
US20110187503A1 (en) * | 2010-02-01 | 2011-08-04 | Mario Costa | Method and System for Data Center Rack Brackets For Automatic Location Tracking of Information Technology Components |
WO2011108903A2 (ko) * | 2010-03-05 | 2011-09-09 | 한국전자통신연구원 | 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치 |
EP2375747B1 (en) * | 2010-04-12 | 2019-03-13 | Sun Patent Trust | Filter positioning and selection |
BR112012007892B1 (pt) * | 2010-08-09 | 2021-11-09 | Panasonic Corporation | Método para codificação de imagem, método para decodificação de imagem, aparelho para codificação de imagem e aparelho para decodificação de imagem |
KR20120084234A (ko) * | 2011-01-19 | 2012-07-27 | 삼성전자주식회사 | Mpeg media transport(mmt)에서 mmt au를 전송하는 방법 |
JP5897603B2 (ja) * | 2011-01-19 | 2016-03-30 | サムスン エレクトロニクス カンパニー リミテッド | 放送システムにおける制御メッセージ構成装置及び方法 |
US8904445B2 (en) * | 2011-01-24 | 2014-12-02 | At&T Intellectual Property I, L.P. | Methods and apparatus to manage bandwidth allocations in media delivery networks |
US20120224651A1 (en) * | 2011-03-03 | 2012-09-06 | Yutaka Murakami | Signal generation method and signal generation apparatus |
US9300903B2 (en) * | 2011-04-28 | 2016-03-29 | Panasonic Corporation | Recording medium, reproduction device, and recording device |
KR20140040165A (ko) * | 2011-07-26 | 2014-04-02 | 엘지전자 주식회사 | 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법 |
RU2013122634A (ru) * | 2011-10-28 | 2015-12-10 | Панасоник Корпорэйшн | Носитель записи, устройство воспроизведения, устройство записи, способ воспроизведения и способ записи для редактирования записанного контента при поддержании совместимости со старым форматом |
US20130136193A1 (en) * | 2011-11-30 | 2013-05-30 | Samsung Electronics Co. Ltd. | Apparatus and method of transmitting/receiving broadcast data |
WO2013161442A1 (ja) | 2012-04-24 | 2013-10-31 | ソニー株式会社 | 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法 |
US10250901B2 (en) * | 2012-06-28 | 2019-04-02 | Saturn Licensing Llc | Transmitting/receiving device, method, and coding/decoding device |
WO2014038522A1 (ja) * | 2012-09-07 | 2014-03-13 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
CN104620585A (zh) * | 2012-09-09 | 2015-05-13 | Lg电子株式会社 | 图像解码方法和使用其的装置 |
US9161039B2 (en) * | 2012-09-24 | 2015-10-13 | Qualcomm Incorporated | Bitstream properties in video coding |
KR102028696B1 (ko) * | 2012-10-04 | 2019-10-07 | 삼성전자주식회사 | 고 해상도 컨텐츠를 처리하는 컨텐츠 처리 장치 및 그 방법 |
WO2014059051A1 (en) * | 2012-10-09 | 2014-04-17 | Rodriguez Arturo A | Providing a common set of parameters for sub-layers of coded video |
WO2014069920A1 (en) * | 2012-11-01 | 2014-05-08 | Samsung Electronics Co., Ltd. | Recording medium, reproducing device for providing service based on data of recording medium, and method thereof |
US20140211861A1 (en) * | 2013-01-25 | 2014-07-31 | Electronics And Telecommunications Research Institute | Method and system for providing high definition (hd) broadcasting service and ultra high definition (uhd) broadcasting service |
CN109729364A (zh) * | 2013-04-07 | 2019-05-07 | 杜比国际公司 | 用信号通知输出层集的改变 |
FR3008245B1 (fr) * | 2013-07-03 | 2017-05-26 | Abb France | Dispositif de protection a l’encontre de surtensions electriques transitoires |
KR102121947B1 (ko) * | 2013-09-27 | 2020-06-11 | 삼성전자주식회사 | 신호 처리 장치 및 그의 신호 처리 방법 |
-
2015
- 2015-07-09 MX MX2017001415A patent/MX368827B/es active IP Right Grant
- 2015-07-09 PT PT158301762T patent/PT3179729T/pt unknown
- 2015-07-09 ES ES15830176T patent/ES2885548T3/es active Active
- 2015-07-09 WO PCT/JP2015/069793 patent/WO2016021365A1/ja active Application Filing
- 2015-07-09 KR KR1020177000890A patent/KR102366503B1/ko active IP Right Grant
- 2015-07-09 EP EP15830176.2A patent/EP3179729B1/en active Active
- 2015-07-09 EP EP21183996.4A patent/EP3910960A1/en active Pending
- 2015-07-09 RU RU2017103077A patent/RU2687956C2/ru active
- 2015-07-09 CN CN201580041287.5A patent/CN106664445B/zh not_active Expired - Fee Related
- 2015-07-09 PL PL15830176T patent/PL3179729T3/pl unknown
- 2015-07-09 US US15/323,773 patent/US10397642B2/en active Active
- 2015-07-09 HU HUE15830176A patent/HUE055488T2/hu unknown
- 2015-07-09 JP JP2016540130A patent/JP6652058B2/ja active Active
-
2019
- 2019-10-25 JP JP2019193994A patent/JP6856105B2/ja active Active
-
2021
- 2021-03-16 JP JP2021042048A patent/JP7147903B2/ja active Active
-
2022
- 2022-09-21 JP JP2022150748A patent/JP7416164B2/ja active Active
-
2023
- 2023-12-27 JP JP2023220577A patent/JP2024026562A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8467656B2 (en) | 2005-03-09 | 2013-06-18 | Kabushiki Kaisha Toshiba | Information storage medium, information recording method, information playback method, information recording apparatus, and information playback apparatus |
US20100260254A1 (en) | 2006-12-13 | 2010-10-14 | Viasat, Inc. | Multiple transmission paths for hierarchical layers |
WO2013151814A1 (en) * | 2012-04-06 | 2013-10-10 | Vidyo, Inc. | Level signaling for layered video coding |
WO2014034463A1 (ja) * | 2012-08-27 | 2014-03-06 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
Non-Patent Citations (2)
Title |
---|
Draft Text for Scalable Extensions of High Efficiency Video Coding (HEVC) 표준문서. 1부.* |
HRD model in scalable HEVC 표준문서. 1부.* |
Also Published As
Publication number | Publication date |
---|---|
HUE055488T2 (hu) | 2021-11-29 |
CN106664445A (zh) | 2017-05-10 |
RU2017103077A3 (ko) | 2018-11-15 |
CN106664445B (zh) | 2020-04-21 |
PL3179729T3 (pl) | 2021-12-20 |
JP2021093772A (ja) | 2021-06-17 |
EP3179729A1 (en) | 2017-06-14 |
JP7416164B2 (ja) | 2024-01-17 |
EP3910960A1 (en) | 2021-11-17 |
JP6652058B2 (ja) | 2020-02-19 |
EP3179729A4 (en) | 2017-12-06 |
WO2016021365A1 (ja) | 2016-02-11 |
ES2885548T3 (es) | 2021-12-14 |
KR20170040189A (ko) | 2017-04-12 |
JP2024026562A (ja) | 2024-02-28 |
JP2020014256A (ja) | 2020-01-23 |
MX2017001415A (es) | 2017-05-09 |
RU2017103077A (ru) | 2018-07-31 |
JPWO2016021365A1 (ja) | 2017-05-18 |
MX368827B (es) | 2019-10-18 |
US10397642B2 (en) | 2019-08-27 |
RU2687956C2 (ru) | 2019-05-17 |
JP6856105B2 (ja) | 2021-04-07 |
JP2022171957A (ja) | 2022-11-11 |
EP3179729B1 (en) | 2021-08-25 |
US20170164033A1 (en) | 2017-06-08 |
PT3179729T (pt) | 2021-09-21 |
JP7147903B2 (ja) | 2022-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375857B2 (ja) | 受信装置 | |
JP7416164B2 (ja) | 送信方法、送信装置、受信装置および受信方法 | |
JP7552825B2 (ja) | 送信方法および送信装置 | |
JP6801662B2 (ja) | 送信装置、送信方法、受信装置および受信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |