KR102366503B1 - 송신 장치, 송신 방법 및 수신 장치 - Google Patents

송신 장치, 송신 방법 및 수신 장치 Download PDF

Info

Publication number
KR102366503B1
KR102366503B1 KR1020177000890A KR20177000890A KR102366503B1 KR 102366503 B1 KR102366503 B1 KR 102366503B1 KR 1020177000890 A KR1020177000890 A KR 1020177000890A KR 20177000890 A KR20177000890 A KR 20177000890A KR 102366503 B1 KR102366503 B1 KR 102366503B1
Authority
KR
South Korea
Prior art keywords
image data
unit
encoded image
format
video stream
Prior art date
Application number
KR1020177000890A
Other languages
English (en)
Other versions
KR20170040189A (ko
Inventor
이쿠오 츠카고시
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20170040189A publication Critical patent/KR20170040189A/ko
Application granted granted Critical
Publication of KR102366503B1 publication Critical patent/KR102366503B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2351Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving encryption of additional data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder

Abstract

기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신한다. 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는, 또는, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성한다. 생성된 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신한다. 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입한다.

Description

송신 장치, 송신 방법 및 수신 장치{TRANSMISSION DEVICE, TRANSMISSION METHOD AND RECEPTION DEVICE}
본 기술은, 송신 장치, 송신 방법 및 수신 장치에 관한 것으로서, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 송신하는 송신 장치 등에 관한 것이다.
종래, 기본 포맷 화상 데이터와 함께 고품질 포맷 화상 데이터를 송신하고, 수신측에 있어서, 기본 포맷 화상 데이터 또는 고품질 포맷 화상 데이터를 선택적으로 사용하는 것이 알려져 있다. 예를 들어, 특허문헌 1에는, 미디어 부호화를 스케일러블로 행하고, 저해상도의 비디오 서비스를 위한 베이스 레이어의 스트림과, 고해상도의 비디오 서비스를 위한 확장 레이어의 스트림을 생성하고, 이들을 포함하는 방송 신호를 송신하는 것이 기재되어 있다. 또한, 고품질 포맷에는, 고해상도 이외에, 고프레임 주파수, 고다이내믹 레인지, 광색 영역, 고비트 길이 등이 있다.
일본 특허 공표 제2008-543142호 공보
본 기술의 목적은, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신하는 데 있다.
본 기술의 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치에 있다.
본 기술에 있어서, 화상 부호화부에 의해, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림이 생성된다. 예를 들어, 기본 포맷 화상 데이터에 대해서는, 이 기본 포맷 화상 데이터 내의 예측 부호화 처리가 행하여진다. 또한, 고품질 포맷 화상 데이터에 대해서는, 이 고품질 포맷 화상 데이터 내의 예측 부호화 처리 또는 기본 포맷 화상 데이터 또는 다른 고품질 포맷 화상 데이터와의 사이의 예측 부호화 처리가 행하여진다.
송신부에 의해, 화상 부호화부에서 생성된 기본 비디오 스트림 및 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너가 송신된다. 예를 들어, 컨테이너는, 디지털 방송 규격으로 채용되어 있는 트랜스포트 스트림(MPEG-2 TS)이어도 된다. 또한, 예를 들어, 컨테이너는, 인터넷의 배신 등에서 사용되는 MP4, 또는 그 이외의 포맷의 컨테이너여도 된다.
화상 부호화부에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 화상 부호화부는, 식별 정보를 NAL 유닛의 헤더에 삽입하도록 되어도 된다. 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하도록 되어도 된다. 또한, 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하도록 되어도 된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하도록 되어도 된다. 이 경우, 예를 들어, 컨테이너는, MPEG2-TS이며, 정보 삽입부는, 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 확장 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하도록 되어도 된다. 이 경우, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 기본 비디오 스트림 및 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다. 여기서, 기본 비디오 스트림에는, 기본 포맷 화상 데이터의 부호화 화상 데이터가 포함된다. 확장 비디오 스트림에는, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터가 포함된다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 식별 정보는, NAL 유닛의 헤더에 삽입되어 있도록 되어도 된다. 처리부에 의해, 수신된 컨테이너가 갖는 각 비디오 스트림이, 식별 정보와 표시 능력 정보에 기초하여 처리된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에 삽입되어 있는, 대응하는 포맷을 식별하기 위한 식별 정보와, 표시 능력 정보에 기초하여, 수신된 컨테이너가 갖는 확장 비디오 스트림이 처리되는 것이다. 그로 인해, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고, 처리부는, 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하도록 되어도 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치에 있다.
본 기술에 있어서, 화상 부호화부에 의해, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림이 생성된다. 예를 들어, 기본 포맷 화상 데이터에 대해서는, 이 기본 포맷 화상 데이터 내의 예측 부호화 처리가 행하여진다. 또한, 고품질 포맷 화상 데이터에 대해서는, 이 고품질 포맷 화상 데이터 내의 예측 부호화 처리 또는 기본 포맷 화상 데이터 또는 다른 고품질 포맷 화상 데이터와의 사이의 예측 부호화 처리가 행하여진다.
송신부에 의해, 화상 부호화부에서 생성된 비디오 스트림을 포함하는 소정 포맷의 컨테이너가 송신된다. 예를 들어, 컨테이너는, 디지털 방송 규격으로 채용되고 있는 트랜스포트 스트림(MPEG-2 TS)이어도 된다. 또한, 예를 들어, 컨테이너는, 인터넷의 배신 등에서 사용되는 MP4, 또는 그 이외의 포맷의 컨테이너여도 된다.
화상 부호화부에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 화상 부호화부는, 식별 정보를 NAL 유닛의 헤더에 삽입하도록 되어도 된다. 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하도록 되어도 된다. 또한, 이 경우, 예를 들어, 화상 부호화부는, 식별 정보를, NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하도록 되어도 된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하도록 되어도 된다. 이 경우, 예를 들어, 컨테이너는, MPEG2-TS이며, 정보 삽입부는, 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하도록 되어도 된다. 이 경우, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 예를 들어, 부호화 화상 데이터는, NAL 유닛 구조를 갖고, 식별 정보는, NAL 유닛의 헤더에 삽입되어 있도록 되어도 된다. 처리부에 의해, 수신된 컨테이너가 갖는 비디오 스트림이, 식별 정보와 표시 능력 정보에 기초하여 처리된다.
이와 같이 본 기술에 있어서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에 삽입되어 있는, 대응하는 포맷을 식별하기 위한 식별 정보와, 표시 능력 정보에 기초하여, 수신된 컨테이너가 갖는 비디오 스트림이 처리되는 것이다. 그로 인해, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 본 기술에 있어서, 예를 들어, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고, 처리부는, 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하도록 되어도 된다.
본 기술에 의하면, 기본 포맷 화상 데이터와 함께 소정수의 고품질 포맷 화상 데이터를 양호하게 송신할 수 있다. 또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니며, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은 실시 형태로서의 송수신 시스템의 구성예를 도시하는 블록도이다.
도 2는 송신 장치의 구성예를 도시하는 블록도이다.
도 3은 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 생성하는 화상 데이터 생성부의 구성예를 도시하는 블록도이다.
도 4는 인코드부의 주요부의 구성예를 도시하는 블록도이다.
도 5는 NAL 유닛 헤더의 구조예와, 그 구조예에 있어서의 주요한 파라미터의 내용을 도시하는 도면이다.
도 6은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 7은 스케일러블 익스텐션 디스크립터의 구조예를 도시하는 도면이다.
도 8은 스케일러블 익스텐션 디스크립터의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면이다.
도 9는 NAL 유닛 헤더의 「nuh_layer_id」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 10은 트랜스포트 스트림 TS의 구성예(2 스트림의 경우)를 도시하는 도면이다.
도 11은 트랜스포트 스트림 TS의 구성예(1 스트림의 경우)를 도시하는 도면이다.
도 12는 수신 장치의 구성예를 도시하는 블록도이다.
도 13은 디코드부의 주요부의 구성예를 도시하는 블록도이다.
도 14는 2 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 15는 1 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하는 도면이다.
도 16은 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 일례를 도시하는 흐름도이다.
도 17은 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하는 도면이다.
도 18은 NAL 유닛 헤더의 「nuh_layer_id」, 「nuh_temporal_id_plus1」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하는 도면이다.
도 19는 표시 능력 정보(표시 성능 정보)로부터 디코드 범위를 판단하는 처리의 다른 일례를 도시하는 흐름도이다.
이하, 발명을 실시하기 위한 구체적인 내용(이하, 「실시 형태」로 한다)에 대하여 설명한다. 또한, 설명은 이하의 순서로 행한다.
1. 실시 형태
2. 변형예
<1. 실시 형태>
[송수신 시스템]
도 1은, 실시 형태로서의 송수신 시스템(10)의 구성예를 도시하고 있다. 이 송수신 시스템(10)은 송신 장치(100)와, 수신 장치(200)를 갖고 있다. 송신 장치(100)로부터 수신 장치(200)에 컨테이너로서의 트랜스포트 스트림 TS가 방송파 또는 네트워크의 패킷에 실어서 송신된다. 이 실시 형태에 있어서는, (1) 트랜스포트 스트림 TS가 기본 비디오 스트림 및 확장 비디오 스트림의 2개의 비디오 스트림을 갖는 2 스트림 구성인 경우와, (2) 트랜스포트 스트림 TS가 1개의 비디오 스트림을 갖는 1 스트림 구성인 경우의 2가지가 있다.
「2 스트림 구성의 경우」
송신 장치(100)는 컨테이너로서의 트랜스포트 스트림 TS를 방송파 또는 네트워크의 패킷에 실어서 송신한다. 이 트랜스포트 스트림 TS에는, 기본 비디오 스트림과 확장 비디오 스트림의 2개의 비디오 스트림이 포함된다. 기본 비디오 스트림은, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 것이다. 기본 비디오 스트림은, 예를 들어, 기본 포맷 화상 데이터에 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
확장 비디오 스트림은, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 것이다. 이 확장 비디오 스트림은, 소정수의 고품질 화상 데이터에, 각각, 예를 들어, H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 수신측에서는, 이 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다. 이 실시 형태에 있어서, 식별 정보는, NAL 유닛의 헤더에 삽입된다.
컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다. 수신측에서는, 이 정보에 의해, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다. 이 실시 형태에 있어서, 정보는, 프로그램 맵 테이블의 관리 하에 존재하는 확장 비디오 스트림에 대응한 각 비디오 엘리멘터리 스트림 루프 내에 삽입된다.
수신 장치(200)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS는, 상술한 바와 같이, 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과, 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖고 있다.
소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 상술한 바와 같이, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 수신 장치(200)는 이 식별 정보와 표시 능력 정보에 기초하여, 트랜스포트 스트림 TS에 포함되어 있는 각 비디오 스트림을 처리하고, 표시 능력에 따른 화상 데이터를 취득한다.
「1 스트림 구성의 경우」
송신 장치(100)는 컨테이너로서의 트랜스포트 스트림 TS를 방송파 또는 네트워크의 패킷에 실어서 송신한다. 이 트랜스포트 스트림 TS에는, 1개의 비디오 스트림이 포함된다. 이 비디오 스트림은, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 것이다. 이 비디오 스트림은, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터에, 각각, 예를 들어, H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 실시되어서 생성된 것이다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 기본 포맷 또는 대응하는 고품질 포맷을 식별하기 위한 식별 정보가 삽입된다. 수신측에서는, 이 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다. 이 실시 형태에 있어서, 식별 정보는, NAL 유닛의 헤더에 삽입된다.
컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다. 수신측에서는, 이 정보에 의해, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다. 이 실시 형태에 있어서, 정보는, 프로그램 맵 테이블의 관리 하에 존재하는 비디오 스트림에 대응한 각 비디오 엘리멘터리 스트림 루프 내에 삽입된다.
수신 장치(200)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS는, 상술한 바와 같이, 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖고 있다.
기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 상술한 바와 같이, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있다. 수신 장치(200)는 이 식별 정보와 표시 능력 정보에 기초하여, 트랜스포트 스트림 TS에 포함되어 있는 비디오 스트림을 처리하고, 표시 능력에 따른 화상 데이터를 취득한다.
「송신 장치의 구성」
도 2는, 송신 장치(100)의 구성예를 도시하고 있다. 이 송신 장치(100)는 송신 화상 데이터로서, 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 취급한다. 여기서, 기본 포맷 화상 데이터 Vb는, 프레임 주파수가 50Hz인 LDR(Low Dynamic Lange) 화상 데이터이다. 고품질 포맷 화상 데이터 Vh1은, 프레임 주파수가 100Hz인 LDR 화상 데이터이다. LDR 화상 데이터는, 종래의 LDR 화상의 백색 피크의 밝기에 대하여 0%부터 100%의 휘도 범위를 갖는다.
고품질 포맷 화상 데이터 Vh2는, 프레임 주파수가 50Hz인 HDR(High Dynamic Range) 화상 데이터이다. 고품질 포맷 화상 데이터 Vh3는, 프레임 주파수가 100Hz인 HDR 화상 데이터이다. 이 HDR 화상 데이터는, 종래의 LDR 화상의 백색 피크의 밝기를 100%라 하면, 0 내지 100%*N, 예를 들어 0 내지 1000% 또는 그 이상의 범위의 휘도를 가진다.
도 3은, 기본 포맷 화상 데이터 Vb와, 3개의 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3를 생성하는 화상 데이터 생성부(150)의 구성예를 도시하고 있다. 이 화상 데이터 생성부(150)는 HDR 카메라(151)와, 프레임 레이트 변환부(152)와, 다이내믹 레인지 변환부(153)와, 프레임 레이트 변환부(154)를 갖고 있다.
HDR 카메라(151)는 피사체를 촬상하고, 프레임 주파수가 100Hz인 HDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh3를 출력한다. 프레임 레이트 변환부(152)는 HDR 카메라(151)로부터 출력되는 고품질 포맷 화상 데이터 Vh3에 대하여 프레임 주파수를 100Hz로부터 50Hz로 변환하는 처리를 행하여, 프레임 주파수가 50Hz인 HDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh2를 출력한다.
다이내믹 레인지 변환부(153)는 HDR 카메라(151)로부터 출력되는 고품질 포맷 화상 데이터 Vh3에 대하여 HDR로부터 LDR로 변환하는 처리를 행하여, 프레임 주파수가 100Hz인 LDR 화상 데이터, 즉 고품질 포맷 화상 데이터 Vh1을 출력한다. 프레임 레이트 변환부(154)는 다이내믹 레인지 변환부(153)로부터 출력되는 고품질 포맷 화상 데이터 Vh1에 대하여 프레임 주파수를 100Hz로부터 50Hz로 변환하는 처리를 행하여, 프레임 주파수가 50Hz인 LDR 화상 데이터, 즉 기본 포맷 화상 데이터 Vb를 출력한다.
도 2로 돌아가서, 송신 장치(100)는 제어부(101)와, LDR 광전 변환부(102, 103)와, HDR 광전 변환부(104, 105)와, 비디오 인코더(106)와, 시스템 인코더(107)와, 송신부(108)를 갖고 있다. 제어부(101)는 CPU(Central Processing Unit)를 구비하여 구성되고, 제어 프로그램에 기초하여, 송신 장치(100)의 각 부의 동작을 제어한다.
LDR 광전 변환부(102)는 기본 포맷 화상 데이터 Vb에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)을 적용하여, 전송용의 기본 포맷 화상 데이터 Vb´를 얻는다. LDR 광전 변환부(103)는 고품질 포맷 화상 데이터 Vh1에 대하여 LDR 화상용의 광전 변환 특성을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh1´를 얻는다.
HDR 광전 변환부(104)는 고품질 포맷 화상 데이터 Vh2에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh2´를 얻는다. HDR 광전 변환부(105)는 고품질 포맷 화상 데이터 Vh3에 대하여 HDR 화상용의 광전 변환 특성을 적용하여, 전송용의 고품질 포맷 화상 데이터 Vh3´를 얻는다.
비디오 인코더(106)는 4개의 인코드부(106-0, 106-1, 106-2, 106-3)를 갖는다. 인코드부(106-0)는, 전송용의 기본 포맷 화상 데이터 Vb´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Cb를 얻는다. 이 경우, 인코드부(106-0)는, 화상 데이터 Vb´ 내의 예측을 행한다.
인코드부(106-1)는, 전송용의 고품질 포맷 화상 데이터 Vh1´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch1을 얻는다. 이 경우, 인코드부(106-1)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh1´ 내의 예측, 또는 화상 데이터 Vb´와의 사이의 예측을, 선택적으로 행한다.
인코드부(106-2)는, 전송용의 고품질 포맷 화상 데이터 Vh2´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch2를 얻는다. 이 경우, 인코드부(106-2)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh2´ 내의 예측, 또는 화상 데이터 Vb´와의 사이의 예측을, 선택적으로 행한다.
인코드부(106-3)는, 전송용의 고품질 포맷 화상 데이터 Vh3´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리를 행하여, 부호화 화상 데이터 Ch3를 얻는다. 이 경우, 인코드부(106-3)는, 예측 잔차를 작게 하기 위해서, 부호화 블록마다, 화상 데이터 Vh3´ 내의 예측, 또는 화상 데이터 Vh2´와의 사이의 예측을, 선택적으로 행한다.
도 4는, 인코드부(160)의 주요부의 구성예를 도시하고 있다. 이 인코드부(160)는 인코드부(106-1, 106-2, 106-3)에 적용할 수 있는 것이다. 이 인코드부(160)는 레이어 내 예측부(161)와, 레이어 간 예측부(162)와, 예측 조정부(163)와, 선택부(164)와, 인코드 기능부(165)를 갖고 있다.
레이어 내 예측부(161)는 부호화 대상의 화상 데이터 V1에 대하여 이 화상 데이터 V1 내에서의 예측(레이어 내 예측)을 행하여 예측 잔차 데이터를 얻는다. 레이어 간 예측부(162)는 부호화 대상의 화상 데이터 V1에 대하여 참조 대상의 화상 데이터 V2와의 사이에서의 예측(레이어 간 예측)을 행하여 예측 잔차 데이터를 얻는다.
예측 조정부(163)는 레이어 간 예측부(162)에 있어서의 레이어 간 예측을 효율적으로 행하기 위해서, 화상 데이터 V1의, 화상 데이터 V2에 대한 스케일러블 확장의 타입에 따라, 이하의 처리를 행한다. 다이내믹 레인지 확장의 경우에는, LDR로부터 HDR로 변환하기 위한 레벨 조정을 행한다. 공간 스케일러블 확장의 경우에는, 다른 레이어의 블록을 소정의 사이즈로 스케일링 처리를 실시한 것을 대상으로 한다. 프레임 레이트 확장의 경우에는, 바이패스한다. 색 영역 확장의 경우에는, 휘도·색차 각각에 대하여 맵핑을 행한다. 비트 길이 확장의 경우에는, 화소의 MSB를 정렬시키는 변환을 행한다.
예를 들어, 인코드부(106-1)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh1´(100Hz, LDR)이며, 화상 데이터 V2는 기본 포맷 화상 데이터 Vb´(50Hz, LDR)이며, 스케일러블 확장의 타입은 프레임 레이트 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´가 그대로 바이패스된다.
또한, 예를 들어, 인코드부(106-2)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh2´(50Hz, HDR)이며, 화상 데이터 V2는 기본 포맷 화상 데이터 Vb´(50Hz, LDR)이며, 스케일러블 확장의 타입은 다이내믹 레인지 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´에 대하여 LDR로부터 HDR로 변환하기 위한 레벨 조정이 행하여진다. 또한, 레벨 조정은, 다이내믹 레인지 변환부(153)로부터 공급되는 정보를 바탕으로 행하여져도 된다.
또한, 예를 들어, 인코드부(106-3)의 경우, 화상 데이터 V1은 고품질 포맷 화상 데이터 Vh3´(100Hz, HDR)이며, 화상 데이터 V2는 고품질 포맷 화상 데이터 Vh2´(50Hz, HDR)이며, 스케일러블 확장의 타입은 프레임 레이트 확장에 해당한다. 그로 인해, 예측 조정부(163)에서는, 화상 데이터 Vb´가 그대로 바이패스된다.
선택부(164)는 부호화 블록마다, 레이어 내 예측부(161)에서 얻어지는 예측 잔차 데이터, 또는 레이어 간 예측부(162)에서 얻어지는 예측 잔차 데이터를 선택적으로 취출하여, 인코드 기능부(165)로 보낸다. 이 경우, 선택부(164)에서는, 예를 들어, 예측 잔차가 작은 쪽이 취출된다. 인코드 기능부(165)는 선택부(164)로부터 취출된 예측 잔차 데이터에 대하여 변환 부호화, 양자화, 엔트로피 부호화 등의 인코드 처리를 행하여, 부호화 화상 데이터 CV를 얻는다.
도 2로 돌아가서, 비디오 인코더(106)는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3 각각에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입한다. 비디오 인코더(106)는 이 식별 정보를, 예를 들어, NAL 유닛의 헤더에 삽입한다.
도 5의 (a)는 NAL 유닛 헤더의 구조예(Syntax)를 도시하고, 도 5의 (b)는 그 구조예에 있어서의 주요한 파라미터의 내용(Semantics)을 도시하고 있다. 「forbidden_zero_bit」의 1비트 필드는, 0이 필수이다. 「nal_unit_type」의 6비트 필드는, NAL 유닛 타입을 나타낸다. 「nuh_layer_id」의 6비트 필드는, 스트림의 레이어 확장 종별을 나타내는 ID이다. 「nuh_temporal_id_plus1」의 3비트 필드는, temporal_id(0 내지 6)를 나타내고, 1을 더한 값(1 내지 7)을 취한다.
이 실시 형태에 있어서, 「nuh_layer_id」의 6비트 필드는, 당해 NAL 유닛(부호화 화상 데이터)이 대응하는 포맷을 식별하기 위한 식별 정보를 나타낸다. 예를 들어, "0"은, 기본을 나타낸다. "1"은, 공간 확장을 나타낸다. "2"는, 프레임 레이트 확장을 나타낸다. "3"은, 비트 길이 확장을 나타낸다. "4"는, 다이내믹 레인지 확장을 나타낸다. "5"는, 광색 영역 확장을 나타낸다. "6"은, 프레임 레이트 확장과 다이내믹 레인지 확장을 나타낸다. "7"은, 공간 확장과 프레임 레이트 확장을 나타낸다.
부호화 화상 데이터 Cb는 기본 포맷 화상 데이터 Vb에 대응하고, 이 부호화 화상 데이터 Cb의 「nuh_layer_id」는 "0"으로 된다. 또한, 부호화 화상 데이터 Ch1은, 프레임 레이트 확장 포맷 화상 데이터 Vh1에 대응하고, 이 부호화 화상 데이터 Ch1의 「nuh_layer_id」는 "2"로 된다. 또한, 부호화 화상 데이터 Ch2는, 다이내믹 레인지 확장 포맷 화상 데이터 Vh2에 대응하고, 이 부호화 화상 데이터 Ch2의 「nuh_layer_id」는 "4"로 된다. 또한, 부호화 화상 데이터 Ch3는, 프레임 레이트 확장과 다이내믹 레인지 확장의 포맷 화상 데이터 Vh3에 대응하고, 이 부호화 화상 데이터 Ch3 「nuh_layer_id」는 "6"으로 된다.
도 6은, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 구성예를 도시하고 있다. 횡축은 표시순(POC: picture order of composition)을 나타내고, 좌측은 표시 시각이 전이고, 우측은 표시 시각이 후로 된다. 직사각형 프레임 각각이 픽처를 나타내고, 화살표는, 예측 부호화 처리에 있어서의 픽처의 참조 관계의 일례를 도시하고 있다. 레이어 간, 레이어 내의 양쪽 모두 예측은 블록마다 대상 픽처가 바뀌고, 또한, 예측의 방향, 참조수는 도시된 예에 한정되는 것은 아니다.
부호화 화상 데이터 Cb는, 「00」, 「01」, ···의 픽처의 부호화 화상 데이터로 구성된다. 부호화 화상 데이터 Ch1은, 부호화 화상 데이터 Cb의 각 픽처의 사이에 위치하는 「10」, 「11」, ···의 픽처의 부호화 화상 데이터로 구성된다. 부호화 화상 데이터 Ch2는, 부호화 화상 데이터 Cb의 각 픽처와 동일 위치의 「20」, 「21」, ···의 픽처의 부호화 화상 데이터로 구성된다. 그리고, 부호화 화상 데이터 Ch3는, 부호화 화상 데이터 Ch2의 각 픽처의 사이에 위치하는 「30」, 「31」, ···의 픽처의 부호화 화상 데이터로 구성된다.
도 2로 돌아가서, 시스템 인코더(107)는 비디오 인코더(106)에서 생성된 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 사용하여, 비디오 스트림을 생성하고, PES 패킷화 및 TS 패킷화를 행하고, 트랜스포트 스트림 TS를 생성한다. 그리고, 송신부(108)는 이 트랜스포트 스트림 TS를, 방송파 또는 네트워크의 패킷에 실어, 수신 장치(200)로 송신한다.
여기서, 2 스트림 구성의 경우, 시스템 인코더(107)는 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림을 생성한다. 즉, 이 경우, 트랜스포트 스트림 TS는, 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림을 갖는 것이 된다.
또한, 1 스트림 구성의 경우, 시스템 인코더(107)는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 비디오 스트림을 생성한다. 즉, 이 경우, 트랜스포트 스트림 TS는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림을 갖는 것이 된다.
시스템 인코더(107)는 컨테이너(트랜스포트 스트림)의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입한다.
이 실시 형태에 있어서, 2 스트림 구성의 경우, PMT(Program Map Table)의 관리 하에 존재하는 확장 비디오 스트림(부호화 데이터 Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)를 삽입한다. 이 경우, 부호화 화상 데이터 Ch1, Ch2, Ch3에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의한다.
또한, 이 실시 형태에 있어서, 1 스트림 구성의 경우, PMT(Program Map Table)의 관리 하에 존재하는 비디오 스트림(부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)를 삽입한다. 이 경우, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의한다.
도 7은, 이 스케일러블 익스텐션 디스크립터의 구조예(Syntax)를 도시하고 있다. 도 8은, 도 7에 도시하는 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다. 「descriptor_tag」이라는 8비트 필드는, 디스크립터 타입을 나타내고, 여기에서는, 스케일러블 익스텐션 디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는, 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서 이후의 바이트수를 나타낸다.
「Extended_spatial_resolution_flag」이라는 플래그는, 공간 해상도의 확장 성분을 포함하는지를 나타낸다. "1"은 공간 해상도 확장 성분을 포함하는 것을 나타내고, "0"은 공간 해상도 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_frame_rate_flag」이라는 플래그는, 프레임 레이트 확장 성분을 포함하는지를 나타낸다. "1"은 프레임 레이트 확장 성분을 포함하는 것을 나타내고, "0"은 프레임 레이트 확장 성분을 포함하지 않는 것을 나타낸다.
「Extended_bit_depth_flag」이라는 플래그는, 비트 길이 확장 성분을 포함하는지를 나타낸다. "1"은 비트 길이 확장 성분을 포함하는 것을 나타내고, "0"은 비트 길이 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_dynamic_range_flag」이라는 플래그는, 다이내믹 레인지 확장 성분을 포함하는지를 나타낸다. "1"은 다이내믹 레인지 확장 성분을 포함하는 것을 나타내고, "0"은 다이내믹 레인지 확장 성분을 포함하지 않는 것을 나타낸다. 「Extended_color_gamut_flag」이라는 플래그는, 색 영역 확장 성분을 포함하는지를 나타낸다. "1"은 색 영역 확장 성분을 포함하는 것을 나타내고, "0"은 색 영역 확장 성분을 포함하지 않는 것을 나타낸다.
「number_of_layerIDs」의 8비트 필드는, 스트림이 포함하는 레이어수를 나타낸다. 레이어수분만큼 「layerID」의 6비트 필드가 존재한다. 이 「layerID」라는 필드는, 레이어 ID(Layer_id)를 나타낸다.
여기서, 2 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 화상 데이터 Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layerIDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "2", "4", "6"이 설정된다.
이와 같은 설정에 의해, 「layerID」="2"는 프레임 레이트 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="4"는 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
또한, 1 스트림 구성의 경우이며, 비디오 스트림에 부호화 데이터 Cb, Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layerIDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "2", "4", "6"이 설정된다.
이와 같은 설정에 의해, 「layerID」="0"은 기본을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="2"는 프레임 레이트 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="4"는 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「layerID」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장을 나타내고, 따라서 NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 9는, NAL 유닛 헤더의 「nuh_layer_id」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 나타내고 있다. 즉, 스트림에, 「nuh_layer_id」="0"인 기본 포맷의 부호화 화상 데이터(기본 성분)가 포함되는 경우, 「layerID」로서, "0"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="1"인 공간 확장의 부호화 화상 데이터(공간 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」은 "1"로 되고, 「layerID」로서, "1"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="2"인 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」은 "1"로 되고, 「layerID」로서, "2"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="3"인 프레임 레이트 확장의 부호화 화상 데이터(비트 길이 확장 성분)가 포함되는 경우, 「Extended_bit_depth_flag」은 "1"로 되고, 「layerID」로서, "3"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="4"인 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="5"인 색 영역 확장의 부호화 화상 데이터(색 영역 확장 성분)가 포함되는 경우, 「Extended_color_gamut_flag」은 "1"로 되고, 「layerID」로서, "5"가 설정된다.
또한, 스트림에, 「nuh_layer_id」="6"인 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분과 다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "6"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="7"인 공간 확장과 프레임 레이트 확장의 부호화 화상 데이터(공간 확장 성분과 프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」 및 「Extended_frame_rate_flag」은 "1"로 되고, 「layerID」로서, "7"이 설정된다.
[트랜스포트 스트림 TS의 구성]
도 10은, 2 스트림 구성의 경우에 있어서의 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 이 트랜스포트 스트림 TS에는, 기본 비디오 스트림 STb와 확장 비디오 스트림 STe의 2개의 비디오 스트림이 포함되어 있다. 이 구성예에서는, 각 비디오 스트림의 PES 패킷 「video PES」가 존재한다.
기본 비디오 스트림 STb의 패킷 식별자(PID)는 예를 들어 PID1로 되어 있다. 이 기본 비디오 스트림 STb에는, 기본 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다. 이 기본 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 이 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, 예를 들어, "0"으로 되어, 기본 포맷에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 확장 비디오 스트림 STe의 패킷 식별자(PID)는 예를 들어 PID2로 되어 있다. 이 확장 비디오 스트림 STe에는, 프레임 레이트 확장, 다이내믹 레인지 확장, 나아가 프레임 레이트 확장 및 다이내믹 레인지 확장의 3가지의 고품질 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다. 이 고품질 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다.
또한, 기본 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS와, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, 「nal_unit_type」의 값은 동일하고, 그 중에 익스텐션을 포함하는지 여부가 상이하다. 즉, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, SPS 익스텐션을 포함한다. 또한, 기본 포맷의 SPS와 고품질 포맷의 SPS를 다른 「nal_unit_type」의 값으로 하는 것도 가능하다.
프레임 레이트 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "2"로 되어, 프레임 레이트 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "4"로 되어, 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "6"으로 되어, 프레임 레이트 확장 및 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 트랜스포트 스트림 TS에는, PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다.
PMT에는, 프로그램 전체에 관련된 정보를 기술하는 프로그램 루프(Program loop)가 존재한다. 또한, PMT에는, 각 엘리멘터리 스트림에 관련한 정보를 갖는 엘리멘터리 스트림 루프가 존재한다. 이 구성예에서는, 기본 비디오 스트림 STb와 확장 비디오 스트림 STe의 2개의 비디오 스트림에 대응하여 2개의 비디오 엘리멘터리 스트림 루프(video ES loop)가 존재한다. 기본 비디오 스트림 STb에 대응한 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST0), 패킷 식별자(PID1) 등의 정보가 배치된다.
또한, 확장 비디오 스트림 STe에 대응한 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST1), 패킷 식별자(PID2) 등의 정보가 배치됨과 함께, 이 확장 비디오 스트림 STe에 관련하는 정보를 기술하는 디스크립터도 배치된다. 이 디스크립터의 하나로서, 상술한 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)(도 7 참조)가 삽입된다.
이 디스크립터에 있어서, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정되고, 「number_of_layerIDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "2", "4", "6"이 설정된다. 이에 의해, NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 11은, 1 스트림 구성의 경우에 있어서의 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 이 트랜스포트 스트림 TS에는, 1개의 비디오 스트림 ST가 포함되어 있다. 이 구성예에서는, 이 비디오 스트림 ST의 PES 패킷 「video PES」가 존재한다.
이 비디오 스트림 ST의 패킷 식별자(PID)는 예를 들어 PID1로 되어 있다. 이 비디오 스트림 ST에는, 기본 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있음과 함께, 프레임 레이트 확장, 다이내믹 레인지 확장, 나아가 프레임 레이트 확장 및 다이내믹 레인지 확장의 3가지의 고품질 포맷의 각 픽처의 부호화 화상 데이터가 포함되어 있다.
기본 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, VPS, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 이 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, 예를 들어, "0"으로 되어, 기본 포맷에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 고품질 포맷의 각 픽처의 부호화 화상 데이터에는, AUD, SPS, PPS, PSEI, SLICE, SSEI, EOS 등의 NAL 유닛이 존재한다. 또한, 기본 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS와, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, 「nal_unit_type」의 값은 동일하고, 그 중에 익스텐션을 포함하는지 여부가 상이하다. 즉, 고품질 포맷의 각 픽처의 부호화 화상 데이터에 있어서의 SPS는, SPS 익스텐션을 포함한다.
프레임 레이트 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "2"로 되어, 프레임 레이트 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "4"로 되어, 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 각 픽처의 부호화 화상 데이터를 구성하는 NAL 유닛의 헤더에 있어서의 「nuh_layer_id」는, "6"으로 되어, 프레임 레이트 확장 및 다이내믹 레인지 확장에 관한 부호화 화상 데이터인 것이 나타난다.
또한, 트랜스포트 스트림 TS에는, PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다.
PMT에는, 프로그램 전체에 관련하는 정보를 기술하는 프로그램 루프(Program loop)가 존재한다. 또한, PMT에는, 각 엘리멘터리 스트림에 관련한 정보를 갖는 엘리멘터리 스트림 루프가 존재한다. 이 구성예에서는, 1개의 비디오 스트림 ST에 대응하여 1개의 비디오 엘리멘터리 스트림 루프(video ES loop)가 존재한다.
이 비디오 엘리멘터리 스트림 루프에는, 스트림 타입(ST0), 패킷 식별자(PID1) 등의 정보가 배치됨과 함께, 이 비디오 스트림 ST에 관련하는 정보를 기술하는 디스크립터도 배치된다. 이 디스크립터의 하나로서, 상술한 스케일러블 익스텐션 디스크립터(Scalable extension descriptor)(도 7 참조)가 삽입된다.
이 디스크립터에 있어서, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정되고, 「number_of_layerIDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "2", "4", "6"이 설정된다. 이에 의해, NAL 유닛의 헤더의 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. NAL 유닛의 헤더의 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, NAL 유닛의 헤더의 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 2에 도시하는 송신 장치(100)의 동작을 간단하게 설명한다. 프레임 주파수가 50Hz인 LDR 화상 데이터인 기본 포맷 화상 데이터 Vb는, LDR 광전 변환부(102)에 공급된다. 이 LDR 광전 변환부(102)에서는, 기본 포맷 화상 데이터 Vb에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)이 적용되어서, 전송용의 기본 포맷 화상 데이터 Vb´가 얻어진다. 이 기본 포맷 화상 데이터 Vb´는, 비디오 인코더(106)의 인코드부(106-0, 106-1, 106-2)에 공급된다.
또한, 프레임 주파수가 100Hz인 LDR 화상 데이터인 고품질 포맷 화상 데이터 Vh1은, LDR 광전 변환부(103)에 공급된다. 이 LDR 광전 변환부(103)에서는, 고품질 포맷 화상 데이터 Vh1에 대하여 LDR 화상용의 광전 변환 특성(LDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh1´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh1´는, 비디오 인코더(106)의 인코드부(106-1)에 공급된다.
또한, 프레임 주파수가 50Hz인 HDR 화상 데이터인 고품질 포맷 화상 데이터 Vh2는, HDR 광전 변환부(104)에 공급된다. 이 HDR 광전 변환부(104)에서는, 고품질 포맷 화상 데이터 Vh2에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh2´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh2´는, 비디오 인코더(106)의 인코드부(106-2, 106-3)에 공급된다.
또한, 프레임 주파수가 100Hz인 HDR 화상 데이터인 고품질 포맷 화상 데이터 Vh3는, HDR 광전 변환부(105)에 공급된다. 이 HDR 광전 변환부(105)에서는, 고품질 포맷 화상 데이터 Vh3에 대하여 HDR 화상용의 광전 변환 특성(HDR OETF 커브)이 적용되어서, 전송용의 고품질 포맷 화상 데이터 Vh3´가 얻어진다. 이 고품질 포맷 화상 데이터 Vh3´는, 비디오 인코더(106)의 인코드부(106-3)에 공급된다.
비디오 인코더(106)에서는, 기본 포맷 화상 데이터 Vb´, 고품질 포맷 화상 데이터 Vh1´, Vh2´, Vh3´ 각각에 대하여 부호화 처리가 실시되어서, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3가 생성된다. 즉, 인코드부(106-0)에서는, 전송용의 기본 포맷 화상 데이터 Vb´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Cb가 얻어진다.
또한, 인코드부(106-1)에서는, 전송용의 고품질 포맷 화상 데이터 Vh1´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch1이 얻어진다. 또한, 인코드부(106-2)에서는, 전송용의 고품질 포맷 화상 데이터 Vh2´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch2가 얻어진다. 또한, 인코드부(106-3)에서는, 전송용의 고품질 포맷 화상 데이터 Vh3´에 대하여 H.264/AVC, H.265/HEVC 등의 예측 부호화 처리가 행하여져서, 부호화 화상 데이터 Ch3가 얻어진다.
비디오 인코더(106)에서는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3 각각에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다. 즉, 비디오 인코더(106)에서는, NAL 유닛의 헤더의 「nuh_layer_id」라는 필드에, 당해 NAL 유닛(부호화 화상 데이터)이 대응하는 포맷을 식별하기 위한 식별 정보가 삽입된다.
비디오 인코더(106)에서 얻어지는 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3는, 시스템 인코더(107)에 공급된다. 시스템 인코더(107)에서는, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 사용하여, 비디오 스트림이 생성되어, PES 패킷화 및 TS 패킷화가 행하여져서, 트랜스포트 스트림 TS가 생성된다.
여기서, 2 스트림 구성의 경우, 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림이 생성된다. 또한, 1 스트림 구성의 경우, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림이 생성된다.
시스템 인코더(107)에서는, 컨테이너(트랜스포트 스트림)의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입된다.
여기서, 2 스트림 구성의 경우, PMT의 관리 하에 존재하는 확장 비디오 스트림(부호화 화상 데이터 Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터가 삽입된다. 또한, 1 스트림 구성의 경우, PMT의 관리 하에 존재하는 비디오 스트림(부호화 화상 데이터 Cb, Ch1, Ch2, Ch3를 포함한다)에 대응한 비디오 엘리멘터리 스트림 루프 중에, 스케일러블 익스텐션 디스크립터가 삽입된다.
시스템 인코더(107)에서 생성되는 트랜스포트 스트림 TS는, 송신부(108)로 보내진다. 송신부(108)에서는, 이 트랜스포트 스트림 TS가, 방송파 또는 네트워크의 패킷에 실어, 수신 장치(200)로 송신된다.
「수신 장치의 구성」
도 12는, 수신 장치(200)의 구성예를 도시하고 있다. 이 수신 장치(200)는 도 2의 송신 장치(100)의 구성예에 대응한 것이다. 이 수신 장치(200)는 제어부(201)와, 수신부(202)와, 시스템 디코더(203)와, 압축 데이터 버퍼(cpb)(204)와, 비디오 디코더(205)와, LDR 전광 변환부(206, 207)와, HDR 전광 변환부(208, 209)와, 표시부(표시 디바이스)(210)를 갖고 있다.
제어부(201)는 CPU(Central Processing Unit)를 구비하여 구성되고, 제어 프로그램에 기초하여, 수신 장치(200)의 각 부의 동작을 제어한다. 수신부(202)는 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS를 수신한다. 시스템 디코더(203)는 이 트랜스포트 스트림 TS로부터 비디오 스트림을 추출한다.
2 스트림 구성의 경우(도 10 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림을 추출한다. 또한, 1 스트림 구성의 경우(도 11 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb 및 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림을 추출한다.
또한, 시스템 디코더(203)는 컨테이너(트랜스포트 스트림)의 레이어에 삽입되어 있는 여러가지 정보를 추출하고, 제어부(201)로 보낸다. 이 정보에는, 상술한 스케일러블 익스텐션 디스크립터도 포함된다. 제어부(201)는 이 디스크립터에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보(이 실시 형태에 있어서는, NAL 유닛의 헤더의 「nuh_layer_id」)가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
압축 데이터 버퍼(204)는 시스템 디코더(203)로 추출되는 비디오 스트림을, 일시적으로 축적한다. 비디오 디코더(205)는 4개의 디코드부(205-0, 205-1, 205-2, 205-3)를 갖는다. 디코드부(205-0)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 기본 포맷의 부호화 화상 데이터(기본 성분) Cb에 대하여 복호화 처리를 행하여, 기본 포맷 화상 데이터 Vb´를 생성한다. 이 경우, 디코드부(205-0)는, 화상 데이터 Vb´ 내에서 예측 보상을 행한다.
디코드부(205-1)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분) Ch1에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh1´를 생성한다. 이 경우, 디코드부(205-1)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh1´ 내의 예측 보상, 또는 화상 데이터 Vb´와의 사이의 예측 보상을 행한다.
디코드부(205-2)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분) Ch2에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh2´를 생성한다. 이 경우, 디코드부(205-2)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh2´ 내의 예측 보상, 또는 화상 데이터 Vb´와의 사이의 예측 보상을 행한다.
디코드부(205-3)는, 압축 데이터 버퍼(204)로부터 선택적으로 판독되는, 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분과 다이내믹 레인지 확장 성분) Ch3에 대하여 복호화 처리를 행하여, 고품질 포맷 화상 데이터 Vh3´를 생성한다. 이 경우, 디코드부(205-3)는, 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 화상 데이터 Vh3´ 내의 예측 보상, 또는 화상 데이터 Vh2´와의 사이의 예측 보상을 행한다.
도 13은, 디코드부(250)의 주요부의 구성예를 도시하고 있다. 이 디코드부(250)는 디코드부(205-1, 205-2, 205-3)에 적용할 수 있는 것이다. 이 디코드부(250)는 도 4의 인코드부(165)의 처리와는 역의 처리를 행한다. 이 디코드부(250)는 디코드 기능부(251)와, 레이어 내 예측 보상부(252)와, 레이어 간 예측 보상부(253)와, 예측 조정부(254)와, 선택부(255)를 갖고 있다.
디코드 기능부(251)는 부호화 화상 데이터 CV에 대하여 예측 보상 이외의 디코드 처리를 행하여 예측 잔차 데이터를 얻는다. 레이어 내 예측 보상부(252)는 예측 잔차 데이터에 대하여 화상 데이터 V1 내에서의 예측 보상(레이어 내 예측 보상)을 행하여, 화상 데이터 V1을 얻는다. 레이어 간 예측 보상부(253)는 예측 잔차 데이터에 대하여 참조 대상의 화상 데이터 V2와의 사이에서의 예측 보상(레이어 간 예측 보상)을 행하여, 화상 데이터 V1을 얻는다.
예측 조정부(254)는 상세 설명은 생략하지만, 도 4의 인코드부(160)의 예측 조정부(163)와 마찬가지로, 화상 데이터 V1의, 화상 데이터 V2에 대한 스케일러블 확장의 타입에 따른 처리를 행한다. 선택부(255)는 부호화 시에 있어서의 예측에 대응시켜서, 부호화 블록마다, 레이어 내 예측 보상부(252)에서 얻어지는 화상 데이터 V1, 또는 레이어 간 예측 보상부(253)에서 얻어지는 화상 데이터 V1을 선택적으로 취출하여, 출력으로 한다.
도 12로 돌아가서, LDR 전광 변환부(206)는 디코드부(205-0)에서 얻어지는 기본 포맷 화상 데이터 Vb´에, 상술한 송신 장치(100)에 있어서의 LDR 광전 변환부(102)와는 역특성의 전광 변환을 실시하여, 기본 포맷 화상 데이터 Vb를 얻는다. 이 기본 포맷 화상 데이터는, 프레임 주파수가 50Hz인 LDR 화상 데이터이다.
또한, LDR 전광 변환부(207)는 디코드부(205-1)에서 얻어지는 고품질 포맷 화상 데이터 Vh1´에, 상술한 송신 장치(100)에 있어서의 LDR 광전 변환부(103)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh1을 얻는다. 이 고품질 포맷 화상 데이터 Vh1은, 프레임 주파수가 100Hz인 LDR 화상 데이터이다.
또한, HDR 전광 변환부(208)는 디코드부(205-2)에서 얻어지는 고품질 포맷 화상 데이터 Vh2´에, 상술한 송신 장치(100)에 있어서의 HDR 광전 변환부(104)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh2를 얻는다. 이 고품질 포맷 화상 데이터 Vh2는, 프레임 주파수가 50Hz인 HDR 화상 데이터이다.
또한, HDR 전광 변환부(209)는 디코드부(205-3)에서 얻어지는 고품질 포맷 화상 데이터 Vh3´에, 상술한 송신 장치(100)에 있어서의 HDR 광전 변환부(105)와는 역특성의 전광 변환을 실시하여, 고품질 포맷 화상 데이터 Vh3를 얻는다. 이 고품질 포맷 화상 데이터 Vh3는, 프레임 주파수가 100Hz인 HDR 화상 데이터이다.
표시부(210)는 예를 들어, LCD(Liquid Crystal Display), 유기 EL(Organic Electro-Luminescence) 패널 등으로 구성되어 있다. 표시부(210)는 표시 능력에 따라, 기본 포맷 화상 데이터 Vb, 고품질 포맷 화상 데이터 Vh1, Vh2, Vh3 중 어느 하나에 의한 화상을 표시한다.
이 경우, 제어부(201)는 표시부(210)에 공급해야 할 화상 데이터를 제어한다. 이 제어는, 각 부호화 화상 데이터에 삽입되어 있는 기본 포맷, 고품질 포맷의 식별 정보와, 표시부(209)의 표시 능력 정보에 기초하여 행하여진다.
즉, 표시부(210)가 고프레임 주파수의 표시도, 고다이내믹 레인지의 표시도 불가능한 경우에는, 표시부(210)에 기본 포맷의 부호화 화상 데이터(기본 성분) Cb의 복호화에 관한 기본 포맷 화상 데이터 Vb가 공급되도록 제어한다. 이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, LDR 전광 변환부(206)가 기본 포맷 화상 데이터 Vb를 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시는 가능하지만 고다이내믹 레인지의 표시가 불가능한 경우에는, 표시부(210)에 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분) Ch1의 복호화에 관한 고품질 포맷 화상 데이터 Vh1이 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 프레임 레이트 확장의 부호화 화상 데이터 Ch1을 선택적으로 취출하여 디코드부(205-1)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-1)가 부호화 화상 데이터 Ch1을 복호화하고, LDR 전광 변환부(207)가 고품질 포맷 화상 데이터 Vh1을 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시는 불가능하지만 고다이내믹 레인지의 표시가 가능한 경우에는, 표시부(210)에 다이내믹 레인지 확장의 부호화 화상 데이터(다이내믹 레인지 확장 성분) Ch2의 복호화에 관한 고품질 포맷 화상 데이터 Vh2가 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2를 선택적으로 취출하여 디코드부(205-2)로 보낸다. 그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-2)가 부호화 화상 데이터 Ch2를 복호화하고, LDR 전광 변환부(208)가 고품질 포맷 화상 데이터 Vh2를 출력하도록 제어한다.
또한, 표시부(210)가 고프레임 주파수의 표시도, 고다이내믹 레인지의 표시도 가능한 경우에는, 표시부(210)에 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분 및 다이내믹 레인지 확장 성분) Ch3의 복호화에 관한 고품질 포맷 화상 데이터 Vh3가 공급되도록 제어한다.
이 경우, 제어부(201)는 압축 데이터 버퍼(204)로부터 기본 포맷의 부호화 화상 데이터 Cb를 선택적으로 취출하여 디코드부(205-0)로 보냄과 함께, 압축 데이터 버퍼(204)로부터 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2를 선택적으로 취출하여 디코드부(205-1)로 보내고, 또한, 압축 데이터 버퍼(204)로부터 프레임 레이트 확장과 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3를 선택적으로 취출하여 디코드부(205-3)로 보낸다.
그리고, 제어부(201)는 디코드부(205-0)가 부호화 화상 데이터 Cb를 복호화하고, 디코드부(205-2)가 부호화 화상 데이터 Ch2를 복호화하고, 디코드부(205-3)가 부호화 화상 데이터 Ch3를 복호화하고, HDR 전광 변환부(209)가 고품질 포맷 화상 데이터 Vh3를 출력하도록 제어한다.
도 14는, 2 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)(204)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하고 있다.
2 스트림 구성의 경우, 도 14의 (a)에 도시한 바와 같이, 압축 데이터 버퍼(cpb)(204)로부터, 기본 비디오 스트림(PID1)에 포함되어 있던 기본 포맷의 부호화 화상 데이터 Cb 및 확장 비디오 스트림(PID2)에 포함되어 있던 고품질 포맷의 부호화 화상 데이터 Ch1, Ch2, Ch3의 각 픽처의 부호화 화상 데이터가 순차 판독되어 간다.
여기서, 「00」, 「01」, ···은, 부호화 화상 데이터 Cb를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "0"으로 설정되어 있다. 제어부(201)는 이 부호화 화상 데이터 Cb가 기본 비디오 스트림에 포함되어 있던 것이라는 점에서, 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「10」, 「11」, ···은, 부호화 화상 데이터 Ch1을 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "2"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「20」, 「21」, ···은, 부호화 화상 데이터 Ch2를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "4"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「30」, 「31」, ···은, 부호화 화상 데이터 Ch3를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "6"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
압축 데이터 버퍼(204)로부터 판독된 각 픽처의 부호화 화상 데이터는, 도 14의 (b)에 도시한 바와 같이, 「nuh_layer_id」에 기초하여, 대응하는 디코드부로 보내진다. 이 경우, 디코드에 관계하지 않는 레이어의 부호화 화상 데이터는. 읽고 버려진다. 도시된 예는, 전부를 디코드하는 경우의 예를 도시하고 있다.
도 15는, 1 스트림 구성의 경우에 있어서의 압축 데이터 버퍼(cpb)(204)의 출력과, 「nuh_layer_id」에 의한 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 대응하는 디코드부에의 배분을 개략적으로 도시하고 있다.
1 스트림 구성의 경우, 도 15의 (a)에 도시한 바와 같이, 압축 데이터 버퍼(cpb)(204)로부터, 1개의 비디오 스트림(PID1)에 포함되어 있던 기본 포맷의 부호화 화상 데이터 Cb 및 고품질 포맷의 부호화 화상 데이터 Ch1, Ch2, Ch3의 각 픽처의 부호화 화상 데이터가 순차 판독되어 간다.
여기서, 「00」, 「01」, ···은, 부호화 화상 데이터 Cb를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "0"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="0"은 기본 포맷의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「10」, 「11」, ···은, 부호화 화상 데이터 Ch1을 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "2"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="2"는 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「20」, 「21」, ···은, 부호화 화상 데이터 Ch2를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "4"로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="4"는 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
또한, 「30」, 「31」, ···은, 부호화 화상 데이터 Ch3를 구성하는 각 픽처의 부호화 화상 데이터를 나타내고 있고, NAL 유닛의 헤더의 「nuh_layer_id」는 "6"으로 설정되어 있다. 제어부(201)는 스케일러블 익스텐션 디스크립터에 의한 정의로부터, 「nuh_layer_id」="6"은 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것으로 파악한다.
압축 데이터 버퍼(204)로부터 판독된 각 픽처의 부호화 화상 데이터는, 도 15의 (b)에 도시한 바와 같이, 「nuh_layer_id」에 기초하여, 대응하는 디코드부로 보내진다. 이 경우, 디코드에 관계하지 않는 레이어의 부호화 화상 데이터는. 읽고 버려진다. 도시된 예는, 전부를 디코드하는 경우의 예를 도시하고 있다.
도 16의 흐름도는, 제어부(201)가 표시 능력 정보(표시 성능 정보)로부터, 디코드 범위를 판단하는 처리의 일례를 도시하고 있다. 제어부(201)는 스텝 ST1에 있어서, 처리를 개시한다.
이어서, 제어부(201)는 스텝 ST2에 있어서, 스케일러블 익스텐션 디스크립터를 참조하여, 각 포맷의 「nuh_layer_id」를 파악한다. 이 실시 형태에서는, 기본 포맷에서는 「nuh_layer_id」="0"이고, 프레임 레이트 확장에서는 「nuh_layer_id」="2"이고, 다이내믹 레인지 레이트 확장에서는 「nuh_layer_id」="4"이고, 프레임 레이트 확장 및 다이내믹 레인지 레이트 확장에서는 「nuh_layer_id」="6"인 것을 파악한다.
이어서, 제어부(201)는 스텝 ST3에 있어서, 100p HDR의 표시, 즉 프레임 주파수 100Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST4에 있어서, 「nuh_layer_id」가 "0", "4", "6"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch2, Ch3를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST3에서 가능하지 않을 때, 제어부(201)는 스텝 ST5에 있어서, 50p HDR의 표시, 즉 프레임 주파수 50Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST6에 있어서, 「nuh_layer_id」가 "0", "4"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch2를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST5에서 가능하지 않을 때, 제어부(201)는 스텝 ST7에 있어서, 100p LDR의 표시, 즉 프레임 주파수 100Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST8에 있어서, 「nuh_layer_id」가 "0", "2"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb, Ch1을 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다.
스텝 ST7에서 가능하지 않을 때, 제어부(201)는 스텝 ST9에 있어서, 50p LDR의 표시, 즉 프레임 주파수 50Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST10에 있어서, 「nuh_layer_id」가 "0"인 부호화 화상 데이터, 즉 부호화 화상 데이터 Cb를 디코드 범위로 하고, 그 후, 스텝 ST11에 있어서, 처리를 종료한다. 또한, 스텝 ST9에서 가능하지 않을 때, 제어부(201)는 스텝 ST11에 있어서, 처리를 종료한다.
도 12에 도시하는 수신 장치(200)의 동작을 간단하게 설명한다. 수신부(202)에서는, 송신 장치(100)로부터 방송파 또는 네트워크의 패킷에 실어서 보내져 오는 트랜스포트 스트림 TS가 수신된다. 이 트랜스포트 스트림 TS는, 시스템 디코더(203)에 공급된다. 시스템 디코더(203)에서는, 이 트랜스포트 스트림 TS로부터 비디오 스트림이 추출된다. 이 비디오 스트림은, 압축 데이터 버퍼(204)에 일시적으로 축적된다.
여기서, 2 스트림 구성의 경우(도 10 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb를 포함하는 기본 비디오 스트림과 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 확장 비디오 스트림의 2개의 비디오 스트림이 추출된다. 또한, 1 스트림 구성의 경우((도 11 참조), 기본 포맷 화상 데이터의 부호화 화상 데이터 Cb 및 고품질 포맷 화상 데이터의 부호화 화상 데이터 Ch1, Ch2, Ch3를 포함하는 1개의 비디오 스트림이 추출된다.
또한, 시스템 디코더(203)에서는, 컨테이너(트랜스포트 스트림)의 레이어에 삽입되어 있는 여러가지 정보가 추출되어, 제어부(201)로 보내진다. 이 정보에는, 스케일러블 익스텐션 디스크립터도 포함된다. 제어부(201)에서는, 이 디스크립터에 기초하여, 부호화 화상 데이터에 삽입되어 있는 식별 정보(이 실시 형태에 있어서는, NAL 유닛의 헤더의 「nuh_layer_id」)가 어떠한 포맷의 부호화 화상 데이터를 나타내는지가 파악된다.
표시부(210)가 고프레임 주파수의 표시도 고다이내믹 레인지의 표시도 불가능한 경우에는, LDR 전광 변환부(206)로부터 표시부(210)에 기본 포맷 화상 데이터 Vb가 공급된다. 표시부(210)에는, 이 기본 포맷 화상 데이터 Vb, 즉 프레임 주파수 50Hz에서 LDR 화상 데이터에 의한 50p LDR 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다. 이 기본 포맷 화상 데이터 Vb´는, LDR 전광 변환부(206)에 공급된다. LDR 전광 변환부(206)에서는, 이 기본 포맷 화상 데이터 Vb´에 전광 변환이 실시되어, 기본 포맷 화상 데이터 Vb가 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시는 가능하지만 고다이내믹 레인지의 표시가 불가능한 경우에는, LDR 전광 변환부(207)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh1이 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh1, 즉 프레임 주파수가 100Hz에서 LDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "2"인 프레임 레이트 확장의 부호화 화상 데이터 Ch1이 선택적으로 취출되어서 디코드부(205-1)에 공급된다. 디코드부(205-1)에서는, 부호화 화상 데이터 Ch1에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh1´가 생성된다.
디코드부(205-1)에서 생성되는 고품질 포맷 화상 데이터 Vh1´는, LDR 전광 변환부(207)에 공급된다. LDR 전광 변환부(207)에서는, 이 고품질 포맷 화상 데이터 Vh1´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh1이 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시는 불가능하지만 고다이내믹 레인지의 표시가 가능한 경우에는, HDR 전광 변환부(208)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh2가 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh2, 즉 프레임 주파수가 50Hz에서 HDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "4"인 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2가 선택적으로 취출되어서 디코드부(205-2)에 공급된다. 디코드부(205-2)에서는, 부호화 화상 데이터 Ch2에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh2´가 생성된다.
디코드부(205-2)에서 생성되는 고품질 포맷 화상 데이터 Vh2´는, HDR 전광 변환부(208)에 공급된다. HDR 전광 변환부(208)에서는, 이 고품질 포맷 화상 데이터 Vh2´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh2가 얻어지고, 표시부(210)에 공급된다.
또한, 표시부(210)가 고프레임 주파수의 표시도 고다이내믹 레인지의 표시도 가능한 경우에는, HDR 전광 변환부(209)로부터 표시부(210)에 고품질 포맷 화상 데이터 Vh3가 공급된다. 표시부(210)에는, 이 고품질 포맷 화상 데이터 Vh3, 즉 프레임 주파수가 100Hz에서 HDR 화상 데이터에 의한 화상이 표시된다.
이 경우, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "0"인 기본 포맷의 부호화 화상 데이터 Cb가 선택적으로 취출되어서 디코드부(205-0)에 공급된다. 디코드부(205-0)에서는, 부호화 화상 데이터 Cb에 대하여 복호화 처리가 행하여져, 기본 포맷 화상 데이터 Vb´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "4"인 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2가 선택적으로 취출되어서 디코드부(205-2)에 공급된다. 디코드부(205-2)에서는, 부호화 화상 데이터 Ch2에 대하여 기본 포맷 화상 데이터 Vb´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh2´가 생성된다.
또한, 압축 데이터 버퍼(204)로부터 NAL 유닛의 헤더의 「nuh_layer_id」가 "6"인 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3가 선택적으로 취출되어서 디코드부(205-3)에 공급된다. 디코드부(205-3)에서는, 부호화 화상 데이터 Ch2에 대하여 고품질 포맷 화상 데이터 Vh2´가 참조되어서 복호화 처리가 행하여져, 고품질 포맷 화상 데이터 Vh3´가 생성된다.
디코드부(205-3)에서 생성되는 고품질 포맷 화상 데이터 Vh3´는, HDR 전광 변환부(209)에 공급된다. HDR 전광 변환부(209)에서는, 이 고품질 포맷 화상 데이터 Vh3´에 전광 변환이 실시되어, 고품질 포맷 화상 데이터 Vh3가 얻어지고, 표시부(210)에 공급된다.
이상 설명한 바와 같이, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)에서는, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 식별 정보에 기초하여, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것이 용이하게 가능해진다.
또한, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)에서는, 컨테이너의 레이어에, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되는 것이다. 그로 인해, 수신측에서는, 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를, 컨테이너의 레이어에서 미리 파악하는 것이 가능하게 된다.
<2. 변형예>
또한, 상술 실시 형태에 있어서는, 부호화 화상 데이터에 식별 정보를 삽입하기 위하여 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하는 예를 나타냈지만, 「nuh_layer_id」 및 「nuh_temporal_id_plus1」의 2개의 필드를 사용하는 것도 생각된다.
예를 들어, 부호화 화상 데이터 Cb, Ch1, Ch2, Ch3의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」은, 예를 들어, 도 17에 도시한 바와 같이, 설정된다. 즉, 기본 포맷의 부호화 화상 데이터 Cb에 대해서는, 「nuh_layer_id」는 "0"으로 되고, 「nuh_temporal_id_plus1」은 "1 내지 6"으로 된다. 또한, 프레임 레이트 확장의 부호화 화상 데이터 Ch1에 대해서는, 「nuh_layer_id」는 "0"으로 되고, 「nuh_temporal_id_plus1」은 "7"로 된다.
또한, 다이내믹 레인지 확장의 부호화 화상 데이터 Ch2에 대해서는, 「nuh_layer_id」는 "4"로 되고, 「nuh_temporal_id_plus1」은 "1 내지 6"으로 된다. 또한, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터 Ch3에 대해서는, 「nuh_layer_id」는 "4"로 되고, 「nuh_temporal_id_plus1」은 "7"로 된다.
이 경우, 스케일러블 익스텐션 디스크립터(도 7 참조)는 이하와 같이 설정된다. 즉, 2 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 데이터 Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layer IDs」는 "3"으로 설정되고, 「layerID」로서, 순서대로, "4", "4"가 설정된다.
이와 같은 설정에 의해, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"은 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"은 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"은, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
또한, 1 스트림 구성의 경우이며, 확장 비디오 스트림에 부호화 데이터 Cb, Ch1, Ch2, Ch3가 포함될 때, 「Extended_spatial_resolution_flag」, 「Extended_bit_depth_flag」 및 「Extended_color_gamut_flag」은 "0"으로 설정되고, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 설정된다. 또한, 「number_of_layer IDs」는 "4"로 설정되고, 「layerID」로서, 순서대로, "0", "0", "4", "4"가 설정된다.
이와 같은 설정에 의해, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"은 기본 포맷의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"은 프레임 레이트 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"은 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다. 또한, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"은, 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터를 나타내는 것이라 정의된다.
도 18은, NAL 유닛 헤더의 「nuh_layer_id」, 「nuh_temporal_id_plus1」의 값과, 스케일러블 익스텐션 디스크립터의 기술의 대응 관계를 도시하고 있다. 즉, 스트림에, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"인 기본 포맷의 부호화 화상 데이터(기본 성분)가 포함되는 경우, 「layerID」로서, "0"이 설정된다. 또한, 스트림에, 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"인 프레임 레이트 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_spatial_resolution_flag」은 "1"로 되고, 「layerID」로서, "0"이 설정된다.
또한, 스트림에, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"인 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분)가 포함되는 경우, 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다. 또한, 스트림에, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"인 프레임 레이트 확장 및 다이내믹 레인지 확장의 부호화 화상 데이터(프레임 레이트 확장 성분 및 다이내믹 레인지 확장 성분)가 포함되는 경우, 「Extended_frame_rate_flag」 및 「Extended_dynamic_range_flag」은 "1"로 되고, 「layerID」로서, "4"가 설정된다.
도 19의 흐름도는, 상술한 바와 같이 부호화 화상 데이터에 식별 정보를 삽입하기 위하여 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」의 2개의 필드를 사용한 경우에 있어서, 제어부(201)가 표시 능력 정보(표시 성능 정보)로부터, 디코드 범위를 판단하는 처리의 일례를 도시하고 있다.
제어부(201)는 스텝 ST21에 있어서, 처리를 개시한다. 이어서, 제어부(201)는 스텝 ST22에 있어서, 스케일러블 익스텐션 디스크립터를 참조하여, 각 포맷의 「nuh_layer_id」, 「nuh_temporal_id_plus1」을 파악한다.
여기에서는, 기본 포맷에서는 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="1 내지 6"이고, 프레임 레이트 확장에서는 「nuh_layer_id」="0", 「nuh_temporal_id_plus1」="7"이고, 다이내믹 레인지 확장에서는 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="1 내지 6"이고, 프레임 레이트 확장 및 다이내믹 레인지 확장에서는, 「nuh_layer_id」="4", 「nuh_temporal_id_plus1」="7"인 것을 파악한다.
이어서, 제어부(201)는 스텝 ST23에 있어서, 100p HDR의 표시, 즉 프레임 주파수가 100Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST24에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb와, 「nuh_layer_id」="4" 또한 「nuh_temporal_id_plus1」="1 내지 7"인 부호화 화상 데이터 Ch2, Ch3를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST23에서 가능하지 않을 때, 제어부(201)는 스텝 ST25에 있어서, 50p HDR의 표시, 즉 프레임 주파수가 50Hz에서 HDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST26에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb와, 「nuh_layer_id」="4" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Ch2를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST25에서 가능하지 않을 때, 제어부(201)는 스텝 ST27에 있어서, 100p LDR의 표시, 즉 프레임 주파수가 100Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST28에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 7"인 부호화 화상 데이터 Cb, Ch1을 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다.
스텝 ST27에서 가능하지 않을 때, 제어부(201)는 스텝 ST29에 있어서, 50p LDR의 표시, 즉 프레임 주파수가 50Hz에서LDR의 표시가 가능한지 여부를 판단한다. 가능할 때, 제어부(201)는 스텝 ST30에 있어서, 「nuh_layer_id」="0" 또한 「nuh_temporal_id_plus1」="1 내지 6"인 부호화 화상 데이터 Cb를 디코드 범위로 하고, 그 후, 스텝 ST31에 있어서, 처리를 종료한다. 또한, 스텝 ST29에서 가능하지 않을 때, 제어부(201)는 스텝 ST31에 있어서, 처리를 종료한다.
또한, 상술 실시 형태에 있어서는, 송신 장치(100)와 수신 장치(200)를 포함하는 송수신 시스템(10)을 나타냈지만, 본 기술을 적용할 수 있는 송수신 시스템의 구성은, 이것에 한정되는 것은 아니다. 예를 들어, 수신 장치(200)의 부분이, HDMI(High-Definition Multimedia Interface) 등의 디지털 인터페이스에서 접속된 셋톱 박스 및 모니터의 구성 등이어도 된다. 이 경우, 셋톱 박스는, 모니터로부터 EDID(Extended display identification data)를 취득하는 등 하여 표시 능력 정보를 얻을 수 있다. 또한, 「HDMI」는, 등록 상표이다.
또한, 상술 실시 형태에 있어서는, 컨테이너가 트랜스포트 스트림(MPEG-2 TS)인 예를 나타냈다. 그러나, 본 기술은, 인터넷 등의 네트워크를 이용하여 수신 단말기에 배신되는 구성의 시스템에도 마찬가지로 적용할 수 있다. 인터넷의 배신에서는, MP4나 그 이외의 포맷의 컨테이너로 배신되는 경우가 많다. 즉, 컨테이너로서는, 디지털 방송 규격으로 채용되고 있는 트랜스포트 스트림(MPEG-2 TS), 인터넷 배신에서 사용되고 있는 MP4 등의 다양한 포맷의 컨테이너가 해당한다.
또한, 본 기술은, 이하와 같은 구성을 취할 수도 있다.
(1) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치.
(2) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
상기 (1)에 기재된 송신 장치.
(3) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
상기 (2)에 기재된 송신 장치.
(4) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
상기 (2)에 기재된 송신 장치.
(5) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
상기 (1)부터 (4) 중 어느 하나에 기재된 송신 장치.
(6) 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 확장 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
상기 (5)에 기재된 송신 장치.
(7) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 방법.
(8) 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치.
(9) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
상기 (8)에 기재된 수신 장치.
(10) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하는
상기 (8) 또는 (9)에 기재된 수신 장치.
(11) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
상기 화상 부호화부는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 장치.
(12) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
상기 (11)에 기재된 송신 장치.
(13) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
상기 (12)에 기재된 송신 장치.
(14) 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
상기 (12)에 기재된 송신 장치.
(15) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
상기 (11)부터 (14) 중 어느 하나에 기재된 송신 장치.
(16) 상기 컨테이너는, MPEG2-TS이며,
상기 정보 삽입부는,
상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
상기 (15)에 기재된 송신 장치.
(17) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화 스텝과,
송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
상기 화상 부호화 스텝에서는, 상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하는
송신 방법.
(18) 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
상기 기본 포맷 화상 데이터 및 상기 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보가 삽입되어 있고,
상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
수신 장치.
(19) 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
상기 (18)에 기재된 수신 장치.
(20) 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 정의하는 정보가 삽입되어 있고,
상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 포맷의 부호화 화상 데이터를 나타내는지를 파악하는
상기 (18) 또는 (19)에 기재된 수신 장치.
본 기술의 주된 특징은, 기본 포맷 화상 데이터 및 소정수의 고품질 포맷 화상 데이터의 각각의 부호화 화상 데이터에, 대응하는 포맷을 식별하기 위한 식별 정보를 삽입하여 송신함으로써, 수신측에 있어서, 소정의 부호화 화상 데이터에 선택적으로 복호화 처리를 행하여 표시 능력에 따른 화상 데이터를 얻는 것을 용이하게 한 것이다(도 10, 도 11 참조).
10: 송수신 시스템
100: 송신 장치
101: 제어부
102, 103: LDR 광전 변환부
104, 105: HDR 광전 변환부
106: 비디오 인코더
106-0, 106-1, 106-2, 106-3: 인코드부
107: 시스템 인코더
108: 송신부
150: 화상 데이터 생성부
151: HDR 카메라
152, 154: 프레임 레이트 변환부
153: 다이내믹 레인지 변환부
160: 인코드부
161: 레이어 내 예측부
162: 레이어 간 예측부
163: 예측 조정부
164: 선택부
165: 인코드 기능부
200: 수신 장치
201: 제어부
202: 수신부
203: 시스템 디코더
204: 압축 데이터 버퍼
205: 비디오 디코더
205-0, 205-1, 205-2, 205-3: 디코드부
206, 207: LDR 전광 변환부
208, 209: HDR 전광 변환부
210: 표시부
250: 디코드부
251: 디코드 기능부
252: 레이어 내 예측 보상부
253: 레이어 간 예측 보상부
254: 예측 조정부
255: 선택부

Claims (20)

  1. 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화부와,
    상기 화상 부호화부에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
    상기 화상 부호화부는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
    송신 장치.
  2. 제1항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
    상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
    송신 장치.
  3. 제2항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
    송신 장치.
  4. 제2항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
    송신 장치.
  5. 제1항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
    송신 장치.
  6. 제5항에 있어서, 상기 컨테이너는, MPEG2-TS이며,
    상기 정보 삽입부는,
    상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
    송신 장치.
  7. 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 생성하는 화상 부호화 스텝과,
    송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 기본 비디오 스트림 및 상기 확장 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
    상기 화상 부호화 스텝에서는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
    송신 방법.
  8. 기본 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 기본 비디오 스트림과 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 확장 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
    상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보가 삽입되어 있고,
    상기 수신된 컨테이너가 갖는 각 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
    수신 장치.
  9. 제8항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
    상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
    수신 장치.
  10. 제8항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보가 삽입되어 있고,
    상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 파악하는
    수신 장치.
  11. 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화부와,
    상기 화상 부호화부에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신부를 구비하고,
    상기 화상 부호화부는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
    송신 장치.
  12. 제11항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
    상기 화상 부호화부는, 상기 식별 정보를 상기 NAL 유닛의 헤더에 삽입하는
    송신 장치.
  13. 제12항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」라는 필드를 사용하여 삽입하는
    송신 장치.
  14. 제12항에 있어서, 상기 화상 부호화부는, 상기 식별 정보를, 상기 NAL 유닛의 헤더의 「nuh_layer_id」 및 「nuh_temporal_id_plus1」이라는 필드를 사용하여 삽입하는
    송신 장치.
  15. 제11항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보를 삽입하는 정보 삽입부를 더 구비하는
    송신 장치.
  16. 제15항에 있어서, 상기 컨테이너는, MPEG2-TS이며,
    상기 정보 삽입부는,
    상기 정보를, 프로그램 맵 테이블의 관리 하에 존재하는 상기 비디오 스트림에 대응한 비디오 엘리멘터리 스트림 루프 내에 삽입하는
    송신 장치.
  17. 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 생성하는 화상 부호화 스텝과,
    송신부에 의해, 상기 화상 부호화 스텝에서 생성된 상기 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하는 송신 스텝을 갖고,
    상기 화상 부호화 스텝에서는, 상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보를 삽입하는
    송신 방법.
  18. 기본 포맷 화상 데이터의 부호화 화상 데이터 및 소정수의 타입의 스케일러블 확장에 각각 대응한 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터를 포함하는 비디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,
    상기 소정수의 고품질 포맷 화상 데이터의 부호화 화상 데이터에, 각각 대응하는 상기 스케일러블 확장의 타입을 나타내는 식별 정보가 삽입되어 있고,
    상기 수신된 컨테이너가 갖는 상기 비디오 스트림을, 상기 식별 정보와 표시 능력 정보에 기초하여 처리하는 처리부를 더 구비하는
    수신 장치.
  19. 제18항에 있어서, 상기 부호화 화상 데이터는, NAL 유닛 구조를 갖고,
    상기 식별 정보는, 상기 NAL 유닛의 헤더에 삽입되어 있는
    수신 장치.
  20. 제18항에 있어서, 상기 컨테이너의 레이어에, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 정의하는 정보가 삽입되어 있고,
    상기 처리부는, 상기 컨테이너의 레이어에 삽입되어 있는 정보에 기초하여, 상기 부호화 화상 데이터에 삽입되어 있는 식별 정보가 어떠한 스케일러블 확장의 타입을 나타내는지를 파악하는
    수신 장치.
KR1020177000890A 2014-08-07 2015-07-09 송신 장치, 송신 방법 및 수신 장치 KR102366503B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2014-161833 2014-08-07
JP2014161833 2014-08-07
PCT/JP2015/069793 WO2016021365A1 (ja) 2014-08-07 2015-07-09 送信装置、送信方法および受信装置

Publications (2)

Publication Number Publication Date
KR20170040189A KR20170040189A (ko) 2017-04-12
KR102366503B1 true KR102366503B1 (ko) 2022-02-23

Family

ID=55263639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177000890A KR102366503B1 (ko) 2014-08-07 2015-07-09 송신 장치, 송신 방법 및 수신 장치

Country Status (12)

Country Link
US (1) US10397642B2 (ko)
EP (2) EP3910960A1 (ko)
JP (5) JP6652058B2 (ko)
KR (1) KR102366503B1 (ko)
CN (1) CN106664445B (ko)
ES (1) ES2885548T3 (ko)
HU (1) HUE055488T2 (ko)
MX (1) MX368827B (ko)
PL (1) PL3179729T3 (ko)
PT (1) PT3179729T (ko)
RU (1) RU2687956C2 (ko)
WO (1) WO2016021365A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10750217B2 (en) * 2016-03-21 2020-08-18 Lg Electronics Inc. Broadcast signal transmitting/receiving device and method
FR3070566B1 (fr) * 2017-08-30 2020-09-04 Sagemcom Broadband Sas Procede de recuperation d'un fichier cible d'un logiciel d'exploitation et dispositif d'utilisation
US11606528B2 (en) * 2018-01-03 2023-03-14 Saturn Licensing Llc Advanced television systems committee (ATSC) 3.0 latency-free display of content attribute
WO2021128295A1 (en) * 2019-12-27 2021-07-01 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for inter prediction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100260254A1 (en) 2006-12-13 2010-10-14 Viasat, Inc. Multiple transmission paths for hierarchical layers
US8467656B2 (en) 2005-03-09 2013-06-18 Kabushiki Kaisha Toshiba Information storage medium, information recording method, information playback method, information recording apparatus, and information playback apparatus
WO2013151814A1 (en) * 2012-04-06 2013-10-10 Vidyo, Inc. Level signaling for layered video coding
WO2014034463A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144425A (en) * 1991-08-26 1992-09-01 General Electric Company Apparatus for hierarchically dividing video signals
JPH10248051A (ja) * 1997-03-05 1998-09-14 Matsushita Electric Ind Co Ltd ディジタルデータ送信方法、ディジタルデータ送信装置およびディジタルデータ受信装置
CN1190081C (zh) * 1997-03-17 2005-02-16 松下电器产业株式会社 发送和接收动态图像数据的方法及其设备
US6490705B1 (en) * 1998-10-22 2002-12-03 Lucent Technologies Inc. Method and apparatus for receiving MPEG video over the internet
US6501797B1 (en) * 1999-07-06 2002-12-31 Koninklijke Phillips Electronics N.V. System and method for improved fine granular scalable video using base layer coding information
US6263022B1 (en) * 1999-07-06 2001-07-17 Philips Electronics North America Corp. System and method for fine granular scalable video with selective quality enhancement
US8284845B1 (en) * 2000-01-24 2012-10-09 Ati Technologies Ulc Method and system for handling data
US7095782B1 (en) * 2000-03-01 2006-08-22 Koninklijke Philips Electronics N.V. Method and apparatus for streaming scalable video
US7940716B2 (en) * 2005-07-01 2011-05-10 Terahop Networks, Inc. Maintaining information facilitating deterministic network routing
US6496217B1 (en) * 2001-06-12 2002-12-17 Koninklijke Philips Electronics N.V. Video communication system using model-based coding and prioritzation techniques
US7958532B2 (en) * 2001-06-18 2011-06-07 At&T Intellectual Property Ii, L.P. Method of transmitting layered video-coded information
JP4329358B2 (ja) * 2003-02-24 2009-09-09 富士通株式会社 ストリーム配信方法、及びストリーム配信システム
US20040208239A1 (en) * 2003-04-21 2004-10-21 Lars Karlsson Method and apparatus for the intelligent and automatic gathering of sudden short duration communications signals
EP1851948A1 (fr) * 2005-02-09 2007-11-07 Previsite Procede de realisation en masse de visites virtuelles interactives pour diffusion multimedia, ainsi que systeme de misse en oeuvre
KR100931870B1 (ko) * 2005-04-13 2009-12-15 노키아 코포레이션 비디오 데이터를 효과적으로 코딩 및 디코딩하는 방법,장치 및 시스템
US20090222855A1 (en) * 2005-05-24 2009-09-03 Jani Vare Method and apparatuses for hierarchical transmission/reception in digital broadcast
KR100961743B1 (ko) * 2005-12-09 2010-06-07 삼성전자주식회사 다중 홉 중계방식의 광대역 무선 접속통신시스템에서 중계서비스를 지원하기 위한 장치 및 방법
US8072943B2 (en) * 2005-12-09 2011-12-06 Samsung Electronics Co., Ltd. Wireless communication system and methodology for communicating via multiple information streams
US7836016B2 (en) * 2006-01-13 2010-11-16 International Business Machines Corporation Method and apparatus for disseminating new content notifications in peer-to-peer networks
US9209934B2 (en) * 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US8467457B2 (en) * 2007-01-16 2013-06-18 Mobixell Networks (Israel) Ltd System and a method for controlling one or more signal sequences characteristics
WO2008125900A1 (en) * 2007-04-13 2008-10-23 Nokia Corporation A video coder
MX2009011217A (es) * 2007-04-18 2009-12-07 Thomson Licensing Sistemas de codificacion.
KR20090004660A (ko) * 2007-07-02 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR20090079838A (ko) * 2008-01-17 2009-07-22 엘지전자 주식회사 Iptv 수신 시스템 및 그 데이터 처리 방법
KR101580516B1 (ko) * 2008-04-07 2015-12-28 엘지전자 주식회사 방송 신호 수신 방법 및 방송 신호 수신 장치
JP2009267537A (ja) * 2008-04-22 2009-11-12 Toshiba Corp 階層化されたエレメンタリーストリームの多重化装置、分離装置及び多重化方法並びにプログラム
CN102150432A (zh) * 2008-09-17 2011-08-10 夏普株式会社 可分级视频流解码装置以及可分级视频流生成装置
JP5541488B2 (ja) * 2009-02-09 2014-07-09 ソニー株式会社 コンテンツ受信装置および方法
JP2010263615A (ja) * 2009-04-08 2010-11-18 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法
KR20120015443A (ko) * 2009-04-13 2012-02-21 리얼디 인크. 향상된 해상도의 스테레오스코픽 비디오의 엔코딩, 디코딩 및 배포
US20110096828A1 (en) * 2009-09-22 2011-04-28 Qualcomm Incorporated Enhanced block-request streaming using scalable encoding
US20110187503A1 (en) * 2010-02-01 2011-08-04 Mario Costa Method and System for Data Center Rack Brackets For Automatic Location Tracking of Information Technology Components
US20120320168A1 (en) * 2010-03-05 2012-12-20 Electronics And Telecommunications Research Institute Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services
EP2375747B1 (en) * 2010-04-12 2019-03-13 Sun Patent Trust Filter positioning and selection
MX2012001738A (es) * 2010-08-09 2012-04-05 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de decodificacion de imagenes.
HUE054404T2 (hu) * 2011-01-19 2021-09-28 Samsung Electronics Co Ltd Berendezés és eljárás vezérlõüzenet vételére rádióadási rendszerben
KR20120084234A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 Mpeg media transport(mmt)에서 mmt au를 전송하는 방법
US8904445B2 (en) * 2011-01-24 2014-12-02 At&T Intellectual Property I, L.P. Methods and apparatus to manage bandwidth allocations in media delivery networks
US20120224651A1 (en) * 2011-03-03 2012-09-06 Yutaka Murakami Signal generation method and signal generation apparatus
WO2012147365A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 記録媒体、再生装置、及び記録装置
KR20140040165A (ko) * 2011-07-26 2014-04-02 엘지전자 주식회사 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
CA2816434C (en) * 2011-10-28 2017-10-24 Panasonic Corporation Recording medium, playback device, recording device, playback method and recording method for editing recorded content while maintaining compatibility with old format
KR102048730B1 (ko) * 2011-11-30 2020-01-08 삼성전자주식회사 방송 데이터 송/수신장치 및 방법
WO2013161442A1 (ja) * 2012-04-24 2013-10-31 ソニー株式会社 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
BR112014032108B1 (pt) * 2012-06-28 2022-12-27 Sony Corporation Dispositivos transmissor, receptor, de codificação e de decodificação, e, métodos de transmissão e de recepção
JP6258206B2 (ja) * 2012-09-07 2018-01-10 サターン ライセンシング エルエルシーSaturn Licensing LLC 送信装置、送信方法、受信装置および受信方法
EP2876882A4 (en) * 2012-09-09 2016-03-09 Lg Electronics Inc IMAGE DECODING METHOD AND APPARATUS USING THE SAME
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
KR102028696B1 (ko) * 2012-10-04 2019-10-07 삼성전자주식회사 고 해상도 컨텐츠를 처리하는 컨텐츠 처리 장치 및 그 방법
WO2014059051A1 (en) * 2012-10-09 2014-04-17 Rodriguez Arturo A Providing a common set of parameters for sub-layers of coded video
WO2014069920A1 (en) * 2012-11-01 2014-05-08 Samsung Electronics Co., Ltd. Recording medium, reproducing device for providing service based on data of recording medium, and method thereof
US20140211861A1 (en) * 2013-01-25 2014-07-31 Electronics And Telecommunications Research Institute Method and system for providing high definition (hd) broadcasting service and ultra high definition (uhd) broadcasting service
SG10201913551WA (en) * 2013-04-07 2020-03-30 Dolby Int Ab Signaling change in output layer sets
FR3008245B1 (fr) * 2013-07-03 2017-05-26 Abb France Dispositif de protection a l’encontre de surtensions electriques transitoires
KR102121947B1 (ko) * 2013-09-27 2020-06-11 삼성전자주식회사 신호 처리 장치 및 그의 신호 처리 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8467656B2 (en) 2005-03-09 2013-06-18 Kabushiki Kaisha Toshiba Information storage medium, information recording method, information playback method, information recording apparatus, and information playback apparatus
US20100260254A1 (en) 2006-12-13 2010-10-14 Viasat, Inc. Multiple transmission paths for hierarchical layers
WO2013151814A1 (en) * 2012-04-06 2013-10-10 Vidyo, Inc. Level signaling for layered video coding
WO2014034463A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Draft Text for Scalable Extensions of High Efficiency Video Coding (HEVC) 표준문서. 1부.*
HRD model in scalable HEVC 표준문서. 1부.*

Also Published As

Publication number Publication date
KR20170040189A (ko) 2017-04-12
EP3179729A1 (en) 2017-06-14
EP3179729A4 (en) 2017-12-06
CN106664445B (zh) 2020-04-21
RU2017103077A3 (ko) 2018-11-15
CN106664445A (zh) 2017-05-10
JP7416164B2 (ja) 2024-01-17
WO2016021365A1 (ja) 2016-02-11
MX2017001415A (es) 2017-05-09
JP6652058B2 (ja) 2020-02-19
JP7147903B2 (ja) 2022-10-05
JPWO2016021365A1 (ja) 2017-05-18
EP3179729B1 (en) 2021-08-25
US20170164033A1 (en) 2017-06-08
RU2017103077A (ru) 2018-07-31
MX368827B (es) 2019-10-18
JP2024026562A (ja) 2024-02-28
PT3179729T (pt) 2021-09-21
JP2021093772A (ja) 2021-06-17
US10397642B2 (en) 2019-08-27
ES2885548T3 (es) 2021-12-14
PL3179729T3 (pl) 2021-12-20
JP2022171957A (ja) 2022-11-11
HUE055488T2 (hu) 2021-11-29
JP6856105B2 (ja) 2021-04-07
EP3910960A1 (en) 2021-11-17
RU2687956C2 (ru) 2019-05-17
JP2020014256A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7375857B2 (ja) 受信装置
JP7416164B2 (ja) 送信方法、送信装置、受信装置および受信方法
JP2022177214A (ja) 送信方法、送信装置、受信装置および受信方法
CN107925776B (zh) 发送装置、发送方法、接收装置和接收方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right