KR102241672B1 - 송신 장치, 송신 방법, 수신 장치 및 수신 방법 - Google Patents

송신 장치, 송신 방법, 수신 장치 및 수신 방법 Download PDF

Info

Publication number
KR102241672B1
KR102241672B1 KR1020157030252A KR20157030252A KR102241672B1 KR 102241672 B1 KR102241672 B1 KR 102241672B1 KR 1020157030252 A KR1020157030252 A KR 1020157030252A KR 20157030252 A KR20157030252 A KR 20157030252A KR 102241672 B1 KR102241672 B1 KR 102241672B1
Authority
KR
South Korea
Prior art keywords
video data
level
transmission
range
information
Prior art date
Application number
KR1020157030252A
Other languages
English (en)
Other versions
KR20160002804A (ko
Inventor
이쿠오 츠카고시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20160002804A publication Critical patent/KR20160002804A/ko
Application granted granted Critical
Publication of KR102241672B1 publication Critical patent/KR102241672B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/202Gamma control
    • H04N5/2355
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/641Multi-purpose receivers, e.g. for auxiliary information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Abstract

수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시를 가능하게 한다. 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 전송 비디오 데이터를 얻는다. 이 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신한다. 수신측에서는, 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환한다.

Description

송신 장치, 송신 방법, 수신 장치 및 수신 방법{TRANSMISSION DEVICE, TRANSMISSION METHOD, RECEIVING DEVICE, AND RECEIVING METHOD}
본 기술은, 송신 장치, 송신 방법, 수신 장치 및 수신 방법에 관한 것으로, 상세하게는, 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 송신하는 송신 장치 등에 관한 것이다.
화상 표시 시의 휘도 최저 레벨과 휘도 최고 레벨의 동시 재현 능력을 높게 함으로써, 고화질 현장감을 향상시키는 것이 가능하게 된다. 이 동시 재현 능력은, 표시 다이내믹 레인지라고 불리는 경우가 있다.
종래, 카메라 촬영부터 모니터 표시까지를 통해서, 백색의 휘도값 100cd/㎡가 기본으로 되어 있다. 또한, 종래, 8비트 전송(표현 가능한 해조는 0 내지 255)이 전제로 되어 있다. 예를 들어, 10비트 전송, 또는 그 이상의 비트에 의한 전송을 행함으로써 표현 가능한 계조수를 확장할 수 있다. 또한, 종래, 디스플레이 특성의 반대 특성을 갖는 데이터를 입력함으로써, 디스플레이의 감마 특성을 보정하는 감마 보정이 알려져 있다.
예를 들어, 비특허문헌 1에는, 0 내지 100%*N(N은 1보다 크다)의 레벨을 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 부호화함으로써 생성된 비디오 스트림을 송신하는 것 등이 기재되어 있다.
High Efficiency Video Coding(HEVC) text specification draft 10(for FDIS & Last Call)
본 기술의 목적은, 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시를 가능하게 하는 데 있다.
본 기술의 개념은,
0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 전송 비디오 데이터를 얻는 처리부와,
상기 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신하는 송신부를 구비하는 송신 장치에 있다.
본 기술에 있어서, 처리부에 의해, 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브가 적용되어 전송 비디오 데이터가 얻어진다. 송신부에 의해, 전송 비디오 데이터가, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신된다. 예를 들어, 송신부는 전송 비디오 데이터가 부호화되어 얻어진 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하고, 비디오 스트림의 레이어 및/또는 컨테이너의 레이어에 보조 정보를 삽입하는 보조 정보 삽입부를 구비하도록 되어도 된다.
예를 들어, 본 기술에 있어서, 처리부는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100% 내지 100%*N의 레벨에 상당하는 레벨을, 입력 비디오 데이터의 100%에 상당하는 레벨로 변환하는 처리를 행해서 전송 비디오 데이터를 얻도록 되어도 된다. 그리고, 이 경우, 보조 정보는, 전송 비디오 데이터의 입력 비디오 데이터의 100%에 상당하는 레벨의 화소 데이터에 적용하는 필터의 정보를 포함하도록 되어도 된다.
또한, 본 기술에 있어서, 처리부는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨 사이의 레벨로 변환하는 처리를 행해서 전송 비디오 데이터를 얻도록 되어도 된다.
그리고, 이 경우, 보조 정보는, 전송 비디오 데이터의 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 화소 데이터에 적용하는 필터의 정보를 포함하도록 되어도 된다. 또는, 이 경우, 보조 정보는, 전송 비디오 데이터의 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 화소 데이터에 적용하는 변환 커브의 정보를 포함하도록 되어도 된다.
또한, 본 기술에 있어서, 처리부는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터를 그대로 전송 비디오 데이터로 하도록 되어도 된다. 그리고, 이 경우, 보조 정보는, 전송 비디오 데이터의 고레벨측에 적용하는 변환 커브의 정보를 포함하도록 되어도 된다.
이렇게 본 기술에 있어서는, 0% 내지 100%*N의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신하는 것이다. 그로 인해, 수신측에서는, 이 보조 정보에 의해, 전송 비디오 데이터의 고휘도 레벨을 변환하는 것이 가능하게 된다.
예를 들어, 입력 비디오 데이터의 100%의 레벨에 상당하는 레벨을 최대 레벨로서 갖는 저다이내믹 레인지의 전송 비디오 데이터에 있어서, 그 최대 레벨이 높아지도록 변환해서 고다이내믹 레인지의 비디오 데이터를 얻는 것이 가능하게 된다. 또한, 예를 들어 입력 비디오 데이터의 100%*N의 레벨에 상당하는 레벨을 최대 레벨로서 갖는 고다이내믹 레인지의 전송 비디오 데이터에 있어서, 그 최대 레벨이 낮아지도록 변환해서 저다이내믹 레인지의 비디오 데이터를 얻는 것이 가능하게 된다. 따라서, 예를 들어 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시가 가능하게 된다.
또한, 본 기술에 있어서, 예를 들어 비디오 스트림의 레이어에 보조 정보의 삽입이 있는 것을 나타내는 식별 정보를 컨테이너의 레이어에 삽입하는 식별 정보 삽입부를 구비하도록 되어도 된다. 이 경우, 수신측에서는, 비디오 스트림을 디코딩하지 않아도, 이 비디오 스트림에 보조 정보의 삽입이 있는 것을 알 수 있고, 비디오 스트림으로부터 보조 정보의 추출을 적절하게 행할 수 있다.
또한, 본 기술의 다른 개념은,
0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신부와,
상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리부를 구비하는 수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 전송 비디오 데이터가 수신된다. 이 전송 비디오 데이터는, 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 것이다. 처리부에 의해, 전송 비디오 데이터의 고레벨 측의 레벨 범위가, 이 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환된다.
예를 들어, 처리부는, 소정 레벨을, 보조 정보에 포함되는 N의 정보 및 모니터의 휘도 다이내믹 레인지의 정보에 기초하여 결정하도록 되어도 된다. 또한, 예를 들어 수신부에서는, 전송 비디오 데이터가 부호화되어 얻어진 비디오 스트림을 포함하는 소정 포맷의 컨테이너가 수신된다. 보조 정보는, 예를 들어 비디오 스트림의 레이어에 삽입되어 있다.
예를 들어, 본 기술에 있어서, 전송 비디오 데이터는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100% 내지 100%*N의 레벨에 상당하는 레벨을, 입력 비디오 데이터의 100%에 상당하는 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며, 처리부는, 전송 비디오 데이터의, 입력 비디오 데이터의 100%에 상당하는 레벨의 각 화소 데이터의 레벨을, 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여, 입력 비디오 데이터의 100%에 상당하는 레벨로부터 소정 레벨까지의 사이의 레벨로 변환하도록 되어도 된다.
또한, 본 기술에 있어서, 전송 비디오 데이터는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 사이의 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며, 처리부는, 전송 비디오 데이터의, 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 각 화소 데이터의 레벨을, 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여, 역치로부터 소정 레벨까지의 사이의 레벨로 변환하도록 되어도 된다.
또한, 본 기술에 있어서, 전송 비디오 데이터는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 사이의 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며, 처리부는, 전송 비디오 데이터의, 역치로부터 입력 비디오 데이터의 100%에 상당하는 레벨까지의 각 화소 데이터를, 보조 정보에 포함되는 변환 커브 정보를 적용하여, 역치로부터 소정 레벨까지의 사이의 레벨로 변환하도록 되어도 된다.
또한, 본 기술에 있어서, 전송 비디오 데이터는, 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 출력 비디오 데이터 그대로의 비디오 데이터이며, 처리부는, 전송 비디오 데이터의, 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 입력 비디오 데이터의 100%*N에 상당하는 레벨의 각 화소 데이터를, 보조 정보에 포함되는 변환 커브 정보를 적용하여, 역치로부터 입력 비디오 데이터의 L*100%(L은 N 이하의 수)에 상당하는 레벨까지의 사이의 레벨로 변환하도록 되어도 된다.
이렇게 본 기술에 있어서는, 0% 내지 100%*N의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터가 수신되고, 이 전송 비디오 데이터의 고레벨 측의 레벨 범위가, 이 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환되는 것이다. 따라서, 예를 들어 적절한 휘도 다이내믹 레인지로 표시가 가능하게 된다.
본 기술에 의하면, 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시가 가능하게 된다. 또한, 본 명세서에 기재된 효과는 어디까지나 예시이며 한정되는 것이 아니며, 또한 부가적인 효과가 있어도 된다.
도 1은 실시 형태로서의 송수신 시스템의 구성예를 도시하는 블록도.
도 2는 감마 커브를 적용해서 얻어지는 전송 비디오 데이터(a)를 설명하기 위한 도면.
도 3은 감마 커브를 적용해서 얻어지는 전송 비디오 데이터(b)를 설명하기 위한 도면.
도 4는 감마 커브를 적용해서 얻어지는 전송 비디오 데이터(c)를 설명하기 위한 도면.
도 5는 비디오 스트림의 레이어에 삽입되는 감마 커브 정보를 설명하기 위한 도면.
도 6은 전송 비디오 데이터(a)에 대한 수신측에서의 변환 처리를 설명하기 위한 도면.
도 7은 전송 비디오 데이터(b)에 대한 수신측에서의 변환 처리를 설명하기 위한 도면.
도 8은 비디오 데이터에 있어서의 휘도 샘플값과 화소 도수(빈도)와의 관계의 일례를 도시하는 도면.
도 9는 전송 비디오 데이터(c)에 대한 수신측에서의 변환 처리를 설명하기 위한 도면.
도 10은 송신 장치(100)의 구성예를 도시하는 블록도.
도 11은 부호화 방식이 HEVC인 경우에 있어서의 GOP의 선두의 액세스 유닛을 도시하는 도면.
도 12는 부호화 방식이 HEVC인 경우에 있어서의 GOP의 선두 이외의 액세스 유닛을 도시하는 도면.
도 13은 톤 맵핑 인포메이션 SEI 메시지의 구조예를 도시하는 도면.
도 14는 톤 맵핑 인포메이션 SEI 메시지의 구조예를 도시하는 도면.
도 15는 톤 맵핑 인포메이션 SEI 메시지의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면.
도 16은 HDR 컨버전 SEI 메시지의 구조예를 도시하는 도면.
도 17은 HDR 컨버전 SEI 메시지의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면.
도 18은 HDR 심플 디스크립터의 구조예를 도시하는 도면.
도 19는 HDR 심플 디스크립터의 구조예에 있어서의 주요한 정보의 내용을 도시하는 도면.
도 20은 HDR 풀 디스크립터의 구조예를 도시하는 도면.
도 21은 레벨 맵핑 커브 디스크립터의 구조예를 도시하는 도면.
도 22는 전송 비디오 데이터의 고레벨 측의 레벨을 변환하기 위한 변환 커브(맵핑 커브)를 설명하기 위한 도면.
도 23은 맵핑 커브의 테이블의 일례를 개략적으로 도시하는 도면.
도 24는 각종 SEI 메시지 및 디스크립터를 포함하는 MPEG2의 트랜스포트 스트림의 구성예를 도시하는 도면.
도 25는 수신 장치의 구성예를 도시하는 블록도.
도 26은 수신 장치의 HDR 처리부의 구성예를 도시하는 블록도.
도 27은 필터 정보를 사용하는 경우에 있어서의 HDR 처리부의 각 부의 처리를 설명하기 위한 도면.
도 28은 필터 정보를 사용하는 경우에 있어서의 레인지 맵핑 처리부의 처리를 설명하기 위한 도면.
도 29는 필터 정보를 사용하는 경우에 있어서의 레인지 맵핑 처리부의 처리를 설명하기 위한 도면.
도 30은 변환 커브 정보를 사용하는 경우에 있어서의 레인지 맵핑 처리부의 처리를 설명하기 위한 도면.
도 31은 MPEG-DASH 베이스의 스트림 배신(配信) 시스템의 구성예를 도시하는 블록도.
도 32는 MPD 파일에 계층적으로 배치되어 있는 각 구조체의 관계의 일례를 도시하는 도면.
도 33은 DASH 사양의 스트림 세그먼트의 구조를 설명하기 위한 도면.
도 34는 MPEG-2TS에 대응한 세그먼트의 데이터 형식에 있어서의 「Initialization Segment」 내에 포함되는 정보와 「Media Segment」 내에 포함되는 정보가 트랜스포트 스트림 내의 어느 정보인지를 개략적으로 도시하는 도면.
도 35는 MMT 구조 전송 스트림을 취급하는 송수신 시스템의 구성예를 도시하는 블록도.
도 36은 MMT 패킷의 구성을 트리 형식으로 도시하는 도면.
도 37은 HDR 심플 디스크립션 테이블을 갖는 HDR 디스크립션 메시지의 구조예를 도시하는 도면.
도 38은 HDR 심플 디스크립션 테이블의 구조예를 도시하는 도면.
도 39는 HDR 풀 디스크립션 테이블을 갖는 HDR 디스크립션 메시지의 구조예를 도시하는 도면.
도 40은 HDR 풀 디스크립션 테이블의 구조예를 도시하는 도면.
도 41은 레벨 맵핑 커브 테이블을 갖는 HDR 디스크립션 메시지의 구조예를 도시하는 도면.
도 42는 레벨 맵핑 커브 테이블의 구조예를 도시하는 도면.
이하, 발명을 실시하기 위한 형태(이하, 「실시 형태」라고 함)에 대해서 설명한다. 또한, 설명을 이하의 순서로 행한다.
1. 실시 형태
2. 변형예
<1. 실시 형태>
[송수신 시스템의 구성예]
도 1은, 실시 형태로서의 송수신 시스템(10)의 구성예를 도시하고 있다. 이 송수신 시스템(10)은, 송신 장치(100) 및 수신 장치(200)에 의해 구성되어 있다.
송신 장치(100)는, 컨테이너로서의 MPEG2의 트랜스포트 스트림 TS를 생성하고, 이 트랜스포트 스트림 TS를 방송파에 실어서 송신한다. 이 트랜스포트 스트림 TS는, 감마 커브를 적용해서 얻어진 전송 비디오 데이터가 부호화되어 얻어진 비디오 스트림을 갖는 것이다.
이 실시 형태에 있어서, 전송 비디오 데이터는, 예를 들어 카메라로 촬상되어 얻어진 HDR(High Dynamic Range)의 입력 비디오 데이터, 즉 0 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 것이다. 여기서, 100%의 레벨은, 백색의 휘도값 100cd/㎡에 상당하는 휘도 레벨을 전제로 한다.
전송 비디오 데이터는, 예를 들어 이하의 전송 비디오 데이터(a)와 전송 비디오 데이터(b), 전송 비디오 데이터(c) 등이다. 전송 비디오 데이터(a), 전송 비디오 데이터(b)는 입력 비디오 데이터의 100%의 레벨에 상당하는 레벨을 최대 레벨로서 갖고, 저다이내믹 레인지의 비디오 데이터 체재를 취한다. 전송 비디오 데이터(c)는 입력 비디오 데이터의 100%*N의 레벨에 상당하는 레벨을 최대 레벨로서 갖고, 고다이내믹 레인지의 비디오 데이터 체재를 취한다.
「전송 비디오 데이터(a)」
도 2를 참조하여, 전송 비디오 데이터(a)에 대해서 설명한다. 「Content data level range」는, 입력 비디오 데이터의 0%에서부터 100%*N까지의 레벨 범위를 나타낸다. 「V_100*N」은, 입력 비디오 데이터의 100%*N의 레벨에 상당하는, 감마 커브 적용 후의 비디오 데이터(출력 비디오 데이터)의 레벨을 나타낸다. 「V_100」은, 입력 비디오 데이터의 100%의 레벨에 상당하는, 감마 커브 적용 후의 비디오 데이터(출력 비디오 데이터)의 레벨을 나타낸다. 「Encoder Input Pixel data range」는, 전송 비디오 데이터의 0에서부터 V_100까지의 레벨 범위를 나타낸다. 예를 들어, 0 내지 V_100의 계조수는, 소정 비트, 예를 들어 8비트로 표현된다.
전송 비디오 데이터(a)는, 입력 비디오 데이터에 감마 커브(실선 a 참조)를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100% 내지 100%*N의 레벨에 상당하는 레벨을, 입력 비디오 데이터의 100%에 상당하는 레벨(V_100)로 변환하는 클리핑 처리(파선 b 참조)를 행함으로써 얻어진다. 이 전송 비디오 데이터(a)는, 입력 비디오 데이터의 0% 내지 100%의 레벨에 상당하는 레벨을 갖고, 저다이내믹 레인지의 비디오 데이터 체재를 취한다.
「전송 비디오 데이터(b)」
도 3을 참조하여, 전송 비디오 데이터(b)에 대해서 설명한다. 「Content data level range」, 「V_100*N」, 「Encoder Input Pixel data range」는, 도 2와 동일하다. 「V_th」는, 입력 비디오 데이터의 100%의 레벨에 상당하는 레벨 이하의 역치인 쓰레숄드 클리핑 레벨(Threshold_clipping_level)을 나타낸다.
전송 비디오 데이터(b)는 입력 비디오 데이터에 감마 커브(실선 a 참조)를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치(V_th)로부터 입력 비디오 데이터의 100%*N에 상당하는 레벨(V_100*N)까지를, 역치(V_th)로부터 입력 비디오 데이터의 100%에 상당하는 레벨(V_100)까지의 사이의 레벨로 변환하는 맵핑 처리를 행함으로써 얻어진다. 이 전송 비디오 데이터(b)는, 입력 비디오 데이터의 0% 내지 100%의 레벨에 상당하는 레벨을 갖고, 저다이내믹 레인지의 비디오 데이터 체재를 취한다.
「전송 비디오 데이터(c)」
도 4를 참조하여, 전송 비디오 데이터(c)에 대해서 설명한다. 「Content data level range」, 「V_100*N」은, 도 2와 동일하다. 「Encoder Input Pixel data range」는, 전송 비디오 데이터의 0 내지 V_100*N의 레벨 범위를 나타낸다. 전송 비디오 데이터(c)는, 입력 비디오 데이터에 감마 커브(실선 a 참조)를 적용해서 얻어진 출력 비디오 데이터 그대로이다. 이 전송 비디오 데이터(c)는, 입력 비디오 데이터의 0% 내지 100%*N의 레벨에 상당하는 레벨을 갖고, 고다이내믹 레인지의 비디오 데이터 체재를 취한다.
도 1로 되돌아가서, 송신 장치(100)는, 비디오 스트림의 레이어에, 상술한 감마 커브의 정보를 삽입한다. 이 정보에는, 도 5에 도시하는 바와 같이, 「extended_range_white_level」, 「nominal_black_level_code_value」, 「nominal_white_level_code_value」, 「extended_white_level_code_value」 등이 포함된다.
「extended_range_white_level」은, 「nominal white level(표준 백색 레벨)」을 100%로 할 경우의 정수배(N배)의 퍼센티지(100%*N)를 나타낸다. 「nominal_black_level_code_value」는, 표준 흑색 레벨에 대한 휘도 샘플값을 나타내고, 8비트로 비디오 데이터가 부호화되어 있는 경우, 흑색 레벨은 「16」으로 된다. 「nominal_white_level_code_value」는, 표준 백색 레벨에 대한 휘도 샘플값을 나타내고, 8비트로 비디오 데이터가 부호화되어 있는 경우, 백색 레벨은 예를 들어 「235」로 된다. 「extended_white_level_code_value」는, 「extended_range_white_level」의 휘도 샘플값을 나타낸다.
또한, 송신 장치(100)는, 비디오 스트림의 레이어에, 수신측에서 전송 비디오 데이터의 고레벨 측의 레벨 범위를 변환하기 위한 보조 정보를 삽입한다. 이 보조 정보에는, 필터 정보, 변환 커브 정보 등이 포함된다. 이 보조 정보의 상세에 대해서는 후술한다.
또한, 송신 장치(100)는, 트랜스포트 스트림 TS의 레이어에, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보가 삽입되어 있는 것을 나타내는 식별 정보를 삽입한다. 예를 들어, 이 식별 정보는, 트랜스포트 스트림 TS에 포함되는 프로그램 맵 테이블(PMT: Program Map Table)의 관리 하에 삽입된다. 식별 정보에 의해, 비디오 스트림을 디코드하지 않고, 감마 커브 정보나 보조 정보의 삽입 유무를 아는 것이 가능하게 된다. 이 식별 정보의 상세에 대해서는 후술한다.
수신 장치(200)는, 송신 장치(100)로부터 방송파에 실려 보내져 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS는, 부호화 비디오 데이터를 포함하는 비디오 스트림을 갖고 있다. 수신 장치(200)는, 비디오 스트림의 디코드 등의 처리를 행하여, 표시용 비디오 데이터를 취득한다.
비디오 스트림의 레이어에는, 상술한 바와 같이 감마 커브 정보나 보조 정보가 삽입되어 있다. 또한, 트랜스포트 스트림 TS의 레이어에, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보가 삽입되어 있는지 여부를 나타내는 식별 정보가 삽입되어 있다. 수신 장치(200)는, 이 식별 정보에 기초하여, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보의 삽입이 있는 것을 인식하고, 비디오 스트림으로부터 이들 정보를 취득해서 처리에 이용한다.
수신 장치(200)는, 디코드 후의 비디오 데이터(전송 비디오 데이터)에 대하여, 그 고레벨 측의 레벨 범위를, 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환한다. 이 경우, 수신 장치(200)는, 소정 레벨을, 예를 들어 보조 정보에 포함되는 N의 정보 및 모니터의 휘도 다이내믹 레인지의 정보에 기초하여 결정한다.
수신 장치(200)는, 전송 비디오 데이터가 상술한 전송 비디오 데이터(a), 전송 비디오 데이터(b), 전송 비디오 데이터(c)인 경우, 각각, 이하에 나타내는 바와 같은 변환 처리를 행한다. 이 변환 처리에 의해, 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시가 가능하게 된다.
「전송 비디오 데이터(a)에 대한 변환 처리」
도 6을 참조하여, 전송 비디오 데이터(a)에 대한 변환 처리에 대해서 설명한다. 「Decoded pixel data range」는, 입력 비디오 데이터(전송 비디오 데이터)의 0에서부터 V_100까지의 레벨 범위를 나타낸다. 「Display Level range」는, 모니터(디스플레이)의 0%의 휘도로부터 100%*N의 휘도까지의 레벨 범위를 나타낸다. 그리고, 실선 a는, 모니터의 감마 특성을 나타내는 커브이며, 상술한 감마 커브(도 2의 실선 a 참조)와는 반대의 특성이 된다.
수신 장치(200)는, 전송 비디오 데이터의, 레벨이 V_100인 각 화소 데이터의 레벨을, 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여, V_100에서부터 소정 레벨(V_100*N 이하)까지의 사이의 레벨로 변환한다. 이 경우, 변환 전의 전송 비디오 데이터 중, V_100의 레벨의 화소 데이터에 관해서는, 일점쇄선 b로 나타내는 바와 같이, 모니터(디스플레이)에 있어서 100% 이상의 휘도를 발생시키는 레벨로 변환된다. 이 변환 후의 비디오 데이터는, V_100보다 높은 소정 레벨을 최대 레벨로서 갖고, 고다이내믹 레인지의 비디오 데이터가 된다.
「전송 비디오 데이터(b)에 대한 변환 처리」
도 7을 참조하여, 전송 비디오 데이터(b)에 대한 변환 처리에 대해서 설명한다. 「Decoded pixel data range」는, 입력 비디오 데이터(전송 비디오 데이터)의 0에서부터 V_100까지의 레벨 범위를 나타낸다. 「Display Level range」는, 모니터(디스플레이)의 0%의 휘도로부터 100%*N의 휘도까지의 레벨 범위를 나타낸다. 그리고, 실선 a는, 모니터의 감마 특성을 나타내는 커브이며, 상술한 감마 커브(도 3의 실선 a 참조)와는 반대의 특성이 된다.
수신 장치(200)는, 전송 비디오 데이터의, 레벨이 V_th 내지 V_100인 각 화소 데이터의 레벨을, 보조 정보에 포함되는 필터 정보, 또는 변환 커브 정보를 적용하여, V_th로부터 소정 레벨(V_100*N 이하)까지의 사이의 레벨로 변환한다. 이 경우, 변환 전의 전송 비디오 데이터 중, V_th 내지 V_100의 레벨 화소 데이터에 관해서는, 일점쇄선 b로 나타내는 바와 같이, 모니터(디스플레이)에 있어서 100% 이상의 휘도를 발생시키는 레벨로 변환된다. 이 변환 후의 비디오 데이터는, V_100보다 높은 소정 레벨을 최대 레벨로서 갖고, 고다이내믹 레인지의 비디오 데이터가 된다.
도 8은, 비디오 데이터에 있어서의 휘도 샘플값과 화소 도수(빈도)와의 관계의 일례를 도시하고 있다. 도 8의 (a)는 송신 장치(100)에 있어서의 입력 비디오 데이터의 상태를 나타내고 있고, 샘플값의 최대는 V_N*100으로 되어 있다. 도 8의 (b)는 송신 장치(100)에 있어서의 감마 커브를 적용한 후의 전송 비디오 데이터(출력 비디오 데이터)의 상태를 나타내고 있고, 샘플값의 최대는 V_100으로 억제되어 있다. 여기서, 파선으로 도시한 범위의 샘플값의 화소는 맵핑 처리의 영향을 받고 있어, 본래의 레벨에서 벗어나 있다.
도 8의 (c)는, 수신 장치(200)에 있어서의 변환 처리 후의 상태를 도시하고 있다. 여기서, 파선으로 도시한 범위의 샘플값에 존재하는 화소는, 변환 처리(재맵핑 처리)가 실시된 것이다. 이 재맵핑 처리에 의해, 맵핑 처리의 영향을 받고 있는 각 화소의 레벨이 맵핑 처리 전의 레벨에 가까워지게 된다. 또한, 이 도 8의 (c)에서는, 샘플값의 최대는 V_N*100으로 되어 있다. 그러나, 모니터의 휘도 다이내믹 레인지(Monitor Luminance dynamic range)에 따라서는, 샘플값의 최대는 V_N*100보다 작은 레벨로 된다.
「전송 비디오 데이터(c)에 대한 변환 처리」
도 9를 참조하여, 전송 비디오 데이터(b)에 대한 변환 처리에 대해서 설명한다. 「Decoded pixel data range」는, 입력 비디오 데이터(전송 비디오 데이터)의 0에서부터 V_100*N까지의 레벨 범위를 나타낸다. 「Display Level range」는, 모니터(디스플레이)의 0%의 휘도로부터 100%*L의 휘도까지의 레벨 범위를 나타낸다. 그리고, 실선 a는, 모니터의 감마 특성을 나타내는 커브이며, 상술한 감마 커브(도 4의 실선 a 참조)와는 반대의 특성이 된다.
수신 장치(200)는, 전송 비디오 데이터의, 레벨이 V_th 내지 V_100*N인 각 화소 데이터의 레벨을, 보조 정보에 포함되는 변환 커브 정보를 적용하여, V_th로부터 소정 레벨(V_100*L)까지의 사이의 레벨로 변환한다. 이 경우, 변환 전의 전송 비디오 데이터 중, V_th 내지 V_100*N의 레벨의 화소 데이터에 관해서는, 일점쇄선 b로 나타내는 바와 같이, 모니터(디스플레이)에 있어서 100*L 이하의 휘도를 발생시키는 레벨로 변환된다. 이 변환 후의 비디오 데이터는, V_100*N보다 낮은 소정 레벨을 최대 레벨로서 갖고, 저다이내믹 레인지의 비디오 데이터가 된다.
「송신 장치의 구성예」
도 10은, 송신 장치(100)의 구성예를 도시하고 있다. 이 송신 장치(100)는, 제어부(101)와, 카메라(102)와, 색 공간 변환부(103)와, 감마 처리부(104)와, 비디오 인코더(105)와, 시스템 인코더(106)와, 송신부(107)를 갖고 있다. 제어부(101)는, CPU(Central Processing Unit)를 구비해서 구성되고, 소정의 스토리지에 저장되어 있는 제어 프로그램에 기초하여, 송신 장치(100)의 각 부의 동작을 제어한다.
카메라(102)는, 피사체를 촬상하여, HDR(High Dynamic Range)의 비디오 데이터를 출력한다. 이 비디오 데이터는, 0 내지 100%*N, 예를 들어 0 내지 400% 또는 0 내지 800% 등의 레벨을 갖는다. 여기서, 100%의 레벨은, 백색의 휘도값 100cd/㎡에 상당하는 것이다. 색 공간 변환부(103)는, 카메라(102)로부터 출력되는 비디오 데이터를, RGB 색 공간으로부터 YUV 색 공간으로 변환한다.
감마 처리부(104)는, 색 공간 변환 후의 비디오 데이터에 대하여 감마 커브를 적용하고, 또한 필요에 따라, 고휘도의 레벨을 변환하는 처리(맵핑 처리, 클리핑 처리)를 실시하여, 전송 비디오 데이터를 얻는다(도 2 내지 도 4 참조). 이 전송 비디오 데이터는, 예를 들어 전송 비디오 데이터(a), (b)의 경우에는 8비트로 표현되고, 전송 비디오 데이터(c)의 경우에는 9비트 이상으로 표현된다.
비디오 인코더(105)는, 변환 비디오 데이터에 대하여, 예를 들어 MPEG4-AVC, MPEG2video, 또는 HEVC(high Efficiency Video Coding) 등의 부호화를 실시하여, 부호화 비디오 데이터를 얻는다. 또한, 이 비디오 인코더(105)는, 후단에 구비하는 스트림 포매터(도시하지 않음)에 의해, 이 부호화 비디오 데이터를 포함하는 비디오 스트림(비디오 엘리멘터리 스트림)을 생성한다.
이때, 비디오 인코더(105)는, 비디오 스트림의 레이어에, 감마 커브 정보를 삽입함과 함께, 보조 정보를 삽입한다. 이 보조 정보는, 수신측에서 고휘도의 레벨을 변환하기 위한 정보이며, 필터 정보나 변환 커브 정보 등을 포함하는 것이다.
시스템 인코더(106)는, 비디오 인코더(105)에서 생성된 비디오 스트림을 포함하는 트랜스포트 스트림 TS를 생성한다. 그리고, 송신부(107)는, 이 트랜스포트 스트림 TS를, 방송파 또는 네트의 패킷에 실어, 수신 장치(200)에 송신한다.
이때, 시스템 인코더(106)는, 트랜스포트 스트림 TS의 레이어에, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보가 삽입되어 있는지 여부를 나타내는 식별 정보를 삽입한다. 또한, 시스템 인코더(106)는 또한 트랜스포트 스트림 TS의 레이어에, 변환 커브 데이터를 삽입한다. 시스템 인코더(106)는, 예를 들어 식별 정보나 변환 커브 데이터를, 트랜스포트 스트림 TS에 포함되는 프로그램 맵 테이블(PMT:Program Map Table)의 비디오 엘리멘터리 루프(Video ES loop)의 관리 하에 삽입한다.
도 10에 도시하는 송신 장치(100)의 동작을 간단하게 설명한다. 카메라(102)로 촬상되어 얻어진 HDR 비디오 데이터는, 색 공간 변환부(103)에 의해 RGB 색 공간으로부터 YUV 색 공간으로 변환된 후, 감마 처리부(104)에 공급된다. 감마 처리부(104)에서는, 색 공간 변환 후의 비디오 데이터에 대하여 감마 커브가 적용되고, 또한 필요에 따라, 고휘도의 레벨을 변환하는 처리(맵핑 처리, 클리핑 처리)가 실시되어, 전송 비디오 데이터가 얻어진다. 이 전송 비디오 데이터는, 비디오 인코더(105)에 공급된다.
비디오 인코더(105)에서는, 전송 비디오 데이터에 대하여, 예를 들어 MPEG4-AVC(MVC), MPEG2video, 또는 HEVC(high Efficiency Video Coding) 등의 부호화가 실시되어, 부호화 비디오 데이터가 얻어진다. 그리고, 이 비디오 인코더(105)에서는, 이 부호화 비디오 데이터를 포함하는 비디오 스트림(비디오 엘리멘터리 스트림)이 생성된다. 이때, 비디오 인코더(105)에서는, 비디오 스트림의 레이어에, 감마 커브 정보가 삽입되는 것 외에, 수신측에서 고휘도의 레벨을 변환하기 위한, 필터 정보나 변환 커브 정보 등을 포함하는 보조 정보가 삽입된다.
비디오 인코더(105)에서 생성된 비디오 스트림은, 시스템 인코더(106)에 공급된다. 이 시스템 인코더(106)에서는, 비디오 스트림을 포함하는 MPEG2의 트랜스포트 스트림 TS가 생성된다. 이때, 시스템 인코더(106)에서는, 트랜스포트 스트림 TS의 레이어에, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보가 삽입되어 있는 것을 나타내는 식별 정보, 나아가서는 변환 커브 데이터가 삽입된다. 이 트랜스포트 스트림 TS는, 송신부(107)에 의해, 방송파에 실려 송신된다.
[감마 커브 정보, 보조 정보, 식별 정보, 변환 커브 데이터의 구조와, TS 구성]
상술한 바와 같이, 비디오 스트림의 레이어에, 감마 커브 정보나 보조 정보가 삽입된다. 예를 들어, 부호화 방식이 MPEG4-AVC일 경우 또는, HEVC와 같은, NAL 패킷 등의 부호화 구조가 비슷한 부호화 방식인 경우, 이 보조 정보는, 액세스 유닛(AU)의 “SEIs”의 부분에, SEI 메시지로서 삽입된다.
감마 커브 정보는, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message)로서 삽입된다. 또한, 보조 정보는, HDR 컨버전 SEI 메시지(HDR conversion SEI message)로서 삽입된다.
도 11은, 부호화 방식이 HEVC인 경우에 있어서의 GOP(Group Of Pictures)의 선두의 액세스 유닛을 도시하고 있다. 또한, 도 12는, 부호화 방식이 HEVC인 경우에 있어서의 GOP(Group Of Pictures)의 선두 이외의 액세스 유닛을 도시하고 있다. HEVC의 부호화 방식의 경우, 화소 데이터가 부호화되어 있는 슬라이스(slices) 앞에 디코드용 SEI 메시지군 「Prefix_SEIs」가 배치되고, 이 슬라이스(slices) 뒤에 표시용 SEI 메시지군 「Suffix_SEIs」가 배치된다.
도 11, 도 12에 도시하는 바와 같이, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message) 및 HDR 컨버전 SEI 메시지(HDR conversion SEI message)는, SEI 메시지군 「Suffix_SEIs」로서 배치된다.
도 13, 도 14는, 「Tone mapping information SEI message」의 구조예(Syntax)를 도시하고 있다. 도 15는, 그 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다. 「Tone mapping_cancel_flag」는, 1비트의 플래그 정보이다. “1”은, 지금까지의 톤 맵핑(Tone mapping)의 메시지 상태를 캔슬하는 것을 나타낸다. “0”은, 각 요소를 전송하고, 그것으로 이전의 상태를 리프레시하는 것을 나타낸다.
「coded_data_bit_depth」의 8비트 필드는, 부호화 데이터의 비트 길이를 나타내고, 예를 들어 8 내지 14비트가 사용된다. 「target_bit_depth」는, 톤 맵핑 인포메이션 SEI 메시지에 의한 처리의 출력(output) 비트 길이로서 상정하는 최대의 비트 길이를 나타내고, 최대 16비트까지 취할 수 있다.
「ref_screen_luminance_white」의 32비트 필드는, 레퍼런스 모니터의 표준 백색 레벨을 나타내고, 단위는 「cd/㎡」이다. 「extended_range_white_level」은, 「nominal white level(표준 백색 레벨)」을 100%로 할 경우의 정수배(N배)의 퍼센티지(100%*N)를 나타낸다. 「nominal_black_level_code_value」는, 표준 흑색 레벨에 대한 휘도 샘플값을 나타내고, 8비트로 비디오 데이터가 부호화되어 있는 경우, 흑색 레벨은 「16」으로 된다. 「nominal_white_level_code_value」는, 표준 백색 레벨에 대한 휘도 샘플값을 나타내고, 8비트로 비디오 데이터가 부호화되어 있는 경우, 백색 레벨은 「235」로 된다. 「extended_white_level_code_value」는, 「extended_range_white_level」의 휘도 샘플값을 나타낸다.
도 16은, 「HDR_conversion SEI message」의 구조예(Syntax)를 도시하고 있다. 도 17은, 그 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다. 「HDR_conversion_cancel_flag」는, 1비트의 플래그 정보이다. “1”은, 지금까지의 HDR 컨버전(HDR_conversion)의 메시지 상태를 캔슬하는 것을 나타낸다. “0”은, 각 요소를 전송하고, 그것으로 이전의 상태를 리프레시하는 것을 나타낸다.
「threshold_clipping_level」의 16비트 필드는, HDR의 범위에서, 비선형 톤 맵핑(tone mapping)에 의해 종래 부호화 범위로 변환된 휘도의 역치, 즉 V_th를 나타낸다(도 3 참조). 「operator _type」의 8비트 필드는, V_th(threshold_clipping_level)를 초과하는 휘도 레벨의 마킹(Marking)을 행할 때 사용하는 필터 타입을 나타낸다. 「range_max_percent」의 8비트 필드는, 100%*N의 N을 나타낸다.
「level_mapping_curve_type」의 8비트 필드는, V_th(threshold_clipping_level)를 초과하는 휘도 레벨을 타깃의 휘도 레벨로 변환하는 함수의 타입을 나타낸다. 이 「level_mapping_curve_type」의 8비트 필드는, 「threshold_clipping_level」<「nominal_white_level_code_value」를 만족시키는 경우, 즉 V_th가 휘도 100% 미만인 경우만 배치된다.
또한, 상술한 바와 같이, 예를 들어 트랜스포트 스트림 TS의 프로그램 맵 테이블(PMT)의 비디오 엘리멘터리 루프(Video ES loop)의 관리 하에, 비디오 스트림의 레이어에 감마 커브 정보나 보조 정보가 삽입되어 있는 것을 나타내는 식별 정보가 삽입된다.
도 18은, 식별 정보로서의 HDR 심플 디스크립터(HDR_simple descriptor)의 구조예(Syntax)를 도시하고 있다. 또한, 도 19는, 그 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다.
「HDR_simple descriptor tag」의 8비트 필드는, 디스크립터 타입을 나타내고, 여기서는, HDR 심플 디스크립터인 것을 나타낸다. 「HDR_simple descriptor length」의 8비트 필드는, 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서 이후의 바이트수를 나타낸다.
「Tonemapping_SEI_existed」의 1비트 필드는, 비디오 레이어(비디오 스트림의 레이어)에, 톤 맵핑 SEI 정보(감마 커브 정보)가 존재하는지 여부를 나타내는 플래그 정보이다. “1”은 톤 맵핑 SEI 정보가 존재하는 것을 나타내고, “0”은 톤 맵핑 SEI 정보가 존재하지 않는 것을 나타낸다.
HDR_conversion_SEI_existed」의 1비트 필드는, 비디오 레이어(비디오 스트림의 레이어)에, HDR 컨버전 SEI 정보(보조 정보)가 존재하는지 여부를 나타내는 플래그 정보이다. “1”은 HDR 컨버전 SEI 정보가 존재하는 것을 나타내고, “0”은 HDR 컨버전 SEI 정보가 존재하지 않는 것을 나타낸다.
또한, 도 20은, 식별 정보로서의 HDR 풀 디스크립터(HDR_full descriptor)의 구조예(Syntax)를 도시하고 있다. 「HDR_full descriptor tag」의 8비트 필드는, 디스크립터 타입을 나타내고, 여기서는, HDR 풀 디스크립터인 것을 나타낸다. 「HDR_full descriptor length」의 8비트 필드는, 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서 이후의 바이트수를 나타낸다.
이하, 상세 설명은 생략하지만, 이 HDR 풀 디스크립터에는, HDR 심플 디스크립터(도 18 참조)에 포함되는 정보와 함께, 상술한 톤 맵핑 인포메이션 SEI 메시지(도 13, 도 14 참조) 및 HDR 컨버전 SEI 메시지(도 16 참조)에 포함되는 정보도 배치되어 있다.
이 경우, 수신측에 있어서는, 이 HDR 풀 디스크립터에 의해, 비디오 스트림을 디코딩하기 전에, 비디오 레이어에 있어서의 톤 맵핑 SEI 정보, HDR 컨버전 SEI 정보의 존재 유무뿐만 아니라, 거기에 포함되는 정보 내용을 파악하는 것이 가능하게 된다.
또한, 상술한 바와 같이, 예를 들어 트랜스포트 스트림 TS의 프로그램 맵 테이블(PMT)의 비디오 엘리멘터리 루프(Video ES loop)의 관리 하에, 변환 커브 데이터가 삽입된다. 도 21은, 변환 커브 데이터로서의 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)의 구조예(Syntax)를 도시하고 있다.
「level_mapping_curve descriptor tag」의 8비트 필드는, 디스크립터 타입을 나타내고, 여기서는, 레벨 맵핑 커브 디스크립터인 것을 나타낸다. 「level_mapping_curve descriptor length」의 8비트 필드는, 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서 이후의 바이트수를 나타낸다.
「mapping_curve_table_id」의 8비트 필드는, 맵핑 커브(mapping curve)의 테이블의 식별자(id)를 나타낸다. 이 「mapping_curve_table_id」에 의해, 복수 종류의 유스 케이스(Usecase)의 커브가 병존할 수 있다. 예를 들어, 전송 비디오 데이터(b) 및 전송 비디오 데이터(c) 각각에 대한 변환 처리에 사용하는 변환 커브(맵핑 커브)의 구별이 가능하게 된다.
「number of levels N」의 16비트 필드는, 전송 비디오 데이터의 변환 대상 레벨 범위에 포함되는 레벨수를 나타낸다. 여기서, 변환 대상 레벨 범위는, 예를 들어 전송 비디오 데이터(b)의 경우에는, V_th 내지 V_100의 범위이며(도 7 참조), 전송 비디오 데이터(c)의 경우에는, V_th 내지 V_100*N의 범위이다(도 9 참조).
「number of curve types C」의 8비트 필드는, 변환 커브(맵핑 커브)의 타입을 나타낸다. 이 「number of curve types C」에 의해, 변환 커브로서, 변환 특성을 달리하는 수종류의 병존이 가능하게 된다. 여기서, 변환 특성이 상이한 경우로서는, 예를 들어 변환 후의 최대 레벨이 다른 경우, 또는, 변환 후의 최대 레벨은 동일하지만 중간 변환 레벨이 상이한 경우 등이 생각된다.
「curve_data」의 16비트 필드는, 변환 커브(맵핑 커브)의 변환 후의 값을 나타낸다. 도 22는, (a), (b), (c)의 3종류의 변환 커브(맵핑 커브)의 예를 도시하고 있다. 이 예는, 모두 변환 후의 최대 레벨을 V_100*N으로 하는 것이며, 중간 변환 레벨이 상이한 것이다. 도 23은, 도 22에 도시한 (a), (b), (c)의 3종류의 변환 커브(맵핑 커브)에 대응한, 맵핑 커브(mapping curve)의 테이블을 개략적으로 도시하고 있다.
도 24는, 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 트랜스포트 스트림 TS에는, 비디오 엘리멘터리 스트림의 PES 패킷 「PID1:video PES1」이 포함되어 있다. 이 비디오 엘리멘터리 스트림에, 톤 맵핑 SEI 정보 및 HDR 컨버전 SEI 정보가 삽입되어 있다.
또한, 트랜스포트 스트림 TS에는, PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다. 또한, 트랜스포트 스트림 TS에는, 이벤트(프로그램) 단위의 관리를 행하는 SI(Serviced Information)로서의 EIT(Event Information Table)가 포함되어 있다.
PMT에는, 각 엘리멘터리 스트림에 관련된 정보를 갖는 엘리멘터리 루프가 존재한다. 이 구성예에서는, 비디오 엘리멘터리 루프(Video ES loop)가 존재한다. 이 비디오 엘리멘터리 루프에는, 상술한 하나의 비디오 엘리멘터리 스트림에 대응하여, 스트림 타입, 패킷 식별자(PID) 등의 정보가 배치됨과 함께, 그 비디오 엘리멘터리 스트림에 관련된 정보를 기술하는 디스크립터도 배치된다.
이 PMT의 비디오 엘리멘터리 루프(Video ES loop)의 관리 하에, HDR 심플 디스크립터(HDR_simple descriptor) 또는 HDR 풀 디스크립터(HDR_full descriptor)가 배치된다. 이들 디스크립터는, 상술한 바와 같이, 비디오 스트림에, 톤 맵핑 SEI 정보나 HDR 컨버전 SEI 정보의 삽입이 있는 것을 나타내는 것이다. 또한, 이 PMT의 비디오 엘리멘터리 루프(Video ES loop)의 관리 하에, 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)가 배치된다.
「수신 장치의 구성예」
도 25는, 수신 장치(200)의 구성예를 도시하고 있다. 이 수신 장치(200)는, 제어부(201)와, 수신부(202)와, 시스템 디코더(203)와, 비디오 디코더(204)와, HDR 처리부(205)와, 색 공간 변환부(206)와, 표시부(207)를 갖고 있다. 제어부(201)는, CPU(Central Processing Unit)를 구비해서 구성되고, 소정의 스토리지에 저장되어 있는 제어 프로그램에 기초하여, 수신 장치(200)의 각 부 동작을 제어한다.
수신부(202)는, 송신 장치(100)로부터 방송파에 실려 보내져 오는 트랜스포트 스트림 TS를 수신한다. 시스템 디코더(203)는, 이 트랜스포트 스트림 TS로부터 비디오 스트림(엘리멘터리 스트림)을 추출한다. 또한, 시스템 디코더(203)는, 이 트랜스포트 스트림 TS로부터, 상술한 HDR 심플 디스크립터(HDR_simple descriptor) 또는 HDR 풀 디스크립터(HDR_full descriptor)를 추출하여, 제어부(201)에 보낸다.
제어부(201)는, 디스크립터로부터, 비디오 스트림에, 톤 맵핑 SEI 정보나 HDR 컨버전 SEI 정보의 삽입이 있는지 여부를 인식할 수 있다. 제어부(203)는, 이 SEI 정보가 있다고 인식할 때, 예를 들어 비디오 디코더(204)에 대하여, 그들의 SEI 정보를 적극적으로 취득하도록 제어 가능하게 된다.
또한, 시스템 디코더(203)는, 이 트랜스포트 스트림 TS로부터, 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)를 추출하여, 제어부(201)에 보낸다. 제어부(201)는, 이 디스크립터에 포함되는 맵핑 커브(mapping curve)의 테이블에 기초하여, HDR 처리부(205)에 있어서의 변환 커브 정보를 사용한 변환 처리의 제어를 행할 수 있다.
비디오 디코더(204)는, 시스템 디코더(203)에서 추출되는 비디오 스트림에 대하여 디코드 처리를 행하여, 기저 대역의 비디오 데이터(전송 비디오 데이터)를 취득한다. 또한, 비디오 디코더(204)는, 비디오 스트림에 삽입되어 있는 SEI 메시지를 추출하여, 제어부(201)에 보낸다. 이 SEI 메시지에는, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message) 및 HDR 컨버전 SEI 메시지(HDR conversion SEI message)도 포함된다. 제어부(201)는, SEI 정보에 기초하여, 디코드 처리나 표시 처리를 제어한다.
HDR 처리부(205)는, 비디오 디코더(204)에서 얻어진 비디오 데이터(전송 비디오 데이터)에 대하여, 그 고레벨 측의 레벨 범위를, 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환한다. 이 경우, HDR 처리부(205)는, 상술한 바와 같이, 전송 비디오 데이터(a), (b), (c)에 대응한 처리를 행한다(도 6, 도 7, 도 9 참조).
이 HDR 처리부(205)의 상세에 대해서는, 후술한다.
색 공간 변환부(206)는, HDR 처리부(205)에서 얻어지는 비디오 데이터를, YUV 색 공간으로부터 RGB 색 공간으로 변환한다. 표시부(207)는, 색 공간 변환 후의 비디오 데이터에 의해 화상 표시를 행한다.
[HDR 처리부의 구성예]
도 26은, HDR 처리부(205)의 구성예를 도시하고 있다. HDR 처리부(205)는, 클리핑 처리부(251)와, 마킹 처리부(252)와, 레인지 맵핑 처리부(253)를 갖고 있다. 전송 비디오 데이터(a)의 경우(도 6 참조), 전송 비디오 데이터(decoded pixel data)는 클리핑 처리부(251)에 입력되고, 필터 정보를 사용한 처리가 행하여진다.
전송 비디오 데이터(b)의 경우(도 7 참조), V_th(threshold_clipping_level)=V_100일 때는, 전송 비디오 데이터(decoded pixel data)는 클리핑 처리부(251)에 입력되고, 필터 정보를 사용한 처리가 행하여진다.
또한, 이 전송 비디오 데이터(b)의 경우(도 7 참조), V_th(threshold_clipping_level)<V_100일 때는, 필터 정보를 사용한 처리와 변환 커브 정보를 사용한 처리 모두 가능하게 된다. 필터 정보를 사용한 처리를 행하는 경우, 전송 비디오 데이터(decoded pixel data)는 클리핑 처리부(251)에 입력된다. 또한, 변환 커브 정보를 사용한 처리를 행하는 경우, 전송 비디오 데이터(decoded pixel data)는 레인지 맵핑 처리부(253)에 입력된다.
전송 비디오 데이터(c)의 경우(도 9 참조), 전송 비디오 데이터(decoded pixel data)는 레인지 맵핑 처리부(253)에 입력되고, 변환 커브 정보를 사용한 처리가 행하여진다.
최초에, 필터 정보를 사용한 처리가 행하여지는 경우에 대해서 설명한다. 클리핑 처리부(251)는, 전송 비디오 데이터를 구성하는 화소 데이터로부터, 쓰레숄드 클리핑 레벨(Threshold_clipping_level)을 사용하고, 이 레벨 이상의 화소 데이터를 재맵핑 처리의 대상으로서 취출한다. 또한, 전송 비디오 데이터(a)의 경우, 쓰레숄드 클리핑 레벨(Threshold_clipping_level)은 V_100이 된다.
예를 들어, 도 27의 (a)가 전송 비디오 데이터를 구성하는 화소 데이터의 일부를 나타내고, 백색으로 나타낸 화소 데이터만이 쓰레숄드 클리핑 레벨 이상인 것으로 한다. 클리핑 처리부(251)에서는, 도 27의 (b)에 백색으로 나타내는 바와 같이, 재맵핑 처리의 대상 화소 데이터가 취출된다. 또한, 재맵핑 처리의 대상이 되지 않는 화소 데이터에 관해서는, 그대로의 값으로써, HDR 처리부(205)의 출력으로 한다.
마킹 처리부(252)는, 재맵핑 처리의 대상이 된 화소 데이터마다, 그 주변의 화소 데이터도 사용하여, 오퍼레이터 타입(Operator_type)으로 나타나는 필터 타입의 필터링 조작을 행해서 레벨 분류를 한다. 도 27의 (c)는 재맵핑 처리의 대상이 된 각 화소 데이터가 레벨 분류된 상태를 도시하고 있다. 도 27의 (d)는, 예를 들어 3단계, 즉 (1) 「highest level」, (2) 「2nd highest level」, (3) 「3rd highest level」로 레벨 분류된 상태를 도시하고 있다. 또한, 레벨 분류의 단계는, 여기서는 이해를 용이하게 하기 위해서 3단계로 하고 있지만, 실제로는 더욱 세밀하게 설정된다.
레인지 맵핑 처리부(253)는, 각 화소 데이터의 값을, 레벨 분류된 단계에 따른 값으로 매핑하여, 출력한다. 이 레인지 맵핑 처리부(253)는, 레인지 맥스 퍼센트(renge_max_percent), 즉 N의 값과, 모니터 루미넌스 다이나믹 레인지(Monitor Luminance dynamic range)를 사용하여, 매핑한다.
도 28은, 레인지 맵핑의 일례를 도시하고 있다. 이 예는, 레인지 맥스, 퍼센트(renge_max_percent)가 「4」이고, 모니터 루미넌스 다이나믹 레인지(Monitor Luminance dynamic range)가 400%인 경우를 도시하고 있다. (1) 「highest level」의 화소 데이터에 관해서는, 표시부(207)의 출력 휘도인 아웃풋 루미넌스 퍼센티지(Output luminance percentage)가 400%가 되는 값으로 매핑된다. (2) 「2nd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 300%가 되는 값으로 매핑된다. 또한, (3) 「3rd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 200%가 되는 값으로 매핑된다.
도 29는, 레인지 맵핑의 다른 예를 도시하고 있다. “Case 1” 내지 “Case 4”의 각 예는, 설명을 간단하게 하기 위해서, 마킹 처리부(252)에서는, (1) 「highest level」, (2) 「2nd highest level」의 2단계로 레벨 분류되는 것으로 하고 있다.
“Case 1”의 예는, 레인지 맥스 퍼센트가 「8」이고, 모니터 루미넌스 다이나믹 레인지가 「800%」인 경우를 나타내고 있다. (1) 「highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 800%가 되는 값으로 매핑된다. (2) 「2nd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 400%가 되는 값으로 매핑된다.
“Case 2”의 예는, 레인지 맥스 퍼센트가 「4」이고, 모니터 루미넌스 다이나믹 레인지가 800%인 경우를 나타내고 있다. (1) 「highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 400%가 되는 값으로 매핑된다. (2) 「2nd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 200%가 되는 값으로 매핑된다.
이 예의 경우, 비디오 데이터의 다이내믹 레인지가 400%까지이므로, 모니터 휘도의 다이내믹 레인지가 800%까지이어도, 아웃풋 루미넌스 퍼센티지의 최댓값은, 비디오 데이터의 다이내믹 레인지 400%에 대응하도록 선택된다. 이에 의해, 고휘도 부분이 불필요하게 밝아서 부자연스러워지는 것이 억제된다.
“Case 3”의 예는, 레인지 맥스 퍼센트가 「8」이고, 모니터 루미넌스 다이나믹 레인지가 400%인 경우를 나타내고 있다. (1) 「highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 400%가 되는 값으로 매핑된다. (2) 「2nd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 200%가 되는 값으로 매핑된다.
이 예의 경우, 모니터 휘도의 다이내믹 레인지가 400%까지이므로, 비디오 데이터의 다이내믹 레인지가 400%까지이어도, 아웃풋 루미넌스 퍼센티지의 최댓값은, 모니터 휘도의 비디오 데이터 다이내믹 레인지 400%에 대응하도록 선택된다. 이에 의해, 모니터 휘도의 다이내믹 레인지에 합치한 표시용 비디오 데이터를 얻을 수 있어, 고휘도측이 날리는, 소위 백색 날림(노출 과다) 상태를 피할 수 있다.
“Case 4”의 예는, 레인지 맥스 퍼센트가 「8」이고, 모니터 루미넌스 다이나믹 레인지가 100%인 경우를 도시하고 있다. (1) 「highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 100%가 되는 값으로 매핑된다. (2) 「2nd highest level」의 화소 데이터에 관해서는, 아웃풋 루미넌스 퍼센티지가 100% 미만으로 되는 값으로 매핑된다.
이어서, 변환 커브 정보를 사용한 처리가 행하여지는 경우에 대해서 설명한다. 레인지 맵핑 처리부(253)는, 전송 비디오 데이터 중, V_th 내지 V_100*N의 변환 대상 레벨 범위의 각 화소 데이터의 값을, 맵핑 커브(mapping curve)의 테이블을 참조하여, 매핑하여, 출력 데이터로 한다. 이 경우, 변환 커브로서, 레인지 맥스 퍼센트(renge_max_percent), 즉 N의 값과, 모니터 루미넌스 다이나믹 레인지(Monitor Luminance dynamic range)를 사용해서 결정된 변환 후의 최대 레벨을 갖는 것이 사용된다.
이 변환 후의 최대 레벨의 결정 방법은, 상술한 필터 정보를 사용하는 경우와 마찬가지로 행하여진다(도 29 참조). 예를 들어, 레인지 맥스 퍼센트가 「8」이고, 모니터 루미넌스 다이나믹 레인지가 「800%」인 경우, 최대 레벨은, 아웃풋 루미넌스 퍼센티지가 800%가 되는 값으로 결정된다. 또한, 예를 들어 레인지 맥스 퍼센트가 「4」이고, 모니터 루미넌스 다이나믹 레인지가 800%인 경우, 최대 레벨은, 아웃풋 루미넌스 퍼센티지가 400%가 되는 값으로 결정된다.
또한, 전송 비디오 데이터 중, 변환 대상 레벨 범위 이외의 각 화소 데이터의 값에 대해서는, 그대로의 값으로써, 레인지 맵핑 처리부(253)의 출력, 따라서 HDR 처리부(205)의 출력으로 한다.
도 30은, 레인지 맵핑의 일례(Case 5)를 도시하고 있다. 이 예는, 레인지 맥스 퍼센트(renge_max_percent)가 「4」이고, 모니터 루미넌스 다이나믹 레인지(Monitor Luminance dynamic range)가 200%인 경우를 도시하고 있다. 이 경우, 최대 레벨은, 아웃풋 루미넌스 퍼센티지가 200%가 되는 값으로 결정된다. 이 예에서는, 전송 비디오 데이터의 최대 레벨인 「960」은, 레벨 「480」으로 변환된다.
또한, 레인지 맵핑 처리부(253)는, 모니터 루미넌스 다이나믹 레인지(Monitor Luminance dynamic range)의 정보가 사용된다. 수신 장치(200)가 셋톱 박스(STB)인 경우, 이 모니터 루미넌스 다이나믹 레인지에 대해서는, HDMI 경유로, 모니터측의 EDID로부터 얻는 정보에 기초해서 판단하는 것이 가능하다. 또한, 「Range_max_percent」 및 SEI 메시지 및 디스크립터의 각 요소는, Vender Specific Info Frame으로 정의함으로써, 셋톱 박스와 모니터에서 공유하는 것이 가능하다. 또한, HDMI는 등록 상표이다.
도 25에 도시하는 수신 장치(200)의 동작을 간단하게 설명한다. 수신부(202)에서는, 송신 장치(100)로부터 방송파에 실려 보내져 오는 트랜스포트 스트림 TS가 수신된다. 이 트랜스포트 스트림 TS는, 시스템 디코더(203)에 공급된다. 시스템 디코더(203)에서는, 이 트랜스포트 스트림 TS로부터 비디오 스트림(엘리멘터리 스트림)이 추출된다. 또한, 시스템 디코더(203)에서는, 이 트랜스포트 스트림 TS로부터, HDR 심플 디스크립터(HDR_simple descriptor) 또는 HDR 풀 디스크립터(HDR_full descriptor)를 추출해서 제어부(201)로 보내진다.
제어부(201)에서는, 이 디스크립터에 의해, 비디오 스트림에, 톤 맵핑 SEI 정보나 HDR 컨버전 SEI 정보의 삽입이 있는지 여부가 인식된다. 제어부(203)에서는, 이 SEI 정보가 있다고 인식할 때, 예를 들어 비디오 디코더(204)에 대하여, 그들의 SEI 정보를 적극적으로 취득하도록 제어가 행하여진다.
시스템 디코더(204)에서 추출되는 비디오 스트림은, 비디오 디코더(204)에 공급된다. 비디오 디코더(204)에서는, 이 비디오 스트림에 대하여 디코드 처리가 행하여져서, 기저 대역의 비디오 데이터가 생성된다. 또한, 비디오 디코더(204)에서는, 이 비디오 스트림에 삽입되어 있는 SEI 메시지가 추출되어, 제어부(201)로 보내진다.
이 SEI 메시지에는, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message) 및 HDR 컨버전 SEI 메시지(HDR conversion SEI message)도 포함된다. 제어부(201)에서는, SEI 정보에 기초하여, 디코드 처리나 표시 처리를 제어하는 일이 행하여진다.
비디오 디코더(204)에서 얻어진 비디오 데이터(전송 비디오 데이터)는, HDR 처리부(205)에 공급된다. HDR 처리부(205)에서는, 전송 비디오 데이터에 대하여, 그 고레벨 측의 레벨 범위가, 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환된다.
HDR 처리부(206)에서 얻어진 비디오 데이터는, 색 공간 변환부(206)에 의해, YUV 색 공간으로부터 RGB 색 공간으로 변환된 후, 표시부(207)에 공급된다. 표시부(207)에서는, 수신 비디오 데이터에 의한 화상이, 송신되는 비디오 데이터의 휘도 다이내믹 레인지, 나아가서는 모니터의 휘도 다이내믹 레인지에 따른 휘도 다이내믹 레인지로 표시된다.
상술한 바와 같이, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)는, 0% 내지 100%*N의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신하는 것이다. 따라서, 예를 들어 수신측에서는, 이 보조 정보에 의해, 전송 비디오 데이터의 고휘도 레벨을 변환하는 것이 가능하게 되고, 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시가 가능하게 된다.
또한, 도 1에 도시하는 송수신 시스템(10)에 있어서, 송신 장치(100)로부터 수신 장치(200)에 송신되는 트랜스포트 스트림 TS의 레이어에, 비디오 스트림의 레이어에 보조 정보의 삽입이 있는 것을 나타내는 식별 정보가 삽입되는 것이다. 따라서, 수신측에서는, 비디오 스트림을 디코딩하지 않아도, 이 비디오 스트림에 보조 정보의 삽입이 있는 것을 알 수 있어, 비디오 스트림으로부터 보조 정보의 추출을 적절하게 행할 수 있다.
<2. 변형예>
[MPEG-DASH 베이스의 스트림 배신 시스템에의 적용]
또한, 상술한 실시 형태에 있어서는, 컨테이너가 트랜스포트 스트림(MPEG-2 TS)인 예를 나타냈다. 그러나, 본 기술은, 인터넷 등의 네트워크를 이용해서 수신 단말기에 배신되는 구성의 시스템에도 마찬가지로 적용할 수 있다. 인터넷의 배신에서는, MP4나 그 이외의 포맷의 컨테이너로 배신되는 경우가 많다.
도 31은, 스트림 배신 시스템(30)의 구성예를 도시하고 있다. 이 스트림 배신 시스템(30)은, MPEG-DASH 베이스의 스트림 배신 시스템이다. 이 스트림 배신 시스템(30)은, DASH 세그먼트 스트리머(31) 및 DASH MPD 서버(32)에, N개의 IPTV 클라이언트(33-1, 33-2, ···, 33-N)가, CDN(Content Delivery Network)(34)를 통해서 접속된 구성으로 되어 있다.
DASH 세그먼트 스트리머(31)는, 소정의 콘텐츠의 미디어 데이터(비디오 데이터, 오디오 데이터, 자막 데이터 등)에 기초하여, DASH 사양의 스트림 세그먼트(이하, 「DASH 세그먼트」라고 함)를 생성하고, IPTV 클라이언트로부터의 HTTP 요구에 따라서 세그먼트를 송출한다. 이 DASH 세그먼트 스트리머(31)는, 스트리밍 전용의 서버이어도 되고, 또한 웹(Web) 서버에서 겸용되는 경우도 있다.
또한, DASH 세그먼트 스트리머(31)는, IPTV 클라이언트(33(33-1, 33-2, ···, 33-N))로부터 CDN(14)을 통해서 보내져 오는 소정 스트림의 세그먼트 요구에 대응하여, 그 스트림의 세그먼트를, CDN(34)을 통해서, 요구원의 IPTV 클라이언트(33)에 송신한다. 이 경우, IPTV 클라이언트(33)는, MPD(Media Presentation Description) 파일에 기재되어 있는 레이트의 값을 참조하여, 클라이언트가 놓여 있는 네트워크 환경의 상태에 따라, 최적의 레이트의 스트림을 선택해서 요구를 행한다.
DASH MPD 서버(32)는, DASH 세그먼트 스트리머(31)에 있어서 생성되는 DASH 세그먼트를 취득하기 위한 MPD 파일을 생성하는 서버이다. 콘텐츠 매니지먼트 서버(도 31에는 도시하지 않음)로부터의 콘텐츠 메타 데이터와, DASH 세그먼트 스트리머(31)에 있어서 생성된 세그먼트의 어드레스(url)에 기초하여, MPD 파일을 생성한다.
MPD의 포맷에서는, 비디오나 오디오 등의 각각의 스트림마다 리프리젠테이션(Representation)이라는 요소를 이용하여, 각각의 속성이 기술된다. 예를 들어, MPD 파일에는, 레이트가 상이한 복수의 비디오 데이터 스트림마다, 리프리젠테이션을 나누어 각각의 레이트가 기술된다. IPTV 클라이언트(33)에서는, 그 레이트의 값을 참고로 해서, 상술한 바와 같이, IPTV 클라이언트(33)가 놓여 있는 네트워크 환경의 상태에 따라, 최적의 스트림을 선택할 수 있다.
도 32는, 상술한 MPD 파일에 계층적으로 배치되어 있는 각 구조체의 관계의 일례를 도시하고 있다. 도 32의 (a)에 도시하는 바와 같이, MPD 파일 전체로서의 미디어 프리젠테이션(Media Presentation)에는, 시간 간격으로 구획된 복수의 피리어드(Period)가 존재한다. 예를 들어, 최초의 피리어드는 스타트가 0초부터, 다음 피리어드는 스타트가 100초부터, 등으로 되어 있다.
도 32의 (b)에 도시하는 바와 같이, 피리어드에는, 복수의 리프리젠테이션(Representation)이 존재한다. 이 복수의 리프리젠테이션에는, 상술한 어댑테이션 세트(AdaptationSet)로 그룹핑되는, 스트림 속성, 예를 들어 레이트가 상이한 동일 내용의 비디오 데이터 스트림에 관한 리프리젠테이션군이 존재한다.
도 32의 (c)에 도시하는 바와 같이, 리프리젠테이션에는, 세그먼트 인포(SegmentInfo)가 포함되어 있다. 이 세그먼트 인포에는, 도 32의 (d)에 도시하는 바와 같이, 이니셜라이제이션 세그먼트(Initialization Segment)와, 피리어드를 더욱 세밀하게 구획한 세그먼트(Segment)마다의 정보가 기술되는 복수의 미디어 세그먼트(Media Segment)가 존재한다. 미디어 세그먼트에는, 비디오나 오디오 등의 세그먼트 데이터를 실제로 취득하기 위한 어드레스(url)의 정보 등이 존재한다.
또한, 어댑테이션 세트로 그룹핑되어 있는 복수의 리프리젠테이션 사이에서는, 스트림의 스위칭을 자유롭게 행할 수 있다. 이에 의해, IPTV 클라이언트가 놓여 있는 네트워크 환경의 상태에 따라, 최적의 레이트의 스트림을 선택할 수 있고, 도중에서 끊김이 없는 동화상 배신이 가능하게 된다.
도 33의 (a)는 세그먼트 구조를 도시하고 있다. 세그먼트는, 구성하는 요소의 차이에 따라 3종류가 있다. 첫번째는, 코덱의 초기화 정보 「Initialization Segment」에 부가해서, 단편화된 동화상 데이터를 저장하는 「Media Segment」가 복수 있는 구조이다. 두번째는, 「Media Segment」가 하나뿐인 구조이다. 세번째는, 코덱의 초기화 정보 「Initialization Segment」와 일체화된 「Media Segment」를 사용하는 구조이다. 도 33의 (b), (c)는, 「Media Segment」가 하나뿐인 구조를 사용한 경우의, ISOBMFF나 MPEG-2TS에 대응한 세그먼트의 데이터 형식의 예를 도시하고 있다.
MPEG-DASH 베이스의 스트림 배신 시스템(30)에 본 기술을 적용하는 경우, 「Media Segment」 부분에, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message)와 HDR 컨버전 SEI 메시지(HDR conversion SEI message)가 삽입된 비디오 스트림이 배치된다. 또한, 「Initialization Segment」 부분에, HDR 심플 디스크립터(HDR_simple descriptor) 또는 HDR 풀 디스크립터(HDR_full descriptor)와, 또한 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)가 배치된다.
도 34는, MPEG-2TS에 대응한 세그먼트의 데이터 형식(도 33의 (c) 참조)에 있어서의 「Initialization Segment」 내에 포함되는 정보와, 「Media Segment」 내에 포함되는 정보가, 트랜스포트 스트림 내의 어느 정보인지를, 개략적으로 도시하고 있다. 또한, 상술한 바와 같이, MPEG-DASH 베이스의 스트림 배신 시스템(30)에 있어서, IPTV 클라이언트(33(33-1, 33-2, ···, 33-N))는, MPD 파일에 존재하는 어드레스(url)의 정보에 기초하여, 「Initialization Segment」 및 「Media Segment」를 취득하여, 화상 표시를 행한다.
도 31에 도시하는 스트림 배신 시스템(30)에 있어서도, 비디오 스트림의 레이어에 감마 커브 정보나 재맵핑을 위한 부가 정보를 갖는 SEI 메시지가 삽입됨과 함께, 시스템 레이어(컨테이너의 레이어)에, SEI 메시지의 삽입 유무 식별 정보를 갖는 디스크립터가 삽입되는 것이다. 따라서, IPTV 클라이언트(33)에 있어서는, 도 1에 도시하는 송수신 시스템(10)에 있어서의 수신 장치(200)와 마찬가지의 처리가 가능하게 된다.
[MMT 구조 전송 스트림에의 적용]
최근 들어, 차세대 방송에 적합한 트랜스포트 구조로서 MMT(MPEG Media Transport) 구조가 각광을 받고 있다. 이 MMT 구조는, IP 네트워크와의 공존이 주된 특징이다. 이 MMT 구조 전송 스트림을 취급하는 송수신 시스템에 본 기술을 적용하는 것도 생각된다.
도 35는, MMT 구조 전송 스트림을 취급하는 송수신 시스템(40)의 구성예를 도시하고 있다. 이 송수신 시스템(40)은, 트랜스포트 패킷 송신 장치(300)와, 트랜스포트 패킷 수신 장치(400)에 의해 구성되어 있다.
송신 장치(300)는, MMT 구조(ISO/IEC CD 23008-1 참조)의 트랜스포트 패킷, 즉 MMT 패킷이 포함되는 전송 스트림을 생성하고, 이 전송 스트림을 RF 전송로 또는 통신 네트워크 전송로를 통해서, 수신측에 송신한다. 이 전송 스트림에는, 페이로드에 비디오나 오디오의 전송 미디어를 포함하는 제1 MMT 패킷과, 페이로드에 전송 미디어에 관한 정보를 포함하는 제2 MMT 패킷이, 적어도 프래그먼트된 패킷의 크기로 시분할적으로 다중화되어 있다.
수신 장치(400)는, 송신측으로부터, RF 전송로 또는 통신 네트워크 전송로를 통해서, 상술한 전송 스트림을 수신한다. 수신 장치(400)는, 전송 스트림으로부터 취출한 전송 미디어를, 시각 정보에 기초하여 취득된 디코드 시각 및 표시 시각을 사용해서 처리하고, 화상을 표시함과 함께 음성을 출력한다.
도 36은, MMT 패킷의 구성을 트리 형식으로 도시한 것이다. MMT 패킷은, MMT 패킷 헤더(MMT Packet Header)와, MMT 페이로드 헤더(MMT Payload Header)와, MMT 페이로드(MMT Payload)에 의해 구성된다. MMT 페이로드에는, 메시지(Message), MPU(Media Processing Unit), FEC 수정 심볼(FEC Repair Symbol) 등이 포함되고, 이들 시그널링은 MMT 페이로드 헤더에 포함되는 페이로드 타입(payload_type)에 의해 행하여진다.
메시지에는, 각종 메시지 내용이 테이블 형식으로 삽입된다. 또한, MPU는, 프래그먼트화되어, MFU(MMT Fragment Unit)으로 세분화되는 경우도 있다. 그 경우, 각 MFU의 선두에는, MFU 헤더(MFU Header)가 부가된다. MMT 페이로드에는, 비디오나 오디오의 미디어 데이터에 관한 MPU, 나아가서는, 메타데이터에 관한 MPU가 존재한다. 각 MPU를 포함하는 MMT 패킷은, MMT 패킷 헤더에 존재하는 패킷 ID(Packet_ ID)로 식별 가능하게 된다.
MMT 구조 전송 스트림을 취급하는 송수신 시스템(40)에 본 기술을 적용하는 경우, MMT 페이로드에, 톤 맵핑 인포메이션 SEI 메시지(Tone mapping information SEI message)나 HDR 컨버전 SEI 메시지(HDR conversion SEI message)가 삽입된 비디오 스트림이 배치된다. 또한, 예를 들어 상술한 HDR 심플 디스크립터(HDR_simple descriptor) 또는 HDR 풀 디스크립터(HDR_full descriptor), 또한 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)와 마찬가지의 내용을 포함하는 HDR 디스크립션 테이블(HDR description table)을 갖는 메시지가 정의된다.
도 37은, HDR 심플 디스크립션 테이블을 갖는 HDR 디스크립션 메시지(HDR description Message)의 구조예(Syntax)를 도시하고 있다. 「message_id」의 16비트 필드는, HDR 디스크립션 메시지인 것을 나타낸다. 「version」의 8비트 필드는, 이 메시지의 버전을 나타낸다. 「lengh」의 16비트 필드는, 이 메시지의 길이(사이즈)를 나타내고, 이후의 바이트수를 나타낸다. 이 HDR 디스크립션 메시지에는, HDR 심플 디스크립션 테이블(HDR simple description table)이 포함되어 있다.
도 38은, HDR 심플 디스크립션 테이블의 구조예(Syntax)를 도시하고 있다. 「table_id」의 8비트 필드는, HDR 심플 디스크립션 테이블인 것을 나타낸다. 「version」의 8비트 필드는, 이 테이블의 버전을 나타낸다. 「table_id」 및 「version」은, 시스템에서 유니크하게 할당된다. 「length」의 16비트 필드는, 이 테이블 전체(사이즈)를 나타낸다. 「packet_id」의 16비트 필드는, MMT 패킷 헤더에 포함되는 「packet_id」와 동일하다. 이에 의해, 애셋(asset) 레벨에서의 관련짓기가 행하여진다.
「tone_mapping_SEI_existed」의 1비트 필드는, 도 18의 HDR 심플 디스크립터(HDR_simple descriptor)에 있어서와 마찬가지로, 비디오 레이어(비디오 스트림의 레이어)에, 톤 맵핑 SEI 정보(감마 커브 정보)가 존재하는지 여부를 나타내는 플래그 정보이다. “1”은 톤 맵핑 SEI 정보가 존재하는 것을 나타내고, “0”은 톤 맵핑 SEI 정보가 존재하지 않는 것을 나타낸다.
또한, 「HDR_conversion_SEI_existed」의 1비트 필드는, 도 18의 HDR 심플 디스크립터(HDR_simple descriptor)에 있어서와 마찬가지로, 비디오 레이어(비디오 스트림의 레이어)에, HDR 컨버전 SEI 정보(부가 정보)가 존재하는지 여부를 나타내는 플래그 정보이다. “1”은 HDR 컨버전 SEI 정보가 존재하는 것을 나타내고, “0”은 HDR 컨버전 SEI 정보가 존재하지 않는 것을 나타낸다.
도 39는, HDR 디스크립션 테이블을 갖는 HDR 디스크립션 메시지(HDR description Message)의 다른 구조예(Syntax)를 도시하고 있다. 「message_id」의 16비트 필드는, HDR 디스크립션 메시지인 것을 나타낸다. 「version」의 8비트 필드는, 이 메시지의 버전을 나타낸다. 「length」의 16비트 필드는, 이 메시지의 길이(사이즈)를 나타내고, 이후의 바이트수를 나타낸다. 이 HDR 디스크립션 메시지에는, HDR 풀 디스크립션 테이블(HDR full description table)이 포함되어 있다.
도 40은, HDR 풀 디스크립션 테이블의 구조예(Syntax)를 도시하고 있다. 「table_id」의 8비트 필드는, HDR 심플 디스크립션 테이블인 것을 나타낸다. 「version」의 8비트 필드는, 이 테이블의 버전을 나타낸다. 「table_id」 및 「version」은, 시스템에서 유니크하게 할당된다. 「length」의 16비트 필드는, 이 테이블 전체(사이즈)를 나타낸다. 「packet_id」의 16비트 필드는, MMT 패킷 헤더에 포함되는 「packet_id」와 동일하다. 이에 의해, 애셋(asset) 레벨에서의 관련짓기가 행하여진다.
상세 설명은 생략하지만, 이 HDR 풀 디스크립션 테이블에는, 「tone_mapping_SEI_existed」, 「HDR_conversion_SEI_existed」를 비롯하여, 도 20의 HDR 풀 디스크립터(HDR_full descriptor)에 있어서와 마찬가지의 정보가 포함되어 있다.
도 41은, 레벨 맵핑 커브 테이블을 갖는 HDR 디스크립션 메시지의 구조예를 도시하는 도면이다. 「message_id」의 16비트 필드는, HDR 디스크립션 메시지인 것을 나타낸다. 「version」의 8비트 필드는, 이 메시지의 버전을 나타낸다. 「length」의 16비트 필드는, 이 메시지의 길이(사이즈)를 나타내고, 이후의 바이트수를 나타낸다. 이 HDR 디스크립션 메시지에는, 레벨 맵핑 커브 테이블(Level_mapping_curve_table)이 포함되어 있다.
도 42는, 레벨 맵핑 커브 테이블의 구조예(Syntax)를 도시하고 있다. 「table_id」의 8비트 필드는, 레벨 맵핑 커브 테이블인 것을 나타낸다. 「version」의 8비트 필드는, 이 테이블의 버전을 나타낸다. 「table_id」 및 「version」은, 시스템에서 유니크하게 할당된다. 「length」의 16비트 필드는, 이 테이블 전체(사이즈)를 나타낸다. 「packet_id」의 16비트 필드는, MMT 패킷 헤더에 포함되는 「packet_id」와 동일하다. 이에 의해, 애셋(asset) 레벨에서의 관련짓기가 행하여진다.
이하, 상세 설명은 생략하지만, 도 21에 있어서의 레벨 맵핑 커브 디스크립터(level_mapping_curve descriptor)와 마찬가지로, 「mapping_curve_table_id」, 「number of levels N」, 「number of curve types C」 및 「curve_data」의 정보가 포함되어 있다.
또한, 상술한 바와 같이, MPEG-DASH 베이스의 스트림 배신 시스템(30)에 있어서, IPTV 클라이언트(33(33-1, 33-2, ···, 33-N))는, MPD 파일에 존재하는 어드레스(url)의 정보에 기초하여, 「Initialization Segment」 및 「Media Segment」를 취득하여, 화상 표시를 행한다. 그리고, 그 때, 도 1에 도시하는 송수신 시스템(10)에 있어서의 수신 장치(200)와 마찬가지로, SEI 메시지를 사용한 처리가 가능하게 된다.
도 35에 도시하는 송수신 시스템(40)에 있어서도, 비디오 스트림의 레이어에 감마 커브 정보나 재맵핑을 위한 부가 정보를 갖는 SEI 메시지가 삽입됨과 함께, 시스템 레이어(컨테이너의 레이어)에, SEI 메시지의 삽입 유무 식별 정보를 갖는 디스크립션 테이블이 삽입되는 것이다. 따라서, 트랜스포트 패킷 수신 장치(400)에 있어서는, 도 1에 도시하는 송수신 시스템(10)에 있어서의 수신 장치(200)와 마찬가지의 처리가 가능하게 된다.
또한, 본 기술은, 이하와 같은 구성을 취할 수도 있다.
(1) 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 전송 비디오 데이터를 얻는 처리부와,
상기 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신하는 송신부를 구비하는 송신 장치.
(2) 상기 송신부는, 상기 전송 비디오 데이터가 부호화되어 얻어진 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 송신하고,
상기 비디오 스트림의 레이어 및/또는 상기 컨테이너의 레이어에 상기 보조 정보를 삽입하는 보조 정보 삽입부를 구비하는 상기 (1)에 기재된 송신 장치.
(3) 상기 비디오 스트림의 레이어에 상기 보조 정보의 삽입이 있는 것을 나타내는 식별 정보를 상기 컨테이너의 레이어에 삽입하는 식별 정보 삽입부를 구비하는 상기 (2)에 기재된 송신 장치.
(4) 상기 처리부는,
상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 상기 입력 비디오 데이터의 100% 내지 100%*N의 레벨에 상당하는 레벨을, 상기 입력 비디오 데이터의 100%에 상당하는 레벨로 변환하는 처리를 행해서 상기 전송 비디오 데이터를 얻는 상기 (1) 내지 (3) 중 어느 하나에 기재된 송신 장치.
(5) 상기 보조 정보는, 상기 전송 비디오 데이터의 상기 입력 비디오 데이터의 100%에 상당하는 레벨의 화소 데이터에 적용하는 필터의 정보를 포함하는 상기 (4)에 기재된 송신 장치.
(6) 상기 처리부는,
상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 상기 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 상기 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 사이의 레벨로 변환하는 처리를 행해서 상기 전송 비디오 데이터를 얻는 상기 (1) 내지 (3) 중 어느 하나에 기재된 송신 장치.
(7) 상기 보조 정보는, 상기 전송 비디오 데이터의 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 화소 데이터에 적용하는 필터의 정보를 포함하는 상기 (6)에 기재된 송신 장치.
(8) 상기 보조 정보는, 상기 전송 비디오 데이터의 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 화소 데이터에 적용하는 변환 커브의 정보를 포함하는 상기 (6)에 기재된 송신 장치.
(9) 상기 처리부는,
상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터를 그대로 상기 전송 비디오 데이터로 하는 상기 (1) 내지 (3) 중 어느 하나에 기재된 송신 장치.
(10) 상기 보조 정보는, 상기 전송 비디오 데이터의 고레벨측에 적용하는 변환 커브의 정보를 포함하는 상기 (9)에 기재된 송신 장치.
(11) 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 전송 비디오 데이터를 얻는 처리 스텝과,
상기 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보와 함께 송신하는 송신 스텝을 구비하는 송신 방법.
(12) 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신부와,
상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리부를 구비하는 수신 장치.
(13) 상기 처리부는,
상기 소정 레벨을, 상기 보조 정보에 포함되는 상기 N의 정보 및 모니터의 휘도 다이내믹 레인지의 정보에 기초하여 결정하는 상기 (12)에 기재된 수신 장치.
(14) 상기 전송 비디오 데이터는, 상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 상기 입력 비디오 데이터의 100% 내지 100%*N의 레벨에 상당하는 레벨을, 상기 입력 비디오 데이터의 100%에 상당하는 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며,
상기 처리부는,
상기 전송 비디오 데이터의, 상기 입력 비디오 데이터의 100%에 상당하는 레벨의 각 화소 데이터의 레벨을, 상기 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여, 상기 입력 비디오 데이터의 100%에 상당하는 레벨로부터 상기 소정의 레벨까지의 사이의 레벨로 변환하는 상기 (12) 또는 (13)에 기재된 수신 장치.
(15) 상기 전송 비디오 데이터는, 상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 상기 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 상기 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 사이의 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며,
상기 처리부는,
상기 전송 비디오 데이터의, 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 각 화소 데이터를, 상기 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여, 상기 역치로부터 상기 소정 레벨까지의 사이의 레벨로 변환하는 상기 (12) 또는 (13)에 기재된 수신 장치.
(16) 상기 전송 비디오 데이터는, 상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터에 대하여, 또한 상기 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 상기 입력 비디오 데이터의 100%*N에 상당하는 레벨까지를, 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 사이의 레벨로 변환하는 처리를 행해서 얻어진 비디오 데이터이며,
상기 처리부는,
상기 전송 비디오 데이터의, 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 각 화소 데이터를, 상기 보조 정보에 포함되는 변환 커브 정보를 적용하여, 상기 역치로부터 상기 소정 레벨까지의 사이의 레벨로 변환하는 상기 (12) 또는 (13)에 기재된 수신 장치.
(17) 상기 전송 비디오 데이터는, 상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터 그대로의 비디오 데이터이며,
상기 처리부는,
상기 전송 비디오 데이터의, 상기 입력 비디오 데이터의 100%에 상당하는 레벨 이하의 역치로부터 상기 입력 비디오 데이터의 100%*N에 상당하는 레벨까지의 각 화소 데이터를, 상기 보조 정보에 포함되는 변환 커브 정보를 적용하여, 상기 역치로부터 상기 입력 비디오 데이터의 L%*100(L은 N 이하의 수)에 상당하는 상기 소정 레벨까지의 사이의 레벨로 변환하는 상기 (12) 또는 (13)에 기재된 수신 장치.
(18) 0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신 스텝과,
상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리 스텝을 구비하는 수신 방법.
본 기술의 주된 특징은, HDR의 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를, 수신측에서 고휘도의 레벨을 변환하기 위한 보조 정보(필터 정보, 변환 커브 정보)와 함께 송신함으로써, 수신측에 있어서 적절한 휘도 다이내믹 레인지로 표시를 가능하게 한 것이다(도 10 참조).
10: 송수신 시스템
30: 스트림 배신 시스템
31: DASH 세그먼트 스트리머
32: DASH MPD 서버
33-1 내지 33-N: IPTV 클라이언트
34: CDN
40: 송수신 시스템
100: 송신 장치
101: 제어부
102: 카메라
103: 색 공간 변환부
104: 감마 처리부
105: 비디오 인코더
106: 시스템 인코더
107: 송신부
200: 수신 장치
201: 제어부
202: 수신부
203: 시스템 디코더
204: 비디오 디코더
205: HDR 처리부
206: 색 공간 변환부
207: 표시부
251: 클리핑 처리부
252: 마킹 처리부
253: 레인지 맵핑 처리부
300: 트랜스포트 패킷 송신 장치
400: 트랜스포트 패킷 수신 장치

Claims (19)

  1. 수신 장치로서,
    0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신부와,
    상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리부를 포함하고,
    상기 보조 정보는 역치(threshold)로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 범위 내의 상기 전송 비디오 데이터의 화소 데이터에 적용되는 변환 커브에 대한 정보를 포함하는, 수신 장치.
  2. 제1항에 있어서, 상기 전송 비디오 데이터는
    상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터의 레벨 - 상기 출력 비디오 데이터의 상기 레벨은 100%에 상당하는 레벨과 같거나 이보다 낮은 역치로부터 100%*N까지의 범위 내의 상기 입력 비디오 데이터의 레벨에 상당함 - 을 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 범위 내의 레벨로 변환하는 처리를 추가로 행해서 얻어지는 비디오 데이터인, 수신 장치.
  3. 제1항에 있어서,
    상기 100%*N은 명목(nominal) 백색 레벨이 100%로 설정되었을 때의 정수배(N배)인, 수신 장치.
  4. 제1항에 있어서,
    상기 전송 비디오 데이터는 HEVC(High Efficiency Video Coding) 비디오인, 수신 장치.
  5. 제1항에 있어서,
    상기 전송 비디오 데이터는 MPEG4-AVC 비디오인, 수신 장치.
  6. 제1항에 있어서,
    상기 보조 정보는 SEI 메시지의 일부로 삽입되는, 수신 장치.
  7. 제1항에 있어서,
    상기 전송 비디오 데이터는 MPEG-DASH 베이스 스트림에 의해 배신(配信: distribute)되는, 수신 장치.
  8. 제1항에 있어서,
    상기 소정 레벨은 상기 보조 정보 내에 포함된 모니터의 휘도 다이내믹 레인지에 대한 정보의 정보에 기초하여 결정되는, 수신 장치.
  9. 제1항에 있어서,
    상기 처리부는,
    상기 보조 정보에 포함되는 필터 정보로 특정되는 필터를 적용하여 상기 입력 비디오 데이터의 100%에 상당하는 각 화소 데이터의 레벨들을 상기 입력 비디오 데이터의 100%에 상당하는 레벨로부터 상기 소정 레벨까지의 범위 내의 레벨들로 변환하는, 수신 장치.
  10. 제1항에 있어서,
    상기 전송 비디오 데이터를 부호화해서 얻어진 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 수신하고 상기 컨테이너의 레이어 및/또는 상기 비디오 스트림의 레이어로 상기 보조 정보를 추출하는 상기 수신부가 제공되는, 수신 장치.
  11. 제10항에 있어서,
    디코더부가 상기 컨테이너의 상기 레이어로부터 식별 정보를 추출하고, 상기 식별 정보는 상기 비디오 스트림의 상기 레이어에 상기 보조 정보가 삽입되었다는 것을 나타내는, 수신 장치.
  12. 수신 방법으로서,
    0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신 단계와,
    상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리 단계를 포함하고,
    상기 보조 정보는 역치(threshold)로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 범위 내의 상기 전송 비디오 데이터의 화소 데이터에 적용되는 변환 커브에 대한 정보를 포함하는, 수신 방법.
  13. 제12항에 있어서, 상기 전송 비디오 데이터는,
    상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터의 레벨 - 상기 출력 비디오 데이터의 상기 레벨은 100%로부터 100%*N까지의 범위 내의 상기 입력 비디오 데이터의 레벨에 상당함 - 을 상기 입력 비디오 데이터의 100%에 상당하는 레벨로 변환하는 처리를 추가로 행해서 얻어지는 비디오 데이터인, 수신 방법.
  14. 디스플레이 장치로서,
    0% 내지 100%*N(N은 1보다 큰 수)의 레벨 범위를 갖는 입력 비디오 데이터에 감마 커브를 적용해서 얻어진 전송 비디오 데이터를 수신하는 수신부와,
    상기 전송 비디오 데이터의 고레벨 측의 레벨 범위를, 상기 전송 비디오 데이터와 함께 수신되는 보조 정보에 기초하여, 최대 레벨이 소정 레벨이 되도록 변환하는 처리부와,
    이미지를 디스플레이하는 디스플레이부를 포함하고,
    상기 보조 정보는 역치(threshold)로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 범위 내의 상기 전송 비디오 데이터의 화소 데이터에 적용되는 변환 커브에 대한 정보를 포함하는, 디스플레이 장치.
  15. 제14항에 있어서, 상기 전송 비디오 데이터는,
    상기 입력 비디오 데이터에 상기 감마 커브를 적용해서 얻어진 출력 비디오 데이터의 레벨 - 상기 출력 비디오 데이터의 상기 레벨은 100%에 상당하는 레벨과 같거나 이보다 낮은 역치로부터 100%*N까지의 범위 내의 상기 입력 비디오 데이터의 레벨에 상당함 - 을 상기 역치로부터 상기 입력 비디오 데이터의 100%에 상당하는 레벨까지의 범위 내의 레벨로 변환하는 처리를 추가로 행해서 얻어지는 비디오 데이터인, 디스플레이 장치.
  16. 제14항에 있어서,
    상기 100%*N은 명목(nominal) 백색 레벨이 100%로 설정되었을 때의 정수배(N배)인, 디스플레이 장치.
  17. 제14항에 있어서,
    상기 전송 비디오 데이터는 HEVC(High Efficiency Video Coding) 비디오인, 디스플레이 장치.
  18. 제14항에 있어서,
    상기 전송 비디오 데이터는 MPEG-DASH 베이스 스트림에 의해 배신(配信: distribute)되는, 디스플레이 장치.
  19. 제14항에 있어서,
    상기 전송 비디오 데이터를 부호화해서 얻어진 비디오 스트림을 포함하는 소정 포맷의 컨테이너를 수신하고 상기 컨테이너의 레이어 및/또는 상기 비디오 스트림의 레이어로 상기 보조 정보를 추출하는 상기 수신부가 제공되는, 디스플레이 장치.
KR1020157030252A 2013-04-30 2014-04-16 송신 장치, 송신 방법, 수신 장치 및 수신 방법 KR102241672B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2013-096056 2013-04-30
JP2013096056 2013-04-30
PCT/JP2014/060877 WO2014178286A1 (ja) 2013-04-30 2014-04-16 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
KR20160002804A KR20160002804A (ko) 2016-01-08
KR102241672B1 true KR102241672B1 (ko) 2021-04-16

Family

ID=51843420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157030252A KR102241672B1 (ko) 2013-04-30 2014-04-16 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Country Status (8)

Country Link
US (4) US9860505B2 (ko)
EP (2) EP3926963A3 (ko)
JP (3) JP6510404B2 (ko)
KR (1) KR102241672B1 (ko)
CN (2) CN105165001B (ko)
BR (1) BR112015026979B1 (ko)
RU (1) RU2657473C2 (ko)
WO (1) WO2014178286A1 (ko)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3926963A3 (en) 2013-04-30 2022-01-26 Saturn Licensing LLC Transmitting device, transmitting method, receiving device, and receiving method
JP2015005878A (ja) * 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
US20150032845A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Packet transmission protocol supporting downloading and streaming
MX367832B (es) 2014-01-24 2019-09-09 Sony Corp Dispositivo de transmisión, método de transmisión, dispositivo de recepción y método de recepción.
WO2015174109A1 (ja) * 2014-05-12 2015-11-19 ソニー株式会社 通信装置及び通信方法、並びにコンピューター・プログラム
WO2015174026A1 (ja) 2014-05-16 2015-11-19 パナソニックIpマネジメント株式会社 変換方法および変換装置
JP6531759B2 (ja) * 2014-06-13 2019-06-19 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN105393549A (zh) 2014-06-27 2016-03-09 松下知识产权经营株式会社 数据输出装置、数据输出方法及数据生成方法
JP6466258B2 (ja) 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
WO2016021120A1 (ja) 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
US9800898B2 (en) * 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
ES2865376T3 (es) * 2014-11-07 2021-10-15 Sony Group Corp Dispositivo de transmisión, procedimiento de transmisión, dispositivo de recepción y procedimiento de recepción
US10623805B2 (en) 2014-11-17 2020-04-14 Sony Corporation Sending device, method of sending high dynamic range image data, receiving device, and method of receiving high dynamic range image data
CN106464815B (zh) * 2014-11-21 2020-01-14 深圳市大疆创新科技有限公司 高动态范围成像的快速自适应混合的系统以及方法
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
FI4109906T3 (fi) * 2014-12-03 2024-01-30 Panasonic Ip Man Co Ltd Datangenerointilaite
US10547844B2 (en) * 2014-12-04 2020-01-28 Lg Electronics Inc. Broadcasting signal transmission and reception method and device
JP2016122985A (ja) * 2014-12-25 2016-07-07 株式会社東芝 画像処理システム、画像処理装置および画像処理方法
CN112383695B (zh) * 2014-12-29 2022-06-14 索尼公司 发送装置、接收装置和接收方法
JP6863271B2 (ja) * 2015-02-16 2021-04-21 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
CA2977204C (en) * 2015-03-05 2023-04-04 Sony Corporation Photoelectric conversion of video data having a predetermined photoelectric conversion characteristic
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
US20180070083A1 (en) * 2015-03-24 2018-03-08 Sony Corporation Transmission device, transmission method, reception device, and reception method
KR20170138994A (ko) * 2015-04-22 2017-12-18 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP6666022B2 (ja) * 2015-06-04 2020-03-13 キヤノン株式会社 画像表示装置、画像出力装置、及び、それらの制御方法
JP6574270B2 (ja) * 2015-06-05 2019-09-11 アップル インコーポレイテッドApple Inc. 高ダイナミックレンジのコンテンツのレンダリング及び表示
WO2016204712A1 (en) * 2015-06-16 2016-12-22 Intel IP Corporation Adaptive video content for cellular communication
JP6844539B2 (ja) * 2015-07-31 2021-03-17 ソニー株式会社 映像信号処理装置および映像信号処理方法、ならびに表示装置
JP2018530942A (ja) * 2015-08-24 2018-10-18 トムソン ライセンシングThomson Licensing コード化および復号方法ならびに対応するデバイス
US10140694B2 (en) 2015-08-31 2018-11-27 Lg Electronics Inc. Image display apparatus
JP6820507B2 (ja) * 2015-09-14 2021-01-27 パナソニックIpマネジメント株式会社 映像受信方法、映像送信方法、映像受信装置及び映像送信装置
KR102243844B1 (ko) 2015-09-23 2021-04-22 애리스 엔터프라이지즈 엘엘씨 비디오 디코더에서의 높은 동적 범위 적응 동작들
JP6441247B2 (ja) * 2015-10-01 2018-12-19 マクセル株式会社 表示制御方法
JP6645871B2 (ja) * 2015-09-30 2020-02-14 マクセル株式会社 放送システム
JP6616212B2 (ja) * 2015-09-28 2019-12-04 マクセル株式会社 表示制御方法
CN108028958B (zh) 2015-09-25 2021-09-03 麦克赛尔株式会社 广播接收装置
JP6616211B2 (ja) * 2015-09-25 2019-12-04 マクセル株式会社 放送受信装置
WO2017051808A1 (ja) * 2015-09-25 2017-03-30 日立マクセル株式会社 放送受信装置
JP6645869B2 (ja) * 2015-09-29 2020-02-14 マクセル株式会社 放送システム
EP4258673A3 (en) * 2015-10-07 2023-12-13 Panasonic Intellectual Property Management Co., Ltd. Video transmission method, video reception method, video transmission device, and video reception device
JP6830190B2 (ja) * 2015-10-07 2021-02-17 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
WO2017061297A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置および情報処理方法
JP6519441B2 (ja) 2015-10-22 2019-05-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR20180070593A (ko) 2015-10-28 2018-06-26 톰슨 라이센싱 정보 데이터의 공통 세트에 의해 구동되는 후보 프로세스들의 세트로부터 비디오 데이터에 적용될 프로세스를 선택하기 위한 방법 및 디바이스
US11711569B2 (en) * 2015-11-09 2023-07-25 Interdigital Vc Holdings, Inc. Method and device for adapting the video content decoded from elementary streams to the characteristics of a display
JP6132006B1 (ja) * 2015-12-02 2017-05-24 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
BR112017016037A2 (pt) 2015-12-17 2018-03-20 Koninklijke Philips N.V. decodificador e codificador de vídeo em hdr; método de decodificação de vídeo; método para codificação de vídeo em hdr; e memória legível por computador
KR102446181B1 (ko) * 2016-02-17 2022-09-22 삼성전자주식회사 멀티미디어 시스템에서 미디어 데이터를 송수신하는 방법 및 장치
JP2017151308A (ja) * 2016-02-25 2017-08-31 キヤノン株式会社 情報処理装置および情報処理方法
JP6460014B2 (ja) 2016-03-04 2019-01-30 ソニー株式会社 信号処理装置、信号処理方法およびカメラシステム
EP3220645A1 (en) * 2016-03-18 2017-09-20 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device
JP6682322B2 (ja) * 2016-03-31 2020-04-15 シャープ株式会社 階調値変換装置、テレビジョン受像機、階調値変換方法、制御プログラム、および記録媒体
US10587934B2 (en) * 2016-05-24 2020-03-10 Qualcomm Incorporated Virtual reality video signaling in dynamic adaptive streaming over HTTP
CN106101679B (zh) * 2016-08-23 2018-01-12 青岛海信电器股份有限公司 高动态范围信号的处理方法及处理系统
US10834153B2 (en) * 2016-08-24 2020-11-10 Qualcomm Incorporated System level signaling of SEI tracks for media data streaming
US10757361B2 (en) 2016-10-11 2020-08-25 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
JP6883971B2 (ja) * 2016-10-24 2021-06-09 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
HUE060571T2 (hu) * 2016-11-22 2023-03-28 Saturn Licensing Llc Átviteli eszköz, átviteli eljárás, vevõkészülék és vételi eljárás
EP3697098A4 (en) * 2017-10-12 2020-08-19 Sony Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, TRANSMISSION DEVICE, TRANSMISSION METHOD AND RECEIVING DEVICE
CN109605429B (zh) * 2018-12-06 2020-10-09 蒋玉素 可清洗型弯头式去胡刀
US11265580B2 (en) * 2019-03-22 2022-03-01 Tencent America LLC Supplemental enhancement information messages for neural network based video post processing
JP7365133B2 (ja) * 2019-04-19 2023-10-19 キヤノン株式会社 通信装置およびその制御方法、プログラム
JP6658944B2 (ja) * 2019-04-25 2020-03-04 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6958645B2 (ja) * 2019-04-25 2021-11-02 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US10855998B1 (en) * 2019-07-01 2020-12-01 Sony Corporation Embedded codec circuitry for block based gamma correction of a raw image block
CN112686809A (zh) 2019-10-18 2021-04-20 华为技术有限公司 处理高动态范围图像的方法和装置
WO2023150074A1 (en) * 2022-02-01 2023-08-10 Dolby Laboratories Licensing Corporation Beta scale dynamic display mapping

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287037A (ja) 1993-07-16 2005-10-13 Sony Corp 編集システム
JP2007049329A (ja) 2005-08-09 2007-02-22 Seiko Epson Corp 画像記録装置、画像記録方法、画像表示装置、画像表示方法、及び画像表示システム
US20080231688A1 (en) * 2005-11-28 2008-09-25 Huawei Technologies Co., Ltd. Video Bit-Stream Gamma-Correction Method And A Multipoint Control Unit
WO2013039730A2 (en) * 2011-09-15 2013-03-21 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5534948A (en) * 1989-08-15 1996-07-09 Rank Cintel Limited Method and apparatus for reducing the effect of alias components produced through non-linear digital signal processing, such as gamma correction, by selective attenuation
WO1995002939A1 (fr) * 1993-07-16 1995-01-26 Sony Corporation Dispositif d'enregistrement de parametres de prise de vues, procede de prise de vues et systeme d'edition
KR100206792B1 (ko) * 1996-07-16 1999-07-01 구자홍 감마보정에 의한 티브이 화질 개선장치
JP3697997B2 (ja) * 2000-02-18 2005-09-21 ソニー株式会社 画像表示装置と階調補正データ作成方法
JP4178548B2 (ja) * 2003-01-17 2008-11-12 富士フイルム株式会社 撮像装置
JP4368127B2 (ja) * 2003-04-04 2009-11-18 ソニー株式会社 撮像装置におけるガンマ補正装置
CN1259795C (zh) * 2003-07-25 2006-06-14 金宝电子工业股份有限公司 高动态范围的数字视讯信号处理电路及其中的电路元件
JP2006081037A (ja) * 2004-09-10 2006-03-23 Eastman Kodak Co 撮像装置
JP4622629B2 (ja) 2005-03-31 2011-02-02 株式会社ニコン 撮像装置
KR100782826B1 (ko) * 2005-12-10 2007-12-06 삼성전자주식회사 영상 획득 장치 및 방법과 그 방법을 수행하는 프로그램이기록된 기록매체
US8149283B2 (en) * 2007-01-23 2012-04-03 Nikon Corporation Image processing device, electronic camera, image processing method, and image processing program
JP5315634B2 (ja) 2007-07-04 2013-10-16 株式会社ニコン 画像処理装置および画像処理方法
US7957322B2 (en) 2007-02-02 2011-06-07 Silver Sring Networks, Inc. Flow-through provisioning in utility AMR/AMI networks
KR100886099B1 (ko) * 2007-06-26 2009-03-04 주식회사 코아로직 감마 보정 곡선의 자동 산출 장치 및 방법
US8279351B2 (en) * 2008-10-27 2012-10-02 Rgb Systems, Inc. Method and apparatus for hardware-efficient continuous gamma curve adjustment
US9077905B2 (en) * 2009-02-06 2015-07-07 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
EP2406943B1 (en) * 2009-03-10 2016-06-15 Dolby Laboratories Licensing Corporation Extended dynamic range and extended dimensionality image signal conversion
JP2011010108A (ja) * 2009-06-26 2011-01-13 Seiko Epson Corp 撮像制御装置、撮像装置及び撮像制御方法
JP5509729B2 (ja) 2009-08-24 2014-06-04 ソニー株式会社 画像表示装置、画像表示方法及び画像処理装置
US9131033B2 (en) * 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
US9596447B2 (en) * 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
PL2617195T3 (pl) 2010-09-16 2019-08-30 Koninklijke Philips N.V. Urządzenia i sposoby ulepszonego kodowania obrazów
US8737736B2 (en) * 2010-12-31 2014-05-27 Microsoft Corporation Tone mapping of very large aerial image mosaic
EP2702766B1 (en) 2011-04-28 2017-06-14 Koninklijke Philips N.V. Apparatuses and methods for hdr image encoding and decoding
RU2643485C2 (ru) * 2011-09-27 2018-02-01 Конинклейке Филипс Н.В. Устройство и способ для преобразования динамического диапазона изображений
EP2579591A1 (en) * 2011-10-04 2013-04-10 Thomson Licensing Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
US8935425B2 (en) 2011-10-05 2015-01-13 Qualcomm Incorporated Switching between representations during network streaming of coded multimedia data
US20130195204A1 (en) * 2012-01-19 2013-08-01 Vid Scale Inc. Methods and Systems for Video Delivery Supporting Adaptation to Viewing Conditions
US9014504B2 (en) * 2012-05-31 2015-04-21 Apple Inc. Systems and methods for highlight recovery in an image signal processor
EP3926963A3 (en) 2013-04-30 2022-01-26 Saturn Licensing LLC Transmitting device, transmitting method, receiving device, and receiving method
CN112383695B (zh) * 2014-12-29 2022-06-14 索尼公司 发送装置、接收装置和接收方法
US20190007709A1 (en) * 2015-08-20 2019-01-03 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287037A (ja) 1993-07-16 2005-10-13 Sony Corp 編集システム
JP2007049329A (ja) 2005-08-09 2007-02-22 Seiko Epson Corp 画像記録装置、画像記録方法、画像表示装置、画像表示方法、及び画像表示システム
US20080231688A1 (en) * 2005-11-28 2008-09-25 Huawei Technologies Co., Ltd. Video Bit-Stream Gamma-Correction Method And A Multipoint Control Unit
WO2013039730A2 (en) * 2011-09-15 2013-03-21 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
표준문서:JCT-VC*

Also Published As

Publication number Publication date
JPWO2014178286A1 (ja) 2017-02-23
CN105165001A (zh) 2015-12-16
JP2019149808A (ja) 2019-09-05
US20180160090A1 (en) 2018-06-07
BR112015026979B1 (pt) 2023-04-11
US20230104968A1 (en) 2023-04-06
JP7087028B2 (ja) 2022-06-20
US10560674B2 (en) 2020-02-11
CN110418166B (zh) 2022-04-29
CN105165001B (zh) 2019-08-09
US20200145632A1 (en) 2020-05-07
JP6510404B2 (ja) 2019-05-08
US20160080714A1 (en) 2016-03-17
RU2015145812A (ru) 2017-04-26
CN110418166A (zh) 2019-11-05
WO2014178286A1 (ja) 2014-11-06
US11575866B2 (en) 2023-02-07
RU2657473C2 (ru) 2018-06-14
JP2020188495A (ja) 2020-11-19
JP6742467B2 (ja) 2020-08-19
EP2993886A1 (en) 2016-03-09
BR112015026979A2 (pt) 2017-07-25
EP3926963A2 (en) 2021-12-22
EP2993886A4 (en) 2016-11-23
EP3926963A3 (en) 2022-01-26
US9860505B2 (en) 2018-01-02
KR20160002804A (ko) 2016-01-08

Similar Documents

Publication Publication Date Title
JP7087028B2 (ja) 受信装置、受信方法および表示装置
US11290754B2 (en) Transmission device, transmission method, reception device, reception method, display device, and display method
KR102360613B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP6897843B2 (ja) 送信装置、送信方法、受信装置および受信方法
KR102423434B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right