KR102299972B1 - 신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버 - Google Patents

신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버 Download PDF

Info

Publication number
KR102299972B1
KR102299972B1 KR1020187037512A KR20187037512A KR102299972B1 KR 102299972 B1 KR102299972 B1 KR 102299972B1 KR 1020187037512 A KR1020187037512 A KR 1020187037512A KR 20187037512 A KR20187037512 A KR 20187037512A KR 102299972 B1 KR102299972 B1 KR 102299972B1
Authority
KR
South Korea
Prior art keywords
signal
hdr
unit
video signal
processing
Prior art date
Application number
KR1020187037512A
Other languages
English (en)
Other versions
KR20190022558A (ko
Inventor
코지 카미야
히로아키 키쿠치
준 오누키
토모유키 엔도
마사키 히로세
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Priority claimed from PCT/JP2017/023452 external-priority patent/WO2018003757A1/ja
Publication of KR20190022558A publication Critical patent/KR20190022558A/ko
Application granted granted Critical
Publication of KR102299972B1 publication Critical patent/KR102299972B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/202Gamma control
    • H04N5/2251
    • H04N5/2355

Abstract

복수의 신호 인터페이스의 HDR 영상 신호의 취급을 양호하게 행할 수 있도록 한다.
[해결 수단] 처리부는, 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는다. 처리부는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있다. 예를 들어, 처리부는, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리를 행할 때, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리 및 다른 신호 인터페이스의 시스템 감마의 특성을 캔슬하는 처리를 더 행한다.

Description

신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버
본 기술은, 신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버에 관한 것으로, 상세하게는, 하이 다이나믹 레인지 영상 신호를 취급하는 신호 처리 장치 등에 관한 것이다.
종래, 하이 다이나믹 레인지(HDR:High Dynamic Range)의 영상 신호를 출력하는 카메라가 알려져 있다(예를 들어, 특허문헌 1 참조). 이 HDR 영상 신호의 신호 인터페이스로서 여러 가지의 신호 인터페이스가 제안되어 있다. 예를 들어, 신호 인터페이스로서, HLG(Hybrid Log-Gamma), PQ(Perceptual Quantizer), S-Log3 등이 알려져 있다.
신호 인터페이스가 다르면, 계조 압축 처리를 행하기 위한 OETF(Opto-Electrical Transfer Function)나 계조 신장 처리를 행하기 위한 EOTF(Electro-Optical Transfer Function)가 다른 것 외에, 모니터로 표시할 때의 영상 보정 특성인 OOTF(Opto-Optical Transfer Function)도 달라진다.
OETF와 EOTF에 관해서는, 기본적으로 내놓는 측의 OETF와 받는 측의 EOTF에서 캔슬된다. 그 때문에, HDR 영상 신호 인터페이스가 달라 OETF나 EOTF가 다르더라도, 실제로 모니터에 표시되는 영상에 대한 영향은 적다. 그러나, OOTF는 모니터로 표시할 때의 영상 보정 특성이기 때문에, 신호 인터페이스가 달라 OOTF가 다르면, 같은 영상 신호(카메라 영상)에서도, 모니터에 표시되는 영상은 다르게 보일 수 있다.
일본특허공개 제2015-115789호 공보
본 기술의 목적은, 복수의 신호 인터페이스의 HDR 영상 신호의 취급을 양호하게 행할 수 있도록 하는 것에 있다.
본 기술의 개념은,
리니어한 하이 다이나믹 레인지 영상 신호를 처리하여 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부를 구비하고,
상기 처리부는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있는
신호 처리 장치에 있다.
본 기술에 있어서, 처리부에 의해, 리니어한 HDR(하이 다이나믹 레인지) 영상 신호가 처리되어 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호가 얻어진다. 예를 들어, 촬상부에 의해, 리니어한 HDR 영상 신호가 얻어진다. 처리부에서는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있다.
이와 같이 본 기술에 있어서는, 처리부에서는 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 된다. 그 때문에, 복수의 신호 인터페이스의 계조 변환 처리가 실시된 HDR 영상 신호를 얻을 수 있어, 쓰기 편리함을 향상시킬 수 있다.
또한, 본 기술에 있어서, 예를 들어, 처리부는, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리를 행할 때, 적어도, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리를 더 행하게 되어도 좋다.
이 경우, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상은, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터(레퍼런스 모니터)로 모니터링 했을 경우의 영상과 같게 만드는 신호 처리가 실시되고 있다. 그 때문에, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력하는 경우에 있어서도, 레퍼런스 모니터의 영상에 기초하여 카메라 조정(영상 조정)을 하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
리니어한 하이 다이나믹 레인지 영상 신호를 처리하여 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부와,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환하는 신호 변환부를 구비하고,
상기 신호 변환부는,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는
신호 처리 장치에 있다.
본 기술에 있어서, 처리부에 의해, 리니어한 HDR(하이 다이나믹 레인지) 영상 신호가 처리되어 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호가 얻어진다. 예를 들어, 촬상부에 의해, 리니어한 HDR 영상 신호가 얻어진다. 신호 변환부에 의해, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호가, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환된다.
신호 변환부에서는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 다른 신호 인터페이스의 계조 압축 처리가 실시된 상태로 변환하는 처리가 행해진다. 즉, 이 신호 변환부에서는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호에, 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 다른 신호 인터페이스의 계조 압축 처리가 행해진다. 또한, 이 신호 변환부에서는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호에, 적어도, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리가 행해진다.
이와 같이 본 기술에 있어서는, 신호 변환부에서는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호에, 적어도, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리가 행해진다.
이 경우, 신호 변환부에서 얻어진 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상은, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터(레퍼런스 모니터)로 모니터링 했을 경우의 영상과 같아진다. 그 때문에, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 신호 변환부에서 얻어서 이용하는 경우에 있어서도, 레퍼런스 모니터의 영상에 기초하여 카메라 조정(영상 조정)을 하는 것이 가능하게 된다.
또한, 본 기술의 다른 개념은,
기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 입력하는 복수의 입력 기기를 가지는 입력부와,
상기 복수의 입력 기기로부터 선택적으로 소정의 하이 다이나믹 레인지 영상 신호를 취출하는 취출부와,
상기 소정의 하이 다이나믹 레인지 영상 신호에 기초한 영상 신호를 출력하는 출력부를 구비하고,
상기 출력부는,
상기 기준 하이 다이나믹 레인지 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호 외에, 적어도, 상기 기준 하이 다이나믹 레인지 인터페이스 이외의 다른 하이 다이나믹 레인지 영상 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 출력하는 것이 가능하게 되고,
상기 출력부는,
상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 출력할 때, 상기 소정의 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하고, 상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는
비디오 시스템에 있다.
본 기술의 비디오 시스템은, 입력부와, 취출부와, 출력부를 구비하고 있다. 입력부는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR(하이 다이나믹 레인지) 영상 신호를 입력하는 복수의 입력 기기를 가지는 것이다. 취출부는, 복수의 입력 기기로부터 선택적으로 소정의 HDR 영상 신호를 취출하는 것이다.
출력부는, 소정의 HDR 영상 신호에 기초한 영상 신호를 출력하는 것이다. 출력부에서는, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호 외에, 적어도, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력하는 것이 가능하게 된다.
또한, 출력부에서는, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력할 때, 소정의 HDR 영상 신호(기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호)를 다른 신호 인터페이스의 계조 압축 처리가 실시된 상태로 변환하는 처리가 행해진다. 즉, 이 출력부에서는, 소정의 HDR 영상 신호에, 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 다른 신호 인터페이스의 계조 압축 처리가 행해진다. 또한, 이 출력부에서는, 소정의 HDR 영상 신호에, 적어도, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리가 행해진다.
이와 같이 본 기술에 있어서는, 입력부가 가지는 복수의 입력 기기는 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 입력하는 것이며, 취출부에서 취출되는 소정의 HDR 영상 신호는 항상 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호가 된다. 그 때문에, 기준 신호 인터페이스 대응의 모니터에서의 모니터링으로, 복수의 입력 기기의 영상 조정을 일률적으로 행하는 것이 가능하게 된다.
또한, 본 기술에 있어서는, 출력부에서는, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력할 때, 적어도, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리가 행해진다. 그 때문에, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상을, 상술한 바와 같이 소정의 HDR 영상 신호를 기준 신호 인터페이스 대응의 모니터로 모니터링 했을 경우의 영상(조정된 영상)과 같게 할 수 있다.
또한, 본 기술에 있어서, 예를 들어, 입력부는, 카메라 시스템을 포함하고, 카메라 시스템은, 리니어한 HDR 영상 신호를 얻는 촬상부와, 리니어한 HDR 영상 신호를 처리하여 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 얻는 처리부를 가지도록 되어도 좋다.
또한, 본 기술에 있어서, 예를 들어, 입력부는, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호로 변환하는 신호 변환부를 포함하고, 신호 변환부는, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호에, 적어도, 다른 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 기준 신호 인터페이스가 가지는 시스템 감마의 특성을 캔슬하는 특성을 부가하는 처리와, 기준 신호 인터페이스의 계조 압축 처리의 각 처리를 행하도록 되어도 좋다.
이 경우, 신호 변환부에서 얻어지는 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상을, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우의 영상과 같게 할 수 있다.
또한, 본 기술에 있어서, 예를 들어, 출력부는, SDR(통상 다이나믹 레인지) 영상 신호를 출력하는 것이 더 가능하게 되도록 되어도 좋다. 이 경우, 예를 들어, 소정의 HDR 영상 신호에는, 이 소정의 HDR 영상 신호의 정보와 함께, 이 소정의 HDR 영상 신호에 기초하여 작성된 SDR 영상 신호의 정보가 부가되어 있고, 출력부는, SDR 영상 신호를 출력할 때, 소정의 HDR 영상 신호를, 이 소정의 HDR 영상 신호에 부가되어 있는 정보에 기초하여 처리를 행하고, SDR 영상 신호를 얻도록 되어도 좋다.
본 기술에 의하면, 복수의 신호 인터페이스의 HDR 영상 신호의 취급을 양호하게 할 수 있다. 또한, 본 명세서에 기재된 효과는 어디까지나 예시이며 한정되는 것이 아니고, 또한 부가적인 효과가 있어도 좋다.
[도 1] 제1 실시형태로서의 카메라 시스템의 구성예를 나타내는 블럭도이다.
[도 2] HDR 카메라 프로세스부의 상세한 구성예를 나타내는 도면이다.
[도 3] 제2 실시형태로서의 카메라 시스템의 구성예를 나타내는 블럭도이다.
[도 4] 제3 실시형태로서의 카메라 시스템의 구성예를 나타내는 블럭도이다.
[도 5] 제4 실시형태로서의 비디오 시스템의 구성예를 나타내는 블럭도이다.
[도 6] 비디오 시스템에 있어서의 카메라, CCU, 컨트롤 패널 등의 구성예를 나타내는 블럭도이다.
[도 7] CCU를 구성하는 HDR 카메라 프로세스부 및 SDR 카메라 프로세스부의 상세한 구성예를 나타내는 블럭도이다.
[도 8] 비디오 시스템에 있어서의 카메라, CCU, 컨트롤 패널 등의 다른 구성예를 나타내는 블럭도이다.
[도 9] CCU를 구성하는 인버스 HDR 카메라 프로세스부 및 SDR 카메라 프로세스부의 상세한 구성예를 나타내는 블럭도이다.
[도 10] 비디오 시스템에 있어서의 HDR 컨버터의 상세한 구성예를 나타내는 블럭도이다.
[도 11] 비디오 시스템에 있어서의 HDR 컨버터의 상세한 다른 구성예를 나타내는 블럭도이다.
[도 12] 비디오 시스템에 있어서의 SDR 컨버터의 구성예를 나타내는 블럭도이다.
[도 13] SDR 컨버터를 구성하는 인버스 HDR 카메라 프로세스부 및 SDR 카메라 프로세스부의 상세한 구성예를 나타내는 블럭도이다.
[도 14] HDR 컨버터의 구성예를 나타내는 블럭도이다.
[도 15] HDR 컨버터에 입력되는 HDR-B 영상 신호나 HDR-C 영상 신호로서 모니터 측에 OOTF 기능이 없는 상황에서 만들어진 영상 신호를 고려할 수 있음을 설명하기 위한 도면이다.
[도 16] HDR-C 영상 신호의 출력 측의 신호 처리에서 시스템 감마(OOTF)를 부가하는 처리가 되어 있지 않은 경우를 설명하기 위한 도면이다.
[도 17] HDR 컨버터의 구성예를 나타내는 블럭도이다.
[도 18] HDR 컨버터의 구성예를 나타내는 블럭도이다.
[도 19] 제5 실시형태로서의 HDR 제작 라이브 시스템의 구성예를 나타내는 블럭도이다.
[도 20] 서버의 구성예를 나타내는 블럭도이다.
[도 21] OETF 변환부의 구성예를 나타내는 블럭도이다.
[도 22] OETF 변환부의 실제의 설정치의 대표예를 나타내는 도면이다.
[도 23] 스토리지로부터 다른 소재 정보(신호 인터페이스 정보)를 가지는 파일을 연속적으로 재생하는 경우에 있어서의, CPU에 의한 OETF 변환부의 제어 처리의 일례를 나타내는 흐름도이다.
이하, 발명을 실시하기 위한 형태(이하, 「실시형태」라 함)에 관해 설명한다. 또한 설명을 이하의 순서로 행한다.
1. 제1 실시형태
2. 제2 실시형태
3. 제3 실시형태
4. 제4 실시형태
5. 제5 실시형태
6. 변형예
<1. 제1 실시형태>
[카메라 시스템의 구성예]
도 1은, 제1 실시형태로서의 카메라 시스템(10A)의 구성예를 나타내고 있다. 이 카메라 시스템(10A)은, 카메라(11)에서 얻어진 리니어한 HDR(하이 다이나믹 레인지) 영상 신호가 신호 처리 유닛으로서의 카메라 컨트롤 유닛(CCU:Camera Control Unit)(12)으로 전송되는 구성으로 되어 있다. 여기서, 리니어란 계조 압축 처리가 행해지지 않은 것을 의미한다. 카메라(11)와 CCU(12)는, 광섬유 등으로 구성되는 카메라 케이블(13)을 통해 접속되고 있다.
카메라(11)는, CPU(111)와, 촬상부(112)와, 프리 프로세스(Pre-Process)부(113)와, 전송부(114)를 가지고 있다. CPU(111)는, 카메라(11)의 각부의 동작을 제어하며, 또한, CCU(12)의 CPU(121)와의 사이에서 카메라 케이블(13)을 통해 통신을 한다. 촬상부(112)는, 예를 들어, UHD(8K, 4K 등) 혹은 HD의 해상도의 이미지 센서를 갖고, 촬상 영상 신호로서 HDR 영상 신호를 출력한다.
여기서, 4K 해상도는 가로: 약4000 × 세로: 약2000 픽셀의 해상도로서, 예를 들어 4096×2160이나 3840×2160이며, 8K 해상도는 세로, 가로의 픽셀이 각각 4K 해상도의 2배가 되는 해상도이다. 또한, HD 해상도는, 예를 들어, 세로, 가로의 픽셀이 4K 해상도의 1/2배가 되는 해상도이다.
프리 프로세스부(113)는, 예를 들어 FPGA(field-programmable gate array)나 ASIC(Application Specific Integrated Circuit) 등의 회로로 구성되는 프로세서이며, 촬상부(112)로부터 출력되는 HDR 영상 신호에 대해, 렌즈 등의 광학계의 보정 처리나, 이미지 센서의 편차 등으로부터 생기는 보정 처리 등을 행한다. 전송부(114)는, 통신 인터페이스를 가지는 회로이며, 프리 프로세스부(113)에서 처리된 HDR 영상 신호를 CCU(12)로 송신한다.
CCU(12)는, CPU(121)와, 전송부(122)와, HDR 카메라 프로세스(HDR-CAM Process)부(123)와, OETF-A 포맷터부(124)와, OETF-B 포맷터부(125)와, OOTF-C부(126)와, 인버스 EOTF-C 포맷터부(127)를 가지고 있다. CPU(121)는, CCU(12)의 각 부의 동작을 제어하고, 또한, 카메라(11)의 CPU(111)와의 사이에서 카메라 케이블(13)을 통해 통신을 함과 함께, LAN(Local Area Network) 등의 통신로(14)를 거쳐 접속된 컨트롤 패널(Control Panel)(15)의 CPU(151)와의 사이에서 통신을 한다.
컨트롤 패널(15)은, CPU(151) 외에, 조작 입력부(152)를 가지고 있다. CPU(151)는, VE(Video Engineer) 등의 제작자가 조작 입력부(152)로부터 입력하는 각종의 제어 명령이나 설정 정보를 받아들여, 통신로(14)를 거쳐 CCU(12)의 CPU(121)로 보낸다.
전송부(122)는, 통신 인터페이스를 가지는 회로이며, 카메라(11)로부터 보내져 오는 리니어한 HDR 영상 신호를 수신한다. HDR 카메라 프로세스부(123)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 전송부(122)에서 수신된 리니어한 HDR 영상 신호에 대해 색역 변환, 디테일(윤곽) 보정 등의 처리를 행한다.
도 2는, HDR 카메라 프로세스부(123)의 상세한 구성예를 나타내고 있다. HDR 카메라 프로세스부(123)는, HDR 게인 조정부(131)와, 리니어 매트릭스(Linear-Matrix)부(132)와, 블랙 레벨(Black-level)부(133)와, 디테일(Detail)부(134)를 가지고 있다.
HDR 게인 조정부(131)는, 전송부(122)(도 1 참조)에서 수신된 리니어한 HDR 영상 신호(Linear HDR Video)에 대해, 마스터 게인을 제어하는 것 외, 화이트 밸런스 조정을 위해 R, G, B의 각 원색 신호의 게인을 제어한다. 리니어 매트릭스부(132)는, HDR 게인 조정부(131)로부터 출력되는 HDR 영상 신호에 색역 변환의 처리를 한다.
블랙 레벨부(133)는, 리니어 매트릭스부(132)로부터 출력되는 HDR 영상 신호에 흑 레벨 조정을 한다. 디테일부(134)는, 블랙 레벨부(133)로부터 출력되는 HDR 영상 신호에 디테일(윤곽) 보정의 처리를 한다. 이 디테일부(134)로부터 출력되는 HDR 영상 신호가, HDR 카메라 프로세스부(123)의 출력이 된다.
도 1로 돌아와, OETF-A 포맷터부(124)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(Opto-Electrical Transfer Function:OETF)를 이용하여 리니어 영역으로부터 비트 길이(비트 길이) 압축을 하는 처리를 의미한다. 예를 들어, 신호 인터페이스 A는, “S-Log3”이다. 또한, OETF-A 포맷터부(124)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-A」를 얻는다.
이와 같이 CCU(12)의 OETF-A 포맷터부(124)에서 얻어진 HDR 영상 신호 「HDR OETF-A」는, 신호 인터페이스 A에 대응한 모니터(16)로 모니터링 할 수 있다. 이 모니터(16)는, 인버스 OETF-A부와, OOTF-A부를 가지고 있다. 인버스 OETF-A부는, HDR 영상 신호 「HDR OETF-A」에, 신호 인터페이스 A의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다. 또한, OOTF-A부는, HDR 영상 신호 「HDR OETF-A」에, 신호 인터페이스 A의 시스템 감마의 특성을 부가한다. 이에 의해, 모니터(16)에 표시되는 영상은, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
OETF-B 포맷터부(125)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해 신호 인터페이스 B의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 B용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 예를 들어, 신호 인터페이스 B는, “HLG(Hybrid Log-Gamma)”이다. 또한, OETF-B 포맷터부(125)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-B」를 얻는다.
이와 같이 CCU(12)의 OETF-B 포맷터부(125)에서 얻어진 HDR 영상 신호 「HDR OETF-B」는, 신호 인터페이스 B에 대응한 모니터(17)로 모니터링 할 수 있다. 이 모니터(17)는, 인버스 OETF-B부와, OOTF-B부를 가지고 있다. 인버스 OETF-B부는, HDR 영상 신호 「HDR OETF-B」에, 신호 인터페이스 B의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 B용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다. 또한, OOTF-B부는, HDR 영상 신호 「HDR OETF-B」에, 신호 인터페이스 B의 시스템 감마의 특성을 부가한다. 이에 의해, 모니터(17)에 표시되는 영상은, 신호 인터페이스 B의 시스템 감마의 특성으로 보정된 것이 된다.
OOTF-C부(126)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해, 신호 인터페이스 C의 시스템 감마(OOTF:Opto-Optical Transfer Function)의 특성을 부가한다.
인버스 EOTF-C 포맷터부(127)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, OOTF-C부(126)로부터 출력된 HDR 영상 신호에 대해 신호 인터페이스 C의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 C용의 전기광 전달 함수(Electro-Optical Transfer Function:EOTF)의 역특성을 이용하여, 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 예를 들어, 신호 인터페이스 C는, “PQ(Perceptual Quantizer)”이다. 또한, 인버스 EOTF-C 포맷터부(127)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR EOTF-C」를 얻는다.
이와 같이 CCU(12)의 OETF-C 포맷터부(127)에서 얻어진 HDR 영상 신호 「HDR EOTF-C」는, 신호 인터페이스 C에 대응한 모니터(18)로 모니터링 할 수 있다. 이 모니터(18)는, EOTF-C부를 가지고 있다. EOTF-C부는, HDR 영상 신호 「HDR EOTF-C」에, 신호 인터페이스 C의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 C용의 전기광 전달 함수(EOTF)를 이용하여 행해진다. 이에 의해, 모니터(18)에 표시되는 영상은, 신호 인터페이스 C의 시스템 감마의 특성으로 보정된 것이 된다.
상술한 바와 같이, 도 1에 나타내는 카메라 시스템(10A)에서는, CCU(12)에 있어서, 신호 인터페이스 A, B, C의 계조 압축 처리가 실시된 HDR 영상 신호가 얻어진다. 그 때문에, 쓰기 편리함이 향상된 카메라 시스템을 제공할 수 있다.
또한, 도 1에 나타내는 카메라 시스템(10A)에서는, CCU(12)로부터 신호 인터페이스 A, B, C의 계조 압축 처리가 실시된 HDR 영상 신호를 동시에 출력하는 구성이 되어 있지만, 이러한 HDR 영상 신호 중 어느 것을 선택적으로 출력하는 구성으로 하는 것도 가능하다. 그 경우, 예를 들어, HDR 카메라 프로세스부(123)의 후단에 프로세서(처리부)를 배치하고, 그 기능을, 「OETF-A 포맷터부(124)」, 혹은 「OETF-B 포맷터부(125)」, 혹은 「OOTF-C부(126) 및 인버스 EOTF-C 포맷터부(127)」로 선택적으로 절환하는 구성으로 하여, 회로 규모의 저감을 도모할 수도 있다.
<2. 제2 실시형태>
[카메라 시스템의 구성예]
도 3은, 제2 실시형태로서의 카메라 시스템(10B)의 구성예를 나타내고 있다. 이 도 3에 있어서, 도 1과 대응하는 부분에는 동일 부호를 부여하고, 적절히, 그 상세 설명은 생략한다. 이 카메라 시스템(10B)은, 카메라(11)에서 얻어진 리니어한 HDR 영상 신호가 신호 처리 유닛으로서의 카메라 컨트롤 유닛(CCU)(12B)으로 전송되는 구성으로 되어 있다.
CCU(12B)는, CPU(121)와, 전송부(122)와, HDR 카메라 프로세스부(123)와, OETF-A 포맷터부(124)와, OETF-B 포맷터부(125)와, 인버스 EOTF-C 포맷터부(127)와, OOTF-A부(141, 143)와, 인버스 OOTF-B부(142)를 가지고 있다. CPU(121)는, CCU(12B)의 각 부의 동작을 제어하고, 또한, 카메라(11)의 CPU(111)와의 사이에서 카메라 케이블(13)을 통해 통신을 함과 함께, LAN 등의 통신로(14)를 거쳐 접속된 컨트롤 패널(15)의 CPU(151)와의 사이에 통신을 한다.
전송부(122)는, 통신 인터페이스를 가지는 회로이며, 카메라(11)로부터 보내져 오는 리니어한 HDR 영상 신호를 수신한다. HDR 카메라 프로세스부(123)는, 전송부(122)에서 수신된 리니어한 HDR 영상 신호에 대해 색역 변환, 디테일(윤곽) 보정 등의 처리를 행한다.
OETF-A 포맷터부(124)는, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-A 포맷터부(124)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-A」를 얻는다.
이와 같이 CCU(12B)의 OETF-A 포맷터부(124)에서 얻어진 HDR 영상 신호 「HDR OETF-A」는, 신호 인터페이스 A에 대응한 모니터(16)로 모니터링 할 수 있다. 이 모니터(16)는, 인버스 OETF-A부와, OOTF-A부를 가지고 있다. 이에 의해, 모니터(16)에 표시되는 영상은, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
OOTF-A부(141)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다. 인버스 OOTF-B부(142)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, OOTF-A부(141)로부터 출력된 HDR 영상 신호에 대해서, 신호 인터페이스 B의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다.
OETF-B 포맷터부(125)는, 인버스 OOTF-B부(142)로부터 출력된 HDR 영상 신호에 대해 신호 인터페이스 B의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 B용의 광전기 전달 함수(EOTF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-B 포맷터부(125)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-B」를 얻는다.
이와 같이 CCU(12B)의 OETF-B 포맷터부(125)에서 얻어진 HDR 영상 신호 「HDR OETF-B」는, 신호 인터페이스 B에 대응한 모니터(17)로 모니터링 할 수 있다. 이 모니터(17)는, 인버스 OETF-B부와, OOTF-B부를 가지고 있다. CCU(12B)의 HDR 영상 신호 「HDR OETF-B」의 계에, 상술한 바와 같이 OOTF-A부(141) 및 인버스 OOTF-B부(142)가 존재하기 때문에, 모니터(17)에 표시되는 영상은, 상술한 모니터(16)에 표시되는 영상과 마찬가지로, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
OOTF-A부(143)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다.
인버스 EOTF-C 포맷터부(127)는, OOTF-A부(143)로부터 출력된 HDR 영상 신호에 대해서 신호 인터페이스 C의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 C용의 전기광 전달 함수(EOTF)의 역특성을 이용하여, 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, 인버스 EOTF-C 포맷터부(127)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR EOTF-C」를 얻는다. 신호 인터페이스적으로는, OOTF-C가 부가되어야 하지만, OOTF-A에는, OOTF-C가 포함되어 있어, 영상 보정으로서, [OOTF-A-OOTF-C]가 실시된 신호 처리를 한 것으로 간주함으로써, EOTF-C의 신호 인터페이스를 따르고 있다고 말할 수 있다.
이와 같이 CCU(12B)의 인버스 OETF-C 포맷터부(127)에서 얻어진 HDR 영상 신호 「HDR EOTF-C」는, 신호 인터페이스 C에 대응한 모니터(18)로 모니터링 할 수 있다. 이 모니터(18)는, EOTF-C부를 가지고 있다. CCU(12B)의 HDR 영상 신호 「HDR OETF-C」의 계에, 상술한 바와 같이 OOTF-A부(141)가 존재함과 함께, OOTF-C부(126)(도 1 참조)가 존재하지 않는 것으로부터, 모니터(18)에 표시되는 영상은, 상술한 모니터(16)에 표시되는 영상과 마찬가지로, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
상술한 바와 같이, 도 3에 나타내는 카메라 시스템(10B)에서는, CCU(12B)에 있어서, 신호 인터페이스 A를 기준 신호 인터페이스로 하여, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리를 행할 때, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 당해 다른 신호 인터페이스의 시스템 감마의 특성을 캔슬하는 처리가 행해진다.
이 경우, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상은, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터(레퍼런스 모니터)로 모니터링 했을 경우의 영상과 같게 된다. 그 때문에, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력하는 경우에 있어서도, 레퍼런스 모니터의 영상에 기초하여 카메라 조정(영상 조정)을 하는 것이 가능하게 된다.
또한, 도 3에 나타내는 카메라 시스템(10B)에서는, CCU(12B)로부터 신호 인터페이스 A, B, C의 계조 압축 처리가 실시된 HDR 영상 신호를 동시에 출력하는 구성으로 되어 있지만, 이러한 HDR 영상 신호 중 어느 것을 선택적으로 출력하는 구성으로 하는 것도 가능하다. 그 경우, 예를 들어, HDR 카메라 프로세스부(123)의 후단에 프로세서(처리부)를 배치하고, 그 기능을, 「OETF-A 포맷터부(124)」, 혹은 「OOTF-A부(141), 인버스 OOTF-B부(142) 및 OETF-B 포맷터부(125)」, 혹은 「OOTF-A부(143) 및 인버스 EOTF-C 포맷터부(127)」로 선택적으로 절환하는 구성으로 하여, 회로 규모의 저감을 도모할 수도 있다.
<3. 제3 실시형태>
[카메라 시스템의 구성예]
도 4는, 제3 실시형태로서의 카메라 시스템(10C)의 구성예를 나타내고 있다. 이 도 4에 있어서, 도 1, 도 3과 대응하는 부분에는 동일 부호를 부여하고, 적절히, 그 상세 설명은 생략한다. 이 카메라 시스템(10C)은, 카메라(11)에서 얻어진 리니어한 HDR 영상 신호가 신호 처리 유닛으로서의 카메라 컨트롤 유닛(CCU)(12C)으로 전송되는 구성으로 되어 있다.
또한, 이 카메라 시스템(10C)은, CCU(12C)로부터 출력된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호에 대해 HDR 컨버터(HDR-Converter)(19, 20)에서 신호 변환 처리를 행하고, 각각, 신호 인터페이스 B, C의 계조 압축 처리가 실시된 HDR 영상 신호를 얻는 구성으로 되어 있다.
CCU(12C)는, CPU(121)와, 전송부(122)와, HDR 카메라 프로세스부(123)와, OETF-A 포맷터부(124)를 가지고 있다. CPU(121)는, CCU(12C)의 각 부의 동작을 제어하고, 또한, 카메라(11)의 CPU(111)와의 사이에서 카메라 케이블(13)을 통해 통신을 함과 함께, LAN 등의 통신로(14)를 거쳐 접속된 컨트롤 패널(15)의 CPU(151)와의 사이에서 통신을 한다.
전송부(122)는, 통신 인터페이스를 가지는 회로이며, 카메라(11)로부터 보내져 오는 리니어한 HDR 영상 신호를 수신한다. HDR 카메라 프로세스부(123)는, 전송부(122)에서 수신된 리니어한 HDR 영상 신호에 대해 색역 변환, 디테일(윤곽) 보정 등의 처리를 행한다.
OETF-A 포맷터부(124)는, HDR 카메라 프로세스부(123)로부터 출력된 리니어한 HDR 영상 신호에 대해 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-A 포맷터부(124)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-A」를 얻는다.
이와 같이 CCU(12C)의 OETF-A 포맷터부(124)에서 얻어진 HDR 영상 신호 「HDR OETF-A」는, 신호 인터페이스 A에 대응한 모니터(16)로 모니터링 할 수 있다. 이 모니터(16)는, 인버스 OETF-A부와, OOTF-A부를 가지고 있다. 이에 의해, 모니터(16)에 표시되는 영상은, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
HDR 컨버터 19는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 디포맷터부(144)와, 인버스 OETF-A부(145)와, OOTF-A부(141)와, 인버스 OOTF-B부(142)와, OETF-B 포맷터부(125)를 가지고 있다.
디포맷터부(144)는, CCU(12C)로부터 출력된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-A」에 대해 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. 인버스 OETF-A부(145)는, 디포맷터부(144)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 A의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다.
OOTF-A부(141)는, 인버스 OETF-A부(145)로부터 출력된 리니어한 HDR 영상 신호에 대해, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다. 인버스 OOTF-B부(142)는, OOTF-A부(141)로부터 출력된 HDR 영상 신호에 대해, 신호 인터페이스 B의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다.
OETF-B 포맷터부(125)는, 인버스 OOTF-B부(142)로부터 출력된 HDR 영상 신호에 대해 신호 인터페이스 B의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 B용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-B 포맷터부(125)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-B」를 얻는다.
이와 같이 HDR 컨버터(19)에서 얻어진 HDR 영상 신호 「HDR OETF-B」는, 신호 인터페이스 B에 대응한 모니터(17)로 모니터링 할 수 있다. 이 모니터(17)는, 인버스 OETF-B부와, OOTF-B부를 가지고 있다. HDR 컨버터(19)의 계에, 상술한 바와 같이 OOTF-A부(141) 및 인버스 OOTF-B부(142)가 존재하는 것으로부터, 모니터(17)에 표시되는 영상은, 상술한 모니터(16)에 표시되는 영상과 마찬가지로, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
HDR 컨버터(20)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 디포맷터부(146)와, 인버스 OETF-A부(147)와, OOTF-A부(143)와, 인버스 EOTF-C 포맷터부(127)를 가지고 있다. 디포맷터부(146)는, CCU(12C)로부터 출력된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR OETF-A」에 대해 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다.
인버스 OETF-A부(147)는, 디포맷터부(146)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 A의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다. OOTF-A부(143)는, 인버스 OETF-A부(147)로부터 출력된 리니어한 HDR 영상 신호에 대해, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다.
인버스 EOTF-C 포맷터부(127)는, OOTF-A부(143)로부터 출력된 HDR 영상 신호에 대해 신호 인터페이스 C의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 C용의 전기광 전달 함수(EOTF)의 역특성을 이용하여, 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, 인버스 EOTF-C 포맷터부(127)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR 영상 신호 「HDR EOTF-C」를 얻는다.
이와 같이 HDR 컨버터(20)에서 얻어진 HDR-C 영상 신호 「HDR EOTF-C」는, 신호 인터페이스 C에 대응한 모니터(18)로 모니터링 할 수 있다. 이 모니터(18)는, EOTF-C부를 가지고 있다. HDR 컨버터(20)의 계에, 상술한 바와 같이 OOTF-A부(141)가 존재함과 함께, OOTF-C부(126)(도 1 참조)가 존재하지 않는 것으로부터, 모니터(18)에 표시되는 영상은, 상술한 모니터(16)에 표시되는 영상과 마찬가지로, 신호 인터페이스 A의 시스템 감마의 특성으로 보정된 것이 된다.
상술한 바와 같이, 도 4에 나타내는 카메라 시스템(10C)에서는, 신호 인터페이스 A를 기준 신호 인터페이스로서, HDR 컨버터(19, 20)에서 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리를 행할 때, 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 당해 다른 신호 인터페이스의 시스템 감마의 특성을 캔슬하는 처리가 행해진다.
이 경우, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터로 모니터링 했을 경우, 그 영상은, 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터(레퍼런스 모니터)로 모니터링 했을 경우의 영상과 같게 된다. 그 때문에, 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력하는 경우에 있어서도, 레퍼런스 모니터의 영상에 기초하여 카메라 조정(영상 조정)을 하는 것이 가능하게 된다.
<4. 제4 실시형태>
[비디오 시스템의 구성예]
도 5는, 제4 실시형태로서의 비디오 시스템(30)의 구성예를 나타내고 있다. 이 비디오 시스템(30)은, 카메라(31)와 카메라 컨트롤 유닛(CCU:Camera Control Unit)(32)로 이루어지는 카메라 시스템을 소정 수, 도시하는 예에서는 2개 가지고 있다. 카메라(31)와 CCU(32)는, 카메라 케이블(33)을 통해 접속되어 있다.
CCU(32)에는, LAN 등의 통신로(34)를 거쳐 컨트롤 패널(Control Panel)(35)이 접속되어 있다. CCU(32)로부터는, 신호 인터페이스 A의 계조 압축 처리가 실시된 하이 다이나믹 레인지(HDR:High Dynamic Range) 영상 신호(HDR-A 영상 신호)와, 통상 다이나믹 레인지(SDR:Standard Dynamic Range) 영상 신호가 출력된다. 이 실시형태에 있어서, 신호 인터페이스 A는, 기준 신호 인터페이스(통일 신호 인터페이스)가 된다. 예를 들어, 신호 인터페이스 A는, “S-Log3”이다.
또한, 비디오 시스템(30)은, 신호 인터페이스 A 이외의 신호 인터페이스의 계조 압축 처리가 실시된 HDR 신호를, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 신호(HDR-A 영상 신호)로 변환하는 HDR 컨버터(HDR-Converter)(36)를 소정 수, 도시하는 예에서는 1개 가지고 있다. 이 HDR 컨버터(36)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이다. 이 HDR 컨버터(36)는, 예를 들어, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR 영상 신호(HDR-B 영상 신호), 혹은 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR 영상 신호(HDR-C 영상 신호)를, HDR-A 영상 신호로 변환한다. 예를 들어, 신호 인터페이스 B는“HLG(Hybrid Log-Gamma)”이며, 신호 인터페이스 C는, “PQ(Perceptual Quantizer)”이다.
또한, 비디오 시스템(30)은, HDR-A 영상 신호의 기록 재생을 행할 수 있는 서버(Server)(37)를 가지고 있다. 이 서버(37)에 기록되는 HDR-A 영상 신호에는, CCU(32)로부터 출력된 HDR-A 영상 신호나 HDR 컨버터(36)로부터 출력된 HDR-A 영상 신호도 포함된다. 여기서, 카메라 시스템, HDR 컨버터(36), 서버(37) 등은 입력 기기를 구성하고 있다.
또한, 비디오 시스템(30)은, 스위처(Switcher)(38)를 가지고 있다. 카메라 시스템의 CCU(32)로부터 출력된 HDR-A 영상 신호는, 전송로(39)를 거쳐서, 스위처(38)에 입력된다. 여기서, 카메라 시스템의 CCU(32)로부터 출력된 HDR-A 영상 신호에는, 당해 HDR-A 영상 신호의 정보와 SDR 영상 신호의 정보가 부가된다. 또한, 카메라 시스템의 CCU(32)로부터 출력된 SDR 영상 신호는, 전송로(40)를 거쳐 SDR 모니터(41)에 공급되어 모니터링 된다.
또한, HDR 컨버터(36)로부터 출력된 HDR-A 영상 신호는, 전송로(42)를 거쳐서, 스위처(38)에 입력된다. 또한, 서버(37)로부터 재생된 HDR-A 영상 신호도 스위처(38)에 입력된다. 또한, 서버(37)에는, 스위처(38)로부터, 기록해야 할 HDR-A신호가 공급된다.
스위처(38)는, 카메라 시스템, HDR 컨버터(36), 서버(37) 등의 복수의 입력 기기로부터 입력된 HDR-A 영상 신호로부터 선택적으로 소정의 HDR-A 영상 신호를 취출한다. 스위처(38)에 의해 취출된 소정의 HDR-A 영상 신호는, 본선 전송로(43)를 통해서 전송된다. 또한, 이 HDR-A 영상 신호는, 전송로(44)를 거쳐서, 신호 인터페이스 A에 대응한 모니터(45)에 공급되어 모니터링 된다.
또한, 비디오 시스템(30)은, 본선 전송로(43)에 의해 전송되는 HDR-A 영상 신호를 신호 인터페이스 A 이외의 신호 인터페이스의 계조 압축 처리가 실시된 HDR 신호로 변환하는 HDR 컨버터(HDR-Converter)(46)를 가지고 있다. 이 HDR 컨버터(46)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이다. 이 HDR 컨버터(46)는, HDR-A 영상 신호를, 예를 들어, HDR-B 영상 신호 혹은 HDR-C 영상 신호로 변환한다. 또한, 이 HDR 컨버터(46)에서 얻어진 HDR 영상 신호는, 전송로(47)를 거쳐서, 대응한 신호 인터페이스의 모니터(48)에 공급되어 모니터링 된다.
또한, 비디오 시스템(30)은, 본선 전송로(43)에 의해 전송되는 HDR-A 영상 신호를 SDR 영상 신호로 변환하는 SDR 컨버터(SDR Converter)(49)를 가지고 있다. 이 SDR 컨버터(49)는, HDR-A 영상 신호에 당해 HDR-A 영상 신호의 정보와 SDR 영상 신호의 정보가 부가되어 있는 경우에는, HDR-A 영상 신호를 이러한 정보에 기초하여 처리하고, SDR 영상 신호를 얻는다.
도 6은, 카메라(31), CCU(32), 컨트롤 패널(35) 등의 구성예를 나타내고 있다. 카메라(31)는, CPU(311)와, 촬상부(312)와, 프리 프로세스(Pre-Process)부(313)와, 전송부(314)를 가지고 있다. CPU(311)는, 카메라(31)의 각 부의 동작을 제어하고, 또한, CCU(32)의 CPU(321)와의 사이에서 카메라 케이블(33)을 통해서 통신을 한다. 촬상부(312)는, 예를 들어, UHD(8K, 4K 등) 혹은 HD의 해상도의 이미지 센서를 갖고, 촬상 영상 신호로서 HDR 영상 신호를 출력한다.
프리 프로세스부(313)는, 예를 들어 FPGA(field-programmable gate array)나 ASIC(Application Specific Integrated Circuit) 등의 회로로 구성되는 프로세서이며, 촬상부(312)로부터 출력되는 HDR 영상 신호에 대해, 렌즈 등의 광학계의 보정 처리나, 이미지 센서의 편차 등으로부터 생기는 결함 보정 처리 등을 행한다. 전송부(314)는, 통신 인터페이스를 가지는 회로이며, 프리 프로세스부(313)에서 처리된 HDR 영상 신호를 CCU(32)로 송신한다.
CCU(32)는, CPU(321)와, 전송부(322)와, HDR 카메라 프로세스(HDR-CAM Process)부(323)와, SDR 카메라 프로세스(SDR CAM Process)부(324)를 가지고 있다. CPU(321)는, CCU(32)의 각 부의 동작을 제어하고, 또한, 카메라(31)의 CPU(311)와의 사이에서 카메라 케이블(33)을 통해 통신을 함과 함께, LAN(Local Area Network) 등의 통신로(34)를 거쳐 접속된 컨트롤 패널(Control Panel)(35)의 CPU(351)와의 사이에서 통신을 한다.
컨트롤 패널(35)은, CPU(351) 외에, 조작 입력부(352)를 가지고 있다. CPU(351)는, VE(Video Engineer) 등의 제작자가 조작 입력부(352)로부터 입력하는 각종의 제어 명령이나 설정 정보를 받아들여, 통신로(34)를 거쳐 CCU(32)의 CPU(321)로 보낸다.
전송부(322)는, 통신 인터페이스를 가지는 회로이며, 카메라(31)로부터 보내져 오는 리니어한 HDR 영상 신호를 수신한다. HDR 카메라 프로세스부(323)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 전송부(322)에서 수신된 리니어한 HDR 영상 신호에 대해 색역 변환, 디테일(윤곽) 보정, 계조 압축 등의 처리를 행하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호, 즉 HDR-A 영상 신호 「HDR OETF-A」를 얻어, 전송로(39)에 송출한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(Opto-Electrical Transfer Function:OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다.
SDR 카메라 프로세스부(324)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 전송부(322)에서 수신된 리니어한 HDR 영상 신호에 대해 레벨(게인) 변환, 색역 변환, 니 보정, 디테일(윤곽) 보정, 감마 처리 등을 행하고 SDR 영상 신호를 얻어서, 전송로(40)로 송출한다.
또한, HDR 카메라 프로세스부(323)에서 얻어지는 HDR-A 영상 신호 「HDR OETF-A」에는, CPU(321)의 제어 아래, 당해 HDR-A 영상 신호의 정보와, SDR 카메라 프로세스부(324)에서 얻어지는 SDR 영상 신호의 정보가 부가된다. 또한, 정보를 부가하는 방법으로서, CPU(321)는, HDR 비디오 스트림에 정보를 다중화하는 처리를 행해도 되고, 혹은, HDR 데이터 스트림과 관련지어진 메타데이터 파일로 하여 HDR 비디오와는 별개로 전송로(39)에 출력해도 된다.
도 7은, HDR 카메라 프로세스부(323) 및 SDR 카메라 프로세스부(324)의 상세한 구성예를 나타내고 있다. 또한, 이 예는, HDR 영상 신호가 UHD(8K, 4K 등)의 해상도를 가지는 예이며, SDR 카메라 프로세스부(324)에는, 해상도 변환부가 구비되어 있어서도 되고, HD 신호로 변환하여 출력해도 좋다.
HDR 카메라 프로세스부(323)는, HDR 게인 조정부(331)와, 리니어 매트릭스(Linear-Matrix)부(332)와, 블랙 레벨(Black-level)부(333)와, 디테일(Detail)부(334)와, OETF-A 포맷터부(335)를 가지고 있다.
HDR 게인 조정부(331)는, 전송부(322)(도 6 참조)에서 수신된 리니어한 HDR 영상 신호(Linear HDR Video)에 대해, 마스터 게인을 제어하는 것 외, 화이트 밸런스 조정을 위해 R, G, B의 각 원색 신호의 게인을 제어한다. 리니어 매트릭스부(332)는, HDR 게인 조정부(331)로부터 출력되는 HDR 영상 신호에, 필요에 따라서, 색역 변환을 위한 리니어 매트릭스 처리를 한다. 여기의 처리 내용은, HDR-Color-Gamut 정보로서, HDR 조정용 파라미터가 된다.
블랙 레벨부(333)는, 리니어 매트릭스부(222)로부터 출력되는 HDR 영상 신호에, HDR 조정용의 파라미터 정보의 일부인 블랙 레벨 보정을 위한 정보(HDR-Black)를 기초로, 흑 레벨 조정을 한다. 디테일부(334)는, 블랙 레벨부(333)로부터 출력되는 HDR 영상 신호에 디테일(윤곽) 보정의 처리를 한다.
OETF-A 포맷터부(335)는, 디테일부(334)로부터 출력되는 HDR 영상 신호에, HDR 조정용의 파라미터 정보의 일부인 OETF 정보(OETF)를 기초로, 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-A 포맷터부(335)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 출력 HDR-A 영상 신호 「HDR OETF-A」를 얻는다.
CPU(321)는, HDR-A 영상 신호의 정보로서, 예를 들어, HDR 조정용의 파라미터 정보(「HDR-Color Gamut」, 「HDR-Black」, 「OETF」)를, HDR-A 영상 신호 「HDR OETF-A」에 부가하여 전송한다.
SDR 카메라 프로세스부(324)는, 해상도 변환부(341)와, SDR 게인 조정부(342)와, 리니어 매트릭스(Linear-Matrix)부(343)와, 블랙 레벨(Black-level)부(344)와, 니(Knee) 디테일(Detail)부(345)와, 감마(Gamma) 포맷터(Formatter)부(346)를 가지고 있다.
해상도 변환부(341)는, 전송부(322)(도 6 참조)에서 수신된 리니어한 HDR 영상 신호(Linear HDR Video)의 해상도를 UHD로부터 HD로 변환해도 된다. SDR 게인 조정부(342)는, 해상도 변환부(341)로부터 출력되는 리니어한 HDR 영상 신호에, SDR 비디오 및 HDR 비디오의 레벨에 관한 파라미터 정보의 일부인 렐러티브 게인의 정보(Relative-Gain)를 기초로, 마스터 게인을 제어하는 것 외, 화이트 밸런스 조정을 위해 R, G, B의 각 원색 신호의 게인을 제어한다.
렐러티브 게인이란, HDR 비디오와 SDR 비디오와의 콘트라스트비를 조정하는 것을 가능하게 하기 위해, HDR 프로세스에서의 화소 신호에 대한 게인과 SDR 프로세스에서의 화소 신호에 대한 게인과의 비율을 나타내는 파라미터이다. 예를 들어, 렐러티브 게인은, SDR 비디오의 다이나믹 레인지에 대해 HDR 비디오의 다이나믹 레인지를 몇 배로 설정하는지를 정의한다.
이 렐러티브 게인에 의해, HDR 프로세스 측의 마스터 게인에 대해서 SDR 프로세스 측의 마스터 게인의 비를 예를 들어 1, 1/2 등과 같이 임의의 비로 설정할 수 있다. 이와 같이 HDR 프로세스 측의 마스터 게인과 SDR 프로세스 측의 마스터 게인과의 비가 설정되어 있으면, SDR 비디오의 다이나믹 레인지와 상관을 가지는 HDR 비디오의 다이나믹 레인지를 얻을 수 있다.
보다 구체적으로는, SDR 비디오의 다이나믹 레인지의 상한 기준은 제작자에 의해 선정된 기준 백(白)(Diffuse-White)에 의해 주어진다. 비디오 시스템(30)에서는, 이 SDR 비디오의 기준 백(Diffuse-White)이 선정됨에 의해, 렐러티브 게인에 기초하는 상관을 기초로, HDR 비디오의 다이나믹 레인지의 기준(HDR 비디오의 기준 백(Diffuse-White))도 결정된다.
렐러티브 게인은, 예를 들어 주간, 야간, 실내, 옥외, 스튜디오 내, 맑을 때, 우천 시 등의 촬영 환경에 따라 적절히 선택되어야 하며, 영상의 질감은 연출 의도에 따라 적절히 선택되어야 하는 것이다. 그 때문에, 여러가지 촬영 환경에 대응할 수 있는 변수로서 렐러티브 게인이 준비된다. 렐러티브 게인을 준비하는 방법으로서는, CCU(32)로부터 동시에 출력되는 SDR 비디오와 HDR 비디오의 겉보기 밝기를 인간의 눈으로 비교하는 방법이 생각된다. 렐러티브 게인의 값을 변경하고 그때마다, SDR 비디오와 HDR 비디오를 비교하고, SDR 비디오와 HDR 비디오의 겉보기 밝기가 가까운 렐러티브 게인을 촬영 환경에 최적인 렐러티브 게인으로서 결정하면 된다.
또한, 렐러티브 게인은 SDR 비디오용의 화이트 밸런스 처리 또는 콘트라스트 처리를 행하기 위한 정보이면 되며, 예를 들어 센서 출력치인 RAW 데이터에 대한 게인의 값 등, HDR 신호의 게인에 대한 비율의 수치 이외의 정보여도 된다.
또한, HDR 비디오가 가지는 휘도 다이나믹 레인지는 SDR 비디오가 가지는 휘도 다이나믹 레인지보다 넓다. 예로서, SDR 비디오가 가지는 휘도 다이나믹 레인지를 0~100%로 하면, HDR 비디오가 가지는 휘도 다이나믹 레인지는 예를 들어 0%~1300% 혹은 0%~10000% 등이다.
리니어 매트릭스부(343)는, SDR 게인 조정부(342)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부로서 SDR 비디오의 색에 관한 정보인 색역 정보(SDR-Color Gamut)를 기초로, 색역 변환을 위한 리니어 매트릭스 처리를 한다. 블랙 레벨부(344)는, 리니어 매트릭스부(343)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 블랙 레벨 보정을 위한 정보(SDR-Black)를 기초로, 흑레벨 조정을 한다. 니 디테일부(345)는, 블랙 레벨부(344)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 니 보정에 관한 정보(KNEE)를 기초로, 니 보정을 행하여 SDR 영상 신호로 하고, 나아가 이 SDR 영상 신호에 디테일(윤곽) 보정을 한다.
감마 포맷터부(346)는, 니 디테일부(345)로부터 출력되는 리니어한 SDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 감마 특성 정보(SDR-Gamma)를 기초로, 감마 처리를 행한다. 또한, 감마 포맷터부(346)는, 이와 같이 신호 처리된 SDR 영상을, RGB 도메인으로부터 Y색차 도메인으로 변환하여 출력 SDR 영상 신호를 얻는다.
CPU(321)는, SDR 영상 신호의 정보로서, 예를 들어, SDR 조정용의 파라미터 정보(「Relative-Gain」, 「SDR-Color Gamut」, 「SDR-Black」, 「KNEE」, 「SDR-Gamma 」)를, HDR-A 영상 신호 「HDR OETF-A」에 부가하여 전송한다.
도 8은, 카메라(31), CCU(32), 컨트롤 패널(35) 등의 다른 구성예를 나타내고 있다. 이 도 8에 있어서, 도 6과 대응하는 부분에는 동일 부호를 부여하고, 적절히, 그 상세 설명은 생략한다. 카메라(31)는, CPU(311)와, 촬상부(312)와, 프리 프로세스(Pre-Process)부(313)와, HDR 카메라 프로세스(HDR-CAM Process)부(315)와, 전송부(314)를 가지고 있다.
HDR 카메라 프로세스부(315)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 프리 프로세스부(313)에서 처리된 리니어한 HDR 영상 신호에 대해 색역 변환, 디테일(윤곽) 보정, 계조 압축 등의 처리를 행하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호, 즉 HDR-A 영상 신호 「HDR OETF-A」를 얻는다. 상세 설명은 생략 하지만, 이 HDR 카메라 프로세스부(315)는, 상술한 HDR 카메라 프로세스부(323)(도 6, 도 7 참조)와 마찬가지의 구성으로 되어 있다. 전송부(314)는, 통신 인터페이스를 가지는 회로이며, HDR 카메라 프로세스부(315)에서 얻어진 HDR-A 영상 신호 「HDR OETF-A」를 CCU(32)로 송신한다.
또한, HDR 카메라 프로세스부(315)에서 얻어지는 HDR-A 영상 신호 「HDR OETF-A」에는, CPU(311)의 제어 아래, 당해 HDR-A 영상 신호의 정보가 부가된다. 이 정보는, 상술한 HDR 카메라 프로세스부(323)에서 얻어지는 HDR-A 영상 신호 「HDR OETF-A」에 부가되는 HDR-A 영상 신호의 정보와 마찬가지로, 예를 들어 HDR 조정용의 파라미터 정보(「HDR-Color Gamut」, 「HDR-Black」, 「OETF」)이다.
CCU(32)는, CPU(321)와, 전송부(322)와, 인버스 HDR 카메라 프로세스(Inverse HDR-CAM Process)부(325)와, SDR 카메라 프로세스(SDR CAM Process)부(324)를 가지고 있다. CPU(321)는, CCU(32)의 각 부의 동작을 제어하고, 또한, 카메라(31)의 CPU(311)와의 사이에서 카메라 케이블(33)을 통해서 통신을 함과 함께, LAN 등의 통신로(34)를 거쳐 접속된 컨트롤 패널(35)의 CPU(351)와의 사이에서 통신을 한다.
전송부(322)는, 통신 인터페이스를 가지는 회로이며, 카메라(31)로부터 보내져 오는 HDR-A 영상 신호 「HDR OETF-A」를 수신하고, 전송로(39)에 출력한다. 상술한 바와 같이, 이 HDR-A 영상 신호 「HDR OETF-A」에는, 당해 HDR-A 영상 신호의 정보로서, 예를 들어, HDR 조정용의 파라미터 정보(「HDR-Color Gamut」, 「HDR-Black」, 「OETF」)가 부가되어 있다.
인버스 HDR 카메라 프로세스부(325)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 전송부(322)에서 수신된 HDR-A 영상 신호 「HDR OETF-A」에 대해 Y색차 도메인으로부터 RGB 도메인으로의 변환, 계조 압축의 역변환 등의 처리를 행하고, 리니어한 HDR 영상 신호를 얻는다. 이 인버스 HDR 카메라 프로세스부(302)의 동작은, CPU(321)의 제어 아래, HDR-A 영상 신호 「HDR OETF-A」에 부가되어 있는 당해 HDR-A 영상 신호의 정보에 기초하여 행해진다.
또한, 위의 설명에서는, 카메라(31)로부터 보내져 오는 HDR-A 영상 신호 「HDR OETF-A」에 당해 HDR-A 영상 신호의 정보가 부가되는 예를 설명했지만, 이 HDR-A 영상 신호의 정보는, 카메라(31)의 CPU(311)로부터 CCU(32)의 CPU(321)로 통신에 의해 보내져 오도록 되어도 좋다.
SDR 카메라 프로세스부(324)는, 인버스 HDR 카메라 프로세스부(325)에서 얻어진 리니어한 HDR 영상 신호에 대해서, 레벨(게인) 변환, 색역 변환, 니 보정, 디테일(윤곽) 보정, 감마 처리 등을 하고 SDR 영상 신호를 얻어, 전송로(40)에 송출한다.
또한, 전송부(322)에서 수신된 HDR-A 영상 신호「HDR OETF-A」에는, 이 HDR-A 영상 신호「HDR OETF-A」의 정보가 부가되어 있지만, 이 HDR-A 영상 신호「HDR OETF-A」를 전송로(39)에 송출할 때에, CPU(321)의 제어 아래, SDR 카메라 프로세스부(324)에서 얻어지는 SDR 영상 신호의 정보, 예를 들어 SDR 조정용의 파라미터 정보(「Relative-Gain」, 「SDR-Color Gamut」, 「SDR-Black」, 「KNEE」, 「SDR-Gamma」)가 더 부가된다.
도 9는, 인버스 HDR 카메라 프로세스부(325) 및 SDR 카메라 프로세스부(324)의 상세한 구성예를 나타내고 있다. 또한, 이 예는, HDR 영상 신호가 UHD(8K, 4K 등)의 해상도를 가지는 예이며, SDR 카메라 프로세스부(324)에는, 해상도 변환부가 구비되어 있다.
인버스 HDR 카메라 프로세스부(325)는, 디포맷터(De-Formatter)부(361)와, 인버스 OETF(Inverse-OETF)부(362)와, 리무브 블랙 레벨(Remove-Black-level)부(363)를 가지고 있다.
디포맷터부(361)는, 전송부(322)(도 8 참조)에서 수신된 HDR-A 영상 신호 「HDR OETF-A」에 대해 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. 인버스 OETF부(362)는, HDR 조정용의 파라미터 정보의 일부인 OETF 정보(OETF)를 기초로, 디포맷터부(361)로부터 출력되는 HDR 영상 신호에 계조 압축의 역변환을 행하고, 리니어한 HDR 영상 신호를 얻는다.
리무브 블랙 레벨부(363)는, 인버스 OETF부(362)로부터 출력되는 리니어한 HDR 영상 신호의 블랙 레벨을, HDR 조정용의 파라미터 정보의 일부인 블랙 레벨 보정을 위한 정보(HDR-Black)를 기초로, HDR 카메라 프로세스부(315)(도 8 참조)의 블랙 레벨부에서 조정되기 전의 상태로 되돌린다.
또한, SDR 카메라 프로세스부(324)의 구성에 관해서는, 도 7에서 설명한 것과 마찬가지이므로, 여기서는 그 설명은 생략한다.
도 10은, HDR 컨버터(36) 및 HDR 컨버터(46)의 상세한 구성예를 나타내고 있다. 여기서는, HDR 컨버터(36)에서는 HDR-B 영상 신호로부터 HDR-A 영상 신호로 변환되고, HDR 컨버터(46)에서는 HDR-A 영상 신호로부터 HDR-B 영상 신호로 변환되는 예를 나타내고 있다.
HDR 컨버터(36)는, 디포맷터부(370)와, 인버스 OETF-B부(371)와, OOTF-B부(372)와, 인버스 OOTF-A부(373)와, OETF-A 포맷터부(374)를 가지고 있다.
디포맷터부(370)는, 입력된 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR-B 영상 신호 「HDR OETF-B」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. 인버스 OETF-B부(371)는, 디포맷터부(370)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 B의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 B용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다.
OOTF-B부(372)는, 인버스 OETF-B부(371)로부터 출력된 리니어한 HDR 영상 신호에 대해서, 신호 인터페이스 B의 시스템 감마(OOTF)의 특성을 부가한다. 인버스 OOTF-A부(373)는, OOTF-B부(372)로부터 출력된 HDR 영상 신호에 대해서, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다.
OETF-A 포맷터부(374)는, 인버스 OOTF-A부(373)로부터 출력된 HDR 영상 신호에 대해서 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-A 포맷터부(374)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호「HDR OETF-A」를 얻어, 전송로(42)에 송출한다.
이와 같이 HDR 컨버터(36)에는, OOTF-B부(372) 및 인버스 OOTF-A부(373)가 존재한다. 그 때문에, 이 HDR 컨버터(36)에서 얻어진 HDR-A 영상 신호「HDR OETF-A」를, 신호 인터페이스 A에 대응한 모니터(45)로 모니터링 했을 경우, 모니터(45)에 표시되는 영상은, HDR 컨버터(36)의 입력인 HDR-B 영상 신호「HDR OETF-B」를 모니터링 하는 신호 인터페이스 B에 대응한 모니터(51)에 표시되는 영상과 같게 된다.
HDR 컨버터(46)는, 디포맷터부(375)와, 인버스 OETF-A부(376)와, OOTF-A부(377)와, 인버스 OOTF-B부(378)와, OETF-B 포맷터부(379)를 가지고 있다.
디포맷터부(375)는, 스위처(38)에 의해 취출된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호「HDR OETF-A」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. 인버스 OETF-A부(376)는, 디포맷터부(375)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 A의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다.
OOTF-A부(377)는, 인버스 OETF-A부(376)로부터 출력된 리니어한 HDR 영상 신호에 대해서, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다. 인버스 OOTF-B부(378)는, OOTF-A부(377)로부터 출력된 HDR 영상 신호에 대해서, 신호 인터페이스 B의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다.
OETF-B 포맷터부(379)는, 인버스 OOTF-B부(378)로부터 출력된 HDR 영상 신호에 대해서 신호 인터페이스 B의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 B용의 광전기 전달 함수(OETF)를 이용하고 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-B 포맷터부(379)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR-B 영상 신호「HDR OETF-B」를 얻어 출력한다.
이와 같이 HDR 컨버터(46)에서 얻어진 HDR-B 영상 신호「HDR OETF-B」는, 신호 인터페이스 B에 대응한 모니터(48)로 모니터링 할 수 있다. HDR 컨버터(46)에는, OOTF-A부(377) 및 인버스 OOTF-B부(378)가 존재한다. 그 때문에, 모니터(48)에 표시되는 영상은, HDR 컨버터(46)의 입력인 HDR-A 영상 신호「HDR OETF-A」를 모니터링 하는 모니터(45)의 표시 영상과 같게 된다.
도 11도, HDR 컨버터(36) 및 HDR 컨버터(46)의 상세한 구성예를 나타내고 있다. 여기서는, HDR 컨버터(36)에서는 HDR-C 영상 신호로부터 HDR-A 영상 신호로 변환되고, HDR 컨버터(46)에서는 HDR-A 영상 신호로부터 HDR-C 영상 신호로 변환되는 예를 나타내고 있다.
HDR 컨버터(36)는, 디포맷터부(380)와, EOTF-C부(281)와, 인버스 OOTF-A부(382)와, OETF-A 포맷터부(383)를 가지고 있다.
디포맷터부(380)는, 입력된 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR-C 영상 신호-C 「HDR EOTF-C」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. EOTF-C부(381)는, 디포맷터부(380)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 C의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 C용의 전기광 전달 함수(EOTF)를 이용하여 행해진다. 인버스 OOTF-A부(382)는, EOTF-C부(281)로부터 출력된 HDR 영상 신호에 대해서, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다.
OETF-A 포맷터부(383)는, 인버스 OOTF-A부(382)로부터 출력된 HDR 영상 신호에 대해서 신호 인터페이스 A의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)를 이용하여 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, OETF-A 포맷터부(383)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호「HDR OETF-A」를 얻어, 전송로(42)에 송출한다.
이와 같이 HDR 컨버터(36)에는, 인버스 OOTF-C부(126)(도 1 참조)가 존재하지 않으나, 인버스 OOTF-A부(382)가 존재한다. 그 때문에, 이 HDR 컨버터(36)에서 얻어진 HDR-A 영상 신호 「HDR OETF-A」를, 신호 인터페이스 A에 대응한 모니터(45)로 모니터링 했을 경우, 모니터(45)에 표시되는 영상은, HDR 컨버터(36)의 입력인 HDR-C 영상 신호 「HDR OETF-C」를 모니터링 하는 신호 인터페이스 C에 대응한 모니터(52)에 표시되는 영상과 같아진다.
HDR 컨버터(46)는, 디포맷터부(385)와, 인버스 OETF-A부(386)와, OOTF-A부(387)와, 인버스 EOTF-C 포맷터부(388)를 가지고 있다. 디포맷터부(385)는, 스위처(38)에 의해 취출된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호 「HDR OETF-A」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다.
인버스 OETF-A부(386)는, 디포맷터부(385)로부터 출력된 HDR 영상 신호에, 신호 인터페이스 A의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 A용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다. OOTF-A부(387)는, 인버스 OETF-A부(386)로부터 출력된 리니어한 HDR 영상 신호에 대해서, 신호 인터페이스 A의 시스템 감마(OOTF)의 특성을 부가한다.
인버스 EOTF-C 포맷터부(388)는, OOTF-A부(387)로부터 출력된 HDR 영상 신호에 대해서 신호 인터페이스 C의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 C용의 전기광 전달 함수(EOTF)의 역특성을 이용하여, 리니어 영역으로부터 비트 길이 압축을 하는 처리를 의미한다. 또한, 인버스 EOTF-C 포맷터부(388)는, 이와 같이 계조 압축된 HDR 영상 신호를, RGB 도메인으로부터 Y색차 도메인으로 변환하고, 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR-C 영상 신호 「HDR EOTF-C」를 얻어 출력한다.
이와 같이 HDR 컨버터(46)에서 얻어진 HDR-C 영상 신호 「HDR EOTF-C」는, 신호 인터페이스 C에 대응한 모니터(48)로 모니터링 할 수 있다. HDR 컨버터(46)에는, OOTF-A부(387)가 존재함과 함께, OOTF-C부(126)(도 1 참조)가 존재하지 않는다. 그 때문에, 모니터(48)에 표시되는 영상은, HDR 컨버터(46)의 입력인 HDR-A 영상 신호 「HDR OETF-A」를 모니터링 하는 모니터(45)의 표시 영상과 같아진다.
또한, HDR 컨버터(46)는 상술한 바와 같이 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이다. 비디오 시스템(30)은, 상술한 도 10에 나타내는 바와 같이 HDR-A 영상 신호 「HDR OETF-A」로부터 HDR-B 영상 신호 「HDR OETF-B」로 변환하는 HDR 컨버터(46)와, 상술한 도 11에 나타내는 바와 같이 HDR-A 영상 신호 「HDR OETF-A」로부터 HDR-C 영상 신호 「HDR EOTF-C」로 변환하는 HDR 컨버터(46)를 병렬적으로 가질 수도 있지만, 1개의 HDR 컨버터(46)의 기능을 절환하여 사용하는 구성도 생각할 수 있다. 그 경우, 출력 신호 인터페이스만을 유저가 설정하고, 입력 신호 인터페이스의 설정은, HDR-A 영상 신호「HDR OETF-A」에 부가되어 있는 HDR 영상 신호의 정보에 기초하여, 자동으로 변환 설정이 행해지도록 되어도 된다.
도 12는, SDR 컨버터(49)의 구성예를 나타내고 있다. SDR 컨버터(49)는, CPU(401)와, 인버스 HDR 카메라 프로세스(Inverse HDR-CAM Process)부(402)와, SDR 카메라 프로세스(SDR CAM Process)부(403)를 가지고 있다. CPU(401)는, SDR 컨버터(49)의 각 부의 동작을 제어한다.
인버스 HDR 카메라 프로세스부(402)는, 예를 들어 FPGA나 ASIC 등의 회로로 구성되는 프로세서이며, 스위처(38)에 의해 취출된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호 「HDR OETF-A」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환, 계조 압축의 역변환 등의 처리를 행하여, 리니어한 HDR 영상 신호를 얻는다. 이 인버스 HDR 카메라 프로세스부(402)의 동작은, CPU(401)의 제어 아래, HDR-A 영상 신호「HDR OETF-A」에 부가되어 있는 당해 HDR-A 영상 신호의 정보에 기초하여 행해져도 좋다.
SDR 카메라 프로세스부(403)는, 인버스 HDR 카메라 프로세스부(402)에서 얻어진 리니어한 HDR 영상 신호에 대해서 레벨(게인) 변환, 색역 변환, 니 보정, 디테일(윤곽) 보정, 감마 처리 등을 하고 SDR 영상 신호를 얻어 송출한다. 이 SDR 카메라 프로세스부(403)의 동작은, CPU(401)의 제어 아래, HDR-A 영상 신호「HDR OETF-A」에 부가되어 있는 SDR 영상 신호의 정보에 기초하여 행해져도 좋다.
도 13은, 인버스 HDR 카메라 프로세스부(402) 및 SDR 카메라 프로세스부(403)의 상세한 구성예를 나타내고 있다. 또한, 이 예는, HDR 영상 신호가 UHD(8K, 4K 등)의 해상도를 가지는 예이며, SDR 카메라 프로세스부(403)에는, 해상도 변환부가 구비되어 있어도 좋다.
인버스 HDR 카메라 프로세스부(402)는, 디포맷터(De-Formatter)부(421)와, 인버스 OETF(Inverse-OETF)부(422)와, 리무브 블랙 레벨(Remove-Black-level)부(423)를 가지고 있다.
디포맷터부(421)는, 스위처(38)에서 취출된 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호「HDR OETF-A」에 대해서 Y색차 도메인으로부터 RGB 도메인으로의 변환 처리를 한다. 인버스 OETF부(422)는, HDR 조정용의 파라미터 정보의 일부인 OETF 정보(OETF)를 기초로, 디포맷터부(421)로부터 출력되는 HDR 영상 신호에 계조 압축의 역변환을 행하고, 리니어한 HDR 영상 신호를 얻는다.
리무브 블랙 레벨부(423)는, 인버스 OETF부(422)로부터 출력되는 리니어한 HDR 영상 신호의 블랙 레벨을, HDR 조정용의 파라미터 정보의 일부인 블랙 레벨 보정을 위한 정보(HDR-Black)를 기초로, 조정 전의 상태로 되돌린다.
SDR 카메라 프로세스부(403)는, 해상도 변환부(431)와, SDR 게인 조정부(432)와, 리니어 매트릭스(Linear-Matrix)부(433)와, 블랙 레벨(Black-level)부(434)와, 니(Knee) 디테일(Detail)부(435)와, 감마(Gamma) 포맷터(Formatter)부(436)를 가지고 있다.
해상도 변환부(431)는, 인버스 HDR 카메라 프로세스부(402)에서 얻어진 리니어한 HDR 영상 신호(Linear HDR Video)의 해상도를 UHD로부터 HD로 변환한다. SDR 게인 조정부(432)는, 해상도 변환부(431)에서 HD 해상도로 변환된 리니어한 HDR 영상 신호에, SDR 비디오 및 HDR 비디오의 레벨에 관한 파라미터 정보의 일부인 렐러티브 게인의 정보(Relative-Gain)를 기초로, 마스터 게인을 제어하는 것 외, 화이트 밸런스 조정을 위해 R, G, B의 각 원색 신호의 게인을 제어하여도 좋다.
리니어 매트릭스부(433)는, SDR 게인 조정부(432)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부로서 SDR 비디오의 색에 관한 정보인 색역 정보(SDR-Color Gamut)를 기초로, 색역 변환을 위한 리니어 매트릭스 처리를 한다. 블랙 레벨부(434)는, 리니어 매트릭스부(433)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 블랙 레벨 보정을 위한 정보(SDR-Black)를 기초로, 흑레벨 조정을 한다. 니 디테일부(435)는, 블랙 레벨부(434)로부터 출력되는 HDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 니 보정에 관한 정보(KNEE)를 기초로, 니 보정을 행하고, 나아가 이 SDR 영상 신호에 디테일(윤곽) 보정을 한다.
감마 포맷터부(436)는, 니 디테일부(435)로부터 출력되는 리니어한 SDR 영상 신호에, SDR 조정용의 파라미터 정보의 일부인 다이나믹 레인지의 압축에 관한 정보(SDR-Gamma)를 기초로, 감마 처리를 행한다. 또한, 감마 포맷터부(436)는, RGB 도메인으로부터 Y색차 도메인으로 변환하여 출력 SDR 영상 신호를 얻는다.
상술한 바와 같이, 도 5에 나타내는 비디오 시스템(30)에 있어서는, 복수의 입력 기기는 기준 신호 인터페이스(통일 신호 인터페이스)인 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR-A 영상 신호를 스위처(38)에 입력하는 것으로, 이 스위처(38)에 의해 취출되는 소정의 HDR 영상 신호는 항상 기준 신호 인터페이스의 계조 압축 처리가 실시된 HDR-A 영상 신호가 된다. 그 때문에, 기준 신호 인터페이스(통일 신호 인터페이스) 대응의 모니터(45)에서의 모니터링으로, 복수의 입력 기기의 영상 조정을 일률적으로 행하는 것이 가능하게 된다.
또한, 도 5에 나타내는 비디오 시스템(30)에 있어서, HDR 컨버터(46)에서는, 신호 인터페이스 A 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 출력할 때, 적어도, 신호 인터페이스 A의 시스템 감마의 특성을 부가하는 처리가 행해진다. 그 때문에, 다른 신호 인터페이스의 계조 압축 처리가 실시된 HDR 영상 신호를 그 인터페이스 대응의 모니터(48)로 모니터링 했을 경우, 그 영상을, 상술한 바와 같이 소정의 HDR 영상 신호를 신호 인터페이스 A 대응의 모니터로 모니터링 했을 경우의 영상(조정된 영상)과 같게 할 수 있다.
또한, 상술하고 있지 않지만, 제4 실시형태의 비디오 시스템(30)(도 5 참조)에 있어서의 HDR 컨버터(36)는, HDR-B 영상 신호나 HDR-C 영상 신호를 HDR-A 영상 신호로 변환할 때에, 영상의 변경을 가하는 기능을 가지고 있어도 좋다. 이 경우, HDR 컨버터(36)는, 예를 들어, 도 14(a), (b)에 나타내는 바와 같이, 시그널 프로세서(441)를 가지는 구성으로 된다.
도 14(a)는, HDR-B 영상 신호를 HDR-A 영상 신호로 변환하는 HDR 컨버터(36)의 구성예를 나타내고 있다. 도 14(b)는, HDR-C 영상 신호를 HDR-A 영상 신호로 변환하는 HDR 컨버터(36)의 구성예를 나타내고 있다. 예를 들어, HDR 컨버터(36)로부터 출력되는 HDR-A 영상 신호에 의한 영상을 더욱 밝게 하려면, 시그널 프로세서(441)는 밝기를 매뉴얼 조정할 수 있는 기능이 있으면 좋다. 또한, 예를 들어, HDR 컨버터(36)로부터 출력되는 HDR-A 영상 신호의 색미를 변경하려면, 시그널 프로세서(441)는 색미를 매뉴얼 조정할 수 있는 기능이 있으면 좋다.
또한, HDR 컨버터(36)에 입력되는 HDR-B 영상 신호나 HDR-C 영상 신호로서, 도 15(a), (b)에 나타내는 바와 같이, 모니터 측에 OOTF 기능이 없는 상황에서 만들어진 영상 신호를 고려할 수 있다. 도 15(a)는, 카메라(442)로부터의 리니어한 HDR 신호를 카메라 컨트롤 유닛(CCU)(443)에서 처리하고, 신호 인터페이스 X의 계조 압축 처리가 실시된 HDR-X 영상 신호「HDR OETF-X」를 얻는 예이며, 이를 모니터링하기 위한 모니터(444)에 OOTF 기능이 없는 것을 나타내고 있다. 도 15(b)는, 스토리지(445)로부터의 리니어한 HDR 신호를 비디오 프로세서 유닛(BPU)(446)에서 처리하고, 신호 인터페이스 X의 계조 압축 처리가 실시된 HDR-X 영상 신호「HDR OETF-X」를 얻는 예이며, 이를 모니터링하기 위한 모니터(447)에 OOTF 기능이 없는 것을 나타내고 있다.
이 경우, 이하의 케이스(1), 케이스(2)가 생각된다.
케이스(1):단순히 영상의 소재 데이터로서, 카메라 영상의 캡쳐링이 행해졌을뿐으로, 영상으로서의 조정(이른바 포스트 프로덕션)은 행해지지 않은 경우의 영상.
케이스(2):OOTF가 없는 모니터 시청 환경에서, 영상이 어떻게 보여지는 가를 조정하는 것을 포함하는 모든 조작이 영상 조정 내에 포함된 경우의 영상.
케이스(1)의 경우는, 특히 문제는 없지만, 케이스(2)의 경우는, 영상 안에 시스템 감마(OOTF-x)의 특성이 포함되어 있다고 판단해야 한다. 또한, 전기광 전달 함수(EOTF)로 정의되고 있는 신호 인터페이스, 예를 들어 신호 인터페이스 C의 경우, 원래 모니터 측에서 시스템 감마(OOTF)를 부가하는 처리는 행해지지 않기 때문에, 동등의 경우로 볼 수 있다.
도 16(a), (b)에 나타내는 바와 같이, HDR-C 영상 신호의 출력 측의 신호 처리에서, 실제로, 시스템 감마(OOTF)를 부가하는 처리가 되어 있지 않은 경우에도, 케이스(2)에 해당할 경우(모니터 상의 영상이 완성 영상인 경우)는, 시스템 감마(OOTF)의 특성이 고려되고 있다고 판단해야 한다.
또한, 도 16(a)은, 카메라(451)로부터의 리니어한 HDR 신호를 카메라 컨트롤 유닛(CCU)(452)에 의해 처리하여 HDR-C 영상 신호를 얻는 예이며, 신호 인터페이스 C에 대응한 모니터(453)로 그 영상 신호를 모니터링 하고 있는 것을 나타내고 있다. 또한, 도 16(b)은, 스토리지(454)로부터의 리니어한 HDR 신호를 비디오 프로세서 유닛(BPU)(455)에 의해 처리하여 HDR-C 영상 신호를 얻는 예이며, 신호 인터페이스 C에 대응한 모니터(456)로 그 영상 신호를 모니터링 하고 있는 것을 나타내고 있다.
상술한 케이스(1)에 해당한다면, 도 17(a), (b)에 나타내는 바와 같이,HDR 컨버터(36)에서는, 시스템 감마(OOTF)의 특성을 부가하는 처리는 하지 않고, 신호 인터페이스 A의 표준 모니터링 환경에서, 소망한 영상이 되도록, 신호 처리를 행하면 된다.
또한, 광전기 전달 함수(OETF) 정의의 신호 인터페이스로 상술한 케이스(2)에 해당한다면, 예를 들어, 도 18(a)에 나타내는 바와 같이, 신호 인터페이스 B의 시스템 감마(OOTF-B)의 처리는 하지 않고, OETF/EOTF의 신호 인터페이스 변환과, 변환처의 신호 인터페이스 A의 시스템 감마(OOTF-A)를 캔슬하는 처리만 행하면 된다.
또한, 전기광 전달 함수(EOTF) 정의의 신호 인터페이스로 상술한 케이스(2)에 해당한다면, 예를 들어, 도 18(b)에 나타내는 바와 같이, OETF/EOTF의 신호 인터페이스 변환과, 변환처의 신호 인터페이스 A의 시스템 감마(OOTF-A)를 캔슬하는 처리만 행하면 된다.
<5. 제5 실시형태>
[HDR 제작 라이브 시스템의 구성예]
도 19는, 제5 실시형태로서의 HDR 제작 라이브 시스템(500)의 구성예를 나타내고 있다. 이 HDR 제작 라이브 시스템(500)은, 카메라와 카메라 컨트롤 유닛(CCU:Camera Control Unit)으로 이루어지는 카메라 시스템을 소정 수 가지고 있다. 이 실시형태에서는, 카메라(501)와 CCU(502)로 이루어지는 카메라 시스템과, 카메라(511)와 CCU(512)로 이루어지는 카메라 시스템의 2개를 가지고 있다.
CCU(502, 512)는, 카메라(501, 511)로부터의 촬상 영상 신호에 대해서 화상 만들기의 처리를 한다. CCU(502, 512)로부터는, 신호 인터페이스 A의 계조 압축 처리가 실시된 하이 다이나믹 레인지(HDR:High Dynamic Range) 영상 신호(HDR-A 영상 신호)가 얻어진다. 이 실시형태에 있어서, 신호 인터페이스 A는, 기준 신호 인터페이스(통일 신호 인터페이스)가 된다. 예를 들어, 신호 인터페이스 A는, “S-Log3”이다.
또한, HDR 제작 라이브 시스템(500)은, 리플레이 재생 등을 위해 영상 파일의 기록 재생을 행하는 서버(Server)(521)를 가지고 있다. 이 서버(521)에 기록되는 파일에는, CCU(502, 512)로부터 출력되는 영상 신호(503, 513)의 파일 외에, 퍼스널 컴퓨터(PC) 등의 외부 기기로부터 통신에 의해 취득되는 영상 파일도 포함된다.
CCU(502, 512)로부터 출력되는 영상 신호(503, 513)는, 후술하는 스위처(525)를 거쳐 서버(521)로, SDI 신호로서 보내진다. 이 SDI 신호의 예를 들면 페이로드 ID 영역이나 VANC 영역에는 신호 인터페이스 A의 정보가 메타데이터로서 부가되어 있다. 이에 의해, 서버(521)는, CCU(502, 512)로부터 출력되는 영상 신호(503, 513)가 HDR-A 영상 신호인 것을 인식할 수 있고, 이러한 영상 신호(503, 513)의 파일에는, 그 속성 정보로서 신호 인터페이스 A의 정보가 부가된 것으로 된다. 또한, 퍼스널 컴퓨터(PC) 등의 외부 기기로부터 입력된 영상 파일에도, 마찬가지로 신호 인터페이스의 정보가 부가되어 있고, 그에 의해 서버(521)는 파일에 어떤 신호 인터페이스의 영상 신호가 포함되어 있는지를 인식할 수 있다.
여기서, 퍼스널 컴퓨터(PC) 등의 외부 기기로부터 입력되고 영상 파일에 포함되는 영상 신호는, 상술한 HDR-A 영상 신호에만 한정되는 것이 아니고, 신호 인터페이스 B의 계조 압축 처리가 실시된 HDR 영상 신호(HDR-B 영상 신호), 혹은 신호 인터페이스 C의 계조 압축 처리가 실시된 HDR 영상 신호(HDR-C 영상 신호), 나아가서는 통상 다이나믹 레인지(SDR:Standard Dynamic Range) 영상 신호인 것도 생각할 수 있다. 예를 들어, 신호 인터페이스 B는“HLG(Hybrid Log-Gamma)”이며, 신호 인터페이스 C는, “PQ(Perceptual Quantizer)”이다.
또한, HDR 제작 라이브 시스템(500)은, 서버(521)의 오퍼레이터가 조작을 함에 있어서, 스토리지(537)에 기록되어 있는 파일 내의 영상을 적절히 확인하기 위한 모니터(523)를 가지고 있다. 서버(521)로부터 모니터(523)에는, 모니터(523)가 대응하는 신호 인터페이스에 따른 영상 신호(522)가 SDI 신호로서 보내진다. 이 실시형태에 있어서, 모니터(523)는, 예를 들어 SDR 모니터 혹은 신호 인터페이스 B에 대응한 HDR 모니터이며, 서버(521)로부터 모니터(523)에는, 영상 신호(522)로서 SDR 영상 신호 혹은 HDR-B 영상 신호가 공급된다.
또한, HDR 제작 라이브 시스템(500)은, 스위처(525)를 가지고 있다. CCU(502, 512)로부터 출력되는 HDR-A 영상 신호(503, 513)는, 스위처(525)에 SDI 신호로서 입력된다. 상술한 바와 같이, 이 SDI 신호의 예를 들면 페이로드 ID 영역이나 VANC 영역에는 신호 인터페이스 A의 정보가 메타데이터로서 부가되어 있다.
또한, 서버(521)로부터 재생된 영상 신호(524)도 스위처(525)에 입력된다. 이 영상 신호(524)는, 신호 인터페이스 A의 계조 압축 처리가 실시된 HDR 영상 신호(HDR-A 영상 신호)이며, 서버(521)로부터 스위처(525)에, SDI 신호로서 보내진다. 이 SDI 신호의 예를 들면 페이로드 ID 영역이나 VANC 영역에는 신호 인터페이스 A의 정보가 메타데이터로서 부가되어 있다.
스위처(525)는, 카메라 시스템, 서버(521) 등의 복수의 입력 기기로부터 입력된 HDR-A 영상 신호로부터 선택적으로 소정의 HDR-A 영상 신호를 취출하여 출력하거나, 혹은 복수의 입력 기기로부터 입력된 HDR-A 영상 신호 중 임의의 영상 신호를 믹스하여 출력한다. 스위처(525)에 의해 취출된 본선 신호로서의 HDR-A 영상 신호(526)는, SDI 신호로서 그대로 출력된다.
HDR 제작 라이브 시스템(500)은, HDR 컨버터(HDR-Converter)(527)를 가지고 있다. 스위처(525)에 의해 취출된 소정의 HDR-A 영상 신호(526)는, SDI 신호로서, HDR 컨버터(527)로 보내진다. HDR 컨버터(527)는, HDR-A 영상 신호를, 예를 들어, HDR-B 영상 신호 혹은 HDR-C 영상 신호 등의 HDR 영상 신호(528)로 변환하여 출력한다. 이 HDR 영상 신호(528)는, SDI 신호로서 출력된다. 이 SDI 신호의 예를 들면 페이로드 ID 영역이나 VANC 영역에는 신호 인터페이스의 정보가 메타데이터로서 부가되어 있다.
도 20은, 서버(521)의 구성예를 나타내고 있다. 도면 중의 실선 화살표는 신호의 흐름을 나타내고, 파선 화살표는 제어의 방향을 나타내는 것으로 한다. 도시하는 예에서는, 입력계를 2계통 구비함과 함께 출력계를 2계통 구비하는 것이지만, 각 계의 개수는 이에 한정되는 것이 아니다.
서버(521)는, CPU(531)와, SDI(Serial Digital Interface) 입력부(532-1, 532-2)와, 엔코더(533-1, 533-2)와, 디코더(534-1, 534-2)와, OETF(Opto-Electrical Transfer Function) 변환부(535-1, 535-2)와, SDI 출력부(536-1, 536-2)와, 스토리지(537)와, 통신 인터페이스(538)를 가지고 있다.
CPU(531)는, 서버(521)의 각 부의 동작을 제어한다. SDI 입력부(532-1, 532-2)는, SDI 신호를 받아, 그 SDI 신호로부터 영상 신호나 메타데이터를 추출한다. 이 메타데이터에는, 그 SDI 신호에 포함되는 영상 신호의 신호 인터페이스의 정보도 존재한다. SDI 입력부(532-1, 532-2)는, SDI 신호로부터 추출한 메타데이터를 CPU(531)로 보낸다. 이에 의해, CPU(531)는, SDI 신호에 포함되는 영상 신호의 신호 인터페이스가 어떤 것인지를 인식할 수 있다.
엔코더(533-1, 533-2)는, SDI 입력부(532-1, 532-2)에 의해 SDI 신호로부터 추출된 영상 신호에 대해서 예를 들어 XAVC 등의 압축 포맷에 의한 부호화 처리를 실시하고 파일(기록 파일)을 생성한다. 또한, 이 파일에는, 그 속성 정보로서 영상 신호의 신호 인터페이스 정보가 부가된다. 엔코더(533-1, 533-2)에 의해 생성된 파일은, CPU(531)의 제어 아래, 스토리지(537)에 기록되고, 재생된다.
여기서, SDI 입력부(532-1) 및 엔코더(533-1)는, 제1 입력계를 구성한다. 그리고, SDI 입력부(532-1)에서는, CCU(502)로부터 출력되는 HDR-A 영상 신호(503)가 SDI 신호로서 수취된다. 또한, SDI 입력부(532-2) 및 엔코더(533-2)는, 제2 입력계를 구성한다. 그리고, SDI 입력부(532-2)에서는, CCU(512)로부터 출력되는 HDR-A 영상 신호(513)가 SDI 신호로서 수취된다.
통신 인터페이스(538)는, 예를 들어, 이더넷 인터페이스(Ethernet interface)이며, 외부 기기로서의 퍼스널 컴퓨터(PC)(550)와 통신을 하여, 과거 영상이나 CG(Computer Graphics) 영상과 관련되는 파일(영상 파일)을 취득하고, CPU(531)로 보낸다. 이 파일은, CPU(531)의 제어 아래, 스토리지(537)에 기록되고, 재생된다. 여기서, 「Ethernet」, 「이더넷」은 등록상표이다.
이 파일에도, 영상 신호의 신호 인터페이스 정보가 속성 정보로서 부가되어 있다. 이 경우, 파일에 포함되는 영상 신호는 SDR 영상 신호인 것도 있고, 또한, HDR 영상 신호에서도 HDR-A 영상 신호, HDR-B 영상 신호, HDR-C 영상 신호 등의 여러 가지의 신호 인터페이스에 대응하고 있을 가능성이 있다.
또한, CPU(531)는, 스토리지(537)로부터 파일을 취출하고, 통신 인터페이스(538)를 통해서, PC(550)로 보낼 수도 있다. 이에 의해, PC(550)에 의해, 파일의 편집 등을 행하고, 편집 후의 파일을 스토리지(537)로 되돌리는 것도 가능하게 된다.
디코더(534-1, 534-2)는, 스토리지(537)로부터 재생된 파일(영상 파일)에 대해서 복호화 처리를 실시하고 베이스밴드의 재생 영상 신호를 얻는다. 이 재생 영상 신호는, 제1 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 것으로, HDR-A 영상 신호, HDR-B 영상 신호, HDR-C 영상 신호, SDR 영상 신호 등이다.
OETF 변환부(535-1, 535-2)는, 디코더(534-1, 534-2)에 의해 얻어진 재생 영상 신호에 OETF 변환 처리를 하고, 출력 신호 인터페이스인 제2 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 출력 영상 신호를 얻는다. 또한, 재생 영상 신호의 제1 신호 인터페이스가 출력 영상 신호의 제2 신호 인터페이스와 같은 경우, OETF 변환부(535-1, 535-2)는, OETF 변환 처리를 행하는 일 없이, 재생 영상 신호를 그대로 출력 영상 신호로 한다.
OETF 변환부(535-1, 535-2)는, 재생 영상 신호의 제1 신호 인터페이스의 정보와 출력 영상 신호의 제2 신호 인터페이스의 정보에 기초하여 처리 설정을 한다. OETF 변환부(535-1, 535-2)의 처리 설정은, CPU(531)의 제어에 기초하여 행해진다. CPU(531)는, 재생 영상 신호의 제1 신호 인터페이스의 정보를 파일에 부가되어 있는 속성 정보로부터 얻을 수 있고, 또한, 출력 영상 신호의 제2 신호 인터페이스의 정보를 시스템 구성 시에 있어서의 설정 정보로부터 얻을 수 있다.
OETF 변환부(535-1, 535-2)는, 각각, 독립한 처리 설정을 행하는 것이 가능하게 되어 있다. 여기서, OETF 변환부(535-1, 535-2)는, 예를 들어 플레이 리스트 재생과 같이 재생 영상 신호가 스토리지(537)에 기록되어 있는 복수의 파일의 연속 재생에서 얻어진 것일 때, 재생 영상 신호의 제1 신호 인터페이스의 정보의 변화에 따라 처리 설정을 변경한다.
SDI 출력부(536-1, 536-2)는, OETF 변환부(535-1, 535-2)에 의해 얻어진 출력 영상 신호를 SDI 신호로서 출력한다. 이 경우, SDI 출력부(536-1, 536-2)는, SDI 신호의 예를 들면 페이로드 ID 영역이나 VANC 영역에 출력 영상 신호의 제2 신호 인터페이스의 정보를 메타데이터로서 설정한다.
여기서, 디코더(534-1), OETF 변환부(535-1) 및 SDI 출력부(536-1)는, 제1 출력계를 구성한다. 그리고, SDI 출력부(536-1)로부터는, 스위처(525)에 보내기 위한 HDR-A 영상 신호(524)가 SDI 신호로서 출력된다. 또한, 디코더(534-2), OETF 변환부(535-2) 및 SDI 출력부(536-2)는, 제2 출력계를 구성한다. 그리고, SDI 출력부(536-2)로부터는, 모니터(523)에 보내기 위한 SDR 영상 신호 혹은 HDR-B 영상 신호가 SDI 신호(522)로서 출력된다.
도 21은, OETF 변환부(535; 535-1, 535-2)의 구성예를 나타내고 있다. OETF 변환부(535)는, 기록 시 인버스 OETF부(541)와, 기록 시 OOTF부(542)와, 색역 변환부(543)와, 리니어 게인부(544)와, 출력 인버스 OOTF부(545)와, 출력 OETF부(546)를 가지고 있다. 여기서는, 재생 영상 신호는 신호 인터페이스 X의 영상 신호이며, 출력 영상 신호는 신호 인터페이스 Y의 영상 신호라고 하여 설명한다.
기록 시 인버스 OETF부(541)는, 신호 인터페이스 X의 재생 영상 신호에 대해, 그 재생 영상 신호에 실시되어 있는 신호 인터페이스 X의 계조 압축 처리에 대응한 계조 신장 처리를 행한다. 여기서의 계조 신장 처리는, 신호 인터페이스 X용의 광전기 전달 함수(OETF)의 역특성을 이용하여 행해진다. 기록 시 OOTF부(542)는, 기록 시 인버스 OETF부(541)의 출력 영상 신호에 대해서, 신호 인터페이스 X의 시스템 감마(OOTF)의 특성을 부가한다.
색역 변환부(543)는, 기록 시 OOTF부(542)의 출력 영상 신호에 대해서, 색역 변환을 위한 리니어 매트릭스 처리를 한다. 리니어 게인부(544)는, 색역 변환부(543)의 출력 영상 신호에 대해서, 게인 조정 처리를 한다. 색역 변환부(543)는, 재생 영상 신호와 출력 영상 신호의 사이에서 색역의 변환이 필요한 경우에만 필요하다. 또한, 리니어 게인부(544)는, 재생 영상 신호와 출력 영상 신호의 사이에서 SDR로부터 HDR로의 변환, 혹은 반대로 HDR로부터 SDR로의 변환을 행하는 경우에 필요하다.
출력 인버스 OOTF부(545)는, 리니어 게인부(544)의 출력 영상 신호에 대해서, 신호 인터페이스 Y의 시스템 감마(OOTF)의 특성을 캔슬하는 특성을 부가한다. 출력 OETF부(546)는, 출력 인버스 OOTF부(545)의 출력 영상 신호에 대해서, 신호 인터페이스 Y의 계조 압축 처리를 행한다. 여기서의 계조 압축 처리는, 신호 인터페이스 Y용의 광전기 전달 함수(OETF)의 특성을 이용하여 행해진다.
이 OETF 변환부(535)에서는, 재생 영상 신호의 신호 인터페이스 X에 기초하여, 기록 시 인버스 OETF부(541) 및 기록 시 OOTF부(542)가 설정됨과 함께, 출력 영상 신호의 신호 인터페이스 Y에 기초하여, 출력 인버스 OOTF부(545) 및 출력 OETF부(546)가 설정된다. 이에 의해, 출력 OETF 변환부(535)에서는, 신호 인터페이스 X의 계조 압축 처리가 실시된 재생 영상 신호로부터 신호 인터페이스 Y의 계조 압축 처리가 실시된 출력 영상 신호가 얻어진다.
도 22는, OETF 변환부(535)(도 21 참조)의 실제의 설정치의 대표예를 나타내고 있다. (a)의 예는, 재생 영상 신호의 신호 인터페이스(기록 시 OETF)가“S-Log3”으로서, 출력 영상 신호의 신호 인터페이스(출력 OETF)가“SDR”인 경우의 예이다. 또한, 이 경우에 있어서의 재생 영상 신호의 색역은“BT. 2020”이며, 출력 영상 신호의 색역은“BT. 709”이다. 이 예는, 예를 들어, 모니터(523)가 SDR 모니터였을 경우에, 서버(521) 측의 OETF 변환 처리에 사용된다.
(a)의 예의 경우, 기록 시 인버스 OETF부(541)는, “S-Log3”의 계조 신장 처리(S-Log3 Inverse OETF)를 행하도록 설정된다. 기록 시 OOTF부(542)는, “S-Log3”의 시스템 감마(OOTF)의 특성을 부가하도록 설정된다. 색역 변환부(543)는, “BT. 2020”으로부터“BT. 709”로 색역을 변환하는 리니어 매트릭스 처리를 행하도록 설정된다. 리니어 게인부(544)는, HDR 게인으로부터 SDR 게인으로 게인 저하하도록 설정된다. 출력 인버스 OOTF부(545)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 나아가, 출력 OETF부(546)는, “SDR”의 계조 압축 처리(SDR Inverse EOTF)를 행하도록 설정된다.
또한, (b)의 예는, 재생 영상 신호의 신호 인터페이스(기록 시 OETF)가“SDR”로서, 출력 영상 신호의 신호 인터페이스(출력 OETF)가“S-Log3”인 경우의 예이다. 또한, 이 경우에 있어서의 재생 영상 신호의 색역은“BT. 709”이고, 출력 영상 신호의 색역은“BT. 2020”이다. 이 예는, 예를 들어, 스토리지(537)로부터 신호 인터페이스가“SDR”인 영상 신호를 포함하는 파일을 재생하고, 스위처(525)에 “S-Log3”의 영상 신호를 입력하는 경우에 사용된다.
(b)의 예의 경우, 기록 시 인버스 OETF부(541)는, “SDR”의 계조 신장 처리(SDR EOTF)를 행하도록 설정된다. 기록 시 OOTF부(542)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 색역 변환부(543)는, “BT. 709”로부터“BT. 2020”으로 색역을 변환하는 리니어 매트릭스 처리를 행하도록 설정된다. 리니어 게인부(544)는, SDR 게인으로부터 HDR 게인으로 게인 증가하도록 설정된다. 출력 인버스 OOTF부(545)는, “S-Log3”의 시스템 감마(OOTF)의 특성을 캔슬하도록 설정된다. 나아가, 출력 OETF부(546)는, “S-Log3”의 계조 압축 처리(S-Log3 OETF)를 행하도록 설정된다.
또한, (c)의 예는, 재생 영상 신호의 신호 인터페이스(기록 시 OETF)가“HLG”로서, 출력 영상 신호의 신호 인터페이스(출력 OETF)가“S-Log3”인 경우의 예이다. 또한, 이 경우에 있어서의 재생 영상 신호의 색역은“BT. 2020”이며, 출력 영상 신호의 색역도“BT. 2020”이다. 이 예는, 예를 들어, 스토리지(537)로부터 신호 인터페이스가“HLG”인 영상 신호를 포함하는 파일을 재생하고, 스위처(525)에“S-Log3”의 영상 신호를 입력하는 경우에 사용된다.
(c)의 예의 경우, 기록 시 인버스 OETF부(541)는, “HLG”의 계조 신장 처리(HLG Inverse OETF)를 행하도록 설정된다. 기록 시 OOTF부(542)는, “HLG”의 시스템 감마(OOTF)의 특성을 부가하도록 설정된다. 색역 변환부(543)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 리니어 게인부(544)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 출력 인버스 OOTF부(545)는, “S-Log3”의 시스템 감마(OOTF)의 특성을 캔슬하도록 설정된다. 나아가, 출력 OETF부(546)는, “S-Log3”의 계조 압축 처리(S-Log3 OETF)를 행하도록 설정된다.
또한, (d)의 예는, 재생 영상 신호의 신호 인터페이스(기록 시 OETF)가“PQ”로서, 출력 영상 신호의 신호 인터페이스(출력 OETF)가“S-Log3”인 경우의 예이다. 또한, 이 경우에 있어서의 재생 영상 신호의 색역은“BT. 2020”이며, 출력 영상 신호의 색역도“BT. 2020”이다. 이 예는, 예를 들어, 스토리지(537)로부터 신호 인터페이스가“PQ”인 영상 신호를 포함하는 파일을 재생하고, 스위처(525)에“S-Log3”의 영상 신호를 입력하는 경우에 사용된다.
(d)의 예의 경우, 기록 시 인버스 OETF부(541)는, “PQ”의 계조 신장 처리(PQ EOTF)를 행하도록 설정된다. 기록 시 OOTF부(542)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 색역 변환부(543)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 리니어 게인부(544)는, 처리를 하지 않도록, 즉 입력을 그대로 출력하도록 설정된다. 출력 인버스 OOTF부(545)는, “S-Log3”의 시스템 감마(OOTF)의 특성을 캔슬하도록 설정된다. 나아가, 출력 OETF부(546)는, “S-Log3”의 계조 압축 처리(S-Log3 OETF)를 행하도록 설정된다.
도 23의 흐름도는, 스토리지(537)로부터 다른 소재 정보(신호 인터페이스 정보)를 가지는 파일을 연속적으로 재생하는 경우에 있어서의, CPU(531)에 의한 OETF 변환부(535; 535-1, 535-2)의 제어 처리의 일례를 나타내고 있다.
우선, CPU(531)는, 스텝 S401에 있어서, 출력 포트의 EOTF 설정, 즉 출력 영상 신호의 신호 인터페이스의 정보를 취득한다. CPU(531)는, 이 정보를, 예를 들어, 시스템 구성 시에 있어서의 설정 정보로부터 취득한다. 다음으로, CPU(531)는, 스텝 S402에 있어서, 출력 포트의 EOTF 설정에 기초하여, 출력 인버스 OOTF부(545) 및 출력 OETF부(546)의 처리 설정을 한다.
다음으로, CPU(531)는, 스텝 S403에 있어서, 재생해야 할 소재의 속성, 즉 재생 영상 신호의 신호 인터페이스의 정보를 취득한다. CPU(531)는, 이 정보를, 예를 들어, 파일에 부가되어 있는 속성 정보로부터 취득한다. 다음으로, CPU(531)는, 스텝 S404에 있어서, 재생해야 할 소재의 속성에 기초하여, 기록 시 인버스 OETF부(541) 및 기록 시 OOTF부(542)의 처리 설정을 한다.
다음으로, CPU(531)는, 스텝 S405에 있어서, 스텝 S401에서 취득한 출력 포트의 EOTF 설정과 스텝 S403에서 취득한 재생해야 할 소재의 속성에 기초하여, 색역 변환부(543) 및 리니어 게인부(544)의 처리 설정을 한다. 그 후, CPU(531)는, 스텝 S406에 있어서, 재생 처리를 한다.
그리고, CPU(531)는, 스텝 ST407에 있어서, 소재 변경이 있는지 아닌지를 판정한다. CPU(531)는, 이 판정을, 재생해야 할 소재의 파일에 부가되어 있는 속성 정보에 기초하여 행할 수 있다. 소재 변경이 없다고 판정할 때, CPU(531)는, 스텝 S406의 처리로 돌아온다. 한편, 소재 변경이 있다고 판정할 때, CPU(531)는, 스텝 S403의 처리로 돌아와, 상술한 바와 마찬가지로 각 부의 처리 설정을 행한 후에 재생 처리를 한다.
상술한 제5 실시형태에 나타내는 HDR 제작 라이브 시스템(500)에 있어서, 서버(521)는, 출력계(재생계)에, 제1 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 재생 영상 신호를 제2 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 출력 영상 신호로 변환하는 OETF 변환부(535; 535-1, 535-2)를 구비하는 것이다.
따라서, 스토리지(537)로부터 다른 속성(신호 인터페이스)을 가진 소재를 연속적으로 재생하는 경우도, 출력 포트의 설정대로의 신호 인터페이스를 가지는 영상 신호의 출력이 가능하게 된다. 그 때문에, 사전의 소재 격납 시에 신호 인터페이스를 준비하는 작업이 불필요하게 되기 때문에 작업 시간을 대폭 삭감할 수 있고, 또한, 신호 인터페이스 변환 시의 코덱의 디코드/인코드도 없어지기 때문에 화질 열화를 피할 수 있다.
<6. 변형예>
또한, 상술한 제3 실시형태에 있어서는, 제1 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 재생 영상 신호를 제2 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 출력 영상 신호로 변환하는 서버(521)에 OETF 변환부(535; 535-1, 535-2)를 구비하는 예를 나타냈다. 마찬가지의 OETF 변환부를 스위처(525) 내에 제공하고, 스위처(525) 내에서 제1 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 재생 영상 신호를 제2 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 출력 영상 신호로 변환하도록 구성하는 것도 생각할 수 있다.
또한, 상술한 실시형태에 있어서는, 신호 인터페이스 A, 예를 들어“S-Log3”를 기준 신호 인터페이스(통일 신호 인터페이스)로 하였지만, 반드시 이에 한정되는 것이 아니다. 신호 인터페이스 B, 예를 들어“HLG(Hybrid Log-Gamma)”, 혹은 신호 인터페이스 C, 예를 들어“PQ(Perceptual Quantizer)”를 기준 신호 인터페이스(통일 신호 인터페이스)로 해도 된다.
또한, 상술한 실시형태에 있어서는, 본 기술을, 3종류의 신호 인터페이스 A~C를 취급하는 카메라 시스템 혹은 비디오 시스템에 적용한 예를 나타냈지만, 본 기술은, 이들과 함께, 혹은 이들과는 별개의 복수 종류의 신호 인터페이스를 취급하는 카메라 시스템 혹은 비디오 시스템 등에도 마찬가지로 적용할 수 있음은 물론이다.
또한, 본 기술은, 이하와, 같은 구성을 취할 수도 있다.
(1) 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부를 구비하고,
상기 처리부는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있는
신호 처리 장치.
(2) 상기 처리부는,
기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리를 행할 때, 적어도, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리를 더 행하는
상기 (1)에 기재된 신호 처리 장치.
(3) 처리부가, 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리 스텝을 갖고,
상기 처리부는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있는
신호 처리 방법.
(4) 리니어한 하이 다이나믹 레인지 영상 신호를 얻는 촬상부와,
상기 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부를 구비하고,
상기 처리부는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있는
카메라 시스템.
(5) 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부와,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환하는 신호 변환부를 구비하고,
상기 신호 변환부는,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호에, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리 및 상기 다른 신호 인터페이스의 시스템 감마의 특성을 캔슬하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는
신호 처리 장치.
(6) 처리부가, 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리 스텝과,
신호 변환부가, 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환하는 신호 변환 스텝을 갖고,
상기 신호 변환 스텝에서는,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는
신호 처리 방법.
(7) 리니어한 하이 다이나믹 레인지 영상 신호를 얻는 촬상부와,
상기 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부와,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환하는 신호 변환부를 구비하고,
상기 신호 변환부는,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는
카메라 시스템.
(8) 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 입력하는 복수의 입력 기기를 가지는 입력부와,
상기 복수의 입력 기기로부터 선택적으로 소정의 하이 다이나믹 레인지 영상 신호를 취출하는 취출부와,
상기 소정의 하이 다이나믹 레인지 영상 신호에 기초한 영상 신호를 출력하는 출력부를 구비하고,
상기 출력부는,
상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호 외에, 적어도, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 출력하는 것이 가능하게 되고,
상기 출력부는,
상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 출력할 때, 상기 소정의 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하고, 상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는
비디오 시스템.
(9) 상기 입력부는, 카메라 시스템을 포함하고,
상기 카메라 시스템은,
리니어한 하이 다이나믹 레인지 영상 신호를 얻는 촬상부와,
상기 리니어한 하이 다이나믹 레인지 영상 신호를 처리하고 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를 얻는 처리부를 가지는
상기 (8)에 기재된 비디오 시스템.
(10) 상기 입력부는, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호를, 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호로 변환하는 신호 변환부를 포함하고,
상기 신호 변환부는,
상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 하이 다이나믹 레인지 영상 신호에, 적어도, 상기 다른 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스가 가지는 시스템 감마의 특성을 캔슬하는 특성을 부가하는 처리와, 상기 기준 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는
상기 (8) 또는 (9)에 기재된 비디오 시스템.
(11) 상기 출력부는,
통상(표준) 다이나믹 레인지 영상 신호를 출력하는 것이 더 가능하게 되는,
상기 (8) 내지 (10) 중 어느 것에 기재된 비디오 시스템.
(12) 상기 소정의 하이 다이나믹 레인지 영상 신호에는, 당해 소정의 하이 다이나믹 레인지 영상 신호의 정보와 함께, 당해 소정의 하이 다이나믹 레인지 영상 신호에 기초하여 작성된 통상(표준) 다이나믹 레인지 영상 신호의 정보가 부가되어 있고,
상기 출력부는,
상기 통상(표준) 다이나믹 레인지 영상 신호를 출력할 때, 상기 소정의 하이 다이나믹 레인지 영상 신호를, 당해 소정의 하이 다이나믹 레인지 영상 신호에 부가되어 있는 상기 정보에 기초하여 처리하고, 상기 통상(표준) 다이나믹 레인지 영상 신호를 얻는
상기 (11)에 기재된 비디오 시스템.
(13) 스토리지에 기록되어 있는 파일을 재생하고 제1 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 재생 영상 신호를 얻는 재생부와,
상기 재생 영상 신호를 처리하고 제2 신호 인터페이스에 대응하는 계조 압축 처리가 실시된 출력 영상 신호를 얻는 처리부를 구비하는
서버.
(14) 상기 처리부는,
상기 재생 영상 신호의 상기 제1 신호 인터페이스의 정보와 상기 출력 영상 신호의 상기 제2 신호 인터페이스의 정보에 기초하여 처리 설정을 하는
상기 (13)에 기재된 서버.
(15) 상기 처리부는,
상기 재생 영상 신호가 상기 스토리지에 기록되어 있는 복수의 파일의 연속 재생에서 얻어진 것일 때,
상기 재생 영상 신호의 상기 제1 신호 인터페이스의 정보의 변화에 따라 상기 처리 설정을 변경하는
상기 (14)에 기재된 서버.
(16) 상기 재생부 및 상기 처리부의 출력계를 복수 갖고,
상기 복수의 출력계의 상기 처리부는, 각각 독립한 처리 설정을 행하는 것이 가능하게 되어 있는
상기 (13) 내지 (15) 중 어느 것에 기재된 서버.
(17) 상기 출력 영상 신호에, 상기 제2 신호 인터페이스의 정보를 중첩하는 정보 중첩부를 더 구비하는
상기 (13) 내지 (16) 중 어느 것에 기재된 서버.
10A, 10B, 10C: 카메라 시스템
11: 카메라
12, 12B, 12C: 카메라 컨트롤 유닛
13: 카메라 케이블
14: 통신로
15: 컨트롤 패널
16, 17, 18: 모니터
19, 20: HDR 컨버터
30: 비디오 시스템
31: 카메라
32: 카메라 컨트롤 유닛
33: 카메라 케이블
34: 통신로
35: 컨트롤 패널
36: HDR 컨버터
37: 서버
38: 스위처
39, 40, 42, 44, 47: 전송로
41: SDR 모니터
43: 본선 전송로
45, 48, 51, 52: 모니터
46: HDR 컨버터
49: SDR 컨버터
111: CPU
112: 촬상부
113: 프리 프로세스부
114: 전송부
121: CPU
122: 전송부
123: HDR 카메라 프로세스부
124: OETF-A 포맷터부
125: OETF-B 포맷터부
126: OOTF-C부
127: 인버스 EOTF-C 포맷터부
131: HDR 게인 조정부
132: 리니어 매트릭스부
133: 블랙 레벨부
134: 디테일부
141, 143: OOTF-A부
142: 인버스 OOTF-B부
144, 146: 디포맷터부
145, 147: 인버스 OETF-A부
311: CPU
312: 촬상부
313: 프리 프로세스부
314: 전송부
315: HDR 카메라 프로세스부
321: CPU
322: 전송부
323: HDR 카메라 프로세스부
324: SDR 카메라 프로세스부
325: 인버스 HDR 카메라 프로세스부
331: HDR 게인 조정부
332: 리니어 매트릭스부
333: 블랙 레벨부
334: 디테일부
335: OETF-A 포맷터부
341: 해상도 변환부
342: SDR 게인 조정부
343: 리니어 매트릭스부
344: 블랙 레벨부
345: 니 디테일부
346: 감마 포맷터부
351: CPU
352: 조작 입력부
361: 디포맷터부
362: 인버스 OETF부
363: 리무브 블랙 레벨부
370: 디포맷터부
371: 인버스 OETF-B부
372: OOTF-B부
373: 인버스 OOTF-A부
374: OETF-A 포맷터부
375: 디포맷터부
376: 인버스 OETF-A부
377: OOTF-A부
378: 인버스 OOTF-B부
379: OETF-B 포맷터부
380: 디포맷터부
381: EOTF-C부
382: 인버스 OOTF-A부
383: OETF-A 포맷터부
385: 디포맷터부
386: 인버스 OETF부
387: OOTF-A부
388: 인버스 EOTF-C 포맷터부
401: CPU
402: 인버스 HDR 카메라 프로세스부
403: SDR 카메라 프로세스부
421: SDR 디포맷터부
422: 인버스 OETF부
423: 리무브 블랙 레벨부
431: 해상도 변환부
432: SDR 게인 조정부
433: 리니어 매트릭스부
434: 블랙 레벨부
435: 니 디테일부
436: 감마 포맷터부
441: 시그널 프로세서
442: 카메라
443: 카메라 컨트롤 유닛
444, 447: 모니터
445: 스토리지
446: 비디오 프로세서 유닛
451: 카메라
452: 카메라 컨트롤 유닛
453, 456: 모니터
454: 스토리지
455: 비디오 프로세서 유닛
500: HDR 제작 라이브 시스템
501, 511: 카메라
502, 512: 카메라 컨트롤 유닛
521: 서버
523: 모니터
525: 스위처
527: HDR 컨버터
531: CPU
532-1, 532-2: SDI 입력부
533-1, 533-2: 엔코더
534-1, 534-2: 디코더
535-1, 535-2: OETF 변환부
536-1, 536-2: SDI 출력부
537: 스토리지
538: 통신 인터페이스
541: 기록 시 인버스 OETF부
542: 기록 시 OOTF부
543: 색역 변환부
544: 리니어 게인부
545: 출력 인버스 OOTF부
546: 출력 OETF부
550: 퍼스널 컴퓨터

Claims (17)

  1. 신호 처리 장치로서,
    입력 영상 신호를 처리하고 계조 압축 처리가 실시된 출력 영상 신호를 얻는 처리부를 구비하고,
    상기 처리부는, 복수의 신호 인터페이스에 대응하는 계조 압축 처리를 행하는 것이 가능하게 되어 있고,
    상기 처리부는,
    상기 입력 영상 신호를 처리하고 기준 신호 인터페이스의 계조 압축 처리가 실시된 제1 출력 영상 신호를 얻는 제1 처리부와,
    상기 제1 출력 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호로 변환하는 제2 처리부를 갖고,
    상기 제2 처리부는,
    상기 제1 출력 영상 신호에, 적어도 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는,
    신호 처리 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 입력 영상 신호를 얻는 촬상부를 더 구비하는,
    신호 처리 장치.
  7. 신호 처리 방법으로서,
    처리부가, 입력 영상 신호를 처리하고 계조 압축 처리가 실시된 출력 영상 신호를 얻는 처리 스텝을 갖고,
    상기 처리 스텝에서는, 복수의 신호 인터페이스의 계조 압축 처리를 행하는 것이 가능하게 되어 있고,
    상기 처리 스텝은,
    상기 입력 영상 신호를 처리하고 기준 신호 인터페이스의 계조 압축 처리가 실시된 제1 출력 영상 신호를 얻는 제1 처리 스텝과,
    상기 제1 출력 영상 신호를, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호로 변환하는 제2 처리 스텝을 갖고,
    상기 제2 처리 스텝에서는,
    상기 제1 출력 영상 신호에, 적어도 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하는,
    신호 처리 방법.
  8. 비디오 시스템으로서,
    기준 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 입력하는 복수의 입력 기기를 가지는 입력부와,
    상기 복수의 입력 기기로부터 선택적으로 입력되는 입력 영상 신호에 기초한 출력 영상 신호를 출력하는 출력부를 구비하고,
    상기 출력부는,
    상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호 외에, 적어도, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 상기 출력 영상 신호로서 출력하는 것이 가능하게 되고,
    상기 출력부는,
    상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 출력할 때, 상기 입력 영상 신호에, 적어도, 상기 기준 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스의 시스템 감마의 특성을 부가하는 처리와, 상기 다른 신호 인터페이스의 계조 압축 처리의 각 처리를 행하고, 상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 얻는,
    비디오 시스템.
  9. 제8항에 있어서,
    상기 입력부는, 카메라 시스템을 포함하고,
    상기 카메라 시스템은,
    영상 신호를 얻는 촬상부와,
    상기 촬상부에서 얻어진 영상 신호를 처리하고 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 얻는 처리부를 갖는
    비디오 시스템.
  10. 제8항에 있어서,
    상기 입력부는, 상기 기준 신호 인터페이스 이외의 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를, 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호로 변환하는 신호 변환부를 포함하고,
    상기 신호 변환부는,
    상기 다른 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호에, 적어도, 상기 다른 신호 인터페이스의 계조 압축 처리에 대응한 계조 신장 처리와, 상기 기준 신호 인터페이스가 가지는 시스템 감마의 특성을 캔슬하는 특성을 부가하는 처리와, 상기 기준 신호 인터페이스의 계조 압축 처리의 각 처리를 행하고 상기 기준 신호 인터페이스의 계조 압축 처리가 실시된 영상 신호를 얻는
    비디오 시스템.
  11. 제8항에 있어서,
    상기 입력 영상 신호는 제1 다이나믹 레인지의 영상 신호이며,
    상기 출력부는,
    상기 입력 영상 신호에 기초한 상기 제1 다이나믹 레인지의 출력 영상 신호를 출력하고, 또한 상기 제1 다이나믹 레인지보다 작은 제2 다이나믹 레인지의 출력 영상 신호를 출력하는 것이 더 가능하게 되는,
    비디오 시스템.
  12. 제11항에 있어서,
    상기 입력 영상 신호에는, 당해 입력 영상 신호의 정보와 함께, 당해 입력 영상 신호에 기초하여 작성되는 상기 제2 다이나믹 레인지의 출력 영상 신호의 정보가 부가되어 있고,
    상기 출력부는,
    상기 제2 다이나믹 레인지의 출력 영상 신호를 출력할 때, 상기 입력 영상 신호를, 당해 입력 영상 신호에 부가되어 있는 상기 정보에 기초하여 처리하고, 상기 제2 다이나믹 레인지의 출력 영상 신호를 얻는,
    비디오 시스템.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
KR1020187037512A 2016-06-27 2017-06-26 신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버 KR102299972B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2016-126933 2016-06-27
JP2016126933 2016-06-27
JP2017123489A JP6848718B2 (ja) 2016-06-27 2017-06-23 信号処理装置、信号処理方法およびビデオシステム
JPJP-P-2017-123489 2017-06-23
PCT/JP2017/023452 WO2018003757A1 (ja) 2016-06-27 2017-06-26 信号処理装置、信号処理方法、カメラシステム、ビデオシステムおよびサーバ

Publications (2)

Publication Number Publication Date
KR20190022558A KR20190022558A (ko) 2019-03-06
KR102299972B1 true KR102299972B1 (ko) 2021-09-07

Family

ID=60946667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187037512A KR102299972B1 (ko) 2016-06-27 2017-06-26 신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버

Country Status (2)

Country Link
JP (1) JP6848718B2 (ko)
KR (1) KR102299972B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11394942B2 (en) 2018-03-02 2022-07-19 Sony Corporation Video signal processing apparatus, video signal processing method, and image-capturing apparatus
JP7096731B2 (ja) * 2018-08-03 2022-07-06 日本放送協会 信号処理装置、表示装置、撮像装置及びプログラム
JP7263053B2 (ja) 2019-02-28 2023-04-24 キヤノン株式会社 撮像装置、画像処理装置、それらの制御方法、プログラム
JP7344654B2 (ja) * 2019-03-07 2023-09-14 キヤノン株式会社 撮像装置及び再生装置及びそれらの制御方法及びプログラム
KR20210099865A (ko) 2020-02-05 2021-08-13 삼성전자주식회사 이미지 센서 모듈, 그것의 영상 압축 방법 및 전자 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015115789A (ja) 2013-12-12 2015-06-22 ソニー株式会社 撮像装置、撮像信号処理回路、及び、撮像信号処理方法、並びに、表示装置、画像信号処理回路、及び、画像信号処理方法
JP2015126377A (ja) * 2013-12-26 2015-07-06 キヤノン株式会社 撮像装置および画像処理装置
WO2015198560A1 (ja) * 2014-06-27 2015-12-30 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016063475A1 (ja) * 2014-10-24 2016-04-28 パナソニックIpマネジメント株式会社 送信方法および再生装置
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015115789A (ja) 2013-12-12 2015-06-22 ソニー株式会社 撮像装置、撮像信号処理回路、及び、撮像信号処理方法、並びに、表示装置、画像信号処理回路、及び、画像信号処理方法
JP2015126377A (ja) * 2013-12-26 2015-07-06 キヤノン株式会社 撮像装置および画像処理装置
WO2015198560A1 (ja) * 2014-06-27 2015-12-30 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法

Also Published As

Publication number Publication date
KR20190022558A (ko) 2019-03-06
JP2018007246A (ja) 2018-01-11
JP6848718B2 (ja) 2021-03-24

Similar Documents

Publication Publication Date Title
KR102299972B1 (ko) 신호 처리 장치, 신호 처리 방법, 카메라 시스템, 비디오 시스템 및 서버
US11553138B2 (en) Signal processing device, signal processing method, camera system, video system, and server
CN108476326B (zh) 视频系统及方法、介质、摄像机系统和视频转换器
US8976260B2 (en) Image processing apparatus and image processing method
US10798398B2 (en) Decoding device and decoding method, encoding device, and encoding method
US8269850B2 (en) Signal processing method and signal processing system
JP6891895B2 (ja) 画像処理装置および画像処理方法
JP7047776B2 (ja) 符号化装置及び符号化方法、並びに、復号装置及び復号方法
US10726315B2 (en) Image processing device, image processing method, and program
US10009588B2 (en) Image processing apparatus and imaging apparatus
KR101686155B1 (ko) 디지털 비디오 카메라로부터 출력되는 비디오 스트림을 구성하는 방법
KR102307283B1 (ko) 화상 부호화 장치 및 방법과 화상 처리 장치 및 방법
EP2538670B1 (en) Data processing unit
US20110135199A1 (en) Coding apparatus and method for simultaneous transmission of image processing information and color information
US9894315B2 (en) Image capturing apparatus, image processing apparatus and method, image processing system, and control method for image capturing apparatus
JP6753386B2 (ja) カメラシステム、ビデオ処理方法およびプログラム
JP2005045297A (ja) カメラシステムおよびカメラ装置
JP6852821B2 (ja) カメラシステム、ビデオ処理方法、プログラム、ビデオシステムおよびビデオコンバーター
US20130100313A1 (en) Image processing device and storage medium storing image processing program
JP2006050397A (ja) 撮像装置
JP2007189561A (ja) カメラ用信号処理回路、撮像装置及び画像伝送システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant