KR102310241B1 - 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법 - Google Patents

소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법 Download PDF

Info

Publication number
KR102310241B1
KR102310241B1 KR1020150060484A KR20150060484A KR102310241B1 KR 102310241 B1 KR102310241 B1 KR 102310241B1 KR 1020150060484 A KR1020150060484 A KR 1020150060484A KR 20150060484 A KR20150060484 A KR 20150060484A KR 102310241 B1 KR102310241 B1 KR 102310241B1
Authority
KR
South Korea
Prior art keywords
scene
image quality
related data
sink device
transmitted
Prior art date
Application number
KR1020150060484A
Other languages
English (en)
Other versions
KR20160128710A (ko
Inventor
오승보
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150060484A priority Critical patent/KR102310241B1/ko
Priority to EP16163398.7A priority patent/EP3089464B1/en
Priority to PCT/KR2016/003370 priority patent/WO2016175467A1/en
Priority to CN201680024316.1A priority patent/CN107548558B/zh
Priority to US15/097,616 priority patent/US10574957B2/en
Publication of KR20160128710A publication Critical patent/KR20160128710A/ko
Priority to US16/785,291 priority patent/US11350069B2/en
Application granted granted Critical
Publication of KR102310241B1 publication Critical patent/KR102310241B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Abstract

싱크 디바이스가 개시된다. 본 싱크 디바이스는 소스 디바이스로부터 컨텐츠 및 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를 수신하는 인터페이스, 소스 디바이스로부터 수신된 화질 관련 데이터를 저장하는 저장부 및 저장된 화질 관련 데이터를 이용하여 다음에 출력될 씬에 대한 화질 개선 처리를 수행하는 프로세서를 포함한다.

Description

소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법 { SOURCE DEVICE, CONTROLLING METHOD THEREOF, SINK DEVICE AND PROCESSING METHOD FOR IMPROVING IMAGE QUALITY THEREOF }
본 발명은 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법에 관한 것으로, 더욱 상세하게는 화질 관련 데이터를 제공하고 이를 통해 화질 개선 처리를 수행하는 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법에 관한 것이다.
고품질의 영상 및 오디오를 기록 및 재생하기 위한 기록매체로 DVD, 블루레이 디스크 등이 주류를 이루고 있으며, 또한, 고화질의 영상의 디스플레이가 가능한 다양한 디스플레이 장치가 널리 보급되고 있다.
특히, 최근에는 HDR(High Dynamic Range) 영상을 처리하는 능력을 갖춘 디스플레이 장치가 등장하여, 사용자들은 높은 수준의 화질을 갖는 HDR 영상을 제공받을 수 있게 되었다.
하지만, 이러한 디스플레이 장치도 컨텐츠에 대한 여러 가지 화질 관련 파라미터를 고려하여 화질 개선 처리를 수행하지 않는다는 점에서, 컨텐츠의 원본 화질에 가깝게 영상을 출력하지 못하는 한계가 있었다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 컨텐츠에 대한 화질 관련 데이터를 한 씬 앞서 전송하여, 미리 전송된 화질 관련 데이터를 이용하여 출력될 씬을 구성하는 영상에 대한 화질 개선 처리를 수행할 수 있는 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 에에 따른 싱크 디바이스는 소스 디바이스로부터 컨텐츠 및 상기 컨텐츠를 구성하는 복수의 씬(scene) 중 상기 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를 수신하는 인터페이스, 상기 소스 디바이스로부터 수신된 화질 관련 데이터를 저장하는 저장부 및 상기 저장된 화질 관련 데이터를 이용하여 상기 다음에 출력될 씬에 대한 화질 개선 처리를 수행하는 프로세서를 포함한다.
여기에서, 상기 화질 관련 데이터는 상기 소스 디바이스에서 분할되어 상기 싱크 디바이스로 전송될 수 있다.
또한, 상기 프로세서는 상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 상기 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원할 수 있다.
한편, 상기 프로세서는 상기 소스 디바이스로부터 수신된 정보에 기초하여 씬이 전환되는 시점을 판단하고, 상기 다음 씬이 출력될 때 상기 저장된 화질 관련 데이터를 이용하여 상기 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
또한, 상기 프로세서는 상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 다음에 출력될 씬의 씬 넘버를 판단하고, 상기 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 상기 다음에 출력될 씬에 대해 상기 저장된 화질 관련 데이터가 적용 가능한 것인지를 판단할 수 있다.
그리고, 상기 인터페이스는 HDMI(high definition multimedia interface)를 통해 상기 소스 디바이스와 연결되며, 상기 화질 관련 데이터는 SPD(source product description) Infoframe에 포함되어 상기 싱크 디바이스로 전송될 수 있다.
한편, 본 발명의 일 실시 예에 따른 소스 디바이스는 싱크 디바이스와 통신을 수행하여, 컨텐츠를 상기 싱크 디바이스로 전송하는 인터페이스 및 상기 컨텐츠를 구성하는 복수의 씬 중 상기 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 상기 싱크 디바이스에서 출력되는 씬을 구성하는 컨텐츠와 함께 상기 싱크 디바이스로 전송하도록 상기 인터페이스를 제어하는 프로세서를 포함한다.
여기에서, 상기 프로세서는 상기 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 상기 싱크 디바이스로 전송할 수 있다.
또한, 상기 프로세서는 상기 화질 관련 데이터의 분할에 대한 정보, 상기 싱크 디바이스로 전송되는 씬이 전환되는 시점에 대한 정보, 상기 싱크 디바이스로 전송되는 씬에 대한 정보 및 상기 싱크 디바이스로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 상기 싱크 디바이스로 전송할 수 있다.
한편, 상기 프로세서는 상기 싱크 디바이스로부터 수신된 EDID(Extended Display Identification Data)에 기초하여 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는 경우 상기 화질 관련 정보를 상기 싱크 디바이스로 전송할 수 있다.
한편, 본 발명의 일 실시 예에 따른 싱크 디바이스의 화질 개선 처리 방법은 소스 디바이스로부터 컨텐츠 및 상기 컨텐츠를 구성하는 복수의 씬(scene) 중 상기 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를 수신하는 단계, 상기 소스 디바이스로부터 수신된 화질 관련 데이터를 저장하는 단계 및 상기 저장된 화질 관련 데이터를 이용하여 상기 다음에 출력될 씬에 대한 화질 개선 처리를 수행하는 단계를 포함한다.
여기에서, 상기 화질 관련 데이터는 상기 소스 디바이스에서 분할되어 상기 싱크 디바이스로 전송될 수 있다.
또한, 본 실시 예에 따른 화질 개선 처리 방법은 상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 상기 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원하는 단계를 더 포함할 수 있다.
한편, 상기 화질 개선 처리를 수행하는 단계는 상기 소스 디바이스로부터 수신된 정보에 기초하여 씬이 전환되는 시점을 판단하고, 상기 다음 씬이 출력될 때 상기 저장된 화질 관련 데이터를 이용하여 상기 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
또한, 본 실시 예에 따른 화질 개선 처리 방법은 상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 다음에 출력될 씬의 씬 넘버를 판단하고, 상기 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 상기 다음에 출력될 씬에 대해 상기 저장된 화질 관련 데이터가 적용 가능한 것인지를 판단하는 단계를 더 포함할 수 있다.
그리고, 상기 싱크 디바이스는 HDMI(high definition multimedia interface)를 통해 상기 소스 디바이스와 연결되며, 상기 화질 관련 데이터는 SPD(source product description) Infoframe에 포함되어 상기 싱크 디바이스로 전송될 수 있다.
한편, 본 발명의 일 실시 예에 따른 소스 디바이스의 제어 방법은 컨텐츠 및 상기 컨텐츠에 대한 화질 관련 데이터를 획득하는 단계 및 상기 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 상기 싱크 디바이스에서 출력되는 씬을 구성하는 컨텐츠와 함께 상기 싱크 디바이스로 전송하는 단계를 포함한다.
여기에서, 상기 전송하는 단계는 상기 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 상기 싱크 디바이스로 전송할 수 있다.
또한, 본 실시 예에 따른 제어 방법은 상기 화질 관련 데이터의 분할에 대한 정보, 상기 싱크 디바이스로 전송되는 씬이 전환되는 시점에 대한 정보, 상기 싱크 디바이스로 전송되는 씬에 대한 정보 및 상기 싱크 디바이스로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 상기 싱크 디바이스로 전송하는 단계를 더 포함할 수 있다.
한편, 상기 전송하는 단계는 상기 싱크 디바이스로부터 수신된 EDID(Extended Display Identification Data)에 기초하여 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는 경우 상기 화질 관련 정보를 상기 싱크 디바이스로 전송할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면 화질 개선 처리 시 컨텐츠에 대한 화질 관련 데이터가 이용될 수 있다는 점에서, 원본 컨텐츠의 화질에 최대한 가깝도록 영상을 출력할 수 있게 되어, 보다 향상된 화질을 사용자에게 제공하여 줄 수 있다.
도 1은 본 발명의 일 실시 예에 따른 화질 개선 시스템을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 소스 디바이스의 구성을 설명하기 위한 블록도들,
도 3은 본 발명의 일 실시 예에 따른 SPD Infoframe에 삽입되는 정보를 설명하기 위한 도면,
도 4는 본 발명의 일 실시 예에 따른 EDID 구조를 나타내는 도면들,
도 5는 본 발명의 일 실시 예에 따른 싱크 디바이스의 구성을 설명하기 위한 블록도들,
도 6은 본 발명의 일 실시 예에 따른 화질 개선 처리를 수행하는 방법을 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 싱크 디바이스의 화질 개선 처리 방법을 설명하기 위한 흐름도, 그리고
도 8은 본 발명의 일 실시 예에 따른 소스 디바이스의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 화질 개선 시스템을 설명하기 위한 도면이다. 도 1에 따르면, 화질 개선 시스템(1000)은 소스 디바이스(100) 및 싱크 디바이스(200)를 포함한다.
소스 디바이스(100)는 컨텐츠를 싱크 디바이스(200)로 전송한다. 즉, 소스 디바이스(100)는 컨텐츠를 싱크 디바이스(200)로 제공하는 컨텐츠 출력 장치로서의 기능을 수행할 수 있다.
이 경우, 컨텐츠는 소스 디바이스(100)에 기저장되어 있거나, 소스 디바이스(100)는 DVD, 블루레이 디스크, USB 및 외장 하드디스크 등과 같은 외부 매체로부터 컨텐츠를 제공받아 싱크 디바이스(200)로 전송할 수 있다.
또한, 소스 디바이스(100)는 방송국으로부터 제공되는 방송 신호를 수신받고 방송 신호에 포함된 컨텐츠를 싱크 디바이스(200)로 전송하거나, 인터넷을 통해 외부 서버(미도시)로부터 컨텐츠를 다운로드 또는 스트리밍받아 싱크 디바이스(200)로 제공할 수 있다.
여기에서, 컨텐츠는 HDR(High Dynamic Range)로 제작된 영화, 드라마 등의 HDR 컨텐츠로, 예를 들어, HDR 영상기술을 적용하여 제작된 UHD(Ultra High Definition) 영상 또는 S-UHD(Super Ultra High Definition) 영상과 그에 대한 오디오를 포함할 수 있다.
또한, 소스 디바이스(100)는 컨텐츠에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
구체적으로, 컨텐츠는 복수의 씬(scene)으로 구성된다는 점에서, 소스 디바이스(100)는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
여기에서, 씬은 영화 및 드라마에서 공간적, 시간적으로 연속적인 즉, 동일한 장소, 시간에서 벌어지는 일련의 액션이나 대사로 이루어진 장면을 의미한다. 즉, 여러 개의 쇼트(shot)가 모여 하나의 씬을 구성하고(경우에 따라, 하나의 쇼트가 하나의 씬을 구성할 수도 있다), 시퀀스(sequence) 중 하나의 장면이 하나의 씬이 될 수 있다.
한편, 싱크 디바이스(200)는 소스 디바이스(100)로부터 수신된 컨텐츠를 출력한다.
이 경우, 컨텐츠는 HDR 컨텐츠라는 점에서, 싱크 디바이스(200)는 HDR 컨텐츠 지원이 가능한 컨텐츠 디스플레이 장치로 구현될 수 있다. 예를 들어, 싱크 디바이스(200)는 HDR 컨텐츠의 재생이 가능한 TV, PC 등으로 구현될 수 있다.
또한, 싱크 디바이스(200)는 소스 디바이스(100)로부터 수신된 화질 관련 데이터를 이용하여, 컨텐츠에 대한 화질 개선 처리를 수행할 수 있다.
구체적으로, 소스 디바이스(100)는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송한다는 점에서, 싱크 디바이스(200)는 화질 관련 데이터를 이용하여 각 씬 별로 컨텐츠에 대한 화질 개선 처리를 수행할 수 있다.
여기에서, 화질 관련 데이터는 원본 컨텐츠 제작 시의 영상에 대한 정보를 포함한다는 점에서, 싱크 디바이스(200)가 화질 관련 데이터를 이용하여 화질 개선 처리를 수행하여 원본 화질에 최대한 가깝도록 영상을 출력할 수 있게 된다. 이에 따라, 사용자는 보다 향상된 화질의 컨텐츠를 제공받을 수 있게 된다.
이하에서는 첨부된 도면을 참조하며 각 씬 별로 화질 개선 처리를 수행하는 방법에 대해 보다 구체적으로 설명하도록 한다.
도 2a는 본 발명의 일 실시 예에 따른 소스 디바이스의 구성을 설명하기 위한 블록도이다.
도 2a를 참조하면, 소스 디바이스(100)는 인터페이스(110) 및 프로세서(120)를 포함한다.
인터페이스(110)는 싱크 디바이스(200)와 통신을 수행하여, 컨텐츠를 싱크 디바이스(200)로 전송할 수 있다. 또한, 인터페이스(110)는 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 인터페이스(110)는 HDMI(High definition Multimedia Interface) 커넥터를 통해 HDMI 방식으로 싱크 디바이스(200)와 통신을 수행하여, 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
하지만, 이는 일 예일 뿐, 인터페이스(110)는 MHL(Mobile High-Definition Link) 등과 같은 다양한 방식을 통해 싱크 디바이스(200)와 연결될 수 있다.
프로세서(120)는 소스 디바이스(100)의 전반적인 동작을 제어한다. 프로세서(120)는 마이컴(또는, 마이컴 및 CPU(central processing unit)), 소스 디바이스(100)의 동작을 위한 RAM(Random Access Memory) 및 ROM(Read Only Memory)을 포함할 수 있다.
프로세서(120)는 싱크 디바이스(200)에서 출력되는 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송하도록 인터페이스(110)를 제어할 수 있다.
구체적으로, 컨텐츠 제작자는 컨텐츠 제작 시, 컨텐츠 및 컨텐츠에 대한 메타데이터를 압축(encoding)하여 제공한다는 점에서, 프로세서(120)는 압축된 컨텐츠에 대해 압축해제(decoding)를 수행하여 압축된 컨텐츠로부터 컨텐츠 및 컨텐츠에 대한 메타데이터를 추출할 수 있다.
이 경우, 메타데이터는 컨텐츠에 대한 화질 관련 데이터를 포함할 수 있다. 구체적으로, 메타데이터는 컨텐츠를 구성하는 복수의 씬 각각에 대한 화질 관련 데이터를 포함할 수 있다.
예를 들어, 영화 컨텐츠가 100 개의 씬으로 구성되는 경우, 메타데이터는 1 번째 씬에 대한 화질 관련 데이터, 2 번째 씬에 대한 화질 관련 데이터,..., 99 번째 씬에 대한 화질 관련 데이터, 100 번째 씬에 대한 화질 관련 데이터를 포함할 수 있다.
여기에서, 화질 관련 데이터는 씬을 구성하는 영상에 대한 정보로, 화질 개선 처리에 이용될 수 있는 화질 관련 정보를 포함한다.
예를 들어, 화질 관련 데이터는 씬을 구성하는 영상의 최대 밝기, 평균 밝기, 최소 밝기, 컬러리미트리(colorimetry), 케이던스(cadence), 선명도 개선 및 노이즈 제거(noise reduction), 모션 특성, 원본 해상도 중 적어도 하나에 대한 정보를 포함할 수 있다.
이와 같이, 프로세서(120)는 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 획득하고, 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
이 경우, 프로세서(120)는 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스(200)에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 싱크 디바이스(200)에서 출력되는 씬을 구성하는 컨텐츠와 함께 싱크 디바이스(200)로 전송하도록 인터페이스(110)를 제어할 수 있다.
구체적으로, 인터페이스(110)는 HDMI 커넥터를 포함하여 싱크 디바이스(200)와 HDMI 방식으로 통신을 수행한다는 점에서, 프로세서(120)는 각 씬을 구성하는 영상 및 오디오를 HDMI 프레임으로 구성하고, HDMI 프레임들을 인터페이스(110)를 통해 순차적으로 싱크 디바이스(200)로 전송할 수 있다. 다만, 경우에 따라, HDMI 프레임에는 영상 및 오디오 중 하나가 포함되거나, 영상 및 오디오가 포함되지 않을 수도 있다.
이에 따라, 싱크 디바이스(200)는 소스 디바이스(100)로부터 수신된 HDMI 프레임으로부터 씬을 구성하는 영상 및 오디오를 획득하여, 컨텐츠를 구성하는 복수의 씬을 순차적으로 출력할 수 있다.
예를 들어, 4 번째 씬이 1000 개의 영상 프레임으로 구성되고, 5 번째 씬이 1200 개의 영상 프레임으로 구성된 경우를 가정한다.
이 경우, 프로세서(120)는 4 번째 씬을 구성하는 영상 프레임 중 1 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임, 4 번째 씬을 구성하는 영상 프레임 중 2 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임,..., 4 번째 씬을 구성하는 영상 프레임 중 1000 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임을 순차적으로 싱크 디바이스(200)로 전송할 수 있다.
이후, 프로세서(120)는 5 번째 씬을 구성하는 영상 프레임 중 1 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임, 5 번째 씬을 구성하는 영상 프레임 중 2 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임,..., 5 번째 씬을 구성하는 영상 프레임 중 1200 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임을 순차적으로 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 싱크 디바이스(200)는 소스 디바이스(100)로부터 수신된 4 번째 씬에 해당하는 HDMI 프레임으로부터 영상 및 오디오를 획득하여 4 번째 씬을 구성하는 영상 및 오디오를 출력하고, 소스 디바이스(100)로부터 수신된 5 번째 씬에 해당하는 HDMI 프레임으로부터 영상 및 오디오를 획득하여 5 번째 씬을 구성하는 영상 및 오디오를 출력할 수 있다.
이에 따라, 싱크 디바이스(200)는 4 번째 씬 및 5 번째 씬을 순차적으로 출력할 수 있다.
한편, 프로세서(120)는 싱크 디바이스(200)에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 싱크 디바이스(200)에서 출력되는 씬을 구성하는 컨텐츠와 함께 싱크 디바이스(200)로 전송할 수 있다.
즉, 프로세서(120)는 싱크 디바이스(200)로 현재 전송되는 영상 및 오디오가 속하는 씬의 다음 씬에 대한 화질 관련 데이터를, 싱크 디바이스(200)로 현재 전송되는 영상 및 오디오와 함께 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 소스 디바이스(100)가 5 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송하는 경우, 싱크 디바이스(200)는 5 번째 씬을 출력하게 된다. 이 경우, 프로세서(120)는 5 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송할 때, 6 번째 씬에 대한 화질 관련 데이터를 함께 싱크 디바이스(200)로 전송할 수 있다.
이와 같이, 프로세서(120)는 싱크 디바이스(200)에서 현재 출력되는 씬 보다 한 씬 뒤에 출력될 씬에 대한 화질 관련 데이터를 한 씬 미리 싱크 디바이스(200)로 전송할 수 있다.
이 경우, 프로세서(120)는 화질 관련 데이터를 HDMI 프레임의 SPD(Source Product Description) Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
즉, HDMI 규격에 따를 때, 소스 디바이스(100)는 SPD Infoframe를 통해 소스 디바이스(100)의 제조사, 모델명, 제품설명 등에 대한 정보를 싱크 디바이스(200)로 전송하지만, 본 발명의 일 실시 예에서는 이러한 정보 대신 씬에 대한 화질 관련 데이터가 SPD Infoframe를 통해 싱크 디바이스(200)로 전송될 수 있다. 다만, 이는 일 예일 뿐, 씬에 대한 화질 관련 데이터는 SPD Infoframe 외에도 HDMI 프레임 내의 다른 영역에 삽입되어 싱크 디바이스(200)로 전송될 수 있음은 물론이다.
예를 들어, 프로세서(120)는 5 번째 씬을 구성하는 영상 프레임 및 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 6 번째 씬에 대한 화질 관련 데이터를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
한편, 프로세서(120)는 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 싱크 디바이스(200)로 전송할 수 있다. 즉, 화질 관련 데이터는 소스 디바이스(200)에서 분할되어 싱크 디바이스(100)로 전송될 수 있다.
구체적으로, 씬에 대한 화질 관련 데이터는 SPD Infoframe에 삽입되어 싱크 디바이스(200)로 전송되는데, 하나의 HDMI 프레임의 SPD Infoframe을 통해 전송될 수 있는 화질 관련 데이터에 대한 데이터량은 한정적이다.
따라서, 프로세서(120)는 씬에 대한 화질 관련 데이터의 사이즈가 하나의 HDMI 프레임의 SPD Infoframe을 통해 전송될 수 있는 데이터량보다 큰 경우, 씬에 대한 화질 관련 데이터를 분할하고, 분할된 씬에 화질 관련 데이터를 복수의 HDMI 프레임의 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 하나의 HDMI 프레임의 SPD Infoframe을 통해 전송될 수 있는 화질 관련 데이터의 사이즈가 18 바이트이고, 6 번째 씬에 대한 화질 관련 데이터의 사이즈가 575 바이트인 경우를 가정한다.
이 경우, 프로세서(120)는 6 번째 씬에 대한 화질 관련 데이터를 18 바이트씩 분할하고, 32 개의 HDMI 프레임의 SPD Infoframe을 통해 18 바이트씩 분할된 6 번째 씬에 대한 화질 관련 데이터를 순차적으로 싱크 디바이스(200)로 전송할 수 있다.
즉, 프로세서(120)는 5 번째 씬을 구성하는 영상 프레임 중 1 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 18 바이트로 분할된 6 번째 씬에 대한 화질 관련 데이터를 삽입하고, 5 번째 씬을 구성하는 영상 프레임 중 2 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 18 바이트로 분할된 6 번째 씬에 대한 화질 관련 데이터를 삽입하고,..., 5 번째 씬을 구성하는 영상 프레임 중 31 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 18 바이트로 분할된 6 번째 씬에 대한 화질 관련 데이터를 삽입하고, 5 번째 씬을 구성하는 영상 프레임 중 32 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 17 바이트로 분할된 6 번째 씬에 대한 화질 관련 데이터를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
한편, 프로세서(120)는 씬에 대한 화질 관련 데이터 외에도 다양한 정보를 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 프로세서(120)는 화질 관련 데이터의 분할에 대한 정보, 싱크 디바이스(200)로 전송되는 씬이 전환되는 시점에 대한 정보, 싱크 디바이스(200)로 전송되는 씬에 대한 정보 및 싱크 디바이스(200)로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 싱크 디바이스(200)로 전송할 수 있다.
여기에서, 화질 관련 데이터의 분할에 대한 정보는 화질 관련 데이터가 분할된 경우, 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서에 대한 정보를 포함할 수 있다.
이에 따라, 프로세서(120)는 화질 관련 데이터가 분할된 경우, 화질 관련 데이터가 몇 개로 분할되었는지 및 분할된 화질 관련 데이터 각각이 몇 번째 순서에 해당하는지를 판단하고, 그에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
한편, 컨텐츠 제작자는 컨텐츠 제작 시, 각 씬에 대한 화질 관련 정보뿐만 아니라, 컨텐츠를 구성하는 씬에 대한 정보 가령, 컨텐츠를 구성하는 씬의 개수, 각 씬의 씬 넘버 및 각 씬의 시작시점 및 종료시점 등을 추가로 메타데이터에 삽입할 수 있다.
이에 따라, 프로세서(120)는 메타데이터로부터 획득한 정보를 이용하여 컨텐츠에서 씬이 전환되는 시점을 판단하고, 그에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 프로세서(120)는 싱크 디바이스(200)로 전송되고 있는 영상 및 오디오가 속하는 씬이 종료되고 다음 씬이 시작되는 시점을 판단하여 싱크 디바이스(200)에서 출력되는 컨텐츠의 씬이 전환되는 시점을 판단하고, 컨텐츠의 씬이 전환되는 시점을 나타내는 정보를 싱크 디바이스(200)로 전송할 수 있다.
또한, 프로세서(120)는 메타데이터로부터 획득한 정보를 이용하여 싱크 디바이스(200)로 전송되는 씬을 판단하고, 그에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 프로세서(120)는 싱크 디바이스(200)로 전송되고 있는 영상 및 오디오가 속하는 씬의 씬 넘버를 판단하고, 해당 씬의 씬 넘버에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
한편, 싱크 디바이스(200)로 전송되는 화질 관련 데이터에 대한 정보는 화질 관련 데이터와 매칭되는 씬의 씬 넘버일 수 있다.
즉, 메타데이터는 각 씬에 대한 화질 관련 데이터를 포함한다는 점에서, 프로세서(120)는 화질 관련 데이터 각각에 매칭되는 씬의 씬 넘버를 판단하고, 그에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
이 경우, 프로세서(120)는 화질 관련 정보뿐만 아니라 다른 정보들도 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 6 번째 씬에 대한 화질 관련 데이터가 32 개로 분할되어 SPD Infoframe를 통해 싱크 디바이스(200)로 전송되는 경우를 가정한다.
이 경우, 프로세서(120)는 5 번째 씬에 대한 영상 및 오디오를 싱크 디바이스(200)로 전송할 때, 5 번째 씬에 대한 영상 프레임 및 오디오 신호를 포함하는 32 개의 HDMI 프레임의 SPD Infoframe에 32 개로 분할된 6 번째 씬에 대한 화질 관련 데이터를 삽입하여 순차적으로 싱크 디바이스(200)로 전송할 수 있다.
이때, 프로세서(120)는 6 번째 씬에 대한 화질 관련 데이터가 32 개로 분할되었다는 정보, 각 HDMI 프레임의 SPD Infoframe에 삽입된 6 번째 씬에 대한 화질 관련 데이터가 32 개 중에서 몇 번째 순서에 해당하는지를 나타내는 정보, HDMI 프레임에 포함된 영상 프레임 및 오디오 신호가 5 번째 씬을 구성한다는 정보 및 화질 관련 데이터는 6 번째 씬과 관련된 화질 관련 데이터임을 나타내는 정보를 32 개의 HDMI 프레임의 SPD Infoframe 각각에 삽입할 수 있다.
한편, 씬이 전환되는 시점에 대한 정보의 경우, 프로세서(120)는 씬이 전환되어 싱크 디바이스(200)로 최초로 전송되는 HDMI 프레임의 SPD Infoframe에 씬이 전환되었음을 나타내는 정보를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
상술한 예에서, 프로세서(120)는 5 번째 씬을 구성하는 1 번째 영상 프레임 및 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 씬이 전환되었음을 나타내는 정보를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
이와 같이, 프로세서(120)는 씬이 전환되어 새로운 씬이 싱크 디바이스(200)에서 출력될 때, 새로운 씬의 출력을 위해 싱크 디바이스(200)로 최초로 전송되는 HDMI 프레임의 SPD Infoframe에 씬이 전환되었음을 나타내는 정보를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
한편, 씬의 재생시간이 짧은 씬의 경우, 하나의 씬을 구성하는 컨텐츠를 싱크 디바이스(200)로 전송하는 동안, 다음 씬에 대한 화질 관련 데이터를 전송할 수 없을 수 있다.
이 경우, 프로세서(120)는 다음 씬에 대한 화질 관련 데이터를 전송하지 않거나, 다음 씬에 대한 화질 관련 데이터 중 전송 가능한 일부의 데이터만을 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 프로세서(120)는 다음 씬에 대한 화질 관련 데이터 중 컨텐츠가 전송되는 동안 전송 가능한 만큼의 사이즈를 가진 데이터만을 싱크 디바이스(200)로 전송할 수 있다.
구체적으로, 프로세서(120)는 하나의 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송할 때 요구되는 HDMI 프레임을 통해 다음 씬에 대한 화질 관련 데이터를 구성하는 정보 중 영상의 최대 밝기와 관련된 정보만의 전송이 가능한 경우, 다음 씬을 구성하는 영상의 최대 밝기와 관련된 정보만을 씬을 구성하는 영상 및 오디오와 함께 싱크 디바이스(200)로 전송할 수 있다.
다른 예로, 프로세서(120)는 싱크 디바이스(200)에서 화질 관련 데이터를 이용하여 컨텐츠에 대한 화질 개선 처리를 수행할 때, 화질 개선 처리에 중요하게 이용되는 정보 즉, 화질 개선에 많은 영향을 주는 정보만을 싱크 디바이스(200)로 전송할 수 있다.
구체적으로, 프로세서(120)는 화질 관련 데이터를 구성하는 정보 중 영상의 컬러리미트리가 화질 개선 처리에 영향을 많이 주는 경우, 다음 씬을 구성하는 영상의 컬러리미트리에 대한 정보만을 씬을 구성하는 영상 및 오디오와 함께 싱크 디바이스(200)로 전송할 수 있다.
또는, 프로세서(120)는 재생시간이 짧은 씬이 출력되기 이전에, 재생시간이 짧은 씬의 다음 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수도 있다.
예를 들어, 7 번째 씬의 재생시간이 짧아, 7 번째 씬을 구성하는 컨텐츠를 전송하는 동안 8 번째 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 없는 경우를 가정한다.
이 경우, 프로세서(120)는 6 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송하는 동안 8 번째 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다. 즉, 프로세서(120)는 6 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송하는 동안, 7 번째 씬에 대한 화질 관련 데이터를 전송하고 7 번째 씬에 대한 화질 관련 데이터의 전송이 완료되면 8 번째 씬에 대한 화질 관련 데이터를 전송할 수 있다.
한편, 프로세서(120)는 컨텐츠에 재생시간이 짧은 씬이 존재하는 경우, 그에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
구체적으로, 프로세서(120)는 메타데이터로부터 컨텐츠를 구성하는 씬에 대한 정보를 획득하여 각 씬의 재생시간을 판단하고, 씬 별 화질 관련 데이터의 사이즈를 판단하여, 재생시간이 짧아 화질 관련 데이터를 전송할 수 없는 씬이 존재하는지를 판단한다.
그리고, 프로세서(120)는 재생시간이 짧은 씬이 존재하는 경우, 재생시간이 짧은 씬 이전의 씬을 구성하는 컨텐츠를 싱크 디바이스(200)로 전송할 때, 해당 씬 이후에 나오는 재생시간이 짧은 씬의 개수에 대한 정보를 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 7 번째 씬 및 8 번째 씬의 재생시간이 짧은 경우를 가정한다.
이 경우, 프로세서(120)는 6 번째 씬 이후의 연속된 2 개의 씬의 재생시간이 짧다는 점에서, 6 번째 씬을 구성하는 영상 및 오디오를 포함하는 HDMI 프레임을 싱크 디바이스(200)로 전송할 때 6 번째 씬 이후 재생시간이 짧은 2 개의 씬이 존재한다는 정보를 HDMI 프레임의 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
한편, 프로세서(120)는 싱크 디바이스(200)에서 씬이 출력되는 동안 다음 씬에 대한 화질 관련 데이터를 모두 전송한 경우, 화질 관련 데이터를 재차 전송하지 않고, HDMI 규격에 따라 소스 디바이스(100)의 제조사, 모델명, 제품설명 등에 대한 정보를 SPD Infoframe을 통해 싱크 디바이스(200)로 전송할 수 있다.
상술한 예에서, 프로세서(120)는 32 개의 HDMI 프레임을 싱크 디바이스(200)로 전송하는 동안 6 번째 씬에 대한 화질 관련 데이터를 모두 싱크 디바이스(200)로 전송하였다는 점에서, 33 번째 HDMI 프레임부터 1200 번째 HDMI 프레임까지의 SPD Infoframe에는 소스 디바이스(100)의 제조사, 모델명, 제품설명 등에 대한 정보를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
이하에서는 도 3을 참조하여 SPD Infoframe에 대해 보다 구체적으로 설명하도록 한다.
도 3은 본 발명의 일 실시 예에 따른 SPD Infoframe에 삽입되는 정보를 설명하기 위한 도면이다.
도 3을 참조하면, SPD Infoframe은 헤더와 데이터 영역으로 나뉜다.
먼저, 헤더는 scene transition flag, null metadata scene, metadata present, UHD version 및 metadata packet size를 포함한다.
이 경우, scene transition flag, null metadata scene, metadata present 및 UHD version은 SPD Infoframe의 Data byte 1에 삽입되며, metadata packet size은 SPD Infoframe의 Data byte 2에 삽입될 수 있다.
scene transition flag은 하나의 비트로 구성되며, 씬이 전환되는 시점에 대한 정보를 포함한다.
구체적으로, 하기의 표 1과 같이, 씬이 전환되어 새로운 씬이 시작되는 시점에 싱크 디바이스(200)로 전송되는 HDMI 프레임 즉, 새로운 씬의 1 번째 영상 프레임을 포함하는 HDMI 프레임의 SPD Infoframe에서 scene transition flag는 1로 설정되어, 해당 HDMI 프레임부터 씬이 전환되어 새로운 씬이 시작됨을 나타낼 수 있다. 그리고, 해당 씬의 나머지 HDMI 프레임의 SPD Infoframe에서 scene transition flag는 0으로 설정될 수 있다.
scene transition flag
0 No scene transition
1 Scene transition
이에 따라, 소스 디바이스(100)는 scene transition flag을 통해 씬이 전환되는 시점에 대한 정보를 싱크 디바이스(200)로 제공하게 되며, 싱크 디바이스(200)는 scene transition flag을 이용하여 씬이 전환되는 시점을 판단할 수 있게 된다.
null metadata scene은 적어도 하나의 비트로 구성되어, 재생시간이 짧은 씬에 대한 정보를 포함한다.
구체적으로, 싱크 디바이스(200)로 전송되는 씬 다음에 재생시간이 짧은 씬이 존재하는 경우, null metadata scene에는 재생시간이 짧은 씬의 개수에 대한 정보가 포함될 수 있다. 경우에 따라, 재생시간이 짧은 씬에 대한 정보를 나타내기 위해 헤더에 존재하는 reseved bit가 추가로 이용될 수도 있다.
예를 들어, 싱크 디바이스(200)로 전송되는 씬 다음에 연속적으로 2 개의 씬의 재생시간이 짧은 경우, null metadata scene=10으로 설정되어, 싱크 디바이스(200)로 전송되는 씬 이후 재생되는 2 개의 씬의 재생시간이 짧다는 정보를 싱크 디바이스(200)로 제공할 수 있다.
metadata present는 하나의 비트로 구성되어, SPD Infoframe에 화질 관련 데이터가 포함되어 있는지에 대한 정보를 포함한다.
구체적으로, 하기의 표 2와 같이 HDMI 프레임의 SPD Infoframe이 화질 관련 데이터를 포함하고 있는 경우 metadata present는 1로 설정되고, HDMI 프레임의 SPD Infoframe이 화질 관련 데이터를 포함하고 있지 않은 경우 metadata present는 0으로 설정될 수 있다.
metadata present
0 No metadata
1 metadata present
이에 따라, 소스 디바이스(100)는 metadata present를 통해 SPD Infoframe에 화질 관련 데이터가 포함되어 있는지에 대한 정보를 싱크 디바이스(200)로 제공하게 되며, 싱크 디바이스(200)는 metadata present를 이용하여 소스 디바이스(100)에서 전송되고 있는 SPD Infoframe에 삽입된 데이터가 화질 관련 데이터로서 유효한지를 판단하게 된다.
이와 같이, metadata present는 SPD Infoframe에 화질 관련 데이터가 포함되어 있는지 여부를 나타내는 용도로 이용된다.
따라서, 싱크 디바이스(200)에서 씬이 출력되는 동안 다음 씬에 대한 화질 관련 데이터를 모두 전송한 경우, 싱크 디바이스(200)에서 출력되는 씬이 다음 씬으로 전환되기 전까지 metadata present는 0으로 설정될 수 있다.
즉, 씬이 전환되는 시점에 싱크 디바이스(200)로 최초로 전송되는 HDMI 프레임부터 다음 씬에 대한 화질 관련 데이터가 삽입되어 싱크 디바이스(200)로 전송된다는 점에서, 다음 씬에 대한 화질 관련 데이터가 모두 전송되고 새로운 씬으로 전환되기 전까지는 SPD Infoframe을 통해 화질 관련 데이터가 싱크 디바이스(200)로 전송되지 않는다. 따라서, 다음 씬에 대한 화질 관련 데이터가 모두 전송되고 새로운 씬으로 전환되기 전까지 metadata present는 널 데이터 값 즉, 0으로 설정될 수 있다.
UHD version은 UHD 버전에 대한 정보를 포함한다. 이 경우, UHD version은 2 비트를 통해 UHD 버전에 대한 정보를 나타낼 수 있다. 다만, 추후 업데이트 등으로 UHD 버전이 변경되는 경우, 헤더에 존재하는 reseved bit가 UDH 버전에 대한 정보를 나타내기 위해 이용될 수도 있다.
metadata packet size는 화질 관련 데이터가 분할된 경우, 화질 관련 데이터가 분할된 개수에 대한 정보를 포함한다.
구체적으로, 화질 관련 데이터가 분할된 경우, 분할된 화질 관련 데이터 각각이 패킷을 구성하여 싱크 디바이스(200)로 전송된다는 점에서, metadata packet size는 분할된 화질 관련 데이터가 몇 개의 패킷으로 이루어졌는지에 대한 정보를 포함할 수 있다. 상술한 예와 같이, 6 번째 씬에 대한 화질 관련 데이터가 32 개로 분할된 경우, metadata packet size=00100000로 설정되어, 6 번째 씬에 대한 화질 관련 데이터가 32 개로 분할되었음을 나타낼 수 있다.
이에 따라, 소스 디바이스(100)는 metadata packet size를 통해 화질 관련 데이터가 분할된 개수에 대한 정보를 싱크 디바이스(200)로 제공하게 되며, 싱크 디바이스(200)는 metadata packet size를 이용하여 화질 관련 데이터의 사이즈를 판단하고, 싱크 디바이스(200)로부터 분할된 화질 관련 데이터가 모두 수신되었는지를 판단할 수 있게 된다.
데이터 영역은 UHD metadata byte, scene number, metadata scene number 및 metadata divide number를 포함한다.
UHD metadata byte는 씬에 대한 화질 관련 데이터 즉, 싱크 디바이스(200)로 전송되는 씬의 다음 씬에 대한 화질 관련 데이터이며, SPD Infoframe의 Data byte 3 ~ Data byte 20에 삽입될 수 있다.
scene number는 싱크 디바이스(200)로 전송되는 컨텐츠의 씬에 대한 정보를 포함한다.
구체적으로, scene number는 싱크 디바이스(200)로 전송되고 있는 씬이 몇 번째 씬에 속하는지에 대한 정보 가령, 싱크 디바이스(200)로 전송되고 있는 씬의 씬 넘버를 포함하며, Data byte 21에 삽입될 수 있다.
예를 들어, 싱크 디바이스(200)로 전송되고 있는 HDMI 프레임에 포함된 영상 및 오디오가 5 번째 씬에 속하는 경우, scene number=00000101로 설정되어 싱크 디바이스(200)로 전송되고 있는 영상 및 오디오는 5 번째 씬에 해당한다는 정보가 포함될 수 있다. 즉, scene number에는 싱크 디바이스(200)로 전송되고 있는 영상 및 오디오가 속하는 씬의 씬 넘버가 포함될 수 있다.
이에 따라, 싱크 디바이스(200)는 scene number를 이용하여 소스 디바이스(100)에서 전송되고 있는 씬이 몇 번째 씬에 해당하는지를 판단할 수 있게 된다.
metadata scene number는 싱크 디바이스(200)로 전송되는 화질 관련 데이터에 대한 정보를 포함한다.
구체적으로, metadata scene number는 싱크 디바이스(200)로 전송되고 화질 관련 데이터가 몇 번째 씬과 관련된 것인지에 대한 정보를 포함하며, Data byte 22에 삽입될 수 있다.
예를 들어, 싱크 디바이스(200)로 전송되고 있는 HDMI 프레임의 SPD Infoframe에 포함된 화질 관련 데이터가 6 번째 씬과 관련된 경우, metadata scene number=00000110로 설정되어 싱크 디바이스(200)로 전송되고 있는 화질 관련 데이터는 6 번째 씬에 해당한다는 정보가 포함될 수 있다. 즉, metadata scene number에는 싱크 디바이스(200)로 전송되고 있는 화질 관련 데이터와 관련되는 씬의 씬 넘버가 포함될 수 있다.
이에 따라, 싱크 디바이스(200)는 metadata scene number를 이용하여 소스 디바이스(100)에서 전송되고 있는 화질 관련 데이터가 몇 번째 씬과 매칭되는 화질 관련 데이터인지를 판단할 수 있게 된다.
metadata divide number는 화질 관련 데이터가 분할된 경우, 분할된 화질 관련 데이터가 몇 번째에 해당하는지에 대한 정보를 포함한다. 이 경우, metadata divide number는 Data byte 23에 삽입될 수 있다.
상술한 예와 같이, 6 번째 씬에 대한 화질 관련 데이터가 32 개로 분할된 경우를 가정한다.
이 경우, metadata divide number에는 각 HDMI 프레임의 SPD Infoframe에 삽입된 6 번째 씬에 대한 화질 관련 데이터가 32 개 중 몇 번째 순서를 갖는 화질 관련 데이터인지를 나타내는 정보가 포함될 수 있다.
예를 들어, 소스 디바이스(100)는 화질 관련 데이터를 분할하고, 분할된 화질 관련 데이터를 순차적으로 HDMI 프레임의 SPD Infoframe에는 삽입하여 싱크 디바이스(200)로 전송하게 된다.
따라서, 5 번째 씬을 구성하는 영상 프레임 중 2 번째 영상 프레임과 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에는 분할된 6 번째 씬에 대한 화질 관련 데이터 중 2 번째 순서를 갖는 화질 관련 데이터가 삽입되므로, SPD Infoframe의 metadata divide number에는 분할된 6 번째 씬에 대한 화질 관련 데이터가 2 번째 순서에 해당한다는 정보가 포함될 수 있다.
이에 따라, 싱크 디바이스(200)는 metadata divide number를 이용하여 분할되어 전송되는 화질 관련 데이터의 순서를 판단하고, 그에 기초하여 화질 관련 데이터를 복구할 수 있다.
도 2a로 돌아와서, 프로세서(120)는 싱크 디바이스(200)로부터 수신된 EDID(Extended Display Identification Data)에 기초하여 싱크 디바이스(200)가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 싱크 디바이스(200)가 화질 개선 처리를 수행할 수 있는 경우 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
구체적으로, 소스 디바이스(100)는 싱크 디바이스(200)가 HDMI 방식으로 연결되면, DDC 통신 라인을 통해 싱크 디바이스(200)에 액세스하여 화질 개선 처리를 수행할 수 있는지에 대한 정보를 포함하는 EDID를 소스 디바이스(100)로부터 수신할 수 있다.
이에 따라, 프로세서(120)는 싱크 디바이스(200)로부터 수신된 EDID를 이용하여 싱크 디바이스(200)가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 싱크 디바이스(200)가 화질 개선 처리를 수행할 수 있는 경우 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
다만, 프로세서(120)는 싱크 디바이스(200)가 화질 개선 처리를 수행할 수 없는 경우 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송하지 않는다. 이 경우, 프로세서(120)는 HDMI 규격에서 정의된 바와 같이, SPD Infoframe를 통해 소스 디바이스(100)의 제조사, 모델명, 제품설명 등에 대한 정보를 싱크 디바이스(200)로 전송하게 된다.
도 4는 본 발명의 일 실시 예에 따른 EDID 구조를 나타내는 도면들이다.
싱크 디바이스(200)는 UHD 영상에 대한 화질 개선 처리를 수행할 수 있는 경우, UHD 영상에 대한 화질 개선 처리가 가능하다는 정보 및 화질 개선 처리와 관련된 버전 정보가 포함된 EDID를 기저장하고 있을 수 있다.
즉, 싱크 디바이스(200)의 제조사는 제조사를 나타내는 생산자 아이디, 제품의 모델명을 나타내는 제조 아이디 및 싱크 디바이스(200)의 영상 및 오디오 출력 규격 등에 대한 정보뿐만 아니라, 화질 개선 처리와 관련된 정보를 EDID에 삽입한 후, 이를 싱크 디바이스(200)에 마련된 저장매체(가령, EEPROM)에 저장할 수 있다.
예를 들어, 도 4a 및 도 4b와 같이 UHD 영상에 대한 화질 개선 처리가 가능하다는 정보 및 화질 개선 처리와 관련된 버전에 대한 정보는 EDID의 [0ch] ID serial number에 삽입될 수 있다.
구체적으로, 싱크 디바이스(200)가 UHD 영상에 대한 화질 개선 처리를 수행할 수 있는 경우 ID serial number의 UHD에 포함된 비트는 1이 되고, UHD 영상에 대한 화질 개선 처리를 수행할 수 없는 경우 ID serial number의 UHD에 포함된 비트는 0이 될 수 있다.
또한, ID serial number의 UHD version에는 싱크 디바이스(200)에서 수행되는 UHD 영상에 대한 화질 개선 처리 기능의 버전 정보가 포함될 수 있다.
한편, 싱크 디바이스(200)는 소스 디바이스(100)가 HDMI 방식으로 연결되면, 자신의 EDID를 소스 디바이스(100)로 전송할 수 있다.
이에 따라, 프로세서(120)는 싱크 디바이스(200)로부터 수신된 EDID에 포함된 정보를 이용하여 싱크 디바이스(200)가 UHD 영상에 대한 화질 개선 처리를 수행할 수 있는지 및 그에 대한 버전 정보를 판단할 수 있다.
그리고, 프로세서(120)는 싱크 디바이스(200)가 UHD 영상에 대한 화질 개선 처리가 가능한 경우 HDMI 프레임의 SPD Infoframe에 화질 관련 데이터를 삽입하여 싱크 디바이스(200)로 전송할 수 있다. 다만, 프로세서(120)는 싱크 디바이스(200)가 UHD 영상에 대한 화질 개선 처리를 수행할 수 없는 경우, HDMI 규격에 따라 HDMI 프레임의 SPD Infoframe에 소스 디바이스(100)의 제조사, 모델명, 제품설명 등에 대한 정보를 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
도 2b는 본 발명의 일 실시 예에 따른 소스 디바이스의 세부구성을 설명하기 위한 블록도이다.
도 2b를 참조하면, 소스 디바이스(100)는 인터페이스(110) 및 프로세서(120) 외에 컨텐츠 수신부(130) 및 저장부(140)를 더 포함할 수 있으며, 이들의 동작은 프로세서(120)에 의해 제어될 수 있다. 한편, 인터페이스(110) 및 프로세서(120)에 대해서는 도 2a에서 설명한바 있다는 점에서, 이에 대한 구체적인 설명은 생략하도록 한다.
컨텐츠 수신부(130)는 싱크 디바이스(200)로 전송되는 컨텐츠를 입력받는다.
예를 들어, 컨텐츠 수신부(130)는 DVD, 블루레이 디스크 등과 같은 광 디스크로부터 컨텐츠를 입력받거나, USB 및 외장 하드디스크 등과 같은 외부 매체에 연결되어 컨텐츠를 입력받을 수 있다.
또한, 컨텐츠 수신부(130)는 튜너(미도시) 등으로 구현되어 방송국으로부터 컨텐츠를 포함하는 방송 신호를 수신받거나, 인터넷 등에 연결되어 외부 서버(미도시)로부터 컨텐츠를 다운로드 또는 스트리밍받을 수 있다.
저장부(140)는 컨텐츠를 저장한다. 예를 들어, 저장부(140)는 ROM, EEPROM, 하드디스크 등 다양한 유형의 저장매체로 구현되어, 싱크 디바이스(200)로 전송되는 컨텐츠를 기저장하고 있을 수 있다.
이에 따라, 프로세서(120)는 컨텐츠 수신부(130)을 통해 입력받은 컨텐츠 또는 저장부(140)에 저장된 컨텐츠를 싱크 디바이스(200)로 전송할 수 있으며, 컨텐츠와 함께 컨텐츠을 구성하는 각 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)에서 출력되는 씬 보다 한 씬 앞서 싱크 디바이스(200)로 전송할 수 있다.
도 5a는 본 발명의 일 실시 예에 따른 싱크 디바이스의 구성을 설명하기 위한 블록도이다.
도 5a에 따르면, 싱크 디바이스(200)는 인터페이스(210), 저장부(220) 및 프로세서(230)를 포함한다.
인터페이스(210)는 소스 디바이스(100)로부터 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 수신한다. 특히, 인터페이스(210)는 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스(200)에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 메타데이터를 수신한다.
이를 위해, 인터페이스(210)는 소스 디바이스(100)와 통신을 수행할 수 있다. 예를 들어, 인터페이스(210)는 HDMI 커넥터를 통해 HDMI 방식으로 소스 디바이스(100)와 통신을 수행하여, 컨텐츠 및 컨텐츠를 구성하는 각 씬에 대한 화질 관련 데이터를 수신할 수 있다.
하지만, 이는 일 예일 뿐, 인터페이스(210)는 MHL(Mobile High-Definition Link) 등과 같은 다양한 방식을 통해 소스 디바이스(100)와 연결될 수 있다.
저장부(220)는 소스 디바이스(100)로부터 수신된 화질 관련 데이터를 저장한다. 여기에서, 화질 관련 데이터는 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스(200)에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터일 수 있다.
또한, 저장부(220)는 EDID를 기저장하고 있을 수 있다.
이 경우, EDID는 싱크 디바이스(200)가 영상에 대한 화질 개선 처리를 수행할 수 있는 경우, 영상에 대한 화질 개선 처리가 가능하다는 정보 및 화질 개선 처리와 관련된 버전 정보를 포함할 수 있다. 즉, EDID는 제조사를 나타내는 생산자 아이디, 제품의 모델명을 나타내는 제조 아이디 및 싱크 디바이스(200)의 영상 및 오디오 출력 규격 등에 대한 정보뿐만 아니라, 화질 개선 처리와 관련된 정보를 포함할 수 있다.
이를 위해, 저장부(220)는 ROM, EEPROM, 하드디스크 등 다양한 형태의 저장매체로 구현될 수 있다.
프로세서(230)는 싱크 디바이스(200)의 전반적인 동작을 제어한다. 프로세서(230)는 마이컴(또는, 마이컴 및 CPU), 싱크 디바이스(200)의 동작을 위한 RAM 및 ROM을 포함할 수 있다.
프로세서(230)는 소스 디바이스(100)로부터 수신되는 컨텐츠를 출력할 수 있다.
이 경우, 컨텐츠는 복수의 씬으로 구성되고, 소스 디바이스(100)는 각 씬을 구성하는 영상 및 오디오를 HDMI 프레임으로 구성하고, HDMI 프레임들을 순차적으로 싱크 디바이스(200)로 전송한다.
이에 따라, 프로세서(230)는 인터페이스(210)를 통해 수신된 HDMI 프레임들로부터 각 씬을 구성하는 영상 및 오디오를 획득하여, 컨텐츠를 구성하는 복수의 씬 각각을 싱크 디바이스(200)에 구비된 디스플레이(미도시) 및 오디오 출력부(미도시)를 통해 순차적으로 출력할 수 있다.
예를 들어, 프로세서(230)는 4 번째 씬에 해당하는 HDMI 프레임으로부터 영상 및 오디오를 획득하여 4 번째 씬을 구성하는 영상 및 오디오를 출력하고, 5 번째 씬에 해당하는 HDMI 프레임으로부터 영상 및 오디오를 획득하여 5 번째 씬을 구성하는 영상 및 오디오를 출력할 수 있다.
이에 따라, 프로세서(230)는 4 번째 씬 및 5 번째 씬을 순차적으로 출력할 수 있다.
한편, 소스 디바이스(100)는 싱크 디바이스(200)에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 싱크 디바이스(200)에서 출력되는 씬을 구성하는 컨텐츠와 함께 싱크 디바이스(200)로 전송할 수 있다.
즉, 소스 디바이스(100)는 싱크 디바이스(200)로 현재 전송되는 영상 및 오디오가 속하는 씬의 다음 씬에 대한 화질 관련 데이터를, 싱크 디바이스(200)로 현재 전송되는 영상 및 오디오와 함께 싱크 디바이스(200)로 전송할 수 있다.
예를 들어, 소스 디바이스(100)가 5 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송하는 경우, 싱크 디바이스(200)는 5 번째 씬을 출력하게 된다. 이 경우, 소스 디바이스(100)는 5 번째 씬을 구성하는 영상 및 오디오를 싱크 디바이스(200)로 전송할 때, 6 번째 씬에 대한 화질 관련 데이터를 함께 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 프로세서(230)는 컨텐츠의 씬을 출력하는 동시에, 현재 출력되고 있는 씬의 다음에 출력될 씬에 대한 화질 관련 데이터를 저장부(220)에 저장하도록 제어할 수 있다.
즉, 프로세서(230)는 소스 디바이스(100)로부터 수신된 영상 및 오디오를 출력하고, 영상 및 오디오와 함께 소스 디바이스(100)로부터 수신된 화질 관련 데이터 즉, 소스 디바이스(100)로부터 수신되고 있는 영상 및 오디오가 속하는 씬의 다음 씬에 대한 화질 관련 데이터를 저장부(220)에 저장할 수 있다.
상술한 예에서, 프로세서(230)는 5 번째 씬을 구성하는 영상 및 오디오를 출력하고, 5 번째 씬을 구성하는 영상 및 오디오를 출력하는 동안 6 번째 씬에 대한 화질 관련 데이터를 저장부(220)에 저장할 수 있다.
이와 같이, 프로세서(230)는 싱크 디바이스(200)에서 현재 출력되는 씬 보다 한 씬 뒤에 출력될 씬에 대한 화질 관련 데이터를 저장할 수 있다. 즉, 화질 관련 데이터는 싱크 디바이스(200)의 출력보다 한 씬 미리 소스 디바이스(100)로부터 수신되어 싱크 디바이스(200)에 저장될 수 있다.
한편, 소스 디바이스(100)는 화질 관련 데이터를 HDMI 프레임의 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다. 이에 따라, 프로세서(230)는 HDMI 프레임의 SPD Infoframe로부터 화질 관련 데이터를 획득할 수 있다. 다만, 이는 일 예일 뿐, 씬에 대한 화질 관련 데이터는 SPD Infoframe 외에도 HDMI 프레임 내의 다른 영역에 삽입되어 싱크 디바이스(200)로 전송될 수 있음은 물론이다.
상술한 예에서, 소스 디바이스(100)는 5 번째 씬을 구성하는 영상 프레임 및 오디오 신호를 포함하는 HDMI 프레임의 SPD Infoframe에 6 번째 씬에 대한 화질 관련 데이터를 삽입하여 싱크 디바이스(200)로 전송할 수 있다. 이에 따라, 프로세서(230)는 5 번째 씬에 대한 HDMI 프레임으로부터 6 번째 씬에 대한 화질 관련 데이터를 획득하여 저장부(220)에 저장할 수 있다.
또한, 소스 디바이스(100)는 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 싱크 디바이스(200)로 전송할 수 있다.
즉, 소스 디바이스(100)는 씬에 대한 화질 관련 데이터를 분할하고, 분할된 씬에 화질 관련 데이터를 복수의 HDMI 프레임의 SPD Infoframe에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
이와 같이, 화질 관련 데이터가 분할되어 전송되는 경우, 프로세서(230)는 분할된 화질 관련 데이터를 누적하여 분할되기 전의 화질 관련 데이터를 생성하고, 이를 저장부(220)에 저장할 수 있다.
상술한 예와 같이, 소스 디바이스(100)가 6 번째 씬에 대한 화질 관련 데이터를 32 개로 분할하여 32 개의 HDMI 프레임의 SPD Infoframe을 통해 싱크 디바이스(200)로 순차적으로 전송한 경우를 가정한다.
이 경우, 프로세서(230)는 32 개의 HDMI 프레임의 SPD Infoframe 각각으로부터 분할된 6 번째 씬에 대한 화질 관련 데이터를 획득하고 이들을 누적하여, 분할되기 전의 6 번째 씬에 대한 화질 관련 데이터를 생성할 수 있다.
이때, 프로세서(230)는 HDMI 프레임이 수신된 순서에 따라, 각 HDMI 프레임으로부터 획득된 화질 관련 데이터를 누적할 수 있다.
즉, 프로세서(230)는 씬을 구성하는 영상 프레임 중 1 번째 영상 프레임과 오디오 신호를 포함하는 HMDI 프레임의 SPD Infoframe로부터 획득한 화질 관련 데이터, 씬을 구성하는 영상 프레임 중 2 번째 영상 프레임과 오디오 신호를 포함하는 HMDI 프레임의 SPD Infoframe로부터 획득한 화질 관련 데이터,..., 씬을 구성하는 영상 프레임 중 32 번째 영상 프레임과 오디오 신호를 포함하는 HMDI 프레임의 SPD Infoframe로부터 획득한 화질 관련 데이터를 차례로 누적하여 분할되기 전의 6 번째 씬에 대한 화질 관련 데이터를 생성할 수 있다.
한편, 프로세서(230)는 저장된 화질 관련 데이터를 이용하여 다음에 재생될 씬에 대한 화질 개선 처리를 수행할 수 있다.
즉, 저장부(220)에는 싱크 디바이스(200)에서 현재 출력되는 씬이 아닌, 현재 출력되고 있는 씬 다음에 출력될 씬에 대한 정보가 저장된다는 점에서, 프로세서(230)는 현재 출력되는 씬의 출력이 완료되고 다음 씬을 출력할 때 저장부(220)에 저장된 화질 관련 데이터를 이용하여 다음 씬을 구성하는 영상에 대한 화질 개선 처리를 수행하고, 화질 개선 처리가 된 영상을 출력할 수 있다.
예를 들어, 프로세서(230)는 화질 관련 데이터에 포함된 영상의 최대 밝기에 대한 정보를 이용하여, 다음 씬을 구성하는 영상에 대한 화질 개선 처리를 수행할 수 있다.
구체적인 예로, 화질 관련 데이터에 포함된 영상의 최대 밝기가 2000 nit(nit: 평방미터당 밝기 (cd/m2))이고, 싱크 디바이스(200)가 출력할 수 있는 최대 밝기는 1000 nit인 경우를 가정한다. 여기에서, 화질 관련 데이터에 포함된 영상의 최대 밝기는 싱크 디바이스(200)에서 출력되고 있는 씬의 다음 씬을 구성하는 영상의 최대 밝기로, 저장부(220)에 저장되어 있을 수 있다.
이 경우, 프로세서(230)는 싱크 디바이스(200)가 출력할 수 있는 밝기 및 다음 씬을 구성하는 영상의 최대 밝기에 기초하여, 다음 씬을 구성하는 영상에 대한 밝기를 조절할 수 있다.
구체적으로, 화질 관련 데이터에 포함된 영상의 최대 밝기가 2000 nit이고, 싱크 디바이스(200)가 출력할 수 있는 최대 밝기가 1000 nit라는 점에서, 프로세서(230)는 다음 씬을 구성하는 영상 프레임들의 밝기를 50%만큼 감소시켜, 다음 씬에 대한 영상을 출력할 수 있다.
다른 예로, 프로세서(230)는 화질 관련 데이터에 포함된 컬러리미트리에 대한 정보를 이용하여 다음 씬을 구성하는 영상에 대한 화질 개선 처리를 수행할 수 있다. 여기에서, 화질 관련 데이터에 포함된 컬러리미트리에 대한 정보는 싱크 디바이스(200)에서 출력되고 있는 씬의 다음 씬을 구성하는 영상에 대한 컬러리미트리 정보로, 저장부(220)에 저장되어 있을 수 있다.
구체적으로, 프로세서(230)는 컬러리미트리 정보에 포함된 R,G,B 색좌표의 기준 값을 참조하여, R,G,B 색좌표의 기준 값에 매칭되도록 싱크 디바이스(200)의 R,G,B 색좌표 값을 변경하여, 다음 씬을 구성하는 영상의 색상에 대한 컬러 리맵핑(color remapping)을 수행할 수 있다.
이와 같이, 프로세서(230)는 한 씬 앞서 전송되어 저장부(220)에 저장된 화질 관련 데이터를 이용하여, 싱크 디바이스(200)에서 현재 출력되고 있는 씬이 종료되고 다음 씬이 출력될 때 다음 씬을 구성하는 영상에 대한 화질 개선 처리를 수행하여, 화질 개선 처리가 이루어진 다음 씬에 대한 영상을 출력할 수 있다.
한편, 상술한 화질 개선 처리 방법은 설명의 편의를 위한 일 예일 뿐이다. 즉, 프로세서(230)는 상술한 방법 외에도 다양한 기술을 통해 화질 관련 데이터에 포함된 다양한 정보를 이용하여 화질 개선 처리를 수행할 수 있음은 물론이다.
한편, 경우에 따라, 프로세서(230)는 저장부(220)에 저장된 화질 관련 데이터가 화질 개선 처리에 이용된 경우, 저장부(220)에 저장된 화질 개선 데이터를 삭제할 수도 있다.
그리고, 프로세서(230)는 화질 관련 데이터에 의해 화질 개선 처리가 수행된 영상이 출력될 때, 소스 디바이스(100)로부터 수신된 화질 관련 데이터를 저장부(220)에 저장하고, 이를 이용하여 화질 개선 처리가 수행된 영상이 속하는 씬 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
예를 들어, 소스 디바이스(100)는 5 번째 씬을 구성하는 영상 및 오디오를 6 번째 씬에 대한 화질 관련 데이터와 함께 싱크 디바이스(200)로 전송하고, 5 번째 씬을 구성하는 영상 및 오디오에 대한 전송이 완료되면, 6 번째 씬을 구성하는 영상 및 오디오를 7 번째 씬에 대한 화질 관련 데이터와 함께 싱크 디바이스(200)로 전송할 수 있다.
이 경우, 프로세서(230)는 4 번째 씬을 출력하는 동안 저장부(220)에 저장된 5 번째 씬에 대한 화질 관련 데이터를 이용하여 5 번째 씬을 출력할 때 5 번째 씬에 대한 화질 개선 처리를 수행하고, 화질 개선 처리가 수행된 5 번째 씬을 출력할 수 있다.
이때, 프로세서(230)는 저장부(220)에 저장된 5 번째 씬에 대한 화질 관련 데이터를 삭제하고, 5 번째 씬을 구성하는 영상 및 오디오와 함께 수신되는 6 번째 씬에 대한 화질 관련 데이터를 저장부(220)에 저장할 수 있다.
이후, 프로세서(230)는 저장부(220)에 저장된 6 번째 씬에 대한 화질 관련 데이터를 이용하여 6 번째 씬을 출력할 때 6 번째 씬에 대한 화질 개선 처리를 수행하고, 화질 개선 처리가 수행된 6 번째 씬을 출력할 수 있다.
이때, 프로세서(230)는 저장부(220)에 저장된 6 번째 씬에 대한 화질 관련 데이터를 삭제하고, 6 번째 씬을 구성하는 영상 및 오디오와 함께 수신되는 7 번째 씬에 대한 화질 관련 데이터를 저장부(220)에 저장할 수 있다.
이와 같이, 프로세서(230)는 화질 개선 처리에 이용된 화질 관련 데이터를 삭제하고 새롭게 수신되는 화질 관련 데이터를 저장한다는 점에서, 저장부(220)에 마련된 저장공간이 충분치 않은 경우라도, 컨텐츠를 구성하는 모든 씬들에 대해 연속적으로 화질 개선 처리를 수행할 수 있다.
한편, 프로세서(230)는 소스 디바이스(100)로부터 수신된 다양한 정보를 화질 개선 처리 시 이용할 수 있다.
먼저, 프로세서(230)는 소스 디바이스(100)로부터 수신된 정보에 기초하여 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원할 수 있다.
구체적으로, 소스 디바이스(100)는 화질 관련 데이터를 분할하여 전송하는 경우, SPD Infoframe의 metadata packet size를 통해 화질 관련 데이터가 몇 개로 분할되었는지에 대한 정보를 싱크 디바이스(200)로 전송하고, SPD Infoframe의 metadata divide number를 통해 분할된 화질 관련 데이터가 몇 번째에 해당하는지에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 프로세서(230)는 metadata packet size를 통해 획득한 정보를 이용하여 싱크 디바이스(200)로부터 분할된 화질 관련 데이터가 모두 수신되었는지를 판단하고, metadata divide number를 통해 획득한 정보를 이용하여 분할된 화질 관련 데이터의 순서를 판단하여, 판단된 순서에 따라 분할된 화질 관련 데이터를 누적하여 분할되기 전의 화질 관련 데이터를 생성할 수 있다.
또한, 프로세서(230)는 소스 디바이스(100)로부터 수신된 정보에 기초하여 씬이 전환되는 씬이 전환되는 시점을 판단하고, 다음 씬이 재생될 때 저장된 화질 관련 데이터를 이용하여 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
즉, 소스 디바이스(100)는 SPD Infoframe의 scene transition flag를 통해 씬이 전환되는 시점에 대한 정보를 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 프로세서(230)는 scene transition flag를 참조하여 씬이 전환되는 시점을 판단하고, 씬이 전환되어 새로운 씬이 출력될 때 기저장된 화질 관련 데이터를 이용하여 해당 씬을 구성하는 영상에 대한 화질 개선 처리를 수행할 수 있다.
구체적으로, 소스 디바이스(100)는 씬이 전환되어 새로운 씬이 시작되는 시점에 싱크 디바이스(200)로 전송되는 HDMI 프레임 즉, 새로운 씬의 1 번째 영상 프레임을 포함하는 HDMI 프레임의 SPD Infoframe에서 scene transition flag를 1로 설정하고, 해당 씬의 나머지 HDMI 프레임의 SPD Infoframe에서 scene transition flag를 0으로 설정하여 싱크 디바이스(200)로 전송할 수 있다.
따라서, 프로세서(230)는 scene transition flag가 1 비트로 설정된 HDMI 프레임부터 새로운 씬이 시작되는 것으로 판단하고, HDMI 프레임에 포함된 영상을 출력할 때 저장부(220)에 저장된 화질 관련 데이터를 이용하여 화질 개선 처리를 수행할 수 있다.
즉, 저장부(220)에 저장된 화질 관련 데이터는 미리 전송되어 저장된, 다음에 출력될 씬에 대한 화질 관련 데이터라는 점에서, 프로세서(230)는 저장부(220)에 저장된 화질 관련 데이터를 이용하여 새로운 씬에 대한 화질 개선 처리를 수행할 수 있다.
또한, 프로세서(230)는 scene transition flag를 통해 씬이 전환되었음을 판단할 수 있다는 점에서, scene transition flag가 1 비트로 설정된 HDMI 프레임부터 scene transition flag가 1 비트로 설정된 HDMI 프레임이 재차 수신되기 전까지의 기간 동안 수신된 HDMI 프레임의 SPD Infofrmae에 포함된 화질 관련 데이터는 다음 씬에 대한 화질 관련 데이터에 해당한다는 점을 판단할 수도 있다.
즉, 프로세서(230)는 scene transition flag가 1 비트로 설정된 HDMI 프레임부터 scene transition flag가 1 비트로 설정된 HDMI 프레임이 재차 수신되기 전까지의 기간 동안 수신된 화질 관련 데이터는 scene transition flag가 1 비트로 설정된 HDMI 프레임이 재차 수신된 이후 수신되는 HDMI 프레임에 포함된 영상에 대한 화질 관련 데이터에 해당한다는 점을 판단할 수 있다.
한편, 프로세서(230)는 소스 디바이스(100)로부터 수신된 정보에 기초하여 다음에 출력될 씬의 넘버를 판단하고, 저장부(220)에 저장된 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 화질 관련 데이터가 다음에 출력될 씬에 대해 적용 가능한 것인지를 판단할 수 있다.
구체적으로, 소스 디바이스(100)는 SPD Infoframe의 scene number를 통해 싱크 디바이스(200)로 전송되고 있는 씬이 몇 번째 씬에 속하는지를 나타내는 정보를 싱크 디바이스(200)로 전송하고, SPD Infoframe의 metadata scene number를 통해 싱크 디바이스(200)로 전송되고 있는 화질 관련 데이터가 몇 번째 씬과 관련되는지를 나타내는 정보를 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 프로세서(230)는 scene number를 통해 획득한 정보를 이용하여 싱크 디바이스(200)로 전송되고 있는 씬 즉, 싱크 디바이스(200)에서 현재 출력되고 있는 씬의 씬 넘버를 판단하고, 다음에 출력될 씬의 씬 넘버를 판단할 수 있다. 그리고, 프로세서(230)는 metadata scene number를 통해 획득한 정보를 이용하여 싱크 디바이스(200)로 전송되고 있는 화질 관련 데이터와 관련된 씬의 씬 넘버를 판단할 수 있다.
따라서, 프로세서(230)는 이들을 비교하여, 싱크 디바이스(200)로 전송되고 있는 화질 관련 데이터가 다음에 출력될 씬에 적용될 수 있는 화질 관련 데이터에 해당하는지를 판단할 수 있다.
한편, 프로세서(230)는 상술한 정보 외에도 소스 디바이스(100)로부터 수신된 정보를 화질 개선 처리에 이용할 수도 있다.
예를 들어, 프로세서(230)는 SPD Infoframe에 포함된 metadata present를 이용하여, 소스 디바이스(100)로부터 전송되고 있는 SPD Infoframe에 삽입된 데이터가 화질 관련 데이터인지를 판단할 수 있다.
다른 예로, 프로세서(230)는 SPD Infoframe에 포함된 null metadata scene를 이용하여, 소스 디바이스(100)로부터 전송되고 있는 씬 다음에 재생시간이 짧은 씬이 존재하는지 및 재생시간이 짧은 씬의 개수를 판단할 수 있다.
한편, 씬의 재생시간이 짧은 경우, 소스 디바이스(100)는 재생시간이 짧은 씬의 다음 씬에 대한 화질 관련 데이터를 전송하지 않거나, 다음 씬에 대한 화질 관련 데이터 중 전송 가능한 일부의 데이터만을 싱크 디바이스(200)로 전송할 수 있다.
이에 따라, 프로세서(230)는 null metadata scene에 기초하여 재생시간이 짧은 씬이 존재하는 것으로 판단되면, 재생시간이 짧은 씬 다음의 씬에 대한 화질 개선 처리를 수행하지 않거나, 일부의 데이터만을 이용하여 재생시간이 짧은 씬 다음의 씬에 대한 화질 개선 처리를 수행할 수 있다.
또는, 씬의 재생시간이 짧은 경우, 소스 디바이스(100)는 재생시간이 짧은 씬이 출력되기 이전에, 재생시간이 짧은 씬의 다음 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수도 있다.
이 경우, 프로세서(230)는 null metadata scene에 기초하여 재생시간이 짧은 씬이 존재하는 것으로 판단되면, 재생시간이 짧은 씬이 출력되기 이전에, 수신된 화질 관련 데이터를 저장부(220)에 저장하고, 저장부(220)에 저장된 화질 관련 데이터를 이용하여 재생시간이 짧은 씬의 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
예를 들어, 7 번째 씬의 재생시간이 짧아, 7 번째 씬을 구성하는 컨텐츠를 전송하는 동안 8 번째 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 없는 경우, 소스 디바이스(100)는 6 번째 씬을 구성하는 컨텐츠를 싱크 디바이스(200)로 전송하는 동안 7 번째 씬에 대한 화질 관련 데이터 및 8 번째 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수 있다.
이 경우, 프로세서(230)는 6 번째 씬을 출력하는 도중 수신된 7 번째 씬에 대한 화질 관련 데이터 및 8 번째 씬에 대한 화질 관련 데이터를 저장부(230)에 저하고, 이를 이용하여 7 번째 씬 및 8 번째 씬에 대한 화질 개선 처리를 순차적으로 수행할 수 있다.
도 5b는 본 발명의 일 실시 예에 따른 싱크 디바이스의 세부구성을 설명하기 위한 블록도이다.
도 5b를 참조하면, 싱크 디바이스(200)는 인터페이스(210), 저장부(220) 및 프로세서(230) 외에 수신부(240), 출력부(250), 통신부(260), 신호처리부(270), 리모콘 신호 수신부(280) 및 카메라(290)를 더 포함할 수 있으며, 이들의 동작은 프로세서(230)에 의해 제어될 수 있다. 한편, 인터페이스(210), 저장부(220) 및 프로세서(230)에 대해서는 도 5a에서 설명한바 있다는 점에서, 이에 대한 구체적인 설명은 생략하도록 한다.
수신부(240)는 방송 컨텐츠를 수신할 수 있다. 방송 컨텐츠는 영상, 오디오 및 부가 데이터(예를 들어, EPG)를 포함할 수 있으며, 수신부(240)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 컨텐츠를 수신할 수 있다.
예를 들어, 수신부(240)는 방송국으로부터 전송되는 방송 컨텐츠를 수신하기 위해 튜너(미도시), 복조기(미도시) 및 등화기(미도시) 등과 같은 구성을 포함하는 형태로 구현될 수 있다.
영상 처리부(250)는 인터페이스(210) 및 수신부(240)에서 수신한 컨텐츠를 구성하는 영상 데이터에 대한 처리를 수행한다. 예를 들어, 영상 처리부(250)는 영상 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. 영상 처리부(250)에서 처리된 영상 데이터는 디스플레이(271)로 출력될 수 있다.
오디오 처리부(260)는 인터페이스(210) 및 수신부(240)에서 수신한 컨텐츠를 구성하는 오디오 데이터에 대한 처리를 수행한다. 예를 들어, 오디오 처리부(260)는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(260)에서 처리된 오디오 데이터는 오디오 출력부(272)로 출력될 수 있다.
출력부(270)는 컨텐츠를 출력한다. 이를 위해, 출력부(270)는 디스플레이부(271) 및 오디오 출력부(272)를 포함할 수 있다.
디스플레이(271)는 컨텐츠를 구성하는 영상을 디스플레이한다. 구체적으로, 디스플레이(271)는 영상 처리부(250)에서 처리된 영상 데이터를 출력할 수 있다. 또한, 디스플레이(271)는 그래픽 처리부(234)에서 생성된 다양한 화면을 디스플레이할 수도 있다.
이를 위해, 디스플레이(271)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 등으로 구현될 수 있다.
한편, 디스플레이(271)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들어, 디스플레이 디스플레이(271)가 액정 방식인 경우, LCD 디스플레이 패널, LCD 디스플레이 패널에 광을 공급하는 백라이트 유닛, 패널을 구동시키는 패널 구동기판 등을 포함할 수 있다.
오디오 출력부(272)는 컨텐츠를 구성하는 오디오를 출력한다. 구체적으로, 오디오 출력부(272)는 오디오 처리부(260)에서 처리된 오디오 데이터를 출력할 수 있다. 또한, 오디오 출력부(272)는 오디오 데이터뿐만 아니라, 각종 알림 음이나 음성 메시지 등을 출력할 수도 있다.
이를 위해, 오디오 출력부(272)는 스피커로 구현될 수 있으나, 이는 일 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 출력 단자로 구현될 수도 있다.
리모컨 신호 수신부(280)는 리모컨(미도시)으로부터 입력되는 리모컨 제어 신호를 수신한다. 예를 들어, 리모컨 신호 수신부(280)는 싱크 디바이스(200)의 동작을 제어하기 위한 다양한 사용자 명령에 대응되는 리모컨 제어 신호를 수신할 수 있으며, 프로세서(230)는 수신된 리모컨 제어 신호에 대응되는 기능을 수행할 수 있다.
입력부(290)는 다양한 사용자 명령을 입력받는다. 프로세서(230)는 입력부(290)에서 입력된 사용자 명령에 대응되는 기능을 실행할 수 있다. 이를 위해, 입력부(290)는 입력 패널로 구현될 수 있다. 입력 패널은 터치패드(Touch Pad) 혹은 각종 기능키, 숫자키, 특수키, 문자키 등을 구비한 키패드(Key Pad) 또는 터치 스크린(Touch Screen) 방식으로 이루어질 수 있다.
프로세서(230)는 도 5b에 도시된 바와 같이, RAM(231), ROM(232), 그래픽 처리부(233), CPU(234), 제1 내지 n 인터페이스(235-1 ~ 235-n), 버스(236)를 포함한다. 이때, RAM(231), ROM(232), 그래픽 처리부(233), CPU(234), 제1 내지 n 인터페이스(235-1 ~ 235-n) 등은 버스(236)를 통해 서로 연결될 수 있다.
ROM(232)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, CPU(234)는 ROM(232)에 저장된 명령어에 따라 저장부(220)에 저장된 O/S를 RAM(231)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(234)는 저장부(220)에 저장된 각종 어플리케이션 프로그램을 RAM(231)에 복사하고, RAM(231)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(233)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이(271)의 디스플레이 영역 내에 표시된다.
CPU(234)는 저장부(220)에 액세스하여, 저장부(220)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(234)는 저장부(220)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스(235-1 내지 235-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
한편, 상술한 예에서는, 소스 디바이스(100)는 씬의 시작부터 다음 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송하는 것으로 설명하였다. 즉, 소스 디바이스(100)는 씬을 구성하는 영상 프레임 중 1 번째 영상 프레임이 포함된 HDMI 프레임의 SPD Infoframe부터 다음 씬에 대한 화질 관련 데이터를 삽입하여 싱크 디바이스(200)로 전송하는 것으로 설명하였다.
하지만, 이는 일 예일 뿐이고, 소스 디바이스(100)는 씬을 싱크 디바이스(200)로 전송하는 도중 임의의 시점에 다음 씬에 대한 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수도 있다.
예를 들어, 소스 디바이스(100)는 5 번째 씬을 구성하는 영상 및 오디오만을 포함하는 HDMI 프레임을 싱크 디바이스(200)로 전송하다가, 22 번째 영상 프레임이 포함된 HDMI 프레임을 전송하는 시점에 6 번째 씬에 대한 화질 관련 데이터를 최초로 삽입하여 싱크 디바이스(200)로 전송할 수도 있다.
또한, 상술한 예에서는, 소스 디바이스(100)가 SPD Infofrmae을 통해 화질 관련 데이터를 싱크 디바이스(200)로 전송하는 것으로 설명하였다.
하지만, 이는 일 예일 뿐이고, 소스 디바이스(100)는 이 외에도 다양한 통신 채널을 통해 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수도 있다.
예를 들어, 소스 디바이스(100)는 HDMI 방식에서 지원되는 통신 채널 가령, HEC(HDMI Ethernet Channel), CEC(Consumer Electronic Control), SCDC 등을 통해 화질 관련 데이터를 싱크 디바이스(200)로 전송할 수도 있다.
도 6은 본 발명의 일 실시 예에 따른 화질 개선 처리를 수행하는 방법을 설명하기 위한 도면이다.
도 6에서는 설명의 편의를 위해, 컨텐츠를 구성하는 복수의 씬 중 3 번째 씬(씬 #3)에서 6 번째 씬(씬 #6)이 출력되는 동안, 소스 디바이스(100)와 싱크 디바이스(200)에서 수행되는 동작을 일 예로 도시하였으며, 화질 개선 처리에 이용되는 화질 관련 데이터는 metadata로 도시하였다.
소스 디바이스(100)는 씬 #3을 구성하는 HDMI 프레임의 전송이 완료되면, 씬 #4를 구성하는 HDMI 프레임을 싱크 디바이스(200)로 전송한다. 여기에서, 씬 #4를 구성하는 HDMI 프레임은 씬 #4를 구성하는 영상 프레임 중 오디오 신호가 포함된 HDMI 프레임을 의미한다.
이때, 소스 디바이스(100)는 씬 #4의 다음 씬인 씬 #5에 대한 화질 관련 데이터(meta #5)를 Infoframe의 Data byte 3 ~ 20에 삽입하여, 싱크 디바이스(200)로 전송할 수 있다.
또한, 소스 디바이스(100)는 싱크 디바이스(200)로 전송되는 씬이 씬 #3에서 씬 #4로 전환되었다는 점에서 Infoframe의 transition_flag(=scene transition flag)를 1로 설정하여 싱크 디바이스(200)로 전송할 수 있다.
이때, 소스 디바이스(100)는 씬 #3에서 씬 #4로 전환되는 시점에 싱크 디바이스(200)로 전송되는 HDMI 프레임의 transition_flag만을 1로 설정하고, 씬 #4을 구성하는 나머지 HDMI 프레임의 transition_flag는 0으로 설정할 수 있다. 즉, 소스 디바이스(100)는 씬 #4를 구성하는 HDMI 프레임 중 1 번째 HDMI 프레임(즉, 씬 #4를 구성하는 영상 프레임 중 1 번째 영상 프레임을 포함하는 HDMI 프레임)의 transition_flag 값만을 1로 설정할 수 있다.
또한, 소스 디바이스(100)는 씬 #5에 대한 화질 관련 데이터(meta #5)가 분할된 경우, 분할된 씬 #5에 대한 화질 관련 데이터를 구성하는 패킷의 수(즉, 34 패킷)에 대한 정보를 Infoframe의 meta_length(=metadata packet size)에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
또한, 소스 디바이스(100)는 Infoframe에 화질 관련 데이터가 포함되었음을 나타내기 위해 Infoframe의 meta_present(=metadata present)를 1로 설정하여, 싱크 디바이스(200)로 전송할 수 있다.
한편, 소스 디바이스(100)는 씬 #5에 대한 화질 관련 데이터(meta #5)에 대한 모든 전송이 완료된 경우, 씬 #5에 대한 화질 관련 데이터(meta #5)를 더 이상 전송하지 않는다(즉, meta #Null). 이 경우, 소스 디바이스(100)는 HDMI 규격에 따라 소스 디바이스(100)에 대한 정보를 Infoframe의 Data byte 3 ~ 20에 삽입하여 싱크 디바이스(200)로 전송할 수 있다.
이와 같이, Infoframe을 통해 씬 #5에 대한 화질 관련 데이터(meta #5)를 전송하지 않는 경우, 소스 디바이스(100)는 meta_present를 0으로 설정하여 싱크 디바이스(200)로 전송할 수 있다.
한편, 싱크 디바이스(200)는 소스 디바이스(100)로부터 수신된 HDMI 프레임으로부터 영상 및 오디오를 획득하여, 씬 #4를 출력할 수 있다.
이때, 싱크 디바이스(200)는 씬 #4를 구성하는 HDMI 프레임 중 1 번째 HDMI 프레임의 transition_flag에 포함된 1 비트에 기초하여 씬이 전환되었음을 판단하고, 씬 #4를 출력하기 전에 씬 #4를 구성하는 영상에 대한 화질 개선 처리를 수행하고, 화질 개선 처리가 수행된 씬 #4를 출력할 수 있다.
이 경우, 싱크 디바이스(200)는 씬 #3을 출력하는 동안 저장된 씬 #4에 대한 화질 관련 데이터(mete #4)를 이용하여, 씬 #4를 구성하는 영상에 대한 화질 개선 처리를 수행할 수 있다.
또한, 싱크 디바이스(200)는 meta_present가 1로 설정된 Infoframe에는 화질 관련 데이터가 포함되었음을 판단하고, meta_length를 통해 Infoframe에 포함된 화질 관련 데이터가 34 개로 분할되었음을 판단할 수 있다.
이에 따라, 싱크 디바이스(220)는 meta_present가 1로 설정된 34 개의 HDMI 프레임의 Infoframe으로부터 씬 #5에 대한 화질 관련 데이터를 획득하고, 씬 #5에 대한 화질 관련 데이터를 저장할 수 있다.
한편, 소스 디바이스(100)와 싱크 디바이스(200)는 나머지 씬에 대해서도 상술한 방법을 이용한다는 점에서, 나머지 씬에 대한 구체적인 설명은 생략하도록 한다.
이와 같이, 소스 디바이스(100)는 화질 관련 데이터를 한 씬 미리 싱크 디바이스(200)로 전송한다는 점에서, 싱크 디바이스(200)는 한 씬 앞서 전송되는 화질 관련 데이터를 저장하고, 씬이 출력되기 전에 화질 관련 데이터를 이용하여 해당 씬에 대한 화질 개선 처리를 수행할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 싱크 디바이스의 화질 개선 처리 방법을 설명하기 위한 흐름도이다.
먼저, 소스 디바이스로부터 컨텐츠 및 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를 수신하고(S710), 소스 디바이스로부터 수신된 화질 관련 데이터를 저장한다(S720).
이후, 저장된 화질 관련 데이터를 이용하여 다음에 출력될 씬에 대한 화질 개선 처리를 수행한다(S730).
이 경우, 싱크 디바이스는, HDMI를 통해 소스 디바이스와 연결되며, 화질 관련 데이터는 SPD(source product description) Infoframe에 포함되어 싱크 디바이스로 전송될 수 있다.
또한, 화질 관련 데이터는 소스 디바이스에서 분할되어 싱크 디바이스로 전송될 수 있다.
이 경우, 소스 디바이스로부터 수신된 정보에 기초하여 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원할 수 있다.
한편, S730 단계는 소스 디바이스로부터 수신된 정보에 기초하여 씬이 전환되는 시점을 판단하고, 다음 씬이 출력될 때 상기 저장된 화질 관련 데이터를 이용하여 다음 씬에 대한 화질 개선 처리를 수행할 수 있다.
또한, 본 실시 예에 따른 화질 처리 방법은 소스 디바이스로부터 수신된 정보에 기초하여 상기 다음에 출력될 씬의 씬 넘버를 판단하고, 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 다음에 출력될 씬에 대해 상기 저장된 화질 관련 데이터가 적용 가능한 것인지를 판단할 수 있다.
한편, 씬을 구성하는 영상에 대한 화질 개선 처리를 수행하기 위해 화질 관련 데이터를 처리하는 방법 및 화질 관련 데이터를 이용하여 화질 개선 처리를 수행하는 구체적인 방법에 대해서는 도 1 내지 도 6과 함께 상술한 바 있다.
도 8은 본 발명의 일 실시 예에 따른 소스 디바이스의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 컨텐츠 및 컨텐츠에 대한 화질 관련 데이터를 획득한다(S810).
예를 들어, 컨텐츠는 소스 디바이스에 기저장되어 있거나, 소스 디바이스는 DVD, 블루레이 디스크, USB 및 외장 하드디스크 등과 같은 외부 매체로부터 컨텐츠를 획득할 수 있다.
다른 예로, 소스 디바이스는 방송국으로부터 제공되는 방송 신호로부터 컨텐츠를 획득하거나, 인터넷을 통해 외부 서버(미도시)로부터 컨텐츠를 다운로드 또는 스트리밍받을 수 있다.
이들 경우에서, 컨텐츠 제작자는 컨텐츠 및 컨텐츠에 대한 메타데이터를 압축된 형태로 제공한다는 점에서, 소스 디바이스는 압축된 컨텐츠 데이터에 대한 압축해제를 통해 컨텐츠 및 컨텐츠에 대한 메타데이터를 획득할 수 있으며, 메타데이터에는 컨텐츠에 대한 화질 관련 데이터를 포함할 수 있다.
하지만, 이는 일 예에 불과하며 소스 디바이스는 다양한 방법을 통해 컨텐츠 및 그에 대한 화질 관련 데이터를 획득할 수 있다.
이후, 컨텐츠를 구성하는 복수의 씬 중 싱크 디바이스에서 출력되는 씬 다음에 출력될 씬에 대한 화질 관련 데이터를, 싱크 디바이스에서 출력되는 씬을 구성하는 컨텐츠와 함께 싱크 디바이스로 전송한다(S820).
이 경우, 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 싱크 디바이스로 전송할 수 있다.
한편, 본 실시 예에 따른 제어 방법은 화질 관련 데이터의 분할에 대한 정보, 싱크 디바이스로 전송되는 씬이 전환되는 시점에 대한 정보, 싱크 디바이스로 전송되는 씬에 대한 정보 및 싱크 디바이스로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 싱크 디바이스로 전송할 수 있다.
또한, S820 단계는 싱크 디바이스로부터 수신된 EDID에 기초하여 싱크 디바이스가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 싱크 디바이스가 화질 개선 처리를 수행할 수 있는 경우 화질 관련 정보를 싱크 디바이스로 전송할 수 있다.
한편, 씬을 구성하는 영상에 대한 화질 개선 처리를 수행하기 위해 화질 관련 데이터를 처리하는 방법 및 화질 관련 데이터를 이용하여 화질 개선 처리를 수행하는 구체적인 방법에 대해서는 도 1 내지 도 6과 함께 상술한 바 있다.
상술한 다양한 실시 예에 따른 제어 방법 및 화질 개선 처리 방법은 은 프로그램으로 구현되어 소스 디바이스(100) 및 싱크 디바이스(200)로 제공될 수 있다. 구체적으로, 소스 디바이스(100)의 제어 방법 및 싱크 디바이스(200)의 화질 개선 처리 방법을 포함하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. 또한, 상술한 프로그램들은 비일시적 판독 가능 매체의 일 예로서 소스 디바이스(100)의 저장부(140) 및 싱크 디바이스(200)의 저장부(220)에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100 : 소스 디바이스 200 : 싱크 디바이스

Claims (20)

  1. 싱크 디바이스에 있어서,
    인터페이스;
    저장부; 및
    상기 인터페이스를 통해 소스 디바이스로부터 컨텐츠를 구성하는 복수의 씬(scene) 중 하나의 씬 및 상기 하나의 씬의 다음 씬에 대한 화질 관련 데이터를 상기 다음 씬을 구성하는 복수의 프레임 중 제1 프레임의 수신 전에 수신하고,
    상기 화질 관련 데이터를 상기 저장부에 저장하고,
    상기 하나의 씬과 함께 수신되어 상기 저장부에 저장된 상기 화질 관련 데이터를 이용하여 상기 하나의 씬 다음에 출력될 상기 다음 씬에 대한 화질 개선 처리를 수행하는 프로세서;를 포함하고,
    상기 다음 씬에 대한 화질 관련 데이터는 상기 하나의 씬에 대한 화질 관련 데이터와 상이하며, 상기 다음 씬에 대한 화질 관련 데이터는 상기 다음 씬을 구성하는 상기 복수의 프레임에 대한 화질 개선 처리에 이용되는, 싱크 디바이스.
  2. 제1항에 있어서,
    상기 화질 관련 데이터는,
    상기 소스 디바이스에서 분할되어 상기 싱크 디바이스로 전송되는 것을 특징으로 하는 싱크 디바이스.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 상기 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원하는 것을 특징으로 하는 싱크 디바이스.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 씬이 전환되는 시점을 판단하고, 상기 다음 씬이 출력될 때 상기 저장된 화질 관련 데이터를 이용하여 상기 다음 씬에 대한 화질 개선 처리를 수행하는 것을 특징으로 하는 싱크 디바이스.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 다음에 출력될 씬의 씬 넘버를 판단하고, 상기 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 상기 다음에 출력될 씬에 대해 상기 저장된 화질 관련 데이터가 적용 가능한 것인지를 판단하는 것을 특징으로 하는 싱크 디바이스.
  6. 제1항에 있어서,
    상기 인터페이스는, HDMI(high definition multimedia interface)를 통해 상기 소스 디바이스와 연결되며,
    상기 화질 관련 데이터는, SPD(source product description) Infoframe에 포함되어 상기 싱크 디바이스로 전송되는 것을 특징으로 하는 싱크 디바이스.
  7. 소스 디바이스에 있어서,
    인터페이스; 및
    컨텐츠를 구성하는 복수의 씬(scene) 중 하나의 씬 및 상기 하나의 씬의 다음 씬에 대한 화질 관련 데이터를 상기 다음 씬을 구성하는 복수의 프레임 중 제1 프레임의 전송 전에 싱크 디바이스로 전송하도록 상기 인터페이스를 제어하는 프로세서;를 포함하고,
    상기 다음 씬에 대한 화질 관련 데이터는 상기 하나의 씬에 대한 화질 관련 데이터와 상이하며,
    상기 다음 씬에 대한 화질 관련 데이터는, 상기 다음 씬을 구성하는 상기 복수의 프레임에 대한 화질 개선 처리에 이용되는, 소스 디바이스.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 상기 싱크 디바이스로 전송하는 것을 특징으로 하는 소스 디바이스.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 화질 관련 데이터의 분할에 대한 정보, 상기 싱크 디바이스로 전송되는 씬이 전환되는 시점에 대한 정보, 상기 싱크 디바이스로 전송되는 씬에 대한 정보 및 상기 싱크 디바이스로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 상기 싱크 디바이스로 전송하는 것을 특징으로 하는 소스 디바이스.
  10. 제7항에 있어서,
    상기 프로세서는,
    상기 싱크 디바이스로부터 수신된 EDID(Extended Display Identification Data)에 기초하여 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는 경우 상기 화질 관련 데이터를 상기 싱크 디바이스로 전송하는 것을 특징으로 하는 소스 디바이스.
  11. 싱크 디바이스의 화질 개선 처리 방법에 있어서,
    소스 디바이스로부터 컨텐츠를 구성하는 복수의 씬(scene) 중 하나의 씬 및 상기 하나의 씬의 다음 씬에 대한 화질 관련 데이터를 상기 다음 씬을 구성하는 복수의 프레임 중 제1 프레임의 수신 전에 수신하는 단계;
    상기 하나의 씬을 출력하는 단계;
    상기 화질 관련 데이터를 저장하는 단계; 및
    상기 하나의 씬과 함께 수신된 상기 화질 관련 데이터를 이용하여 상기 하나의 씬 다음에 출력될 상기 다음 씬에 대한 화질 개선 처리를 수행하는 단계;를 포함하고,
    상기 다음 씬에 대한 화질 관련 데이터는 상기 하나의 씬에 대한 화질 관련 데이터와 상이하며,
    상기 다음 씬에 대한 화질 관련 데이터는, 상기 다음 씬을 구성하는 상기 복수의 프레임에 대한 화질 개선 처리에 이용되는, 화질 개선 처리 방법.
  12. 제11항에 있어서,
    상기 화질 관련 데이터는,
    상기 소스 디바이스에서 분할되어 상기 싱크 디바이스로 전송되는 것을 특징으로 하는 화질 개선 처리 방법.
  13. 제12항에 있어서,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 화질 관련 데이터가 분할된 개수 및 분할된 화질 관련 데이터의 순서를 판단하여 상기 분할된 화질 관련 데이터를 분할되기 전의 화질 관련 데이터로 복원하는 단계;를 더 포함하는 것을 특징으로 하는 화질 개선 처리 방법.
  14. 제11항에 있어서,
    상기 화질 개선 처리를 수행하는 단계는,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 씬이 전환되는 시점을 판단하고, 상기 다음 씬이 출력될 때 상기 저장된 화질 관련 데이터를 이용하여 상기 다음 씬에 대한 화질 개선 처리를 수행하는 것을 특징으로 하는 화질 개선 처리 방법.
  15. 제11항에 있어서,
    상기 소스 디바이스로부터 수신된 정보에 기초하여 상기 다음에 출력될 씬의 씬 넘버를 판단하고, 상기 화질 관련 데이터가 적용되는 씬의 씬 넘버에 기초하여 상기 다음에 출력될 씬에 대해 상기 저장된 화질 관련 데이터가 적용 가능한 것인지를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 화질 개선 처리 방법.
  16. 제11항에 있어서,
    상기 싱크 디바이스는, HDMI(high definition multimedia interface)를 통해 상기 소스 디바이스와 연결되며,
    상기 화질 관련 데이터는, SPD(source product description) Infoframe에 포함되어 상기 싱크 디바이스로 전송되는 것을 특징으로 하는 화질 개선 처리 방법.
  17. 소스 디바이스의 제어 방법에 있어서,
    컨텐츠 및 상기 컨텐츠에 대한 화질 관련 데이터를 획득하는 단계; 및
    상기 컨텐츠를 구성하는 복수의 씬 중 하나의 씬 및 상기 하나의 씬의 다음 씬에 대한 화질 관련 데이터를 상기 다음 씬을 구성하는 복수의 프레임 중 제1 프레임의 전송 전에 싱크 디바이스로 전송하는 단계;를 포함하고,
    상기 다음 씬에 대한 화질 관련 데이터는 상기 하나의 씬에 대한 화질 관련 데이터와 상이하며,
    상기 다음 씬에 대한 화질 관련 데이터는, 상기 다음 씬을 구성하는 상기 복수의 프레임에 대한 화질 개선 처리에 이용되는, 제어 방법.
  18. 제17항에 있어서,
    상기 전송하는 단계는,
    상기 다음에 출력될 씬에 대한 화질 관련 데이터를 분할하여 상기 싱크 디바이스로 전송하는 것을 특징으로 하는 제어 방법.
  19. 제18항에 있어서,
    상기 화질 관련 데이터의 분할에 대한 정보, 상기 싱크 디바이스로 전송되는 씬이 전환되는 시점에 대한 정보, 상기 싱크 디바이스로 전송되는 씬에 대한 정보 및 상기 싱크 디바이스로 전송되는 화질 관련 데이터에 대한 정보 중 적어도 하나를 상기 싱크 디바이스로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
  20. 제17항에 있어서,
    상기 전송하는 단계는,
    상기 싱크 디바이스로부터 수신된 EDID(Extended Display Identification Data)에 기초하여 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는지 여부를 판단하고, 상기 싱크 디바이스가 화질 개선 처리를 수행할 수 있는 경우 상기 화질 관련 데이터를 상기 싱크 디바이스로 전송하는 것을 특징으로 하는 제어 방법.

KR1020150060484A 2015-04-29 2015-04-29 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법 KR102310241B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020150060484A KR102310241B1 (ko) 2015-04-29 2015-04-29 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
EP16163398.7A EP3089464B1 (en) 2015-04-29 2016-03-31 Source device and control method thereof, and sink device and image quality improvement processing method thereof
PCT/KR2016/003370 WO2016175467A1 (en) 2015-04-29 2016-04-01 Source device and control method thereof, and sink device and image quality improvement processing method thereof
CN201680024316.1A CN107548558B (zh) 2015-04-29 2016-04-01 源装置及其控制方法以及宿装置及其图像质量改善处理方法
US15/097,616 US10574957B2 (en) 2015-04-29 2016-04-13 Source device and control method thereof, and sink device and image quality improvement processing method thereof
US16/785,291 US11350069B2 (en) 2015-04-29 2020-02-07 Source device and control method thereof, and sink device and image quality improvement processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150060484A KR102310241B1 (ko) 2015-04-29 2015-04-29 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법

Publications (2)

Publication Number Publication Date
KR20160128710A KR20160128710A (ko) 2016-11-08
KR102310241B1 true KR102310241B1 (ko) 2021-10-08

Family

ID=55701741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150060484A KR102310241B1 (ko) 2015-04-29 2015-04-29 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법

Country Status (5)

Country Link
US (2) US10574957B2 (ko)
EP (1) EP3089464B1 (ko)
KR (1) KR102310241B1 (ko)
CN (1) CN107548558B (ko)
WO (1) WO2016175467A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009650B2 (en) * 2014-06-12 2018-06-26 Lg Electronics Inc. Method and apparatus for processing object-based audio data using high-speed interface
KR102310241B1 (ko) * 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
KR102513263B1 (ko) * 2015-06-04 2023-03-23 엘지전자 주식회사 Hdmi를 사용하여 전력을 송수신하기 위한 방법 및 그 장치
US10535289B2 (en) * 2016-01-18 2020-01-14 Sharp Kabushiki Kaisha Display device, display method, recording medium, and television receiver
US11284134B2 (en) 2018-08-08 2022-03-22 Comcast Cable Communications, Llc Media content enhancement based on content importance
KR20200068884A (ko) * 2018-12-06 2020-06-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
WO2020226674A1 (en) * 2019-05-06 2020-11-12 Huawei Technologies Co. Ltd. Display of video content on a sink device using advanced features
CN110769308B (zh) * 2019-12-25 2021-03-30 深圳创维-Rgb电子有限公司 信号通道切换方法、显示终端及存储介质
CN111918013B (zh) * 2020-08-13 2022-04-08 广东博华超高清创新中心有限公司 一种hdmi 8k100/120视频判断和输出的方法及装置
KR20220165395A (ko) 2021-06-08 2022-12-15 엘지전자 주식회사 싱크 장치, 소스 장치 및 hdmi 제어 방법
US20230010078A1 (en) * 2021-07-12 2023-01-12 Avago Technologies International Sales Pte. Limited Object or region of interest video processing system and method
KR20230071479A (ko) * 2021-11-16 2023-05-23 에스케이하이닉스 주식회사 반도체 시스템 및 반도체 시스템의 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050857A1 (en) * 2013-10-02 2015-04-09 Dolby Laboratories Licensing Corporation Transmitting display management metadata over hdmi

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852472A (en) * 1995-09-28 1998-12-22 Intel Corporation Method and apparatus for connecting video sources and video sinks
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
JP4193109B2 (ja) * 2000-11-16 2008-12-10 ソニー株式会社 情報処理装置および方法、通信装置および方法、通信システムおよび方法、プログラム、並びに記録媒体
US6959118B2 (en) * 2001-03-26 2005-10-25 Dynapel Systems, Inc. Method and system for the estimation and compensation of brightness changes for optical flow calculations
WO2003077562A1 (en) * 2002-03-08 2003-09-18 Koninklijke Philips Electronics N.V. Quality of video
AU2003221185A1 (en) 2002-04-12 2003-10-27 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
WO2003092276A1 (fr) * 2002-04-25 2003-11-06 Sony Corporation Appareil, procede et logiciel de traitement d'image
JP2004070715A (ja) * 2002-08-07 2004-03-04 Seiko Epson Corp 画像処理装置
US7612803B2 (en) * 2003-06-10 2009-11-03 Zoran Corporation Digital camera with reduced image buffer memory and minimal processing for recycling through a service center
JP4114596B2 (ja) * 2003-11-19 2008-07-09 オンキヨー株式会社 ネットワークavシステム
CN1655620B (zh) * 2004-02-09 2010-09-22 三洋电机株式会社 图像显示装置
KR100596705B1 (ko) 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
US20060192850A1 (en) * 2004-04-22 2006-08-31 Koninklijke Philips Electronics N.V. Method of and system to set an output quality of a media frame
JP4001135B2 (ja) 2004-08-18 2007-10-31 ソニー株式会社 映像信号処理装置
JP2007081685A (ja) * 2005-09-13 2007-03-29 Sony Corp 画像信号処理装置、画像信号処理方法及び画像信号処理システム
US20070094687A1 (en) * 2005-10-21 2007-04-26 Michael Russell Method for selective advertisement recording and playback
JP2008028986A (ja) * 2006-06-21 2008-02-07 Matsushita Electric Ind Co Ltd 送信装置、受信装置、送信方法、受信方法及び集積回路
JP4068119B2 (ja) * 2006-07-25 2008-03-26 シャープ株式会社 映像表示装置、映像表示方法、映像表示プログラム、および記録媒体
EP2124437A4 (en) * 2007-03-13 2010-12-29 Sony Corp COMMUNICATION SYSTEM, TRANSMITTER, TRANSMISSION PROCEDURE, RECEIVER AND RECEPTION PROCEDURE
CN101282141B (zh) * 2007-04-05 2012-06-06 华为技术有限公司 一种传输数据和接收数据的方法、装置和系统
JP4420056B2 (ja) * 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
JP2009010831A (ja) * 2007-06-29 2009-01-15 Toshiba Corp 画像解析装置および画像解析方法
US8866971B2 (en) * 2007-12-17 2014-10-21 Ati Technologies Ulc Method, apparatus and machine-readable medium for apportioning video processing between a video source device and a video sink device
CN101971617B (zh) * 2007-12-20 2015-12-02 Ati技术无限责任公司 具有视频来源装置与视频接收装置的系统中的调整视频处理
US20090268097A1 (en) * 2008-04-28 2009-10-29 Siou-Shen Lin Scene change detection method and related apparatus according to summation results of block matching costs associated with at least two frames
JP5338166B2 (ja) * 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
EP2187382A3 (en) * 2008-11-05 2010-12-15 Samsung Electronics Co., Ltd. Video apparatus and method of controlling the video apparatus
JP4663034B2 (ja) * 2009-02-03 2011-03-30 株式会社アクション・リサーチ 振動発生装置及び方法
JP5444797B2 (ja) * 2009-04-10 2014-03-19 ソニー株式会社 送信装置、表示装置および画像表示システム
JP4621787B2 (ja) * 2009-05-19 2011-01-26 株式会社東芝 無線転送装置および無線転送方法
JP2010272485A (ja) * 2009-05-25 2010-12-02 Funai Electric Co Ltd Hdmiケーブル装置および情報再生システム
CN101572779B (zh) * 2009-05-31 2011-08-17 西安空间无线电技术研究所 一种ccd图像数据及辅助数据的传输方法及传输设备
US20120113113A1 (en) 2009-06-30 2012-05-10 Yeon Hyuk Hong Method of processing data for 3d images and audio/video system
JP5372687B2 (ja) * 2009-09-30 2013-12-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US8982209B2 (en) * 2009-10-30 2015-03-17 Verint Systems Inc. Method and apparatus for operating a video system
KR101673032B1 (ko) 2010-01-25 2016-11-04 엘지전자 주식회사 화상 통신 방법 및 그를 이용한 디지털 tv
JP5515890B2 (ja) * 2010-03-15 2014-06-11 オムロン株式会社 画像処理装置、画像処理方法、画像処理システム、制御プログラムおよび記録媒体
JP2011217197A (ja) * 2010-03-31 2011-10-27 Sony Corp 電子機器、再生制御システム、再生制御方法及びプログラム
US8830360B1 (en) * 2010-08-25 2014-09-09 Sri International Method and apparatus for optimizing image quality based on scene content
JPWO2012056610A1 (ja) * 2010-10-25 2014-03-20 日本電気株式会社 コンテンツシーン判定装置
KR101769543B1 (ko) * 2011-01-04 2017-08-31 인하대학교 산학협력단 선명도 및 색 채도를 이용한 영상 화질 개선을 위한 장치 및 방법
EP2707868B1 (en) * 2011-05-10 2024-04-03 Koninklijke Philips N.V. High dynamic range image signal generation and processing
US8959539B2 (en) * 2011-09-30 2015-02-17 Verizon Patent And Licensing Inc. Message delivery mechanism
JP6031745B2 (ja) * 2011-10-17 2016-11-24 ソニー株式会社 送信装置、送信方法および受信装置
US20150215674A1 (en) * 2011-12-21 2015-07-30 Hewlett-Parkard Dev. Company, L.P. Interactive streaming video
US8687947B2 (en) * 2012-02-20 2014-04-01 Rr Donnelley & Sons Company Systems and methods for variable video production, distribution and presentation
KR101947726B1 (ko) * 2012-03-08 2019-02-13 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
KR102050984B1 (ko) * 2012-03-11 2019-12-02 삼성전자주식회사 와이-파이 디스플레이 네트워크에서 와이-파이 디스플레이 세션을 제공하는 방법 및 장치, 그리고 그에 따른 시스템
KR20140085052A (ko) 2012-12-27 2014-07-07 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR102019495B1 (ko) * 2013-01-31 2019-09-06 삼성전자주식회사 싱크 장치, 소스 장치, 기능 블록 제어 시스템, 싱크 장치 제어 방법, 소스 장치 제어 방법 및 기능 블록 제어 방법
JP2015002402A (ja) * 2013-06-14 2015-01-05 株式会社東芝 情報処理方法、情報処理装置、及び情報処理プログラム
US9264683B2 (en) * 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
JP6202330B2 (ja) * 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
US10431259B2 (en) * 2014-04-23 2019-10-01 Sony Corporation Systems and methods for reviewing video content
JP6477692B2 (ja) * 2014-05-15 2019-03-06 ソニー株式会社 通信装置及び通信方法、並びにコンピューター・プログラム
TWI559215B (zh) * 2014-12-18 2016-11-21 明基電通股份有限公司 顯示系統及其操作方法
KR102310241B1 (ko) * 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050857A1 (en) * 2013-10-02 2015-04-09 Dolby Laboratories Licensing Corporation Transmitting display management metadata over hdmi

Also Published As

Publication number Publication date
US20200177857A1 (en) 2020-06-04
KR20160128710A (ko) 2016-11-08
CN107548558B (zh) 2022-03-08
US11350069B2 (en) 2022-05-31
US10574957B2 (en) 2020-02-25
US20160323554A1 (en) 2016-11-03
CN107548558A (zh) 2018-01-05
WO2016175467A1 (en) 2016-11-03
EP3089464B1 (en) 2019-10-02
EP3089464A1 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
KR102310241B1 (ko) 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
US10897594B2 (en) Frame synchronous packet switching for high-definition multimedia interface (HDMI) video transitions
US11638055B2 (en) Systems and methods for processing timed text in video programming
EP3334175A1 (en) Streaming media and caption instant synchronization displaying and matching processing method, device and system
US8112783B2 (en) Method of controlling ouput time and output priority of caption information and apparatus thereof
EP3685575B1 (en) Display apparatus, method for controlling the same and image providing apparatus
US20110157163A1 (en) Image processing device and image processing method
US20140267285A1 (en) Display apparatus and control method thereof for applying motion compensation to remove artifacts from images
JP2020171034A (ja) 表示制御方法
KR100773883B1 (ko) 다중 온 스크린 디스플레이 포맷을 포함하는 비디오를 처리하는 방법 및 시스템과, 비디오를 저장하기 위한 온 스크린 디스플레이 메모리
JP6640353B2 (ja) 映像表示装置、テレビジョン受像機、送信装置、制御プログラム及び記録媒体
JP6905631B2 (ja) コンテンツの保護方法
KR102413839B1 (ko) 컨텐츠 제공장치, 그 제어방법 및 기록매체
JP6927684B2 (ja) コンテンツの出力方法
US20170257679A1 (en) Multi-audio annotation
US20170150083A1 (en) Video signal transmission device, method for transmitting a video signal thereof, video signal reception device, and method for receiving a video signal thereof
JP6892240B2 (ja) コンテンツの出力方法
JP2021119718A (ja) コンテンツの出力方法
JP2020178363A (ja) コンテンツの保護方法
JP2020188516A (ja) コンテンツの保護方法
JP2020188515A (ja) コンテンツの保護方法
JP2020178369A (ja) コンテンツの保護方法
JP2020178368A (ja) コンテンツの保護方法
JP2020178370A (ja) コンテンツの保護方法
US8521810B1 (en) Method and system for controlling a display buffer in a content distribution system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right