KR20190008070A - 전자 장치, 디스플레이 장치 및 그 제어 방법 - Google Patents

전자 장치, 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20190008070A
KR20190008070A KR1020180023861A KR20180023861A KR20190008070A KR 20190008070 A KR20190008070 A KR 20190008070A KR 1020180023861 A KR1020180023861 A KR 1020180023861A KR 20180023861 A KR20180023861 A KR 20180023861A KR 20190008070 A KR20190008070 A KR 20190008070A
Authority
KR
South Korea
Prior art keywords
metadata
content
frame
graphic
dynamic
Prior art date
Application number
KR1020180023861A
Other languages
English (en)
Other versions
KR102553764B1 (ko
Inventor
박봉길
최병진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/004,852 priority Critical patent/US10735688B2/en
Publication of KR20190008070A publication Critical patent/KR20190008070A/ko
Application granted granted Critical
Publication of KR102553764B1 publication Critical patent/KR102553764B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 통신 인터페이스, 및 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 통신 인터페이스를 통해 외부 디스플레이 장치로 제공하는 프로세서를 포함할 수 있다. 여기서, 프로세서는, dynamic metadata를 매 프레임 단위로 외부 디스플레이 장치로 전송하며, 그래픽 컨텐츠가 활성화되면, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 디스플레이 장치로 제공할 수 있다.

Description

전자 장치, 디스플레이 장치 및 그 제어 방법 { Electronics apparatus, Display apparatus and contorl method thereof }
본 발명은 디스플레이 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 비디오 컨텐츠를 재생하는 전자 장치, 디스플레이 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 가정, 사무실, 공공 장소 등 다양한 장소에서 이용되는 디스플레이 장치는 최근 수년 간 지속적으로 발전하고 있다.
최근 HDR 컨텐츠의 경우 HDR 컨텐츠의 각 씬의 특성을 반영한 dynamic metadata에 기초하여 HDR 컨텐츠의 각 씬 별로 영상 처리를 수행하여 좀더 선명한 화질을 제공하는 기술이 보급되고 있다. 다만, 해당 기술의 경우 도중에 그래픽 메뉴 등이 제공되는 경우 그래픽 메뉴의 밝기 등도 계속 변하게 된다는 문제점이 있었다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은, 다이내믹 metadata에 기초한 비디오 컨텐츠를 재생하는 도중 그래픽 컨텐츠가 제공되는 경우 그래픽 컨텐츠의 밝기 및 색감이 유지되도록 비디오 컨텐츠를 재생하는 전자 장치, 디스플레이 장치 및 그 영상 처리 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는, 통신 인터페이스 및 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 상기 통신 인터페이스를 통해 외부 디스플레이 장치로 제공하는 프로세서를 포함하며, 상기 프로세서는, 상기 dynamic metadata를 매 프레임 단위로 상기 외부 디스플레이 장치로 전송하며, 그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 디스플레이 장치로 제공한다.
이 경우, 상기 프로세서는, 상기 dynamic metadata를 상기 기설정된 복수의 프레임 구간 동안 상기 static metadata로 단계적으로 전환하여 상기 디스플레이 장치로 제공할 수 있다.
여기서, 상기 static metadata는, 상기 컨텐츠 구간에 따라 변하지 않고 고정된 값을 가지는 tone mapping control data일 수 있다.
또한, 상기 프로세서는, 상기 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득하여 제공할 수 있다.
또한, 상기 프로세서는, 상기 컨텐츠에 포함된 API(Application Programming Interface)을 호출하고, 상기 API에 포함된 모드 정보에 기초하여 상기 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다.
또한, 상기 프로세서는, 상기 복수의 프레임 구간에 속하는 프레임들에 대해, 상기 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 상기 대응되는 metadata를 획득할 수 있다.
또한, 상기 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 상기 dynamic metadata이며, 상기 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata가 상기 비디오 컨텐츠 및 상기 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터일 수 있다.
또한, 상기 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터일 수 있다.
또한, 상기 프로세서는, 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고, 상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 상기 획득된 연산 값으로 치환하여 상기 마지막 프레임에 대응되는 metadata를 획득할 수 있다.
또한, 상기 프로세서는, 상기 그래픽 컨텐츠가 비활성화되면, 상기 그래픽 컨텐츠에 기초한 metadata를 기설정된 복수의 프레임 구간 동안 해당 컨텐츠 구간에 대응되는 dynamic metadata로 단계적으로 전환하여 상기 디스플레이 장치로 제공할 수 있다.
여기서, 상기 그래픽 컨텐츠는, IG(Interactive Graphic), PG(Presentation Graphic) 및 GUI(Graphical User Interface) 중 적어도 하나를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 디스플레이 장치는, 통신 인터페이스, 디스플레이 및 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 매 프레임 단위로 상기 통신 인터페이스를 통해 외부 전자 장치로부터 수신하고, 상기 dynamic metadata에 기초하여 상기 비디오 컨텐츠를 처리하여 상기 디스플레이를 통해 디스플레이하는 프로세서를 포함할 수 있다. 여기서, 상기 프로세서는, 그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 비디오 컨텐츠를 처리할 수 있다.
또한, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 매 프레임 단위로 외부 디스플레이 장치로 제공하는 단계 및 그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 디스플레이 장치로 제공하는 단계;를 포함할 수 있다.
여기서, 상기 디스플레이 장치로 제공하는 단계는, 상기 dynamic metadata를 상기 기설정된 복수의 프레임 구간 동안 상기 static metadata로 단계적으로 전환하여 제공할 수 있다.
또한, 상기 디스플레이 장치로 제공하는 단계는, 상기 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득하여 제공할 수 있다.
또한, 상기 디스플레이 장치로 제공하는 단계는, 상기 컨텐츠에 포함된 API (Application Programming Interface)을 호출하고, 상기 API에 포함된 모드 정보에 기초하여 상기 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다.
또한, 상기 디스플레이 장치로 제공하는 단계는, 상기 복수의 프레임 구간에 속하는 프레임들에 대해, 상기 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 상기 대응되는 metadata를 획득할 수 있다.
또한, 상기 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 상기 dynamic metadata이며, 상기 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata가 상기 비디오 컨텐츠 및 상기 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터일 수 있다.
또한, 상기 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터일 수 있다.
또한, 상기 디스플레이 장치로 제공하는 단계는, 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고, 상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 상기 획득된 연산 값으로 치환하여 상기 마지막 프레임에 대응되는 metadata를 획득할 수 있다.
본 발명의 다양한 실시 예에 따르면, 다이내믹 metadata에 기초한 비디오 컨텐츠를 재생하는 도중 그래픽 컨텐츠가 제공되는 경우 metadata를 전환 제공함으로써, 사용자는 그래픽 컨텐츠의 밝기 및 색감이 유지되는 그래픽 컨텐츠를 제공받을 수 있게 된다.
또한, metadata의 스무스한 전환을 통해 플리커, 서든 드롭(sudden drop)과 같은 화질 저하 현상을 방지할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 컨텐츠 재생 시스템의 구현 예를 설명하기 위한 모식도이다.
도 2a 및 도 2b는 본 발명의 일 실시 예에 따른 metadata 제공 방법을 설명하기 위한 도면들이다.
도 3a는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3b는 도 3a에 도시된 전자 장치의 일 구현 예를 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 5a는 본 발명의 일 실시 예에 따른 dynamic metadata의 구현 예를 설명하기 위한 도면이다.
도 5b는 본 발명의 일 실시 예에 따른 그래픽 컨텐츠에 기초한 metadata의 구현 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 metadata의 전송 방법을 설명하기 위한 도면이다.
도 7a 및 도 7b는 본 발명의 일 실시 예에 따른 톤 맵핑 모드 전환 방법을 설명하기 위한 도면들이다.
도 8은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. 
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
A 및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 일 실시 예에 따른 컨텐츠 재생 시스템의 구현 예를 설명하기 위한 모식도이다.
일반적으로 컨텐츠 제작자는 제작자가 의도한 영상의 밝기 및 색상 등에 기초하여 인코딩된 컨텐츠를 제공한다. 일반적으로, 화면의 명암비를 향상시켜 보다 생생한 영상을 제공하는 HDR(High Dynamic Range) 컨텐츠의 경우 인코딩 방식에 대응되는 인코딩 정보가 함께 제공된다. 일 예로, Blu-ray Disc(이하 BD)와 같은 차세대 광 디스크 저장 매체 규격에 따르면, 제작자가 의도한 영상의 밝기 및 색상 등에 기초하여 인코딩된 컨텐츠(10)가 관련 metadata와 함께 제공된다.
예를 들어, 도 1에 도시된 바와 같이 HDR 컨텐츠(10)가 광 디스크(예를 들어, Blu-ray Disc)(20)에 기록되어 전자 장치(100)를 통해 재생되어 디스플레이 장치(200)를 통해 디스플레이되는 경우를 상정하도록 한다. 여기서, 전자 장치(100)는 예를 들어, 블루레이 플레이어(Blu Ray Player), DVD(Digital Versatile Disc) 플레이어 등이 될 수 있으나, 이에 한정되는 것은 다양한 종류의 재생 장치(또는 소스 장치)로 구현 가능하다. 또한, 디스플레이 장치(200)는 예를 들어 TV가 될 수 있으나, 이에 한정되는 것은 아니며 HMD(Head mounted Display), NED(Near Eye Display), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 비디오 월(video wall)등 디스플레이가 가능한 다양한 장치로 구현가능하다.
전자 장치(100)가 광 디스크(20)를 재생하게 되면, HDR 컨텐츠(20)는 대응되는 metadata(예를 들어, 컨텐츠 밝기 정보(최대 밝기, 평균 밝기 등), 마스터링 모니터 밝기 정보, 톤 매핑 정보 등의 정보)와 함께 디스플레이 장치(200)로 제공된다. 마스터링 모니터는 HDR 컨텐츠(20) 제작시 및 테스트시 중 적어도 하나에 이용된 모니터를 의미한다. 여기서, metadata는 static metadata 또는 dynamic metadata가 될 수 있다. 일 예에 따라 특정 규격에 따른 metadata는, distribution_maxrgb_percentiles, Bezier_curve_anchors, targeted_system_display_maximum_luminance, average_maxrgb, knee_point 등의 정보를 포함할 수 있다.
static metadata란 HDR 컨텐츠 전체의 특성을 반영한 metadata로서, HDR 컨텐츠에 대해 고정적으로 적용되는, 즉 씬 변화와 관계없이 고정적으로 적용되는 metadata를 의미한다. dynamic metadata는 HDR 컨텐츠의 각 씬의 특성을 반영한 metadata로서, HDR 컨텐츠의 각 씬 별로 동적으로 제공되는 metadata를 의미한다. 여기서, 씬은 유사한 화질 특성을 가지는 구간을 의미하는 것으로 종래의 영화 등의 컨텐츠 제작자에 의하여 구분되어진 시나리오 상의 공간 변화에 따른 씬과는 구별될 수 있으나, 경우에 따라서는 종래의 시나리오 상의 공간 변화에 따른 씬을 의미할 수도 있다. 즉, 영화 등의 컨텐츠 제작자에 의하여 구분되어진 시나리오 상의 동일한 공간에서도 영상의 밝기, 색상 등에 따라 상이한 씬으로 구분될 수 있다. 다만, 반드시 이에 한정되는 것은 아니며, dynamic metadata는 종래의 영화 등의 컨텐츠 제작자에 의하여 구분 되어진 시나리오 상의 공간 변화에 따른 씬 별 또는 프레임 별 또는 그외 다양한 컨텐츠 구간 별로 제공될 수도 있음은 물론이다.
일반적으로, static metadata와 함께 제공되는 HDR 컨텐츠는 static HDR 컨텐츠, dynamic metadata와 함께 제공되는 HDR 컨텐츠는 dynamic HDR 컨텐츠라고도 불리운다. 하지만, 이하에서는 설명의 편의를 위하여 static HDR 컨텐츠는 HDR 컨텐츠를 static metadata와 함께 제공하고, dynamic HDR 컨텐츠는 HDR 컨텐츠를 dynamic metadata와 함께 제공하는 것으로 상정하여 설명하도록 한다.
한편, 일 예에 따라 디스플레이 장치(200)는 HDR 기능을 지원하도록 구현될 수 있다. 여기서, HDR 기능이란 HDR 컨텐츠와 함께 제공되는 metadata에 기초하여 HDR 컨텐츠(20)에 대한 화질 변환(또는 화질 프로세싱) 및 톤 맵핑(tone mapping)을 수행하여 디스플레이하는 기능을 의미한다. 여기서, 톤 맵핑이란 수신된 metadata에 기초하여 HDR 컨텐츠(20)의 오리지널 톤을 디스플레이 장치(100)의 다이내믹 레인지에 맞추어 표현하는 방법이다. 일 예로, metadata에 기초한 HDR 컨텐츠(20)의 최대 휘도를 디스플레이 장치(200)의 표시 능력 즉, 디스플레이 장치(100)가 표현 가능한 최대 휘도에 맵핑하여 제공하게 된다.
한편, 일 예에 따라 HDR 컨텐츠(20) 및 HDR 컨텐츠(20)에 대응되는 static metadata가 제공되는 경우, 디스플레이 장치(100)는 도 2a에 도시된 바와 같이 HDR 컨텐츠(20)에 포함된 모든 프레임을 static metadata에 기초한 동일한 톤 맵핑 그래프를 적용하여 HDR 컨텐츠(20)를 영상 처리할 수 있다.
다른 예에 따라, HDR 컨텐츠(20) 및 HDR 컨텐츠(20)의 각 씬에 대응되는 dynamic metadata가 제공되는 경우, 디스플레이 장치(100)는 도 2b에 도시된 바와 같이 dynamic metadata에 기초한 상이한 톤 맵핑 그래프를 각 씬 별로 적용하여 HDR 컨텐츠(20)를 영상 처리할 수 있다.
후자에 따라 HDR 컨텐츠(20) 및 dynamic metadata가 제공되는 경우, HDR 컨텐츠 즉, HDR 비디오 컨텐츠 재생 도중 특정 이벤트에 따라 메뉴 그래픽(예를 들어, Top Menu, Pop-up Menu, On-Screen Display(OSD) menu)과 같은 그래픽 컨텐츠가 전자 장치(100)에서 제공되는 경우가 있을 수 있다.
이 경우, 메뉴 그래픽이 디스플레이되는 구간 동안 씬이 변하게 되면 각 씬에 대응되는 상이한 metadata가 메뉴 그래픽에도 동일하게 적용되므로 동일한 메뉴 그래픽의 밝기 및 색상 등이 변하게 되는 문제점이 있다. 이는 전자 장치(100)는 메뉴 그래픽이 제공되는 구간 동안 비디오 컨텐츠 및 메뉴 그래픽을 포함하는 프레임을 렌더링(또는 블렌딩)하여 디스플레이 장치(200)로 제공하며, 디스플레이 장치(200)는 비디오 컨텐츠에 대응되는 dynamic metadata에 기초하여 비디오 컨텐츠 및 메뉴 그래픽을 포함하는 프레임을 처리하게 되기 때문이다.
이하에서는 이와 같이 dynamic HDR 비디오 컨텐츠 제공 도중 그래픽 컨텐츠가 제공되는 경우, 그래픽 컨텐츠의 밝기 및 색감을 유지할 수 있는 다양한 실시 예에 대해 설명하도록 한다.
도 3a은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3a에 따르면, 전자 장치(100)는 통신 인터페이스(110) 및 프로세서(120)를 포함한다. 본 개시의 일 실시 예에 따른 전자 장치(100)는 컨텐츠를 재생하여 외부 디스플레이 장치(도 1, 200)로 제공하는 플레이어 기기(player device)로 구현될 수 있다. 예를 들어, UHD(Ultra HD) 블루레이 플레이어(Blu Ray Player)로 구현될 수 있다.
통신 인터페이스(110)는 외부 디스플레이 장치(도 1, 200)와 통신을 수행한다.
일 예에 따라, 통신 인터페이스(110)는 고해상도 비디오와 멀티 채널 디지털 오디오를 하나의 케이블로 전송할 수 있는 HDMI 인터페이스로 구현될 수 있다. 예를 들어, 통신 인터페이스(110)는 비디오와 오디오 신호를 전송하기 위한 TMDS(Transition Minimized Differential Signaling) 채널과, 디바이스 정보, 비디오 또는 오디오에 관련된 정보(예로 E-EDID(Eenhanced Extended Display Identification Data))를 송수신하기 위한 DDC(Display Data Channel) 및 제어 신호를 송수신하기 위한 CEC(Consumer Electronic Control)를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)의 구현 예에 따라 다양한 인터페이스로 구현될 수 있음은 물론이다. 예를 들어 통신 인터페이스(110)는 다양한 타입의 디지털 인터페이스, AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN, 이더넷(Ethernet), IEEE 1394, HDMI, USB, MHL, AES/EBU, 옵티컬(Optical), 코액셜(Coaxial) 등 중 적어도 하나의 통신 방식을 지원하는 형태로 구현될 수도 있다.
또한, 전자 장치(100)는 상술한 다양한 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB), 외부 서버(예를 들어 웹 하드) 등으로부터 스트리밍 또는 다운로드 방식으로 영상 신호를 입력받을 수 있는 별도의 통신 인터페이스(미도시)를 더 포함할 수 있음은 물론이다.
일 실시 예에 따라, 통신 인터페이스(110)는 디스플레이 장치(200)의 모니터 성능에 관한 정보를 수신하여 프로세서(120)로 제공하고, 프로세서(120)로부터 제공된 컨텐츠를 디스플레이 장치(200)로 출력한다.
프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다.
일 실시 예에 따라 프로세서(120)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(140)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
프로세서(120)는 입력된 컨텐츠를 재생하고, 재생되는 컨텐츠를 컨텐츠에 대한 정보와 함께 디스플레이 장치(200)로 제공한다. 예를 들어, 입력된 컨텐츠는 특정 비디오 코덱에 기초하여 인코딩된 HDR 컨텐츠가 될 수 있다. 여기서, 비디오 코덱은 HEVC(H.265), AVC(H.264), MPEG 4, MPEG 2 등이 될 수 있으나, 이에 한정되는 것은 아니다.
예를 들어, 프로세서(120)는 입력된 HDR 컨텐츠를 디코딩하고, 디코딩된 컨텐츠를 대응되는 metadata와 함께 디스플레이 장치(200)로 제공한다. 특히, 프로세서(120)는 HDR 컨텐츠와 함께 기설정된 컨텐츠 구간 별로 대응되는 dynamic metadata를 디스플레이 장치(200)로 제공할 수 있다(이하, 다이내믹 톤 맵핑 모드(dynamic tone-mapping mode)라고도 함).
일 실시 예에 따라 프로세서(120)는 디스크에 기록된 HDR 컨텐츠를 디코딩하고, HDR 컨텐츠의 기설정된 컨텐츠 구간 마다 각 구간의 영상 특성에 대응되는 상이한 metadata를 맵핑하여 디스플레이 장치(200)로 제공할 수 있다. 여기서, 기설정된 컨텐츠 구간은 예를 들어, 유사한 화질을 가지는 컨텐츠 구간인 씬이 될 수 있으나, 이에 한정되는 것은 아니며, 프레임이 될 수도 있다. 여기서, 기설정된 컨텐츠 구간 별로 대응되는 metadata는 해당 컨텐츠 구간, 예를 들어 씬의 비디오(또는 영상) 특성을 반영한 metadata가 될 수 있다. 일 예로, metadata는, 컨텐츠의 컬러 공간 정보, 컨텐츠의 비트수 정보, 컨텐츠의 피크 휘도 정보, 컨텐츠의 톤 맵핑 정보, 마스터링 모니터 정보(예를 들어 최대 밝기 정보) 중 적어도 하나를 포함할 수 있다.
한편, 프로세서(120)가 씬 별로 대응되는 상이한 metadata를 제공하더라도 metadata 전송은 프레임 단위로 이루어질 수 있다. 즉, 동일한 씬을 구성하는 복수의 프레임이 디스플레이 장치(200)로 제공될 때 해당 씬에 대응되는 동일한 metadata가 함께 제공될 수 있다. 예를 들어, HDMI 규격에 따라 영상과 음성은 TMDS (Transition Minimized Differential Signaling) 채널을 이용하고, 제어신호는 CEC (Consumer Electronics Control) 채널을 이용하여 전송하는 경우를 상정하도록 한다. 이 경우, TMDS의 음성정보 및 부가데이터 정보를 전송하는 데이터 섬 구간(Data Island Period) 즉, 수직 또는 수평 동기신호 등이 존재하는 Blanking 구간을 통해 metadata를 디스플레이 장치(200)로 제공할 수도 있다. 또는, 프로세서(120)는 각 프레임의 일정 영역(예를 들어 상단 영역, 하단 영역, 우측 영역 및 좌측 영역 중 적어도 하나의 영역의 적어도 하나의 픽셀 라인)의 픽셀 데이터에 metadata를 저장(또는 삽입)하여 디스플레이 장치(200)로 제공할 수 있다. 예를 들어, 프로세서(120)는 HDR 컨텐츠가 HEVC 스트림 형태로 입력되면 HEVC decoder를 통해 HEVC 스트림의 SEI(Supplemental Enhancement Information) 사용자 데이터 영역으로부터 dynamic metadata 즉, HDR 컨텐츠 정보와 tone mapping 정보를 획득하고 각 씬에 대응되는 dynamic metadata를 대응되는 프레임에 맵핑하여 디스플레이 장치(200)로 전송할 수 있다. 다만, 이에 한정되는 것은 아니며 metadata는 별도의 신호 라인을 통해 전송하는 것도 가능하다.
한편, 본 개시의 일 실시 예에 따라 프로세서(120)는 그래픽 컨텐츠가 활성화되면 그래픽 컨텐츠가 활성화되는 구간 동안 static metadata를 디스플레이 장치(200)로 제공할 수 있다. 여기서, static metadata는 컨텐츠 구간에 따라 변하지 않고 고정된 값을 유지하는 tone mapping control data를 의미한다. 즉, 프로세서(120)는 그래픽 컨텐츠가 제공되는 구간 동안 씬 변화와 관계없이 일정한 톤 맵핑을 제공하므로, 해당 metadata를 기존의 static metadata와 구별하기 위하여 constant-tone mapping metadata(이하, constant metadata)라고 명명하고 해당 metadata를 제공하는 모드를 constant tone-mapping mode라고 명명하기도 한다.
이 경우, 프로세서(120)는 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 constant metadata로 단계적으로(또는 스무스하게 또는 점진적으로) 전환하여 디스플레이 장치(100)로 제공할 수 있다. 즉, 프로세서(120)는 dynamic metadata를 초기값으로 constant metadata를 타겟값으로 하여 초기값이 타겟값으로 점차 전환되도록 중간값들을 획득하고, 중간값들을 전환 구간에 속하는 복수의 프레임 각각에 매칭시켜 디스플레이 장치(200)로 전송할 수 있다. 여기서, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata는 그래픽 컨텐츠가 활성화된 시점을 기준으로 가장 최근의 dynamic metadata가 될 수 있다.
예를 들어, 그래픽 컨텐츠가 제공되는 구간에 대응되는 static metadata 즉, constant metadata는, 컨텐츠 구간에 대응되는 dynamic metadata를 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 metadata가 될 수 있다.
일 실시 예에 따라, 프로세서(120)는, 그래픽 컨텐츠가 활성화되는 구간 동안 각 컨텐츠 구간에 대응되는 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보(예를 들어, distribution_maxrgb_percentiles, Bezier_curve_anchors, targeted_system_display_maximum_luminance, average_maxrgb, knee_point) 중 적어도 일부를, static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환하여 constant metadata를 획득할 수 있다.
다른 실시 예에 따라, 프로세서(120)는 HDR 컨텐츠에 대응되는 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고, 그래픽 컨텐츠가 활성화되는 구간 동안 각 컨텐츠 구간에 대응되는 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보(예를 들어, distribution_maxrgb_percentiles, Bezier_curve_anchors, targeted_system_display_maximum_luminance, average_maxrgb, knee_point 중 적어도 일부를 획득된 연산 값으로 치환하여 constant metadata를 획득할 수 있다.
한편, 프로세서(120)는 metadata의 스무스한 전환을 위해, 기설정된 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득할 수 있다. 여기서, 복수의 프레임 구간에 속하는 프레임 중 첫 프레임에 대응되는 metadata는, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata 즉, 그래픽 컨텐츠가 활성화된 시점을 기준으로 가장 최근의 dynamic metadata 일 수 있다. 또한, 복수의 프레임 구간에 속하는 프레임 중 마지막 프레임에 대응되는 metadata는, 상술한 constant metadata에 기초하여 변환된 데이터가 될 수 있다.
예를 들어, n 번째 프레임에서 그래픽 컨텐츠가 활성화되며, n+t 번째 프레임까지 스무스한 전환을 수행한다고 가정하도록 한다. 즉, n-1 번째 프레임이 복수의 프레임 구간에 속하는 프레임 중 첫 프레임이며, n+t 번째 프레임이 복수의 프레임 구간에 속하는 프레임 중 마지막 프레임이라고 가정하도록 한다.
이 경우, 프로세서(120)는 n-1 번째 프레임에 대해서는 대응되는 dynamic metadata를 전송하고, n 번째 프레임부터 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득할 수 있다. 즉, n 번째 프레임에 대해서는 n-1 번째 프레임에 대응되는 dynamic metadata에 기설정된 가중치를 적용하여 n 번째 프레임에 대응되는 metadata, metadata(n) 획득하고, n+1 번째 프레임에 대해서는 n 번째 프레임에 대응되는 metadata, metadata(n)에 기설정된 가중치를 적용하여 n+1 번째 프레임에 대응되는 metadata, metadata(n-1)를 획득할 수 있다. 이와 같이 n+k 번째 프레임에 대해서는 n+k-1 번째 프레임에 대응되는 metadata, metadata(n+k-1)에 기설정된 가중치를 적용하여 n+k 번째 프레임에 대응되는 metadata metadata(n+k)를 획득할 수 있다. 한편, n+t 번째 프레임에 대응되는 metadata는 상술한 constant metadata가 될 수 있다.
다른 예에 따라, 프로세서(120)는 기설정된 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 대응되는 metadata를 획득할 수 있다.
예를 들어, 프로세서(120)는 n-1 번째 프레임에 대해서는 대응되는 dynamic metadata를 전송하고, n 번째 프레임부터 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득할 수 있다. 즉, n 번째 프레임에 대해서는 n-1 번째 프레임에 대응되는 dynamic metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터(REF)에 제2 가중치를 적용한 값을 합산하여 n 번째 프레임에 대응되는 metadata, metadata(n)를 획득하고, n+1 번째 프레임에 대해서는 n 번째 프레임에 대응되는 metadata, metadata(n)에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터(REF)에 제2 가중치를 적용한 값을 합산하여 n-1 번째 프레임에 대응되는 metadata, metadata(n-1)를 획득할 수 있다. 이와 같이 n+k 번째 프레임에 대해서는 n+k-1 번째 프레임에 대응되는 metadata, metadata(n+k-1)에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터(REF)에 제2 가중치를 적용한 값을 합산하여 n+k 번째 프레임에 대응되는 metadata, metadata(n+k)를 획득할 수 있다. 한편, n+t 번째 프레임에 대응되는 metadata는 constant metadata가 될 수 있다.
예를 들어, 상술한 metadata 산출 방법은 하기와 같은 수학식 1로 표현될 수 있다.
Figure pat00001
Figure pat00002
Figure pat00003
Figure pat00004
여기서, TM[n]: Tone-Mapping Metadata at nth frame, DM[n]: Dynamic Metadata at nth frame, STM[n]: Smooth Transition Metadata at nth frame, CDM: Constant-Tone Mapping Metadata, α: a mixing ratio, k: an index representing the frame number for the transition, t: the total number of frames for the transition interval을 나타낸다.
한편, 반대의 경우 즉 활성화된 그래픽 컨텐츠가 비활성화되는 경우 프로세서(120)는 기설정된 복수의 프레임 구간에 속하는 프레임들에 대해 동일한 방법으로 스무스한 metadata 전환을 수행할 수 있다. 예를 들어, 반대의 경우 metadata 산출 방법은 하기와 같은 수학식 2로 표현될 수 있다.
Figure pat00005
Figure pat00006
Figure pat00007
Figure pat00008
경우에 따라, 프로세서(120)는 그래픽 컨텐츠가 활성화되는 구간 동안 비디오 컨텐츠에 대응되는 dynamic metadata에 기초하여 픽셀 값이 변환(또는 보정)된 그래픽 컨텐츠를 디스플레이 장치(200)로 제공할 수도 있다.
한편, 본 개시의 일 실시 예에 따른 그래픽 컨텐츠는 IG(Interactive Graphic), PG(Presentation Graphic) 및 GUI(Graphical User Interface 중 적어도 하나를 포함할 수 있다. IG는 특정 시점(예를 들어 컨텐츠 초기 시점)에 제공되는 메인 메뉴 그래픽 등 사용자가 선택가능하거나, 컨트롤 가능한 그래픽 컨텐츠를 의미하며, PG는 자막, 출연자 정보 등과 같이 컨텐츠에서 사용자에게 일방적으로 보여주기만 하는 그래픽 컨텐츠를 의미한다. 또한, GUI는 재생 컨트롤 메뉴 등과 같이 사용자 명령에 따라 제공되는 UI를 의미한다. 다만, 자막의 경우는 컨텐츠 전반에 걸쳐 제공된다면 본 개시의 일 실시 예에 따른 그래픽 컨텐츠로서 처리하지 않는 것도 가능하다.
그래픽 컨텐츠는 전자 장치(100) 또는 디스플레이 장치(200)를 통해 사용자 명령이 입력되는 이벤트가 발생하거나, HDR 컨텐츠에서 자동으로 그래픽 컨텐츠를 제공하는 특정 구간(또는 프레임) 또는 특정 시점에 도달하면 활성화될 수 있다. 또한, 컨텐츠 구간 별로 대응되는 컨텐츠에 포함되어진 API (Application Programming Interface) 또는 프로그램은, 그래픽 컨텐츠의 활성화 여부에 대한 정보를 포함하며, 해당 정보에 기초하여 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다. 예를 들어, Java 블루레이 디스크(BD-J)의 경우 자바 어플리케이션(Java application)을 통해 IG, PG 등이 제공될 수 있으며, 이 경우 전자 장치(100)는 그래픽 활성화 시점을 식별하지 못할 수 있다. 이 경우, 해당 그래픽 컨텐츠의 활성화 여부 및 활성화 시점 등을 전자 장치(100)에 제공하기 위한 정보가 컨텐츠에 포함되어야 할 수 있다.
일 예로, 프로세서(120)는, API (Application Programming Interface)을 호출하고, API에 포함된 모드 정보에 기초하여 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다. 예를 들어, 프로세서(120)는 API에 포함된 모드 파라미터에 기초하여 대응되는 metadata를 선택하여 전자 장치(200)로 전송할 수 있다. 예를 들어, 모드 파라미터(또는 모드 플래그) "0" 값은 Dynamic Metadata mode 임을 의미하고 "1" 값은 Static metadata mode (즉, 그래픽이 활성화되는 모드))임을 의미할 수 있다. 또한, “-1”값은 API가 톤 맵핑 모드를 변경하지 않음을 의미할 수 있다. 이에 따라 프로세서(120)는 모드 파라미터가 "1" 값이면, 컨텐츠 구간에 대응되는 dynamic metadata 대신 static metadata에 기초하여 변환된 dynamic metadata 를 전자 장치(200)로 전송할 수 있다. 또한, 프로세서(120)는 모드 파라미터가 "0" 값이면, dynamic metadata를 전자 장치(200)로 전송할 수 있다.
다른 예로, metadata의 리저브드(reserved) 영역의 비트를 활용하여 그래픽 컨텐츠의 활성화 여부에 대한 정보를 포함시키면, 프로세서(120)는 해당 비트에 기초하여 그래픽 컨텐츠가 활성화되는 시점을 식별할 수 있게 된다.
한편, GUI는 사용자 명령에 따라 전자 장치(100)가 제공하는 메뉴 그래픽이므로, 전자 장치(100)가 해당 그래픽 컨텐츠의 제공 시점을 식별할 수 있다는 점에서 IG, PG 등과 차이가 있을 수 있다. 예를 들어, 프로세서(120)는 그래픽 컨텐츠가 활성화되면 비디오 컨텐츠에 그래픽 컨텐츠가 포함된 프레임을 렌더링(또는 블렌딩)하여 디스플레이 장치(200)로 제공할 수 있는데, 이 경우 그래픽 컨텐츠가 활성화되는 구간에 속하는 복수의 프레임에 각각에 대해 대응되는 metadata를 함께 제공할 수 있다. 즉, 그래픽 컨텐츠가 활성화되는 구간 중 메타 데이터 전환 구간에 속하는 프레임에 대해서는 전환된 메타 데이터를 제공하고 메타 데이터 전환 구간 이후의 프레임에 대해서는 상술한 constant metadata를 제공할 수 있다.
한편, 본 개시의 다른 실시 예에 따른 constant metadata는, 예를 들어, 제작자가 제공한 그래픽 컨텐츠 전용 metadata, 그래픽 컨텐츠에 대응되는 static metadata, 프로세서(120)가 그래픽 컨텐츠가 제공되는 적어도 하나의 구간에 대응되는 dynamic metadata를 그래픽 컨텐츠의 특성에 기초하여 변환한 metadata, 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나에 대응되는 static metadata 등이 될 수도 있다. 그래픽 컨텐츠가 활성화되는 구간 동안 씬에 기초한 dynamic metadata가 아닌 constant metadata를 전송하는 이유는 다음과 같다.
상기에서 언급한 바와 같이 디스플레이 장치(200)가 씬 별로 상이한 dynamic metadata에 기초하여 그래픽 컨텐츠를 처리하게 되면, 그래픽 컨텐츠가 복수의 씬 구간에 걸쳐 제공되는 경우 동일한 그래픽 컨텐츠임에도 불구하고 씬 별로 밝기, 색상 등이 변하게 되는 문제점이 있게 된다. 이에 따라 본 개시에서는 dynamic HDR 컨텐츠를 제공하는 도중 제공되는 그래픽 컨텐츠의 밝기 및 색감 등이 씬이 변하더라도 유지되도록 하기 위함이다. 또한 그래픽 컨텐츠의 제작자 의도가 충실히 반영 즉, 제작 당시 제작자가 의도했던 그래픽 컨텐츠의 밝기 및 색감이 유지되도록 하기 위함이다. 예를 들어, 복수의 씬이 제공되는 동안 그래픽 컨텐츠가 활성화되어 있는 경우 해당 복수의 씬 구간 동안 그래픽 컨텐츠가 처음 제공된 씬의 metadata에 기초하여 영상 처리하게 되면 사용자는 일정한 밝기 및 색상의 그래픽 컨텐츠를 제공받을 수 있게 된다. 물론, 이와 같은 영상 처리로 인해 해당 복수의 씬 동안 제공되는 비디오 컨텐츠가 해당 씬의 특성에 맞는 metadata에 기초하여 처리될 수 없게 되지만, 이를 무시한 이유는 그래픽 컨텐츠가 제공되는 동안에 사용자의 관심 컨텐츠는 그래픽 컨텐츠이며 비디오 컨텐츠가 아니기 때문이다.
한편, 본 개시의 또 다른 실시 예에 따라 상술한 실시 예들 중 적어도 두 개 이상의 실시 예들을 조합하여 그래픽 컨텐츠를 처리하는 것도 가능하다. 예를 들어, 프로세서(130)는 그래픽 컨텐츠가 활성화되는 구간 동안 비디오 컨텐츠에 대응되는 dynamic metadata를 그래픽 컨텐츠의 특성에 기초하여 변환하여 제공하면서, 그래픽 컨텐츠의 픽셀 값도 적절히 변경하여 디스플레이 장치(200)로 제공할 수 있다.
도 3b는 도 3a에 도시된 전자 장치의 일 구현 예를 나타내는 도면이다.
도 3b에 따르면, 본 개시의 일 실시 예에 따른 전자 장치(100')는 통신 인터페이스(110), 프로세서(120), 디스크 드라이브(130), 저장부(140) 및 사용자 입력부(150)를 포함할 수 있다. 도 2b에 도시된 구성 중 도 2a에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
프로세서(120)는 CPU, ROM, RAM, Graphic engine, Decoder, Scaler 등으로 구성된다. 또한, 프로세서(120)는 오디오 신호를 처리하기 위한 Audio DSP를 내장하는 형태로 구현될 수도 있다.
디스크 드라이브(130)는 광 디스크(20)로부터 데이터를 리딩하고, 리딩된 데이터를, 프로세서(120), 통신 인터페이스(110) 및 저장부(140) 중 적어도 하나로 출력한다. 예를 들어, 디스크 드라이브(130)는 BD-ROM 드라이브, BD 콤보 드라이브 등으로 구현될 수 있다.
저장부(140)는 프로세서(120)가 각종 처리를 실행하기 위해 필요한 데이터를 저장한다. 일 예로, 프로세서(120)에 포함된 롬(ROM), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(140)와 별도의 메모리로 구현될 수도 있다. 이 경우, 저장부(140)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 전자 장치(100)에 임베디드된 메모리의 경우 비휘발성 메모리, 휘발성 메모리, 플래시 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등과 같은 형태로 구현되고, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, micro SD 카드, USB 메모리 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
사용자 입력부(150)는 버튼, 키, 터치 패널, 리모트 컨트롤러로부터 리모트 신호를 수신하는 리모콘 신호 수신부 중 적어도 하나를 포함할 수 있다.
한편, 프로세서(120)는 디스크 드라이브(130)로부터 공급된 비디오 컨텐츠를 디코딩하고, HDR 컨텐츠, SDR 컨텐츠, UHD 컨텐츠 등을 통신 인터페이스(110)로 제공한다. 특히 프로세서(120)는 HDR 컨텐츠를 디코딩하고 dynamic metadata를 각 프레임 별 싱크에 맞추어 디스플레이 장치(200)로 제공할 수 있다. 그 외, 프로세서(120)는 입력된 컨텐츠의 특성에 기초하여 다양한 기능을 수행할 수 있다. 예를 들어, 프로세서(120)는 연결된 디스플레이 장치(100)로부터 수신된 정보(예를 들어, HDMI 인터페이스의 EDID 정보)에 기초하여 디스플레이 장치(100)가 SDR TV로 식별된 경우, 입력된 HDR 컨텐츠를 SDR 컨텐츠로 컨버젼하여 제공하기도 한다. 반대의 경우도 가능함은 물론이다.
도 4는 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 4에 따르면, 디스플레이 장치(200)는 통신 인터페이스(210), 디스플레이(120) 및 프로세서(130)를 포함한다.
통신 인터페이스(210)는 외부 전자 장치(도 1, 100)와 통신을 수행한다.
통신 인터페이스(210)는 고 해상도 비디오와 멀티 채널 디지털 오디오를 하나의 케이블로 전송할 수 있는 HDMI 인터페이스로 구현될 수 있다. 예를 들어, 통신 인터페이스(110)는 비디오와 오디오 신호를 전송하기 위한 TMDS(Transition Minimized Differential Signaling) 채널과, 디바이스 정보, 비디오 또는 오디오에 관련된 정보(예로 E-EDID(Eenhanced Extended Display Identification Data))를 송수신하기 위한 DDC(Display Data Channel) 및 제어 신호를 송수신하기 위한 CEC(Consumer Electronic Control)를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)의 구현 예에 따라 다양한 인터페이스로 구현될 수 있음은 물론이다. 예를 들어 통신 인터페이스(210)는 다양한 타입의 디지털 인터페이스, AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN, 이더넷(Ethernet), IEEE 1394, HDMI, USB, MHL, AES/EBU, 옵티컬(Optical), 코액셜(Coaxial) 중 적어도 하나의 통신 방식을 지원하는 형태로 구현될 수도 있다.
일 실시 예에 따라, 통신 인터페이스(210)는 디스플레이 장치(200)의 모니터 성능에 관한 정보를 전자 장치(100)로 제공하고, 전자 장치(100)로부터 제공된 컨텐츠를 제공받을 수 있다.
디스플레이(220)는 LCD(liquid crystal display), OLED(organic light-emitting diode), LED(light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널 등과 같은 다양한 형태로 구현될 수 있다.
프로세서(230)는 디스플레이 장치(200)의 전반적인 동작을 제어한다. 프로세서(230)의 구현 형태는 전자 장치(100)의 프로세서(120)의 구현 형태와 동일/유사하므로 자세한 설명을 생략하도록 한다.
일 실시 예에 따라 프로세서(230)는 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 대응되는 dynamic metadata가 통신 인터페이스(210)를 통해 전자 장치(100)로부터 수신되면, dynamic metadata에 기초하여 비디오 컨텐츠를 처리한다. 또한, 처리된 비디오 컨텐츠를 디스플레이하도록 디스플레이(220)를 제어한다.
특히, 프로세서(230)는 그래픽 컨텐츠가 활성화되면, 그래픽 컨텐츠가 활성화되는 적어도 하나의 구간 동안 그래픽 컨텐츠에 대응되는 metadata, 즉 constant metadata에 기초하여 비디오 컨텐츠 및 그래픽 컨텐츠를 처리할 수 있다. 여기서, 그래픽 컨텐츠에 대응되는 metadata는, 그래픽 컨텐츠가 활성화된 특정 비디오 컨텐츠 구간에 대응되는 metadata, 제작자가 제공한 그래픽 컨텐츠 전용 metadata(예를 들어, 그래픽 컨텐츠에 대응되는 static metadata), 제작자가 제공한 비디오 컨텐츠 및 그래픽 컨텐츠에 대응되는 metadata(예를 들어, 비디오 컨텐츠 및 그래픽 컨텐츠에 대응되는 static metadata), 전자 장치(200)가 그래픽 컨텐츠가 제공되는 적어도 하나의 구간에 대응되는 dynamic metadata를 그래픽 컨텐츠의 특성에 기초하여 변환한 metadata, 그래픽 컨텐츠가 제공되는 적어도 하나의 구간에 대응되는 dynamic metadata를 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환한 metadata 등이 될 수 있다. constant metadata의 구체적 예는, 전자 장치(100)에서 전송되는 metadata와 동일하므로 더 이상의 자세한 설명은 생략하도록 한다.
예를 들어, 전자 장치(100)가 그래픽 컨텐츠가 활성화되는 구간 동안 constant metadata를 식별하여 전송하면, 프로세서(230)는 해당 컨텐츠 구간에서 수신된 metadata에 기초하여 비디오 컨텐츠 및 그래픽 컨텐츠를 구분하지 않고 처리하게 된다. 이에 따라 그래픽 컨텐츠는 일정한 밝기와 색감으로 제공될 수 있지만 비디오 컨텐츠는 대응되는 dynamic metadata에 기초하여 처리될 수 없으므로, 그래픽 컨텐츠가 활성화되는 구간 동안 제작자의 의도가 반영된 비디오 컨텐츠를 제공할 수 없게 되지만, 해당 구간에서 사용자의 관심 컨텐츠는 그래픽 컨텐츠이며 비디오 컨텐츠가 아니기 때문에 본 개시에서는 이를 무시하도록 구현한 것이다. 한편, 프로세서(230)가 그래픽 컨텐츠를 별도 처리할 수 없는 이유는 도 1에서도 언급한 바와 같이 전자 장치(100)는 그래픽 컨텐츠 및 비디오 컨텐츠를 포함하는 프레임을 렌더링(또는 블렌딩)하여 디스플레이 장치(200)로 제공하기 때문이다.
한편, 그래픽 컨텐츠가 제공되는 컨텐츠 구간 동안 전자 장치(100)로부터 constant metadata가 제공되는 경우 디스플레이 장치(200)는 단순히 제공받은 metadata에 기초하여 수동적으로 컨텐츠를 처리하는 것이다. 즉, 디스플레이 장치(200)는 그래픽 활성화 여부를 식별하지 못하고, 전자 장치(100)로부터 이미 그래픽 활성화 여부가 식별됨에 따라 전송된 metadata에 기초하여 컨텐츠를 처리하게 되는 것이다.
다만, 다른 실시 예에 따르면, 디스플레이 장치(200)는 그래픽 컨텐츠의 활성화 여부를 직접 식별하여 컨텐츠를 처리할 수도 있다. 예를 들어, 전자 장치(100)는 비디오 컨텐츠의 dynacmic metadata, 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 그래픽 컨텐츠의 활성화 여부를 나타내는 정보를 디스플레이 장치(200)로 제공할 수 있다. 이 경우, 디스플레이 장치(200)는 그래픽 컨텐츠의 활성화 여부를 나타내는 정보에 기초하여 그래픽이 비활성화되는 구간에서는 dynacmic metadata에서 프레임을 처리하고, 그래픽이 활성화되는 구간에서는 static metadata에 기초하여 프레임을 처리할 수 있다. 이 경우 디스플레이 장치(100)는 그래픽 컨텐츠가 활성화되기 전 마지막으로 수신된 dynamic metadata 와 static metadata 사이에서 smooth transition을 수행할 수 있다.
예를 들어, 디스플레이 장치(200)는 전자 장치(100)로부터 그래픽 컨텐츠의 활성화 여부를 나타내는 1 비트 플래그 값(“1”: 그래픽 활성화, “0”: 그래픽 비활성화)을 수신하고 해당 플래그 값에 기초하여 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다. 일 예로, 1 비트 플래그가 “1”로 설정되어 있으면 그래픽 컨텐츠가 활성화된 것으로 식별할 수 있다. 이 경우, 디스플레이 장치(200)는 1비트 플래그가 “0” 에서 “1”로 변경되기 전 마지막으로 수신된 dynamic metadata 와 기 설정된 static metadata 사이에서 smooth transition을 수행할 수 있다.
또 다른 실시 예에 따르면, 디스플레이 장치(200)가 능동적으로 그래픽 컨텐츠를 포함하는 비디오 컨텐츠의 특성을 분석하고, 이에 기초하여 그래픽 컨텐츠를 포함하는 비디오 프레임을 영상 처리할 수 있다.
구체적으로, 디스플레이 장치(200)가 그래픽 컨텐츠가 활성화되는 구간 동안 적용할 metadata를 직접 식별하거나, 그래픽 컨텐츠의 특성에 따른 영상 처리를 하는 경우에는 그래픽 컨텐츠의 활성화 여부를 식별할 필요가 있다. 이 경우에도 물론 디스플레이 장치(200)는 전자 장치(100)로부터 비디오 컨텐츠 및 그래픽 컨텐츠가 렌더링(또는 블렌딩)된 컨텐츠를 제공받기 때문에 그래픽 컨텐츠 만을 식별하여 처리하는 것이 아닌, 해당 구간에서 입력되는 컨텐츠에 대해 동일한 영상 처리를 하게 된다. 예를 들어, 전자 장치(100)가 그래픽 컨텐츠가 활성화되는 구간 동안 비디오 컨텐츠에 대응되는 dynamic metadata를 제공한다면, 디스플레이 장치(200)는 그래픽 컨텐츠가 활성화되는 구간 동안 입력된 dynamic metadata가 아닌, 기저장된 별도의 metadata를 이용하여 해당 구간에서 입력되는 비디오 컨텐츠 및 그래픽 컨텐츠를 처리할 수 있다.
이 경우, 프로세서(230)는 전자 장치(100)로부터 제공되는 정보에 기초하여 그래픽 컨텐츠의 활성화 시점을 식별할 수 있다. 일 예로, 전자 장치(100)로부터 제공되는 metadata의 특정 영역의 특정 비트가 해당 정보를 나타낼 수 있다. 예를 들어, 전자 장치(100)로부터 제공되는 dynamic metadata의 리저브드(reserved) 영역에서 적어도 1 비트를 할당하여 그래픽 컨텐츠의 활성화 여부에 대한 정보를 포함시킬 수 있다. 그래픽 컨텐츠의 활성화 여부에 대한 정보는 컨텐츠 제작자에 의해 dynamic metadata에 추가(예를 들어, 상술한 IG, PG 등)되거나, 전자 장치(100)에 의해 dynamic metadata에 추가(예를 들어, 상술한 사용자 명령에 따라 제공되는 GUI 등)될 수도 있다.
한편, 프로세서(230)는 그래픽 컨텐츠가 활성화되면, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 constant metadata로 단계적으로(또는 스무스하게) 전환되는 metadata에 기초하여 컨텐츠를 처리할 수 있다.
이 경우, 프로세서(230)는 전자 장치(100)로부터 복수의 프레임 구간 동안 단계적으로(또는 스무스하게) 전환되는 metadata를 수신할 수도 있지만, 프로세서(230)가 비디오 컨텐츠에 대응되는 dynamic metadata 및 그래픽 컨텐츠에 대응되는 constant metadata에 기초하여 복수의 프레임 구간 동안 단계적으로 전환되는 metadata를 획득하는 것도 가능하다.
후자의 경우, 프로세서(230)는 metadata 전환이 이루어지는 기설정된 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득할 수 있다. 여기서, 복수의 프레임 구간에 속하는 프레임 중 첫 프레임에 대응되는 metadata는, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata일 수 있다. 또한, 복수의 프레임 구간에 속하는 프레임 중 마지막 프레임에 대응되는 metadata는, 상술한 첫 프레임에 대응되는 dynamic metadata가 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터 즉, constant metadata가 될 수 있다. 여기서, constant metadata는, 전자 장치(100)로부터 수신될 수 있다. 다만, 경우에 따라서는 프로세서(230)가 상술한 첫 프레임에 대응되는 dynamic metadata를 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환함으로써, 마지막 프레임에 대응되는 constant metadata를 획득하는 것도 가능하다.
그 밖에 복수의 프레임 구간에 속하는 프레임들에 대응되는 metadata를 획득하는 구체적 방법은 전자 장치(100)에서 metadata를 획득하는 방법과 동일하므로 자세한 설명은 생략하도록 한다.
도 5a는 본 개시의 일 실시 예에 따른 dynamic metadata의 구현 예를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따르면, dynamic metadata는 HDMI protocol에 따른 HDR metadata로 구현될 수 있다. 예를 들어, 해당 dynamic metadata는 도 5에 도시된 바와 같이 Vendor Specific Infoframe(VSIF) packet에서 전송될 수 있다.
도 5b는 본 개시의 일 실시 예에 따른 constant metadata의 구현 예를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따르면, 도 5b에 도시된 바와 같은 dynamic metadata는 기설정된 변환식에 따라 변환되고, 변환된 metadata는 그래픽 컨텐츠가 제공되는 동안 이용될 수 있다.
예를 들어, 도 5a에서 targeted_system_display_maximum_luminance는 O으로 변환되고, maxscl[w][i]는 maxDML로 변환되며, average_maxrgb[w]는 0.5*maxDML로 변환되고, distribution_values는 도 5b에 도시된 테이블에 기초하여 변환될 수 있다. 또한, tone_mapping_flag[w] 0으로 변환된다. 즉, Basis Tone Mapping Curve (Bezier curve) information는 그래픽 컨텐츠가 제공되는 콘스탄트 톤 맵핑 모드에서 이용되지 않을 수 있다.
도 6은 본 개시의 일 실시 예에 따른 metadata의 전송 방법을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따라 도 5a에 도시된 바와 같이 VSIF packet은 도 6에 도시된 바와 같은 방법으로 전송될 수 있다. 예를 들어, Frame[n]에 대응되는 VSIF packet은 Frame[n-1](610)의 top horizontal blanking interval(611)에서 전송될 수 있다. 다만, blanking interval에서 VSIF packet의 정확한 위치는 구현 예에 따라 변경될 수 있다.
도 7a 및 도 7b는 본 개시의 일 실시 예에 따른 그래픽 컨텐츠 처리 방법을 설명하기 위한 도면들이다.
도 7a에서는 비디오 컨텐츠의 씬 1, 2, 3, 4가 차례로 재생되고 씬 2 및 씬 3 구간에서 상이한 그래픽 컨텐츠가 제공되는 경우 가정하도록 한다.
본 개시의 일 실시 예에 따르면, 도시된 바와 같이 씬 2 및 씬 3 구간에서 제1 및 제2 그래픽 컨텐츠(60, 70)가 제공되면, 전자 장치(100)는 씬 2 및 씬 3 구간에서 제공되는 비디오 컨텐츠의 dynamic metadata를 각각 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환한 constant metadata를 디스플레이 장치(200)로 제공할 수 있다.
예를 들어, 전자 장치(100)는 도시된 바와 같이 씬 2 및 씬 3 구간에 각각 대응되는 dynamic metadata 2 및 dynamic metadata 3를 비디오 컨텐츠 및 그래픽 컨텐츠의 static metadata에 기초하여 변환(또는 치환)한 dynamic metadata를 그래픽 컨텐츠(60, 70)가 제공되는 전체 구간 즉, 씬 2 및 씬 3 구간에서 제공할 수 있다. 여기서, static metadata에 기초하여 변환된 dynamic metadata 즉, constant metadata는 dynamic metadata의 포맷은 유지하면서 적어도 일부 데이터가 static metadata의 적어도 일부 데이터로 치환(또는 대체)된 metadata가 될 수 있다. 또한, static metadata에 기초하여 dynamic metadata를 변환(또는 치환)한다 함은, dynamic metadata의 적어도 일부 데이터를 static metadata의 일부 데이터로 단순히 치환하는 경우 뿐 아니라, dynamic metadata의 적어도 일부 데이터를, static metadata의 적어도 일부 데이터를 기설정된 연산 방식(또는 연산 수식)을 통해 연산한 연산 데이터로 치환한 경우까지 포함할 수 있다.
또한, 비디오 컨텐츠 및 그래픽 컨텐츠의 static metadata는 제작자가 해당 씬 구간에서 비디오 컨텐츠 및 그래픽 컨텐츠의 특성을 모두 반영하여 작성한 metadata가 될 수 있다. 다만, 이에 한정되는 것은 아니며, 씬 2 및 씬 3 구간에서 비디오 컨텐츠 의 static metadata 또는 및 그래픽 컨텐츠의 static metadata에 기초하여 dynamic metadata 2 및 dynamic metadata 3를 변환한 dynamic metadata를 제공할 수도 있다.
이 경우, 디스플레이 장치(200)는 씬 2 및 씬 3 를 디스플레이하는 동안 static metadata에 기초하여 변환된 dynamic metadata에 기초하여 프레임들을 처리하게 되므로, 그래픽 컨텐츠(60, 70)의 제작자가 의도한 밝기 및 색감이 유지될 수 있게 된다.
도 7b는 도 7a에 도시된 실시 예를 구현하기 위한 전자 장치(100)의 동작을 상세히 설명하기 위한 도면이다.
도 7b에 따르면, 전자 장치(100)는 그래픽 컨텐츠가 제공되지 않는 컨텐츠 구간에서는 dynamic metadata 셋에서 각 컨텐츠 구간 별로 대응되는 dynamic metadata를 선택하여 metadata 버퍼(720)로 제공할 수 있다(switch 1 동작).
다만, 전자 장치(100)는 비디오 컨텐츠의 dynamic metadata(730)를 static metadata에 기초하여 변환한 dynamic metadata(730')를 선택하여 metadata 버퍼(720)로 제공할 수 있다(switch 2 동작).
도 7c는 본 발명의 다른 실시 예를 구현하기 위한 전자 장치(100)의 동작을 설명하기 위한 도면이다.
도 7c에 따르면, 전자 장치(100)는 그래픽 컨텐츠가 제공되는지 여부에 기초하여 static metatdata(730)의 포맷을 상술한 다양한 실시 예에 따라 변환(751)한 데이터 또는 디지털 비디오 데이터(740)에서 추출된 metatdata(752)를 선택할 수 있다(753). 이어서, 전자 장치(100)는 선택된 metadata에 대한 플리커 컨트롤 작업(예를 들어 상술한 metadata의 스무스한 전환)을 수행(754)하고, 비디오 디코더(755)에 의해 디코딩된 디지털 디비오 데이터 및 플리커 컨트롤 작업이 수행된metadata에 기초한 영상 시그널을 생성(756)하여 디스플레이 장치(200)로 제공할 수 있다.
도 8a 및 도 8b는 본 개시의 일 실시 예에 따른 톤 맵핑 모드 전환 방법을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따르면, 그래픽 컨텐츠가 활성화됨에 따라 dynamic metadata를 constant metadata로 전환하여 제공할 때 스무스한 전환이 이루어지도록 할 수 있다.
도 8a에 따르면, 전자 장치(100)는 그래픽 컨텐츠가 제공되지 않는 컨텐츠 구간 즉, dynamic tone-mapping mode 에서 dynamic metadata 셋(810)에서 각 컨텐츠 구간 별로 대응되는 dynamic metadata를 선택하게 된다.
이 후, 그래픽 컨텐츠가 활성화되면, 즉, constant tone-mapping mode로 전환하기 위하여 기설정된 복수의 프레임 구간 동안 스무스한 metadata 전환을 수행하게 된다. 구체적으로, dynamic tone-mapping mode에서 제공되던 dynamic metadata를 constant tone-mapping mode에 대응되는 constant metadata로 단계적으로(또는 스무스하게) 전환을 수행하게 된다. 여기서, 모드 전환 정보 및 전환이 이루어지는 구간 정보는 상술한 API 등에 포함될 수 있다.
일 실시 예에 따라, 전자 장치(100)는 그래픽 컨텐츠가 활성화됨을 나타내는 API가 호출되면 도 8b에 도시된 바와 같이 가장 최근의 dynamic metadata를 캡쳐하고, 해당 dynamic metadata를 DM0로 저장한다. 이어서, 해당 dynamic metadata에 기초하여 획득된 conetant metadata를 DM1으로 저장한다. 이 후, 예를 들어, API에 의해 설정된 전환 구간(Transition Duration)(ex. milliseconds))동안 DM0부터 DM1까지 점차 변경할 수 있다.
예를 들어, 도 8b에 도시된 바와 같이 DM0에서 모니터링 디스플레이의 최대 휘도가 500 nit 이고, DM1에서 모니터링 디스플레이의 최대 휘도가 1000 nit인 경우, 기설정된 전환 구간 동안 점차적으로 최대 휘도가 증가되는 metadata를 획득하여 디스플레이 장치(200)로 전송할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 톤 맵핑 데이터 획득 방법을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따르면, 도 8b에서 획득된 dynamic metadata(DM0)에 기설정된 단위로 증가/감소하는 파라미터 값을 적용하여 전환 구간에 속하는 복수의 프레임 각각에 대응되는 metadata를 획득할 수 있다.
도 9에 도시된 바와 같이 5 프레임 간격 동안 dynamic metadata를 constant metadata로 점차 전환한다고 가정할 때, 전환 구간에 속하는 복수의 프레임 각각에 대응되는 metadata를 획득하기 위해 적용되는 파라미터 값은 점차 증가하거나 점차 감소할 수 있다. 예를 들어, 제1 파라미터 값은 일정한 크기 만큼 점차 증가하고, 제2 파라미터 값은 일정한 크기 만큼 점차 감소될 수 있다. 예를 들어, 파라미터 값을 VSIF Vector로 나타내는 경우 벡터의 크기는 DM0에서 DM1까지 점차 증가/감소하게 된다. 예를 들어, 도 8b에 도시된 바와 같이 DM0에서 DM1까지 모니터링 디스플레이의 최대 휘도는 기설정된 크기 즉, 100 nit 단위로 증가할 수 있다. 다만 이는 일 예를 든 것이며, 전환 구간 동안 metadata 값에 영향을 미치는 복수의 파라미터 값은 서로 다른 단위(또는 동일한 단위)로 모두 증가하거나, 모두 감소할 수 있고, 서로 다른 단위로 각각 증가/감소할 수도 있음은 물론이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 10에 도시된 전자 장치의 제어 방법에 따르면, 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 매 프레임 단위로 외부 디스플레이 장치로 제공한다(S1010).
이 후, 그래픽 컨텐츠가 활성화되면(S1020:Y), 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 디스플레이 장치로 제공한다(S1030). 이 경우, dynamic metadata를 기설정된 복수의 프레임 구간 동안 단계적으로 static metadata로 전환할 수 있다. 여기서, 그래픽 컨텐츠는, IG(Interactive Graphic), PG(Presentation Graphic) 및 GUI(Graphical User Interface) 중 적어도 하나를 포함할 수 있다.
이 경우, S1010 단계에서는, 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득하여 제공할 수 있다.
또한, S1010 단계에서는, 컨텐츠에 포함된 API(Application Programming Interface)을 호출하고, API에 포함된 모드 정보에 기초하여 그래픽 컨텐츠의 활성화 여부를 식별할 수 있다.
또한, S1010 단계에서는, 복수의 프레임 구간에 속하는 프레임들에 대해, 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 대응되는 metadata를 획득할 수 있다.
여기서, 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata일 수 있다. 또한, 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, dynamic metadata가 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터일 수 있다.
또한, 마지막 프레임에 대응되는 metadata는, dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터일 수 있다.
또한, S1010 단계에서는, static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고, dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 획득된 연산 값으로 치환하여 마지막 프레임에 대응되는 metadata를 획득할 수 있다.
또한, 제어 방법은, 그래픽 컨텐츠가 비활성화되면, static metadata를 기설정된 복수의 프레임 구간 동안 해당 컨텐츠 구간에 대응되는 dynamic metadata로 단계적으로(또는 스무스하게) 전환하여 디스플레이 장치로 제공하는 단계를 더 포함할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 11에 도시된 디스플레이 장치의 제어 방법에 따르면, 비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 대응되는 dynamic metadata를 매 프레임 단위로 전자 장치로부터 수신한다(S1110).
이어서, dynamic metadata에 기초하여 비디오 컨텐츠를 처리하여 디스플레이한다(S1120).
그래픽 컨텐츠가 활성화되면(S1130:Y), 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 비디오 컨텐츠를 처리한다(S940). 이 경우, dynamic metadata를 기설정된 복수의 프레임 구간 동안 단계적으로(또는 스무스하게 또는 점진적으로) static metadata로 전환할 수 있다. 여기서, 그래픽 컨텐츠는, IG(Interactive Graphic), PG(Presentation Graphic) 및 GUI(Graphical User Interface) 중 적어도 하나를 포함할 수 있다.
이 경우, S1140 단계에서는, 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득할 수 있다.
또한, S1140 단계에서는, 복수의 프레임 구간에 속하는 프레임들에 대해, 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 대응되는 metadata를 획득할 수 있다.
여기서, 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata일 수 있다. 또한, 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, dynamic metadata가 비디오 컨텐츠 및 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터일 수 있다.
또한, 마지막 프레임에 대응되는 metadata는, dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터일 수 있다.
또한, S1140 단계에서는, static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고, dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 획득된 연산 값으로 치환하여 마지막 프레임에 대응되는 metadata를 획득할 수 있다.
또한, 제어 방법은, 그래픽 컨텐츠가 비활성화되면, static metadata를 기설정된 복수의 프레임 구간 동안 해당 컨텐츠 구간에 대응되는 dynamic metadata로 단계적으로(또는 스무스하게) 전환하여 비디오 컨텐츠를 처리할 수 있다.
상술한 다양한 실시 예들에 따르면, dynamic HDR 컨텐츠를 제공하는 도중 제공되는 그래픽 컨텐츠의 밝기 및 색감 등이 유지될 수 있다.
또한, 제작자가 의도한 그래픽 컨텐츠의 밝기 및 색감으로 그래픽 컨텐츠를 제공할 수 있게 된다.
또한, metadata의 스무스한 전환을 통해 플리커, 서든 드롭(sudden drop)과 같은 화질 저하 현상을 방지할 수 있게 된다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 및 디스플레이 장치 중 적어도 하나에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 사전자 장치 및 디스플레이 장치 중 적어도 하나에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치 및 디스플레이 장치 중 적어도 하나에 구비된 임베디드 서버, 또는 전자 장치 및 디스플레이 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(120, 230) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 음향 출력 장치(100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 음향 출력 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 전자 장치 110: 통신 인터페이스
120: 프로세서 200: 디스플레이 장치
210: 통신 인터페이스 220: 디스플레이
230: 프로세서

Claims (20)

  1. 전자 장치에 있어서,
    통신 인터페이스; 및
    비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 상기 통신 인터페이스를 통해 외부 디스플레이 장치로 제공하는 프로세서;를 포함하며,
    상기 프로세서는,
    상기 dynamic metadata를 매 프레임 단위로 상기 외부 디스플레이 장치로 전송하며,
    그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 디스플레이 장치로 제공하는, 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 dynamic metadata를 상기 기설정된 복수의 프레임 구간 동안 상기 static metadata로 단계적으로 전환하여 상기 디스플레이 장치로 제공하는, 전자 장치.
  3. 제1항에 있어서,
    상기 static metadata는,
    상기 컨텐츠 구간에 따라 변하지 않고 고정된 값을 가지는 tone mapping control data인, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득하여 제공하는, 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 컨텐츠에 포함된 API(Application Programming Interface)을 호출하고, 상기 API에 포함된 모드 정보에 기초하여 상기 그래픽 컨텐츠의 활성화 여부를 식별하는, 전자 장치.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 복수의 프레임 구간에 속하는 프레임들에 대해, 상기 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 상기 대응되는 metadata를 획득하는, 전자 장치.
  7. 제6항에 있어서,
    상기 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 상기 dynamic metadata이며,
    상기 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata가 상기 비디오 컨텐츠 및 상기 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터인, 전자 장치.
  8. 제6항에 있어서,
    상기 마지막 프레임에 대응되는 metadata는,
    상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터인, 전자 장치.
  9. 제6항에 있어서,
    상기 프로세서는,
    상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고,
    상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 상기 획득된 연산 값으로 치환하여 상기 마지막 프레임에 대응되는 metadata를 획득하는, 전자 장치.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 그래픽 컨텐츠가 비활성화되면, 상기 static metadata를 기설정된 복수의 프레임 구간 동안 해당 컨텐츠 구간에 대응되는 dynamic metadata로 단계적으로 전환하여 상기 디스플레이 장치로 제공하는, 전자 장치.
  11. 제1항에 있어서,
    상기 그래픽 컨텐츠는,
    IG(Interactive Graphic), PG(Presentation Graphic) 및 GUI(Graphical User Interface) 중 적어도 하나를 포함하는, 전자 장치.
  12. 디스플레이 장치에 있어서,
    통신 인터페이스;
    디스플레이; 및
    비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 매 프레임 단위로 상기 통신 인터페이스를 통해 외부 전자 장치로부터 수신하고, 상기 dynamic metadata에 기초하여 상기 비디오 컨텐츠를 처리하여 상기 디스플레이를 통해 디스플레이하는 프로세서;를 포함하고,
    상기 프로세서는,
    그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 비디오 컨텐츠를 처리하는, 디스플레이 장치.
  13. 전자 장치의 제어 방법에 있어서,
    비디오 컨텐츠 및 기설정된 컨텐츠 구간 별로 해당 구간의 비디오 컨텐츠에 대응되는 dynamic metadata를 매 프레임 단위로 외부 디스플레이 장치로 제공하는 단계; 및
    그래픽 컨텐츠가 활성화되면, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 dynamic metadata를 기설정된 복수의 프레임 구간 동안 static metadata로 전환하여 상기 디스플레이 장치로 제공하는 단계;를 포함하는, 제어 방법.
  14. 제13항에 있어서,
    상기 디스플레이 장치로 제공하는 단계는,
    상기 dynamic metadata를 상기 기설정된 복수의 프레임 구간 동안 상기 static metadata로 단계적으로 전환하여 제공하는, 전자 장치.
  15. 제13항에 있어서,
    상기 디스플레이 장치로 제공하는 단계는,
    상기 복수의 프레임 구간에 속하는 프레임들에 대해, 각각 이전 프레임에 대응되는 metadata에 기설정된 가중치를 적용하여 대응되는 metadata를 획득하여 제공하는, 제어 방법.
  16. 제15항에 있어서,
    상기 디스플레이 장치로 제공하는 단계는,
    상기 컨텐츠에 포함된 API (Application Programming Interface)을 호출하고, 상기 API에 포함된 모드 정보에 기초하여 상기 그래픽 컨텐츠의 활성화 여부를 식별하는, 제어 방법.
  17. 제15항에 있어서,
    상기 디스플레이 장치로 제공하는 단계는,
    상기 복수의 프레임 구간에 속하는 프레임들에 대해, 상기 이전 프레임에 대응되는 metadata에 기설정된 제1 가중치를 적용한 값 및 기설정된 기준 데이터에 제2 가중치를 적용한 값을 합산하여 상기 대응되는 metadata를 획득하는, 제어 방법.
  18. 제17항에 있어서,
    상기 복수의 프레임 구간에 속하는 첫 프레임에 대응되는 metadata는, 상기 그래픽 컨텐츠가 활성화된 컨텐츠 구간에 대응되는 상기 dynamic metadata이며,
    상기 복수의 프레임 구간에 속하는 마지막 프레임에 대응되는 metadata는, 상기 dynamic metadata가 상기 비디오 컨텐츠 및 상기 그래픽 컨텐츠 중 적어도 하나의 static metadata에 기초하여 변환된 데이터인, 제어 방법.
  19. 제17항에 있어서,
    상기 마지막 프레임에 대응되는 metadata는,
    상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부가 상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부로 치환된 데이터인, 제어 방법.
  20. 제17항에 있어서,
    상기 디스플레이 장치로 제공하는 단계는,
    상기 static metadata에 포함된 컨텐츠의 최대 밝기 정보 및 마스터링 모니터의 최대 밝기 정보 중 적어도 일부를 기설정된 수식에 따라 연산한 연산 값을 획득하고,
    상기 dynamic metadata에 포함된 컨텐츠의 밝기 정보, 톤 맵핑 정보, 마스터링 모니터의 최대 밝기 정보, 컨텐츠의 RGB 정보 중 적어도 일부를 상기 획득된 연산 값으로 치환하여 상기 마지막 프레임에 대응되는 metadata를 획득하는, 제어 방법.






KR1020180023861A 2017-07-13 2018-02-27 전자 장치, 디스플레이 장치 및 그 제어 방법 KR102553764B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/004,852 US10735688B2 (en) 2017-07-13 2018-06-11 Electronics apparatus, display apparatus and control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762531932P 2017-07-13 2017-07-13
US62/531,932 2017-07-13
US201762553937P 2017-09-04 2017-09-04
US62/553,937 2017-09-04

Publications (2)

Publication Number Publication Date
KR20190008070A true KR20190008070A (ko) 2019-01-23
KR102553764B1 KR102553764B1 (ko) 2023-07-10

Family

ID=65323888

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180023861A KR102553764B1 (ko) 2017-07-13 2018-02-27 전자 장치, 디스플레이 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR102553764B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075672A1 (ko) * 2019-10-16 2021-04-22 삼성전자 주식회사 디스플레이 장치 및 그 동작방법
US11825235B2 (en) 2019-06-28 2023-11-21 Samsung Electronics Co., Ltd. Electronic device for processing image and image processing method thereof

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110016789A (ko) * 2009-08-12 2011-02-18 에스케이텔레콤 주식회사 영상처리방법 및 영상처리시스템
KR20110054145A (ko) * 2009-11-17 2011-05-25 연세대학교 산학협력단 영상 컬러 보정 장치와 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR20130085371A (ko) * 2010-06-25 2013-07-29 톰슨 라이센싱 높은 동적 범위 비디오를 톤 맵핑하기 위한 그래픽 사용자 인터페이스
KR20160040981A (ko) * 2014-10-06 2016-04-15 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20160052570A (ko) * 2014-05-20 2016-05-12 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
JP5995032B1 (ja) * 2014-06-26 2016-09-21 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
KR20160123216A (ko) * 2014-02-21 2016-10-25 엘지전자 주식회사 3d 방송 신호를 처리하는 방법 및 장치
KR20170070164A (ko) * 2014-10-15 2017-06-21 벤자민 노왁 다중 관점 콘텐츠 캡처 및 합성

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110016789A (ko) * 2009-08-12 2011-02-18 에스케이텔레콤 주식회사 영상처리방법 및 영상처리시스템
KR20110054145A (ko) * 2009-11-17 2011-05-25 연세대학교 산학협력단 영상 컬러 보정 장치와 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR20130085371A (ko) * 2010-06-25 2013-07-29 톰슨 라이센싱 높은 동적 범위 비디오를 톤 맵핑하기 위한 그래픽 사용자 인터페이스
KR20160123216A (ko) * 2014-02-21 2016-10-25 엘지전자 주식회사 3d 방송 신호를 처리하는 방법 및 장치
KR20160052570A (ko) * 2014-05-20 2016-05-12 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
JP5995032B1 (ja) * 2014-06-26 2016-09-21 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
KR20160040981A (ko) * 2014-10-06 2016-04-15 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20170070164A (ko) * 2014-10-15 2017-06-21 벤자민 노왁 다중 관점 콘텐츠 캡처 및 합성

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11825235B2 (en) 2019-06-28 2023-11-21 Samsung Electronics Co., Ltd. Electronic device for processing image and image processing method thereof
WO2021075672A1 (ko) * 2019-10-16 2021-04-22 삼성전자 주식회사 디스플레이 장치 및 그 동작방법

Also Published As

Publication number Publication date
KR102553764B1 (ko) 2023-07-10

Similar Documents

Publication Publication Date Title
US10735688B2 (en) Electronics apparatus, display apparatus and control method thereof
US20200221096A1 (en) Data output apparatus, data output method, and data generation method
US20200244916A1 (en) Method for generating control information based on characteristic data included in metadata
JP7133772B2 (ja) 映像表示システム及び映像表示方法
US10939158B2 (en) Electronic apparatus, display apparatus and control method thereof
JP6566271B2 (ja) 伝送方法及び再生装置
KR102553764B1 (ko) 전자 장치, 디스플레이 장치 및 그 제어 방법
KR102351095B1 (ko) 전자 장치, 디스플레이 장치 및 그 제어 방법
JP6803463B2 (ja) ディスプレイ装置及びその制御方法
JP6928885B2 (ja) 表示装置、表示方法及びコンピュータプログラム
JP6751893B2 (ja) 再生方法、再生装置、表示方法及び表示装置
KR102529269B1 (ko) 전자 장치 및 그 제어 방법
JP6868797B2 (ja) 変換方法及び変換装置
JP2021153299A (ja) 再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant