KR102618617B1 - 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법 - Google Patents

콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법 Download PDF

Info

Publication number
KR102618617B1
KR102618617B1 KR1020210030931A KR20210030931A KR102618617B1 KR 102618617 B1 KR102618617 B1 KR 102618617B1 KR 1020210030931 A KR1020210030931 A KR 1020210030931A KR 20210030931 A KR20210030931 A KR 20210030931A KR 102618617 B1 KR102618617 B1 KR 102618617B1
Authority
KR
South Korea
Prior art keywords
content
display device
audio
video
compensation
Prior art date
Application number
KR1020210030931A
Other languages
English (en)
Other versions
KR20220126534A (ko
Inventor
김기범
김건태
노진우
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020210030931A priority Critical patent/KR102618617B1/ko
Publication of KR20220126534A publication Critical patent/KR20220126534A/ko
Application granted granted Critical
Publication of KR102618617B1 publication Critical patent/KR102618617B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI

Abstract

콘텐츠 출력 장치가 개시된다. 본 발명에 따른 콘텐츠 출력 장치는, 외부 장치 인터페이스, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리, 및, 상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부를 포함한다.

Description

콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법{DEVICE FOR OUTPUTTING CONTENT AND DELAY COMPENSATION METHOD OF CONTENT OUTPUT DEVICE}
본 발명은, 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법에 관한 것이다.
최근 TV는 대형화되고 4K, 8K 및 HDR 등의 고화질을 지원하는 추세이고, 이에 맞추어 각종 OTT(Over The Top) 서비스에서도 고화질 콘텐츠를 제공하고 있다.
한편, 보다 선명하고 큰 화면으로 TV를 시청하는 사용자는, 비디오와 오디오 간의 싱크가 어긋난 것을 기존에 비해 쉽게 발견할 수 있다. 따라서 유료 텔레비젼 방송(Pay TV)이나 프리미엄 OTT 서비스 등에서는 보다 강화된 비디오와 오디오 싱크 기준을 요구하고 있으며, 이에 따라 콘텐츠 출력 장치에서는 최대한 싱크 기준을 만족시켜야 하는 실정이다.
따라서 디스플레이 장치에 콘텐츠를 출력하는 콘텐츠 출력 장치(예를 들어 셋탑 박스)에는 비디오와 오디오간 싱크를 맞추는 기술이 적용되어 있다.
다만 셋탑 박스와 연결되어 콘텐츠를 사용자에게 출력(영상의 디스플레이, 음향의 출력)하는 디스플레이 장치(예를 들어 TV)의 경우, 디스플레이 장치 자체에도 비디오의 지연 요소나 오디오의 지연 요소가 존재하게 된다.
또한 이러한 지연 요소는 디스플레이 장치의 제조사와 모델에 따라 상이해질 수 있으며, 동일한 지연 요소라고 하더라도 콘텐츠의 포맷이 무엇인지에 따라 지연 시간이 상이해질 수 있다.
따라서 셋탑 박스와 같은 콘텐츠 출력 장치에서 정교한 싱크를 맞추더라도, 실제 디스플레이 장치에서 추가적인 지연이 발생하여 사용자에게 싱크가 맞지 않는 콘텐츠가 제공되는 문제가 발생하게 된다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 시간 정보를 적용하여, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원할 수 있는 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법을 제공하기 위함이다.
본 발명에 따른 콘텐츠 출력 장치는, 외부 장치 인터페이스, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리, 및, 상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부를 포함한다.
이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.
한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.
한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.
한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.
이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.
한편 상기 제어부는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.
이 경우 상기 제어부는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.
한편 본 발명에 따른 콘텐츠 출력 장치의 지연 보상 방법은, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 단계, 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계, 상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계, 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계, 상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계, 및, 상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계를 포함한다.
이 경우 상기 외부 장치 인터페이스는, HDMI 포트이고, 상기 식별 데이터는, EDID일 수 있다.
한편 상기 복수의 보상 셋 각각은, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이할 수 있다.
한편 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.
한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계를 포함할 수 있다.
이 경우 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.
한편 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는, 상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계를 포함할 수 있다.
이 경우 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는, 버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더할 수 있다.
한편 본 발명에 따른 지연 시간 정보 생성 방법은, 테스트 콘텐츠를 콘텐츠 출력 장치의 외부 장치 인터페이스를 통하여 디스플레이 장치로 출력하는 제1 단계, 상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계, 및, 상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계를 포함한다.
이 경우 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계를 더 포함할 수 있다.
이 경우 상기 콘텐츠 포맷은, 콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분될 수 있다.
본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.
또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.
또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.
또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.
도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.
도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.
도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.
도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.
도 6은 복수의 보상 셋을 도시한 도면이다.
도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.
발명의 설명에 앞서, 디스플레이 장치에서 발생할 수 있는 지연 요소를 설명한다.
디스플레이 장치(예를 들어 TV)에는 다양한 지연 요소가 존재하며, 따라서 디스플레이 장치마다 지연이 상이해질 수 있다.
구체적으로 지연은 디스플레이 장치 제조사들의 제작 방식에 따라 상이해질 수 있다. 또한 사용하는 칩셋이나 적용 기술의 변화로 인하여, 동일한 제조사에서 제작한 디스플레이 장치 들도 모델마다 지연이 상이해질 수 있다.
또한 디스플레이 장치에서 지연이 발생하는 가장 큰 요인은, 디스플레이 장치에서 자체적으로 보유하고 있는 화질 및 음질 개선 알고리즘일 수 있다.
화질의 경우 개선 알고리즘의 경우, 표준, 선명함, 게임, AI 등의 다양한 모드를 가지고 있다. 예를 들어 게임 모드의 경우는 통상적으로 딜레이를 최소화 하여 패널에 화면을 출력한다.
또한 음질 개선 알고리즘의 경우, 영화, 음악 등 특정 장르에 따라 원본 음성 데이터를 가공하여 디스플레이 장치의 스피커를 통하여 출력한다.
그리고 화질 또는 음질의 개선을 위하여 비디오 프로세싱 및 오디오 프로세싱을 거칠때마다 지연이 발생하게 된다.
또한 동일한 제조사의 동일 모델의 디스플레이 장치에서 동일한 개선 알고리즘을 거치더라도, 콘텐츠의 포맷에 따라 상이한 지연이 발생할 수 있다. 예를 들어 비디오 프로세싱 및 오디오 프로세싱 작업들은 각 단계별로 버퍼를 이용하게 되는데, 버퍼를 거칠 때마다 1/프레임레이트 (60fps의 경우 16.67ms, 30fps의 경우 33.3ms)의 지연이 발생하게 된다.
한편 비디오 색공간과 관련해서도 지연이 발생할 수 있다. 구체적으로 TV 패널의 경우 최종적으로 RGB 색 공간(color space)에서 영상을 출력하지만, HDMI를 통하여 디스플레이 장치에 전달되는 데이터는 YUV420, YUV444 등으로써 다른 색공간의 데이터가 디스플레이 장치에 전달될 수 있다. 그리고 이와 같이 색 공간이 다른 경우에는 색상 공간 변환(color space conversion)을 수행하면서 지연이 발생하게 된다.
HDR(High Dynamic Range)과 SDR (Standard Dynamic Range)의 관계에서도 지연이 발생할 수 있다. 구체적으로 HDR(High Dynamic Range)의 경우에는 TV 패널의 특징에 맞게 RGB 값의 리매핑이 필요하며, 또한 TV패널이 HDR을 지원하지 않는 경우에는 HDR을 SDR로 변환하는 과정을 거쳐야 한다.
비디오 프레임레이트와 관련해서도 지연이 발생할 수 있다. 구체적으로 TV의 경우 원본 콘텐츠의 프레임레이트를 판독하여 고 프레임 레이트의 콘텐츠를 생성 및 출력하는 기능이 존재한다. 그리고 이와 같은 화질 변경 과정은 버퍼를 거치며 버퍼에서의 지연은 프레임레이트에 연관되기 때문에, 지연이 발생하게 된다.
또한 스트리밍 서비스나 VoD의 경우 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작에 의해서도 지연이 발생할 수 있다. 구체적으로 빨리 감기, 되감기, 건너뛰기, 일시 정지 후 재생 등의 동작의 경우 화면이 일시적으로 멈추었다가 다시 진행을 하는데, TV에 따라서 해당 버퍼를 비운 후 다시 전송된 데이터를 처리하는지 또는 버퍼 내 데이터를 출력하는지에 따라서 상이한 지연이 발생할 수 있다.
또한 오디오의 경우 HDMI로 전송되는 데이터가 비트스트림(Bitstream) 인지 또는 PCM(pulse code modulation)인지에 따라서도 상이한 지연이 발생할 수 있다. 그 이유는 PCM(pulse code modulation)의 경우 오디오 코덱 칩에서 인식하여 바로 DAC(Digital to Analog Converter), 앰프를 거쳐 TV 스피커로 출력할 수 있지만, 돌비 디지털(Dolby Digital) 등의 비트스트림(Bitstream)의 경우에는 TV에서 오디오 디코딩을 수행하는 과정이 추가 되기 때문이다.
위에 언급한 내용 외에도 디스플레이 장치(예를 들어 TV)에는 비디오나 오디오의 지연을 발생시킬 수 있는 다양한 요소가 존재하며, 지연은 디스플레이 장치의 제조사 마다, 동일한 제조사의 제작물임에도 불구하고 제조사의 모델마다, 동일 모델임에도 불구하고 출력되는 콘텐츠의 포맷에 따라 달라질 수 있다.
따라서 본 발명에서는, 콘텐츠 출력 장치에서 디스플레이 장치 및 콘텐츠의 포맷에 매핑된 지연 보상 값을 적용함으로써, 디스플레이 장치에서 출력되는 콘텐츠의 정교한 비디오/오디오 싱크를 지원한다.
한편 디지털 방송 또는 온라인 스트리밍 서비스가 대중화 되면서 콘텐츠 출력 장치의 칩셋(멀티미디어 프로세서)에는 이미 비디오와 오디오간 싱크를 맞추는 기능이 내장되어 있다.
또한 전송 스트림(Transport Stream) 또는 프로그램 스트림(Program Stream) 내부에는, 디지털 방송 및 스트리밍 서비스에서는 비디오를 출력하는 시간(Video Presentation Time Stamp, 이하 비디오 PTS라 함)과 오디오를 출력하는 시간(Audio Presentation Time Stamp, 이하 오디오 PTS라 함)이 포함되게 된다.
그리고 콘텐츠 출력 장치의 칩셋들은 PTS 갭이 일정 범위 내에 있으면, 비디오와 오디오간 싱크 동작을 수행하지 않는다. 본 명세서는 비디오와 오디오간 싱크 동작을 수행하지 않는 범위를 마진 범위라고 명칭하도록 한다.
현재 셋탑 박스 등의 콘텐츠 출력 장치에서 사용하는 칩셋(멀티미디오 프로세서)는, PTS 갭이 마진 범위 밖에 있는 경우 PTS 갭이 마진 범위 이내로 오도록 싱크 동작을 수행하도록 설계되어 있다.
도 1은 본 발명에 따른 콘텐츠 출력 장치를 설명하기 위한 블록도이다.
콘텐츠 출력 장치(100)는 방송 스트림을 수신하여 디코딩하고, 디코딩된 비디오 데이터 및 오디오 데이터를 디스플레이 장치에 전송하는 장치들을 의미할 수 있다.
예를 들어 콘텐츠 출력 장치(100)는 셋탑 박스와 같은 영상 처리 장치일 수 있다. 이 경우 영상 처리 장치는 선국된 방송 채널에 대한 콘텐츠 스트림을 수신하고, 수신된 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 출력할 수 있다. 이 경우 출력된 비디오 데이터 및 오디오 데이터는 TV와 같은 디스플레이 장치에 전송되어, 디스플레이 장치에 의해 디스플레이 또는 출력될 수 있다.
콘텐츠 출력 장치(100)는 통신부(110), 외부 장치 인터페이스(120), 메모리(130) 및 제어부(140)를 포함할 수 있다.
통신부(110)는 콘텐츠 출력 장치(100)와 다른 장치 사이의 유선 또는 무선 통신을 지원할 수 있다.
구체적으로 통신부(110)는 콘텐츠 출력 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 통신부(110)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 서버(100)와 데이터를 송신 또는 수신할 수 있다.
한편 통신부(110)는 콘텐츠 스트림을 수신할 수 있다. 여기서 콘텐츠 스트림이란 전송 스트림(Transport Stream)과 프로그램 스트림(Program Stream) 등을 포함할 수 있으며, 콘텐츠 스트림을 통하여 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등이 전송될 수 있다.
외부 장치 인터페이스(120)는 디스플레이 장치에 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 전송하기 위한 인터페이스를 포함할 수 있다.
구체적으로 외부 장치 인터페이스(120)는 HDMI 포트일 수 있다. 이 경우 콘텐츠 출력 장치(100)는 디스플레이 장치와 HDMI 케이블에 의해 연결되어, 디스플레이 장치에 콘텐츠를 전송할 수 있다.
한편 메모리(130)는 제어부(140)의 각종 신호 처리 및 제어를 위한 프로그램, 컨텐츠, 디코딩된 콘텐츠, 기타 데이터 등을 저장할 수 있다.
또한 메모리(230)는 콘텐츠 출력 장치(100)의 동작을 위한 응용 프로그램 또는 데이터를 저장할 수 있다.
한편 제어부(140)는 콘텐츠 출력 장치(100)의 전반적인 동작을 제어할 수 있다.
또한 제어부(140)는 콘텐츠 스트림을 디코딩하여 비디오 데이터 및 오디오 데이터를 생성하고, 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.
도 2는 본 발명에 따른, 제어부의 세부 구성, 디스플레이 장치의 구성 및 지연 측정 장치의 구성을 설명하기 위한 블록도이다.
제어부(140)의 세부 구성은, MPEG의 다양한 표준 셋트 중 MPEG2 System 규격을 예시로 설명하기로 한다. 하지만, 본 발명의 기본적인 동작은 다른 동영상의 국내외 표준 또는 De-facto 표준으로 충분한 변형이 가능하므로 본 발명의 범위는 MPEG2 System에 국한하지 않는다.
디먹스(Demux)(141)는 콘텐츠 스트림을 통하여 수신된 콘텐츠(방송 콘텐츠, VOD, 스트리밍 콘텐츠 등)을 분석하여 비디오 콘텐츠, 오디오 콘텐츠 및 데이터를 구분할 수 있다.
디스크램블버(Descrambler)(142)는 방송 수신제한시스템(CAS)나 디지털 저작권 관리(DRM)에 의해 제한되는 콘텐츠를 구분할 수 있다.
비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)와 오디오 디코더 인풋 버퍼(ADEC Input Buffer)는 디코더의 앞단에 존재하는 버퍼일 수 있다. 그리고 비디오 디코더 인풋 버퍼(VDEC Input Buffer)(143)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 비디오 디코더(VDEC)(146)에 비디오 콘텐츠를 전송할 수 있다. 또한 오디오 디코더 인풋 버퍼(ADEC Input Buffer)(144)는 콘텐츠 스트림 상에 포함되어 있는 디코딩 타임 스탬프(Decoding Time Stamp, DTS)에 맞추어 오디오 디코더(ADEC)(147)에 오디오 콘텐츠를 전송할 수 있다.
시스템 타임 클럭(System Time Clock)(145)은 콘텐츠 스트림으로부터 PCR(Program Clock Reference) 파싱을 수행하여 기준 클럭을 생성하고, 콘텐츠 출력 장치(100)의 각 구성 요소에 기준 클럭을 제공할 수 있다. 특히 기준 클럭은 디코딩 타임 스탬프(Decoding Time Stamp, DTS) 및 표현 시간 지정 정보(Presentation Time Stamp, PTS)에 대하여 시간 기준 값을 제공할 수 있다.
비디오 디코더(VDEC)(146)는 비디오 콘텐츠를 디코딩하여 비디오 데이터를 생성하고, 생성된 비디오 데이터를 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)에 전송할 수 있다.
또한 오디오 디코더(ADEC)(147)는 오디오 콘텐츠를 디코딩하여 오디오 데이터를 생성하고, 생성된 오디오 데이터를 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)에 전송할 수 있다.
비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.
또한 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는, AV 출력 컨트롤러(AV Output Controller)(150)의 제어 하에, 비디오 데이터를 출력부(120)로 전송할 수 있다.
AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득하고, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.
한편 본 명세서에서, 용어 PTS 갭은 용어 시간 갭과 혼용되어 사용될 수 있다.
도 3은 본 발명에 따른, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 및 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)를 도시한 도면이다.
비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 비디오 데이터의 복수의 프레임을 저장할 수 있다.
예를 들어 도 3a를 참고하면, 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148)는 첫번째 프레임으로부터 N번째 프레임까지의 복수의 프레임을 저장할 수 있으며, 복수의 프레임은 첫번째 프레임부터 순차적으로 출력부(120)에 출력될 수 있다.
또한 복수의 프레임은, 각각 상응하는 비디오 PTS를 가질 수 있다.
한편 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 오디오 데이터의 복수의 부분 오디오 데이터를 저장할 수 있다.
예를 들어 도 3b를 참고하면, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149)는 첫번째 부분 오디오 데이터로부터 N번째 부분 오디오 데이터까지의 복수의 부분 오디오 데이터를 저장할 수 있으며, 복수의 부분 오디오 데이터는 첫번째 부분 오디오 데이터부터 순차적으로 출력부(120)에 출력될 수 있다.
또한 복수의 부분 오디오 데이터는, 각각 상응하는 오디오 PTS를 가질 수 있다.
한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(VDEC Output Buffer)(148) 내 복수의 프레임에 각각 할당된 복수의 비디오 PTS와, 오디오 디코더 출력 버퍼(ADEC Output Buffer)(149) 내 복수의 부분 오디오 데이터에 각각 할당된 복수의 오디오 PTS를 실시간 모니터링 할 수 있다.
한편 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.
구체적으로 AV 출력 컨트롤러(AV Output Controller)(150)는 서로 상응하는 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다. 예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임과 오디오 데이터의 제1 부분 오디오 데이터를 비교하여 시간 갭을 획득하고, 비디오 데이터의 제2 프레임과 오디오 데이터의 제2 부분 오디오 데이터를 비교하여 시간 갭을 획득할 수 있다.
이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터의 비디오 PTS 및 오디오 데이터의 오디오 PTS에 기반하여 비디오 데이터 및 오디오 데이터의 시간 갭을 획득할 수 있다.
예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는, 비디오 데이터의 제1 프레임의 비디오 PTS와 제1 부분 오디오 데이터의 오디오 PTS를 이용하여 비디오 데이터 및 오디오 데이터의 시간 갭(비디오 PTS - 오디오 PTS)을 획득할 수 있다.
그리고 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 데이터 및 오디오 데이터의 시간 갭에 기초하여, 시간 갭이 마진 범위를 벗어나면 싱크 동작을 수행할 수 있다.
다시 도 2로 돌아가서, AV 출력 컨트롤러(AV Output Controller)(150)는 싱크 매니저(152)로부터 수신되는 보상 값에 기초하여 비디오 데이터 및 오디오 데이터의 시간 갭을 조절할 수 있다.
한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결되면, 외부 장치 인터페이스(120)는 디스플레이 장치(200)로부터 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.
이 경우 외부 장치 인터페이스(120)는 식별 데이터를 싱크 디텍터(sink dector)(151)에 전송할 수 있다.
한편 싱크 디텍터(sink dector)(151)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다. 이 경우 싱크 디텍터(sink dector)(151)는 디스플레이 장치(200)의 식별 ID를 싱크 매니저(Sync Manager)(152)에 전송할 수 있다.
또한 싱크 매니저(Sync Manager)(152)는 현재 외부 장치 인터페이스(120)로 출력되는 콘텐츠의 포맷을 탐지할 수 있다.
한편 복수의 지연 시간 정보를 획득하는 과정에서, 싱크 매니저(Sync Manager)(152)는 지연 특정 장치(300)와 제1 통신부(110)를 통하여 통신하고, 지연 특정 장치(300)로부터 지연 시간 정보를 수신할 수 있다. 이 경우 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 저장할 수 있다.
또한 지연 시간 정보에 기초한 보상을 수행하는 과정에서, 싱크 매니저(Sync Manager)(152)는 디스플레이 장치(200)의 식별 ID 및 콘텐츠의 포맷을 포함하는 특정 보상 셋에 매핑된 특정 지연 시간 정보를 획득하고, 획득된 지연 시간 정보에 기반한 보상 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.
한편 디스플레이 장치(200)는 TV 등, 콘텐츠에 포함되는 비디오 데이터를 디스플레이 하고, 콘텐츠에 포함되는 오디오 데이터를 스피커를 통하여 출력하는 장치를 의미할 수 있다.
디스플레이 장치(200)는 입력부(210), 비디오 처리부(225) 및 오디오 처리부(230)를 포함하는 제어부(220), 비디오 출력부(240) 및 오디오 출력부(250)를 포함할 수 있다.
입력부(210)는 콘텐츠 출력 장치(100)의 외부장치 인터페이스(120)와 연결되어, 콘텐츠 출력 장치(100)로부터 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 수신할 수 있다.
한편 입력부(210)는 HDMI 케이블을 통하여 외부장치 인터페이스(120)와 연결될 수 있으며, 이 경우 입력부(210)는 HDMI 포트를 포함할 수 있다.
또한 입력부(210)는 외부장치 인터페이스(120)에 식별 데이터(예를 들어 EDID)를 전송할 수 있다.
한편 제어부(220)는 수신된 비디오 데이터를 처리하여 비디오 출력부(240)에 전송하고, 수신된 오디오 데이터를 처리하여 오디오 출력부(250)에 전송할 수 있다.
한편 디스플레이 장치(200)에서의 지연은 제어부(220), 즉 비디오 처리부(225) 및 오디오 처리부(230) 중 적어도 하나에서 발생할 수 있다.
즉 제어부(220)는 수신된 비디오 데이터를 비디오 출력부(240)에서 출력하기 위한 처리, 수신된 오디오 데이터를 오디오 출력부(250)에서 출력하기 위한 처리, 화질 개선 알고리즘, 음질 개선 알고리즘 및 기타 다양한 처리를 수행하며, 이에 따라 제어부(220)에서는 지연이 발생할 수 있다.
한편 비디오 출력부(240)는 영상을 디스플레이 하기 위한 디스플레이를 포함하고, 제어부(220)에서 전송되는 데이터를 디스플레이 할 수 있다.
또한 오디오 출력부(250)는 오디오를 출력하기 위한 스피커를 포함하고, 제어부(220)에서 전송되는 데이터를 출력할 수 있다.
한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 테스트 콘텐츠를 재생하는 경우, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.
구체적으로 지연 측정 장치(300)는 비디오 탐지부(310), 오디오 탐지부(320) 및 지연 산출부(330)를 포함할 수 있다.
비디오 탐지부(310)는 빛을 감지하는 센서를 포함하고, 오디오 탐지부(320)는 소리를 감지하는 센서를 포함할 수 있다.
또한 지연 산출부(330)는 비디오 탐지부(310)에서 감지된 값 및 오디오 탐지부(320)에서 감지된 값을 이용하여, 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간(비디오의 출력 시간 - 오디오의 출력 시간)을 산출할 수 있다.
한편 테스트 콘텐츠는, 비디오 탐지부(310)가 빛을, 오디오 탐지부(320)가 소리를 탐지하기 용이하도록 제작될 수 있다.
예를 들어 비디오가 블랙레벨에서 화이트레벨로 서서히 변화하고, 오디오는 휘도가 변경될 때만 일정 톤(tone)이 발생하도록 테스트 콘텐츠를 제작하는 경우, 지연 산출부(330)는 비디오에 대해서 블랙레벨로부터 화이트레벨로 변경되는 중간 지점의 시간을 계산할 수 있고 오디오에 대해서 총 톤(tone)을 출력하는 시간의 중간 지점의 시간을 계산할 수 있다. 그리고 지연 산출부(330)는 이 두 시간의 차를 산출하는 방식으로 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)를 산출할 수 있다.
한편 지연 산출부(330)는 콘텐츠 출력 장치(100)의 싱크 매니저(152)와 통신하고, 싱크 매니저(152)에 지연 시간 정보를 전송할 수 있다.
도 4는 본 발명에 따른, 지연 시간 정보의 생성 방법을 설명하기 위한 도면이다.
이하에서는 지연 측정 장치(300)로부터 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체가 콘텐츠 출력 장치(100)인 것으로 설명하나 이에 한정되지 않으며, 지연 시간 정보를 수신하고 보상 셋에 지연 보상 정보를 매칭하는 주체는 콘텐츠 출력 장치(100)가 아닌 다른 장치(예를 들어 서버)일 수도 있다.
콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)와 연결될 수 있다.
이 경우 콘텐츠 출력 장치(100)의 외부 장치 인터페이스(120)는 디스플레이 장치(200)의 입력부(210)로부터 식별 데이터를 수신할 수 있다(S410).
여기서 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.
셋탑 박스 등의 콘텐츠 출력 장치(100)와 TV 등의 디스플레이 장치는 HDMI에 의해 연결될 수 있다.
한편, HDMI로 연결된 소스 디바이스(콘텐츠 출력 장치)가 싱크 디바이스(디스플레이 장치)의 정보를 획득하기 위하여, EDID(Extended Display Identification Data)가 사용되고 있다.
구체적으로 싱크 디바이스(디스플레이 장치)에서 소스 디바이스(콘텐츠 출력 장치)로 전송하는 EDID 정보의 경우, 기본 정보(제조사, 제품 코드(Product Code), 시리얼 넘버, HDMI 버전정보 등), 비디오 정보(지원하는 비디오 해상도, 색 공간(Color Space), 비트 심도(Bit Depth), 다이나믹 레인지 등), 오디오 정보(지원하는 오디오 비트 심도(Bit Depth), 샘플링 레이트(Sampling Rate), 돌비(Dolby) 지원 유무 등)를 포함할 수 있다.
한편 외부 장치 인터페이스(120)는 싱크 디텍터(151)에 식별 데이터를 전송할 수 있다(S420).
그리고 싱크 디텍터(151)는 식별 데이터를 이용하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다.
이 경우 싱크 디텍터(151)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다.
예를 들어 싱크 디텍터(151)는 식별 데이터에 포함되는 제조자, 제품 코드, 시리얼 넘버를 조합하여 식별 ID를 생성할 수 있다. 이 경우 식별 ID는 uniqueID=”$ManufacturerName_$ProductCode_$SerialNumber”의 형식을 가질 수 있다.
그리고 제조자(ManufacturerName)는 GSM, 제품 코드(ProductCode)=1, 시리얼 넘버(SerialNumber)는 16843009인 경우, 디스플레이 장치(200)의 식별 ID(uniqueID)는 GSM_1_16843009이 될 수 있다.
한편 싱크 디텍터(151)는 생성된 식별 ID를 싱크 매니저(152)에 전송할 수 있다(S440).
한편 싱크 매니저(152)는 식별 ID를 포함하는 데이터베이스를 생성할 수 있다(S450).
한편 콘텐츠 출력 장치(100)는 테스트 콘텐츠를 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)에 출력할 수 있다.
또한 싱크 매니저(152)는 디스플레이 장치(200)에 출력되는 테스트 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S460).
한편 지연 측정 장치(300)는 디스플레이 장치(200)에서 출력되는 비디오와 오디오 간의 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)을 산출하고, 산출된 지연 시간 정보를 싱크 매니저(152)에 전송할 수 있다.
이 경우 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보의 평균 값을 싱크 매니저(152)에 전송할 수도 있다.
또한 지연 측정 장치(300)는 복수의 측정 결과에 기초하여 산출된 복수의 지연 시간 정보를 싱크 매니저(152)에 전송할 수도 있다. 이 경우에는 싱크 매니저(152)가 복수의 지연 시간 정보를 평균하여 평균 값을 산출할 수 있다. 그리고 지연 시간 정보(비디오의 출력 시간 - 오디오의 출력 시간)으로는 상기 평균 값이 사용될 수도 있다.
한편 싱크 매니저(152)는 지연 측정 장치(300)로부터 지연 시간 정보를 수신함으로써, 디스플레이 장치(200)에 의해 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득할 수 있다.
이와 같은 방식으로, 디스플레이 장치의 식별 ID, 테스트 콘텐츠의 콘텐츠 포맷 및 비디오 및 오디오 간의 지연 시간 정보가 획득될 수 있다.
그리고 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋을 생성할 수 있다. 또한 싱크 매니저(152)는 식별 ID 및 콘텐츠 포맷을 포함하는 보상 셋에 지연 시간 정보를 매핑하여 데이터베이스에 저장할 수 있다(S490).
한편 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 위와 같은 과정을 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에 상응하는 지연 시간 정보가 매핑될 수 있다.
이와 관련해서는 도 5 내지 도 6을 참고하여 설명한다.
도 5는 다양한 콘텐츠 포맷을 도시한 도면이다.
콘텐츠 포맷은, 비디오 포맷, 오디오 포맷 및 프레임레이트를 포함하여 구성될 수 있다.
예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, PCM_16BIT_48KHZ의 오디오 포맷을 포함하여 구성될 수 있다.
다른 예를 들어 제2 콘텐츠 포맷(H264_30_DDP)은 H264 YUV420의 비디오 포맷, 30의 프레임레이트, DDP_16BIT_384KBPS의 오디오 포맷을 포함하여 구성될 수 있다.
또한 콘텐츠 포맷은, 비디오 포맷(예를 들어 H264/HEVC/HDR), 오디오 포맷(예를 들어 PCM/DDP) 및 프레임레이트(예를 들어 30FPS/60FPS) 에 의하여 다른 콘텐츠와 구분될 수 있다.
즉 특정 콘텐츠 포맷은, 다른 콘텐츠 포맷과 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 상이할 수 있다.
예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 오디오 포맷이 상이하다. 즉 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제2 콘텐츠 포맷(H264_30_DDP)과 구분될 수 있다.
다른 예를 들어 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 비디오 포맷 및 오디오 포맷이 상이하다. 즉 비디오 포맷 및 오디오 포맷이 상이하므로, 제1 콘텐츠 포맷(H264_30_PCM)은 제6 콘텐츠 포맷(HEVC_30_DDP)과 구분될 수 있다.
도 5에서는 12개의 콘텐츠 포맷을 예시하였으나 이에 한정되지 않으며, 비디오 포맷, 오디오 포맷 및 프레임레이트 중 적어도 하나가 다른 콘텐츠 포맷과 상이한 다양한 콘텐츠 포맷이 존재할 수 있다.
한편 디스플레이 장치(200)가 콘텐츠 출력 장치(100)에 연결된 상태에서, 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 도 4에서 설명한 과정을 반복할 수 있다.
따라서 동일한 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.
또한 다양한 디스플레이 장치를 콘텐츠 출력 장치(100)에 연결해가면서, 도 4 및 도 5에서 설명한 과정이 반복될 수 있다.
예를 들어 제1 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제1 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.
그리고나서 제2 디스플레이 장치가 콘텐츠 출력 장치(100)에 연결된 상태에서 서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 지연 시간 정보를 측정함으로써, 제2 디스플레이 장치의 식별 ID 및 다양한 콘텐츠 포맷을 포함하는 복수의 보상 셋이 생성될 수 있으며, 싱크 매니저(152)는 복수의 보상 셋 각각에 상응하는 지연 시간 정보를 매핑하여 저장할 수 있다.
그리고 이와 같은 과정을 반복함으로써, 도 6과 같은 복수의 보상 셋이 생성될 수 있다.
도 6은 복수의 보상 셋을 도시한 도면이다.
하나의 보상 셋은, 디스플레이 장치의 식별 ID 및 콘텐츠 포맷을 포함하여 구성될 수 있다.
예를 들어 제1 보상 셋(610)은, GSM_1_16843009의 식별 ID 및 H264_30_PCM의 콘텐츠 포맷을 포함하여 구성될 수 있다.
다른 예를 들어 제2 보상 셋(620)은, GSM_1_16843009의 식별 ID 및 H264_30_DDP의 콘텐츠 포맷을 포함하여 구성될 수 있다.
또 다른 예를 들어 제3 보상 셋(630)은, SEC_15360_3355의 식별 ID 및 HDR_60_DDP의 콘텐츠 정보를 포함하여 구성될 수 있다.
한편 복수의 보상 셋 각각은, 다른 보상 셋과 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이할 수 있다.
예를 들어 제1 보상 셋(610)은 제2 보상 셋(620)과 콘텐츠 포맷이 상이할 수 있다.
다른 예를 들어 제1 보상 셋(610)은 제3 보상 셋(630)과 식별 ID 및 콘텐츠 포맷이 상이할 수 있다.
한편 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 서로 다른 보상 셋에 복수의 지연 시간 정보가 각각 매핑될 수 있다.
예를 들어 제1 보상 셋(610)에는 100ms의 지연 시간 정보가 매핑될 수 있다. 다른 예를 들어 제2 보상 셋(620)에는 50ms의 지연 시간 정보가 매핑될 수 있다. 또 다른 예를 들어 제3 보상 셋(630)에는 -20ms의 지연 시간 정보가 매핑될 수 있다.
한편 앞서 설명한 바와 같이, 지연 시간 정보를 생성하는 방법은 서버에 의해 수행될 수 있다. 이 경우 서버는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 복수의 콘텐츠 출력 장치에 전송할 수 있다.
또한 지연 시간 정보를 생성하는 방법은 콘텐츠 출력 장치에 의해 수행될 수도 있다. 이 경우 콘텐츠 출력 장치는 보상 셋에 매핑된 지연 시간 정보를 서버로 전송할 수 있다. 이 경우 서버는 보상 셋에 매핑된 지연 시간 정보를 복수의 콘텐츠 출력 장치로부터 수집하여 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 획득하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.
또한 서버는 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장한 경우, 새로운 보상 셋 및 새로운 보상 셋에 매핑되는 지연 시간 정보를 생성하고, 새로운 보상 셋에 매핑되는 지연 시간 정보를 콘텐츠 출력 장치들에 배포할 수 있다.
도 7은 본 발명에 따른, 콘텐츠 출력 장치의 지연 보상 방법을 설명하기 위한 도면이다.
콘텐츠 출력 장치(100)의 메모리(130)는 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장할 수 있다(S710).
또한 콘텐츠 출력 장치(100)의 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 서버로부터 수신할 수도 있으며, 이 경우 제어부(140)는 새로운 보상 셋에 매핑되는 지연 시간 정보를 메모리(130)에 저장할 수 있다.
한편 외부 장치 인터페이스(120)에 디스플레이 장치(200)가 연결되면, 제어부(140)는 외부 장치 인터페이스(120)를 통하여 디스플레이 장치(200)의 식별 데이터를 수신할 수 있다. 여기서 외부 장치 인터페이스(120)는 HDMI 포트일 수 있으며, 식별 데이터는 EDID(Extended Display Identification Data)일 수 있다.
이 경우 제어부(140)는 식별 데이터에 기초하여 콘텐츠 출력 장치(100)에 연결된 디스플레이 장치(200)의 식별 ID를 생성할 수 있다(S730).
구체적으로 제어부(140)는 식별 데이터에 포함되는 하나 이상의 정보를 조합하여 디스플레이 장치(200)의 식별 ID를 생성할 수 있다.
또한 제어부(140)는 비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 외부 장치 인터페이스를 통하여 디스플레이 장치(200)로 출력할 수 있다(S740). 여기서 콘텐츠는 방송 콘텐츠, VOD, 스트리밍 콘텐츠 등을 포함할 수 있다.
또한 제어부(140)는 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득할 수 있다(S750).
그리고 제어부(140)는 복수의 보상 셋 중 디스플레이 장치의 식별 ID 및 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 선정된 보상 셋에 매핑된 지연 시간 정보를 획득할 수 있다(S760).
구체적으로 제어부(140)는 복수의 보상 셋 중 디스플레이 장치(200)의 식별 ID 및 디스플레이 장치(200)로 출력되는 콘텐츠의 콘텐츠 포맷을 가지는 보상 셋을 선정할 수 있다. 그리고 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보를 메모리(130)로부터 독출할 수 있다.
한편 제어부(140)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 비디오 데이터 및 오디오 데이터 간의 시간 갭을 조절할 수 있다(S770).
구체적으로 싱크 매니저(152)는 보상 값(지연 시간 정보 또는 지연 시간 정보에 기초하여 생성된 제어 값)을 생성하여 값을 AV 출력 컨트롤러(AV Output Controller)(150)에 전송할 수 있다.
이 경우 AV 출력 컨트롤러(AV Output Controller)(150)는 버퍼(148, 149)를 제어하여 보상 값을 비디오 데이터 및 오디오 데이터에 적용할 수 있다.
지연 시간 정보에 기반하여 보상을 수행하는 첫번째 방법에 대하여 도 8을 참고하여 설명한다.
도 8은 본 발명의 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.
한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행할 수 있다.
더욱 구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.
따라서 도 8b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(50ms)에 음의 부호를 가지는 값(-50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 출력하되, 출력된 프레임을 버퍼에서 삭제하지 않고 그대로 보관한 후 다시 출력하는 동작을 1회 이상 수행할 수 있다.
또한 선정된 보상 셋에 매핑된 지연 시간 정보가 -50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 늦게 출력되고 있는 상태이다.
따라서 도 8c를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 매핑된 지연 시간 정보(-50ms)에 음의 부호를 가지는 값(50ms)에 접근하도록, 버퍼 내 비디오 데이터의 프레임에 대한 반복(repeat)을 수행할 수 있다. 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 즉 AV 출력 컨트롤러(AV Output Controller)(150)는, 오디오 데이터는 그대로 출력하고, 비디오 데이터에 대해서는 현재의 프레임을 버리고 다음 프레임을 출력하는 동작을 1회 이상 수행할 수 있다.
한편 선정된 보상 셋에 매핑된 지연 시간 정보가 0ms인 경우, 디스플레이 장치(200)에서는 비디오와 오디오가 싱크가 맞게 출력되고 있는 상태이다.
따라서 도 8a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 현재 상태로 유지되도록 반복(repeat) 또는 버리기(discard)를 수행하지 않을 수 있다.
다음은 지연 시간 정보에 기반하여 보상을 수행하는 두번째 방법에 대하여 도 9를 참고하여 설명한다.
도 9는 본 발명의 또 다른 실시 예에 따른, 지연 시간 정보에 기초하여 보상을 수행하는 방법을 설명하기 위한 도면이다.
디스플레이 장치(200)에서 지연이 발생하지 않기 위해서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터가 아니라, 실제 디스플레이 장치(200)에서 출력(비디오의 디스플레이 및 스피커를 통한 오디오의 출력)되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록 보상이 수행되어야 한다.
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 디스플레이 장치(200)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 비디오 데이터의 비디오 PTS 또는 오디오 데이터의 오디오 PTS를 리매핑 할 수 있다.
한편 콘텐츠 출력 장치(100)에서는, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터에 대한 제어만이 가능하다.
따라서 AV 출력 컨트롤러(AV Output Controller)(150)는 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여, 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 버퍼(148, 149) 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 버퍼(148, 149) 내 오디오 데이터의 오디오 PTS에 지연 시간 정보를 더할 수 있다.
구체적으로 선정된 보상 셋에 매핑된 지연 시간 정보가 50ms인 경우, 디스플레이 장치(200)에서는 비디오가 오디오에 비하여 50ms만큼 더 빨리 출력되고 있는 상태이다.
따라서 버퍼(148, 149)에서 출력되는 비디오 데이터는 버퍼(148, 149)에서 출력되는 오디오 데이터에 비하여 50ms만큼 더 늦게 출력되어야 한다.
따라서 도 9a를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼(911) 내 비디오 데이터의 비디오 PTS에, 매핑된 지연 시간 정보에 음의 부호를 가지는 값(-50ms)을 더할 수 있다.
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.
또한 도 9b를 참고하면, AV 출력 컨트롤러(AV Output Controller)(150)는 오디오 디코더 출력 버퍼(922) 내 오디오 데이터의 오디오 PTS에, 매핑된 지연 시간 정보(50ms)를 더할 수 있다.
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.
한편 도 9에서의 설명은 지연을 보상하는 예시일 뿐으로, 비디오 PTS 및 오디오 PTS를 모두 리매핑 하는 방법도 가능하다.
예를 들어 AV 출력 컨트롤러(AV Output Controller)(150)는 비디오 디코더 출력 버퍼 내 비디오 데이터의 비디오 PTS에 -25ms를 더하고, 오디오 디코더 출력 버퍼 내 오디오 데이터의 오디오 PTS에 25ms를 더할 수 있다.
이 경우 버퍼(148, 149)에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭(비디오 PTS - 오디오 PTS)이 -50ms가 되기 때문에, 디스플레이 장치(200)에서 발생하는 지연(50ms)를 보상할 수 있게 된다.
이와 같이 본 발명에 따르면, 디스플레이 장치 및 콘텐츠 포맷의 특성을 고려하여 비디오 및 오디오 간 싱크를 조절하기 때문에, 사용자가 실제로 시청하는 콘텐츠의 싱크를 최적화 할 수 있는 장점이 있다.
또한 본 발명에 따르면, 다양한 디스플레이 장치 및 다양한 콘텐츠 포맷을 반영한 복수의 보상 셋을 생성하고, 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 이용하여 보상을 수행함으로써, 콘텐츠 출력 장치에 어떤 디스플레이 장치가 연결되는지 또는 어떤 포맷의 콘텐츠가 출력되는지에 관계 없이 싱크를 정교하게 맞출 수 있는 장점이 있다.
또한 HDMI는 단방향 인터페이스로써, 디스플레이 장치는 디스플레이 장치에서 발생하는 실제 지연 정보를 콘텐츠 출력 장치에 전송할 수 없다. 다만 본 발명은 미리 시간 지연 정보를 수집하여 보상 셋과 매핑하고, 보상 셋에 매핑된 시간 지연 정보를 콘텐츠 출력 장치에 저장함으로써 디스플레이 장치에서 발생하는 지연을 보상할 수 있는 장점이 있다.
또한 본 발명에 따르면, 새로운 콘텐츠 포맷이나 새로운 디스플레이 장치가 등장하는 경우, 새로운 보상 셋 및 상응하는 지연 시간 정보를 측정하여 콘텐츠 출력 장치 들에 배포하는 것이 가능하며, 이러한 배포는 펌웨어 또는 소프트웨어 업그레이드 등의 간단한 방식으로 수행되는 장점이 있다. 따라서 본 발명은 이미 사용되고 있는 콘텐츠 출력 장치에 손쉽게 적용될 수 있는 장점이 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100: 콘텐츠 출력 장치 110: 통신부
120: 외부 장치 인터페이스 130: 메모리
140: 제어부

Claims (19)

  1. 외부 장치 인터페이스;
    복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 메모리; 및
    상기 외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하고,
    상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하고,
    비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하고,
    상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하고,
    상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 제어부;를 포함하고,
    상기 복수의 보상 셋은,
    상기 디스플레이 장치의 식별 ID를 포함하는 제1 보상 셋 및 상기 디스플레이 장치와 다른 디스플레이 장치의 식별 ID를 포함하는 제2 보상 셋을 포함하고,
    상기 제어부는,
    상기 복수의 보상 셋 중 상기 제1 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는
    콘텐츠 출력 장치.
  2. 제 1항에 있어서,
    상기 외부 장치 인터페이스는, HDMI 포트이고,
    상기 식별 데이터는, EDID인
    콘텐츠 출력 장치.
  3. 제 1항에 있어서,
    상기 복수의 보상 셋 각각은,
    식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
    콘텐츠 출력 장치.
  4. 제 1항에 있어서,
    상기 콘텐츠 포맷은,
    콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
    콘텐츠 출력 장치.
  5. 제 1항에 있어서,
    상기 제어부는,
    상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
    콘텐츠 출력 장치.
  6. 제 5항에 있어서,
    상기 제어부는,
    버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
    콘텐츠 출력 장치.
  7. 제 1항에 있어서,
    상기 제어부는,
    상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는
    콘텐츠 출력 장치.
  8. 제 7항에 있어서,
    상기 제어부는,
    버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
    콘텐츠 출력 장치.
  9. 복수의 보상 셋에 각각 매핑된 복수의 지연 시간 정보를 저장하는 단계;
    외부 장치 인터페이스에 디스플레이 장치가 연결되면, 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치의 식별 데이터를 수신하는 단계;
    상기 식별 데이터를 이용하여 상기 디스플레이 장치의 식별 ID를 생성하는 단계;
    비디오 데이터 및 오디오 데이터를 포함하는 콘텐츠를 상기 외부 장치 인터페이스를 통하여 상기 디스플레이 장치로 출력하는 단계;
    상기 콘텐츠의 콘텐츠 포맷에 대한 정보를 획득하는 단계; 및
    상기 복수의 보상 셋 중 상기 디스플레이 장치의 식별 ID 및 상기 콘텐츠 포맷에 대응하는 보상 셋을 선정하고, 상기 선정된 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계;를 포함하고,
    상기 복수의 보상 셋은,
    상기 디스플레이 장치의 식별 ID를 포함하는 제1 보상 셋 및 상기 디스플레이 장치와 다른 디스플레이 장치의 식별 ID를 포함하는 제2 보상 셋을 포함하고,
    상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
    상기 복수의 보상 셋 중 상기 제1 보상 셋에 매핑된 지연 시간 정보에 기초하여 상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는
    콘텐츠 출력 장치의 지연 보상 방법.
  10. 제 9항에 있어서,
    상기 외부 장치 인터페이스는, HDMI 포트이고,
    상기 식별 데이터는, EDID인
    콘텐츠 출력 장치의 지연 보상 방법.
  11. 제 9항에 있어서,
    상기 복수의 보상 셋 각각은,
    식별 ID 및 콘텐츠 포맷 중 적어도 하나가 다른 보상 셋과 상이한
    콘텐츠 출력 장치의 지연 보상 방법.
  12. 제 9항에 있어서,
    상기 콘텐츠 포맷은,
    콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
    콘텐츠 출력 장치의 지연 보상 방법.
  13. 제 9항에 있어서,
    상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
    상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계;를 포함하는
    콘텐츠 출력 장치의 지연 보상 방법.
  14. 제 13항에 있어서,
    상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는 단계는,
    버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이, 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 상기 비디오 데이터의 프레임에 대한 반복(repeat) 또는 버리기(discard)를 수행하는
    콘텐츠 출력 장치의 지연 보상 방법.
  15. 제 9항에 있어서,
    상기 비디오 데이터 및 상기 오디오 데이터 간의 시간 갭을 조절하는 단계는,
    상기 매핑된 지연 시간 정보에 기초하여, 상기 디스플레이 장치에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 0에 접근하도록, 상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계;를 포함하는
    콘텐츠 출력 장치의 지연 보상 방법.
  16. 제 15항에 있어서,
    상기 비디오 데이터의 비디오 PTS 또는 상기 오디오 데이터의 오디오 PTS를 리매핑 하는 단계는,
    버퍼에서 출력되는 비디오 데이터 및 오디오 데이터 간의 시간 갭이 상기 매핑된 지연 시간 정보에 음의 부호를 가지는 값에 접근하도록, 상기 버퍼 내 비디오 데이터의 비디오 PTS에 상기 음의 부호를 가지는 값을 더하거나, 상기 버퍼 내 오디오 데이터의 오디오 PTS에 상기 지연 시간 정보를 더하는
    콘텐츠 출력 장치의 지연 보상 방법.
  17. 테스트 콘텐츠를 콘텐츠 출력 장치의 외부 장치 인터페이스를 통하여 디스플레이 장치로 출력하는 제1 단계;
    상기 디스플레이 장치에 의해 상기 테스트 콘텐츠가 출력되면서 발생하는 비디오 및 오디오 간의 지연 시간 정보를 획득하는 제2 단계;
    상기 디스플레이 장치의 식별 ID 및 상기 테스트 콘텐츠의 콘텐츠 포맷을 포함하는 보상 셋에 상기 지연 시간 정보를 매핑하여 저장하는 제3 단계; 및
    서로 다른 콘텐츠 포맷을 가지는 복수의 테스트 콘텐츠를 사용하여 서로 다른 디스플레이 장치에 대하여 상기 제1 내지 제3 단계를 반복함으로써, 식별 ID 및 콘텐츠 포맷 중 적어도 하나가 상이한 복수의 보상 셋 각각에, 상응하는 지연 시간 정보를 매핑하는 단계;를 포함하고,
    상기 복수의 보상 셋은,
    제1 디스플레이 장치의 식별 ID를 포함하는 제1 보상 셋 및 제2 디스플레이 장치의 식별 ID를 포함하는 제2 보상 셋을 포함하는
    지연 시간 정보 생성 방법.
  18. 삭제
  19. 제 17항에 있어서,
    상기 콘텐츠 포맷은,
    콘텐츠의 비디오 포맷, 오디오 포맷 및 프레임레이트에 의해 다른 콘텐츠 포맷과 구분되는
    지연 시간 정보 생성 방법.
KR1020210030931A 2021-03-09 2021-03-09 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법 KR102618617B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210030931A KR102618617B1 (ko) 2021-03-09 2021-03-09 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210030931A KR102618617B1 (ko) 2021-03-09 2021-03-09 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Publications (2)

Publication Number Publication Date
KR20220126534A KR20220126534A (ko) 2022-09-16
KR102618617B1 true KR102618617B1 (ko) 2023-12-27

Family

ID=83445089

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030931A KR102618617B1 (ko) 2021-03-09 2021-03-09 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Country Status (1)

Country Link
KR (1) KR102618617B1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100499519B1 (ko) * 2003-02-05 2005-07-07 엘지전자 주식회사 오디오 립 싱크 제어방법
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
KR20060065436A (ko) * 2004-12-10 2006-06-14 한국전자통신연구원 디지털 멀티미디어 방송 수신 장치에서의 오디오 및 비디오동기화 방법 및 장치
KR20070101036A (ko) * 2006-04-10 2007-10-16 엘지전자 주식회사 비디오 처리 지연 보상 장치 및 그 방법
KR101246916B1 (ko) * 2006-04-21 2013-03-25 삼성전자주식회사 오디오/비디오 동기 보정 방법 및 장치
KR20120061619A (ko) * 2010-12-03 2012-06-13 엘지전자 주식회사 디스플레이장치 및 그의 식별자 설정 방법

Also Published As

Publication number Publication date
KR20220126534A (ko) 2022-09-16

Similar Documents

Publication Publication Date Title
JP6671022B2 (ja) 表示装置、表示方法及びコンピュータプログラム
CN110489073B (zh) 变换方法及变换装置
WO2015198560A1 (ja) データ出力装置、データ出力方法及びデータ生成方法
JP2018018571A (ja) 再生方法および再生装置
US8244093B2 (en) Video signal processing device and method, and program
WO2019119854A1 (zh) 一种调整视频播放清晰度的方法和系统
CN100505889C (zh) 图像声音输出系统、装置、声音处理程序和记录介质
JP2006191577A (ja) 信号の中央化処理を使用する統合されたマルチメディア信号処理システム
KR20060079124A (ko) 통합형 멀티미디어 처리 시스템, 비디오 디스플레이 방법,비디오 소스의 최적 시청 환경 특성을 사용하는 방법
CN101803390A (zh) 对用户可观察信号进行同步的设备和方法
KR20180093702A (ko) 대체 광고를 재생하는 디스플레이 장치 및 그 디스플레이 장치의 제어 방법
WO2017159313A1 (en) Information processing apparatus, information recording medium, information processing method, and program
RU2691084C2 (ru) Устройство кодирования, способ кодирования, устройство передачи, способ передачи, устройство приема, способ приема и программа
KR102618617B1 (ko) 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법
KR20090074864A (ko) 디스플레이장치 및 광고 스킵 방법
US20080291328A1 (en) Decoding apparatus for encoded video signals
US20140036154A1 (en) Image processing apparatus and image processing method thereof
JP2019220968A (ja) 再生装置で実行される方法、及び再生装置
JP6928885B2 (ja) 表示装置、表示方法及びコンピュータプログラム
US20100166382A1 (en) Video and audio reproduction system, distribution device, and synchronization adjustment method
KR102634845B1 (ko) 콘텐츠 출력 장치 및 콘텐츠 출력 방법
KR100677162B1 (ko) A/v 동기를 자동 조정하는 av 시스템
JP6868797B2 (ja) 変換方法及び変換装置
CN111601157B (zh) 一种音频输出方法及显示设备
KR20110120402A (ko) 홈 씨어터 시스템의 신호 출력 제어 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant