KR101623513B1 - 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체 - Google Patents

비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체 Download PDF

Info

Publication number
KR101623513B1
KR101623513B1 KR1020107015970A KR20107015970A KR101623513B1 KR 101623513 B1 KR101623513 B1 KR 101623513B1 KR 1020107015970 A KR1020107015970 A KR 1020107015970A KR 20107015970 A KR20107015970 A KR 20107015970A KR 101623513 B1 KR101623513 B1 KR 101623513B1
Authority
KR
South Korea
Prior art keywords
video
video processing
processing algorithms
subset
source device
Prior art date
Application number
KR1020107015970A
Other languages
English (en)
Other versions
KR20100114033A (ko
Inventor
데이비드 아이. 제이. 글렌
Original Assignee
에이티아이 테크놀로지스 유엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이티아이 테크놀로지스 유엘씨 filed Critical 에이티아이 테크놀로지스 유엘씨
Publication of KR20100114033A publication Critical patent/KR20100114033A/ko
Application granted granted Critical
Publication of KR101623513B1 publication Critical patent/KR101623513B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4113PC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

비디오 소스 디바이스와 비디오 싱크 디바이스 사이에서 원하는 비디오 프로세싱을 배분하기 위하여, 상기 디바이스들 중의 일 디바이스에서, 그리고 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트가 식별된다. 상기 비디오 프로세싱 알고리즘들의 식별된 세트는 상기 타 디바이스에 의해 실행되기 위한 알고리즘들의 제1 서브세트와 상기 일 디바이스에 의해 실행되기 위한 알고리즘들의 제2 서브세트로 분류된다. 상기 타 디바이스로 하여금 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령이 송신된다. 상기 일 디바이스는 상기 알고리즘들의 제2 서브세트를 실행하도록 구성된다.

Description

비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체{METHOD, APPARATUS AND MACHINE-READABLE MEDIUM FOR APPORTIONING VIDEO PROCESSING BETWEEN A VIDEO SOURCE DEVICE AND A VIDEO SINK DEVICE}
본 출원은 2007년 12월 17일 출원된 동시-계속 미국 특허 출원 제 11/957,852 "METHOD, APPARATUS AND MACHINE-READABLE MEDIUM FOR VIDEO PROCESSING CAPABILITY COMMUNICATION BETWEEN A VIDEO SOURCE DEVICE AND A VIDEO SINK DEVICE"(발명자 David I.J. Glen, 도켓 번호 36544.00.0054, 상기 특허 출원의 권리는 양수인이 소유함)과 관련되며, 상기 특허 출원은 본 명세서에 참조로서 포함된다.
본 발명은 비디오 프로세싱에 관한 것이며, 보다 구체적으로는, 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱 성능을 배분(apportion)하기 위한 방법, 장치, 및 기계판독가능 매체에 관한 것이다.
비디오 소스 디바이스들(즉, DVD 플레이어, HD DVD 플레이어, 블루레이 디스크 플레이어, 셋탑 박스, 또는 PC와 같은 비디오 영상를 나타내는 데이터를 포함한 비디오 신호를 출력할 수 있는 디바이스들)과 비디오 싱크 디바이스들(즉, 비디오 신호를 수신하고, 데이터를 처리하며, 그리고/또는 비디오 영상들을 디스플레이할 수 있는, 예를 들어, CRT(Cathode Ray tubes), LCD(Liquid Crystal Dispalys) 또는 플라즈마 디스플레이와 같은 평면 패널 디스플레이, 또는 DLP(Digital Light Processing) 디스플레이 또는 LCoS (Liquid Crystal on Silicon) 디스플레이와 같은 배면투사형 디스플레이들과 같은 텔레비전 및 모니터)이 개별적으로 구매되는 것은 드문 일이 아니다. 예를 들어, 홈 엔터테인먼트 시스템을 조립하는 소비자는, 한 제조사로부터 비디오 소스 디바이스 컴포넌트를 구매하고 또 다른 제조사로부터 비디오 싱크 디바이스를 구매할 수 있다. 소비자 선호, 구매력, 또는 판매업자의 프로모션등이 컴포넌트에 대한 소비자의 선택의 동기가 될 수 있다. 소비자는 소스 디바이스가 싱크 디바이스로 비디오 데이터를 출력하도록 홈 엔터테인먼트 시스템 내에 컴포넌트들을 상호연결할 수 있다. 배선(interconnection)은 하나 이상의 케이블들에 의해 이루어질 수 있고, 예를 들어, VGA, 컴포지트/S-비디오 또는 컴포넌트 출력, 디지털 비쥬얼 인터페이스(DVI), 고해상도 멀티미디어 인터페이스™(HDMI™) 또는 디스플레이포트® 규격을 따를 수 있다.
많은 현대의 비디오 소스 디바이스들은 출력 비디오 데이터를 포함하는 비디오 영상들의 외형(appearance) 또는 품질을 향상시키기 위해 수많은 비디오 프로세싱 알고리즘들을 비디오 데이터에 적용할 수 있다. 비디오 프로세싱 알고리즘들은 스캔율 변환, 인터레이싱, 디인터레이싱, 디노이즈, 스케일링, 컬러 보정, 콘트라스트 보정 및 디테일 향상과 같은 다양한 카테고리 내에 속할 수 있다. 비디오 프로세싱 카테고리 내에 존재할 수 있는 비디오 프로세싱 알고리즘 유형의 예로서, 인터레이싱 카테고리는, 예를 들어 스캔 라인 데시메이션(scan line decimation) 및 수직 디-플리커 필터링(vertical de-flicker filtering) 알고리즘을 포함한다. 임의의 주어진 시점에 소스 디바이스에 실제로 적용되는 비디오 프로세싱 알고리즘들은 비디오 데이터의 특성(예를 들어, 프레임율(frame rate)) 또는 사용자 선호(예를 들어, 가능한 최대 프레임을 사용하라는 표시)와 같은 다양한 인자들에 근거한 것일 수 있다. 비디오 프로세싱 알고리즘들은 소프트웨어, 하드웨어, 펌웨어 또는 이것들의 조합에 의해 실행될 수 있다. 비디오 프로세싱 알고리즘은 예를 들어, 비디오 프로세서의 기능 블록과 관련될 수 있다.
비디오 싱크 디바이스는 또한, 업스트림 비디오 소스 디바이스가 수행할 수 있는 동일한 비디오 프로세싱 알고리즘들("오버랩 비디오 프로세싱 성능"이라 지칭됨)의 전부 또는 일부를 포함하는 수많은 비디오 프로세싱 알고리즘들을 수신된 비디오 데이터에 적용할 수 있다. 이 오버랩은, 비디오 싱크 디바이스가 비디오 소스 디바이스들의 비디오 프로세싱 성능들이 다를 수 있는 다양한 종류의 비디오 소스 디바이스들과 상호연결될 수 있도록 된 모듈 컴포넌트(modular component)이기 때문에 일어날 수 있다. 비디오 소스 디바이스 및 비디오 싱크 디바이스는 비디오 프로세싱 관점에서 각각 서로 다른 장점들 및 단점들을 지닌다. 예를 들어, 소스 디바이스는 싱크 디바이스가 실행할 수 없는 많은 스캔율 변환 알고리즘들을 실핼할 수 있는 반면, 싱크 디바이스는 소스 디바이스가 실행할 수 없는 많은 디-인터레이싱 알고리즘들을 실행할 수 있다.
단점으로서, 비디오 소스 디바이스와 비디오 싱크 디바이스 사이의 비디오 프로세싱을 배분하기 위한 편리한 메커니즘이 존재하지 않는다.
이러한 단점을 없애거나 경감시킬 해법이 요구된다.
일 양상에서, 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 원하는 비디오 프로세싱을 분배하는 방법에 제공되며, 상기 방법은, 상기 다비이스들 중의 일 디바이스에서, 상기 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세시 알고리즘들의 표시 및 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하는 단계와; 그리고 상기 세트의 비디오 프로세싱 알고리즘들을 상기 타 디바이스에의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와, 상기 일 디바이스에의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하는 단계와; 그리고 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위해 적어도 하나의 명령을 송신하는 단계를 포함한다.
또 다른 양상에서, 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 원하는 비디오 프로세싱을 분배하는 방법에 제공되며, 상기 방법은, 상기 디바이스들 중의 일 디바이스에서, 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시를 상기 비디오 소스 디바이스와 상기 비디오 싱크 디바이스 중의 타 디바이스로 송신하는 단계와; 그리고 상기 일 디바이스가 상기 비디오 프로세싱 알고리즘들 중의 적어도 하나를 실행하게 하기 위한 적어도 하나 명령을 상기 타 디바이스로부터 수신하는 단계를 포함한다.
또 다른 양상에서, 명령어들을 저장하고 있는 기계판독가능 매체가 제공되며, 상기 명령어들은 비디오 소스 디바이스 및 비디오 싱크 디바이스 중의 일 디바이스의 프로세서에 의해 실행될 때, 상기 일 디바이스로 하여금, 상기 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세시 알고리즘들의 표시 및 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게하고; 그리고 상기 세트의 비디오 프로세싱 알고리즘들을 상기 타 디바이스에의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와, 상기 일 디바이스에의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하게하고, 그리고 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위해 적어도 하나의 명령을 송신하게 한다.
또 다른 양상에서, 프로세서 및 상기 프로세서와 상호연결된 메모리를 포함하는 비디오 소스 디바이스가 제공되고, 상기 메모리는 명령어들을 저장하고 있으며, 상기 명령어들은, 상기 프로세서에 의해 실행될 때, 상기 비디오 소스 디바이스로 하여금, 비디오 싱크 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 비디오 소스 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게 하고, 그리고 비디오 싱크 디바이스에 의해 수행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트 및 비디오 소스 디바이스에 의해 수행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트와를 분류하게 하고; 그리고 상기 비디오 싱크 디바이스가 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령을 송신하게 한다.
또 다른 양상에서, 프로세서 및 상기 프로세서에 상호연결된 메모리를 포함하는 비디오 싱크 디바이스가 제공되고, 상기 메모리는 명령어들을 저장하고 있으며, 상기 명령어들은, 상기 프로세서에 의해 실행될 때, 상기 비디오 싱크 디바이스로 하여금, 비디오 소스 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 비디오 싱크 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게 하고, 그리고 상기 세트의 비디오 프로세싱 알고리즘들을 상기 비디오 소스 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트 및 상기 비디오 싱크 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하게 하고, 그리고 상기 비디오 소스 디바이스로 하여금 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령어를 송신하게 한다.
또 다른 양상에서, 명령어들을 저장하고 있는 기계판독가능 매체가 제공되며, 상기 명령어들은 처리될 때, 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘의 표시에 근거하여, 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하고; 그리고 상기 비디오 프로세싱 알고리즘들을 상기 타 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와 상기 일 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하고; 그리고 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령을 송신하는 회로가 생성되게 하며, 여기서 상기 회로는 상기 일 디바이스를 포함한다.
본 개시의 다른 양상들은 첨부의 도면들을 참고로한 본 발명의 구체적인 실시예들에 대한 하기의 기재로부터 당업자에게 자명해질 것이다.
예시적인 실시예를 도시하는 도면들에서,
도 1은 비디오 소스 디바이스 및 비디오 싱크 디바이스를 구비한 시스템의 개략도이다.
도 2는 비디오 소스 디바이스 및 비디오 싱크 디바이스를 구비한 예시적인 시스템을 보다 자세히 도시하는 개략도이다.
도 3은 도 2의 비디오 소스 디바이스의 CPU 박스를 도시하는 개략도이다.
도 4는 도 3의 CPU 박스의 그래픽 서브시스템을 도시하는 개략도이다.
도 5는 도 2의 비디오 싱크 디바이스를 보다 자세히 도시하는 개략도이다.
도 6 및 도 7은 도 2의 비디오 소스 디바이스 및 비디오 싱크 디바이스 각각의 비디오 프로세싱 성능의 표시들을 도시하는 개략도이다.
도 8은 도 2의 비디오 소스 디바이스의 동작을 도시하는 흐름도이다.
도 9는 도 2의 비디오 싱크 디바이스의 동작을 도시하는 흐름도이다.
도 10은 도 2의 비디오 싱크 디바이스에 의해 달성되는 그래픽 사용자 인터페이스의 예이다.
도 11은 도 1의 시스템의 대안적인 실시예의 개략도이다.
도 12는 비디오 소스 디바이스 또는 비디오 싱크 디바이스를 포함하는 회로 제작의 간략화된 개략도이다.
도 1을 참조하여, 예시적인 시스템(10)이 도시된다. 시스템(10)은 비디오 데이터 배선(interconnection)(16)에 의해 상호연결된 비디오 소스 디바이스(12) 및 비디오 싱크 디바이스(14)를 포함한다.
비디오 소스 디바이스(12)는 배선(16)을 통해 비디오 영상을 나타내는 데이터를 포함하는 비디오 신호를 출력하는 전자 디바이스이다. 비디오 데이터는, 비압축 디지털 비디오 스트림(예를 들어, DVI, HDMI™, Digital Flat Panel(DFP) 인터페이스, Open LVDS 디스플레이 인터페이스(OpenLDI), 또는 디스플레이포트® 신호), 아날로그 비디오 스트림(예를 들어, YPpPb, CVBS, 또는 VGA 신호), 케이블 텔레비전 업체가 제공하는 복수의 채널들을 포함하는 변조된 신호, 리어셈블 및/또는 디코드되어 완전한 비디오 스트림을 형성하는 일련의 이더넷 패킷들, 위성 접시 또는 안테나에 의해 수신된 방송, DVD로부터의 비디오 스트림, 3차원 공간의 오브젝트들을 나타내는 정보, 하드 드라이브와 같은 비휘발성 저장 매체로부터 검색된 정보, 컴퓨터-생성 비디오 신호 등일 수 있다. 비디오 데이터는 예를 들어, 프레임들 또는 필드들을 포함할 수 있다.
비디오 소스 디바이스(12)는 배선(16)을 통해 비디오 데이터를 출력하기전에 비디오 데이터에 대한 다양한 타입의 비디오 프로세싱을 수행할 수 있다. 비디오 프로세싱은, 예를 들어, 비디오 영상들의 품질을 개선시키거나 또는 비디오 포맷들 간의 변환을 수행하기 위한 것이며, 예를 들어, 스캔율 변환, 인터레이싱, 디-인터레이싱, 디-노이즈, 스케일링, 컬러 보정, 콘트라스트 보정 또는 디테일 향상을 포함할 수 있다. 비디오 소스 디바이스(12)의 특성에 따라, 프로세싱되는 비디오는 외부 소스(예를 들어, 케이블 헤드-엔드 또는 위성)로부터 비디오 소스 디바이스(12)에 의해 수신되고, 디바이스(12)에 의해 저장 매체(예를 들어, 하드 디스크 또는 광학 디스크)로부터 판독 되고, 또는 예를 들어, 디바이스(12)에 의해 (예를 들어, 비디오 게임과 같은 소프트웨어 애플리케이션에 의해) 생성될 수 있다. 예시적인 비디오 소스 디바이스들(12)은, 예를 들어, 동축 케이블, 위성 접시, 전화선, 전력선을 통한 브로드밴드, 이더넷 케이블, 또는 VHF, UHF 또는 HD 안테나 중 어느 것으로부터 비디오 신호들을 수신하는 PC, DVD 플레이어, HD DVD 플레이어, 블루레이 디스크 플레이어, 그리고 셋톱 박스(가능하게는 디지털 비디오 녹화 성능이 있는 셋톱 박스)를 포함한다.
비디오 싱크 디바이스(14)는 배선(16)을 통해 비디오 데이터를 수신하여 그 데이터를 비디오 영상들로서 디스플레이하는 전자 디바이스이다. 많은 경우에 비디오 싱크 디바이스는 데이터를 비디오 영상으로서 디스플레이할 수도 있으나, 이것은 모든 비디오 싱크 디바이스들에 있어서 반드시 사실은 아니다. 비디오 싱크 디바이스(14)가 행할 수 있는 비디오 프로세싱은, 비디오 소스 디바이스(12)가 행할 수 있는 비디오 프로세싱과 완전히 또는 부분적으로 동일하다(즉, 디바이스(12, 14)의 비디오 프로세싱 성능은 오버랩된다). 디바이스들(12, 14) 간의 비디오 프로세싱에 있어서의 상기 오버랩은, 상기 디바이스들이 서로 상호연결될 수 있도록 되었을 뿐만아니라 비디오 프로세싱 성능이 서로 다를 수 있는 다양한 서로 타입의 다른 비디오 소스 디바이스 또는 비디오 싱크 디바이스들과 상호연결될 수 있도록된 모듈러 컴포넌트이기 때문에 일어난다. 예시적인 비디오 소스 디바이스들(14)은 중간(intermediate) 비디오 프로세서들(예를 들어, DVDO®iScan™VP50) 또는 모니터 및 텔레비전(예를 들어, CRT, LCD 또는 플라즈마 디스플레이와 같은 평면 패널 디스플레이모니터, 또는 DLP 디스플레이 또는 LCoS 디스플레이와 같은 배면투사형 디스플레이일 수 있음)를 포함한다.
비디오 데이터 배선(16)은 비디오 데이터를 나타내는 신호들을 비디오 소스 디바이스(12)로부터 비디오 싱크 디바이스(14)로 운반하고, 동일한 방향 또는 반대의 방향으로 서로 다른 정보를 운반하기 위한 배선이다. 비디오 데이터와 동일한 방향으로 운반되는 정보는 소스 디바이스(12)의 비디오 프로세싱 성능의 표시, 그리고 선택적으로, 상기 비디오 소스 디바이스(12)에 의해 비디오 데이터에 실제로 적용된 비디오 프로세싱을 표시하는 메타데이터를 포함한다. 반대 방향으로 운반되는 정보는, 비디오 소스 디바이스(12)로하여금 하나 이상의 지정된 비디오 프로세싱 알고리즘들을 실행하게하는 하나 이상의 명령들을 포함한다. (양 방향 모두에 있어서) 이 정보의 전송은 본 설명의 핵심이다. 물리적으로, 배선(16)이 전기 케이블 또는 광 케이블일 수 있으며, 또는 비디오 데이터가 무선으로 전송될 수 있는 디바이스들(12, 14)간의 공기일 수 있다. 배선(16)은, 예를 들어, DVI, HDMI™, 디스플레이포트®, DFT 인터페이스, OpenLDI, 또는 기가비트 비디오 인터페이스(GVIF) 표준과 같은 공지된 비디오 연결 표준을 따를 수 있다. 대안적으로, 배선(16)은 사유 시그널링 프로토콜(proprietary signalling protocol)을 따를 수 있다.
개략적으로, 비디오 소스 디바이스(12)와 비디오 싱크 디바이스(14) 간에 원하는 비디오 프로세싱의 배분을 지원하기 위해, 비디오 소스 디바이스(12) 및 비디오 싱크 디바이스(14) 각각은 자신에게 가능한 비디오 프로세싱 성능의 표시를 저장한다. 상기 표시는, 예를 들어 공장에서 디바이스 내에(예를 들어, ROM에) 프리셋된 전자적 데이터 파일 또는 디바이스의 현재의 비디오 프로세싱 성능을 반영하는 동적으로 구성가능한 데이터 레코드일 수 있다. 디바이스(12)는, 예를 들어 디바이스들(12, 14)의 전원이 켜짐에 따라, 그것의 비디오 프로세싱 성능의 표시를 다른 디바이스(14)에 전달한다. 이는 도 1에서 화살표(17)로 개략적으로 도시된다.
비디오 싱크 디바이스(14)에서, 수신된 표시(디바이스(12)가 처리할 수 있는 비디오 프로세싱 알고리즘들에 대한 표시) 및 디바이스(14)가 처리할 수 있는 비디오 프로세싱 알고리즘들에 대한 별도의 표시(로컬로 유지됨)가 공동으로, 사용가능한 비디오 프로세싱 알고리즘들 전체를 표시할 수 있다. 원하는 비디오 프로세싱을 달성하기 위해 이 전체의 비디오 프로세싱 알고리즘들의 세트가 식별된다. 식별된 비디오 프로세싱 알고리즘들은 두개의 서브세트: 비디오 소스 디바이스(12)에 의한 성능에 대한 제1 서브세트 및 비디오 싱크 디바이스(14)에 의한 성능에 대한 제2 서브세트로 분류된다. 상기 분류는 비디오 영상들의 품질을 최대화하거나, 하나의 디바이스 또는 두 디바이스들 모두에서의 전력을 보존하거나, 또는 디바이스들 사이의 비디오 프로세싱 로드를 밸런싱하는 것과 같은 기준들에 의해 이루어진다. 이 기준들은 사용자가 그래픽 사용자 인터페이스(GUI)를 통해 구성할 수 있다. 분류에 후속하여, 디바이스(12)가 그 디바이스(12)에 배정된 비디오 프로세싱 알고리즘들(즉, 비디오 프로세싱 알고리즘들의 제1 서브세트)을 수행하게 하고, 그리고 비디오 싱크 디바이스(14)가 나머지 비디오 프로세싱 알고리즘들(즉, 제2 서브세트)을 수행하게 하기 위하여, 비디오 싱크 디바이스(14)는 하나 이상의 명령들을 비디오 소스 디바이스(12)(도 1에서 화살표 19로 개략적으로 도시됨)에 송신한다. 제2 서브세트가 빈다면(예를 들어, 수행될 모든 비디오 프로세싱 알고리즘들이 비디오 소스 디바이스(12)에 배정된다면), 비디오 싱크 디바이스(14)의 구성은 불필요해진다. 비디오 소스 디바이스(12)로 송신된 명령(들)이, 디바이스(12)에게 제2 서브세트의 비디오 프로세싱 알고리즘들을 비활성화시키도록 명시적으로 명령하거나, 대안적으로, 디바이스(12)가 자신이 활성화시키도록 명령받은 비디오 프로세싱 알고리즘들만을 활성화해야한다는 것을 이해하고 동작하여 모든 다른 알고리즘들을 비활성화할 수 있다. 비디오 싱크 디바이스(14)는 따라서, 디바이스들 간의 비디오 프로세싱의 배분을 결정한다는 측면에서 "마스터"로서 동작하고, 비디오 소스 디바이스는 실행 명령된 비디오 프로세싱들 실행한다는 측면에서 "슬레이브"로서 동작한다.
선택적으로, 비디오 소스 디바이스(12)가 수신된 명령(들)에 응답하여 적어도 하나의 비디오 프로세싱 알고리즘을 활성화하면, 상기 비디오 소스 디바이스(12)는 그후 상기 비디오 소스 디바이스(12)가 전송하는 처리된 비디오 데이터와 함께 메타데이터를 디바이스(14)에 통신하며, 여기서 상기 메타 데이터는 디바이스(12)에 의해 비디오 데이터에 적용된 비디오 프로세싱 알고리즘들을 반영한다. 그러한 메타데이터가 통신되면, 비디오 싱크 디바이스(14)는 전송된 명령(들)이 실제로 결과적으로 비디오 소스 디바이스(12)에서 요구된 비디오 프로세싱 알고리즘들의 성능이 되게했는지를 확인할 수 있다. 만약 비디오 싱크 디바이스(14)가 제1 서브세트의 어떠한 비디오 프로세싱 알고리즘도 실행되지 않았다고 결정하면, 비디오 싱크 디바이스(14)에서 상기 비디오 프로세싱 알고리즘을 수행하게 하도록 비디오 싱크 디바이스(14)를 구성하는 것과 같은 구제 단계(remidal steps)들이 취해질 수 있다. 대안적으로, 비디오 소스 디바이스(12)에서 비활성화될 것으로 기대되었던 비디오 프로세싱 알고리즘이 여전히 그 디바이스에서 활성상태라면(예를 들어, 그 디바이스의 사용자가 수동으로 그 알고리즘을 활성화시켰기 때문임), 비디오 싱크 디바이스(14)는 불필요한 노력을 거듭하는 것을 피하기 위하여 그러한 유형의 자신의 비디오 프로세싱 알고리즘을 비활성화하는 구제 단계를 취할 수 있다.
대안적인 실시예에서(도 1에 도시되지 않음), 비디오 프로세싱 분배의 측면에서 디바이스들(12, 14)의 역할은 역전될 수 있다. 즉, 반대라기 보다는, 디바이스(12)가 마스터로서 동작하고, 디바이스(14)가 슬레이브로서 동작하는 것이다. 이 경우에, 화살표(17, 19)의 방향은 역전되며, 슬레이브 디바이스에 의해 통신되는 메타데이터가 존재한다면, 이 메타데이터는 비디오 싱크 디바이스(14)로부터 비디오 소스 디바이스(!2)로 "업스트림" 통신될 것이다.
유익하게도, 상술된 실시예들은 보다 높은 품질의 비디오 영상들, 일 디바이스 또는 타 디바이스에서의 감소된 전력 소비(예를 들어, 전력이 소요되는 비디오 프로세싱을 배터리 전력 디바이스로부터의 배터리 전력이 아닌 다른 디바이스로 전환시킴으로써 전력 소비가 감소됨), 또는 비디오 프로세싱을 밸런싱하여 어떤 디바이스도 과부하되거나 불충분하게이용되지 않게 하는 것과 같은 이점들을 제공할 수 있다.
도 2는 예시적인 시스템(10)을 보다 자세히 도시한다. 도 2에서, 비디오 소스 디바이스(12)는 개인용 컴퓨터(또는, 보다 정확히는, 개인용 컴퓨터의 CPU 박스(12))이고, 싱크 디바이스(14)는 LCD 텔레비전이며, 배선(16)은 CPU 박스(12)를 텔레비전(14)와 상호연결하는 케이블이다.
CPU 박스(12)는, 그것의 이름에서 제시되는 바와 같이, 메인 프로세서 또는 CPU 를 포함하는 개인용 컴퓨터의 부분이다. CPU 박스(12)는 CPU 이외의 다양한 컴포넌트들(예를 들어, 전원, 메모리, 주변장치 카드, 냉각 팬)도 포함하며, 이것들은 도시되지 않는다. CPU 박스(12)는 그래픽 서브시스템(GSS)를 포함하며, 상기 GSS는, 하기에서 설명되는 바와 같이, GSS 비디오 프로세싱 성능의 표시를 텔레비전(14)에 제공고 그 디바이스로부터 텔레비전(14)의 비디오 프로세싱 성능의 표시를 수신할 수 있도록 종래의 GSS로부터 수정된 것이다.
키보드(도 2에 도시됨), 마우스, 트랜볼, 터치스크린, 태블렛, 또는 이러한 디바이스들의 조합과 같은 사용자 입력 메커니즘(13)이 또한 CPU 박스(12)에 부착되어 사용자로하여금 개인용 컴퓨터를 제어할 수 있게 해준다.
비디오 싱크 디바이스(14)는 CPU 박스(12)로부터, 그리고 특히 박스(12)의 그래픽 서브시스템으로부터 발생된 비디오 데이터를 LCD 스크린(15) 상에 디스플레이하는 LCD 텔레비전이다. 텔레비전(14)은 하기에서 설명되는 바와 같이, 다양한 비디오 프로세싱 알고리즘들을 CPU 박스(12)로부터 수신된 비디오 데이터에 적용할 수 있다.
케이블(16)은 비디오 영상들(비디오 데이터)을 나타내는 신호들을 CPU 박스(12)의 그래픽스 서브시스템으로부터 싱크 디바이스로 운반한다. 본 실시예에서, 케이블은 HDMI™규격(예를 들어, HDMI™ 규격 버전 1.0, 1.1, 1.2a, 1.3, 1.3a, 또는 1.3b)을 따르며, 따라서 신호들은 디지털 신호들이다. 케이블(16)과 같은 HDMI™ 배선은, 본 기술분야에 알려져 있는 디스플레이 데이터 채널(DDC) 표준을 따른다. DDC 표준은 VESA(Videl Electronics Standatds Association)에 의해 널리 알려져 있으며, 싱크 디바이스와 그래픽스 서브시스템 사이의 통신을 지배한다. DDC 표준은, 비디오 싱크 디바이스가 비디오 소스 디바이스에게 최대 해상도 및 컬러 심도와 같은 그것의 특성들에 대해 알려줄 수 있게 하는 표준화된 기법을 제공하여, 비디오 소스 디바이스가 예를 들어 사용자에게 유효 디스플레이 설정 옵션들을 제시할 수 있게 해준다. 기계적으로, 케이블(16)은 DDC 표준에 따라 싱크 디바이스 특성들을 통신하기 위한 세개의 라인들/핀들(즉, 데이터, 클럭, 그라운드)을 포함한다. 본 실시예의 케이블(16)이 따르는 DDC 표준의 특정 버전은 E-DDC™(Enhanced Display Data Channel) 표준, 버전 1.1(2004.3.24)이다. 이 표준은 또한 VESA(www.vesa.org)에 의해 널리 알려져 있다. 하기에서 명확히 알 수 있는 바와 같이, DDC 채널은, 본 발명에서, 디바이스들(12, 14) 간의 비디오 프로세싱의 분배의 일부로서, 비디오 소스 디바이스(12)에 배정된 비디오 프로세싱 알고리즘들이 실행되게 하기 위해 업스트림 방향으로 명령어들을 운반하는 데 사용된다. 케이블(16)은 또한 비디오 소스 디바이스(12)가 처리할 수 있는 비디오 프로세싱 알고리즘들에 대한 표시를 다운 스트림 방향으로 비디오 싱크 디바이스(14)로 운반한다. 명료하게 하기 위해, 본 명세서에서 용어 "업스트림"과 "다운스트림"은 디바이스들 간의 비디오 데이터의 흐름의 일반적인 방향(디바이스(12)로부터 디바이스(14)로의 방향)에 관련된 것이다.
도 3은 도 2의 CPU 박스를 보다 자세히 도시한다. 도시된 바와 같이, CPU 박스(12)는 프로세서(20), 휘발성 메모리(22), 비휘발성 메모리(24), 그리고 그래픽스 서브시스템(26)을 포함한다.
프로세서(20)는 도 3의 CPU 박스(12)의 메인 프로세서이다. 프로세서(20)는 종래의 프로세서이며, 예를 들어, Intel Corporation에서 제조된 펜티엄® 마이크로프로세서 또는 AMD(Advanced Micro Devices, Inc)에서 제조된 또는 애슬론® 마이크로프로세서일 수 있다. Motorola, Inc, International Business Machines Corp., 또는 Transmeta Inc.와 같은 다른 회사에서 제조된 다른 타입의 프로세서들도 대안적으로 사용될 수 있다.
휘발성 메모리(22)는 시스템(10)의 동작 중에 실행가능한 소프트웨어 및 데이터를 저장하는 종래의 랜덤 엑세스 메모리이다. 휘발성 메모리(22)는, 예를 들어, 동적 랜덤 엑세스 메모리(DRAM)의 형태일 수 있다. 메모리(22)에 저장된 실행가능한 소프트웨어는 운영 시스템 소프트웨어 및 애플리케이션 소프트웨어를 포함한다. 운영 시스템 소프트웨어는, 예를 들어 Windows XP, Windows 2000, Windows NT®, Windows Vista® 또는 Linux®와 같은 종래의 운영 시스템을 나타내는 실행가능한 코드일 수 있다. 대안적인 실시예들에서는, UNIX®, MAC OS™, Solaris, SunOS, 또는 HP-UX와 같은 다른 운영 시스템들이 사용될 수 있다. 애플리케이션 소프트웨어는, 디스플레이용으로 2D 또는 3D 비디오 영상들이 생성되게 하는 미디어 플레이어, 비디오 게임과 같은 종래의 애플리케이션일 수 있다.
비휘발성 메모리(24)는, 시스템(10)(도 2)의 전원이 꺼져있을 때, 실행가능 소프트웨어 및 데이터를 저장할 수 있는, 예를 들어, 하드 디스크 드라이브와 같은 종래 형태의 비휘발성 메모리이다.
프로세서(20), 휘발성 메모리(22), 그리고 비휘발성 메모리(24)는 시스템 버스(28)에 의해 상호연결된다. 버스(28)의 특정 실시예는 본 개시의 핵심 사항이 아니다.
비디오 데이터는 출력되기 전에, GSS(26)에 의해 2D 또는 3D 영상들의 논리 표현으로부터 변환된다. 본 실시예에서, GSS(26)는, AMD에 의해 제조된 Radeon® X800, Radeon® X800 Pro, 또는 Radeon® X600 카드와 같은 단독형(stand-alone) 확장 카드이다. 그러나, GSS(26)는 대안적인 실시예들에서 CPU 박스(12)의 마더보드 내에 통합될 수 있다. 도 2의 메인 프로세서(20)와 GSS(26) 사이의 배선(25)은 AGP(Accelerated Graphics Port(AGP) 또는 PCI Express™ 인터페이스 규격과 같은 알려진 버스 규격을 따를 수 있다. GSS(26)은 CPU 박스(12)(예를 들어, CPU 박스(12)의 후면판(backplane))에서 도 1의 케이블(16)을 위한 연결점으로서 기능한다. 본 실시예의 GSS는 설명될 바와 같은 다양한 비디오 프로세싱 알고리즘들을 실행할 수 있다.
도 4는 시스템 동작 중의 도 3의 GSS(26)를 도시한다. 도시된 바와 같이, GSS(26)는 그래픽 프로세싱 유닛(30)과 휘발성 메모리(32)를 포함한다. 다른 구성요소들은 명료성을 위해 생략되었다.
그래픽 프로세싱 유닛(30)은, 예를 들어, 2D 또는 3D 영상의 논리 표현의 변환을 거쳐, 케이블(16)을 통해 도 2의 싱크 디바이스(14)로 전달되는 비디오 데이터를 생성하는 역할을 하는 프로세싱 엔진이다. 본 실시예의 GPU(30)는 디-인터레이싱(스캔 라인 듀플리케이션만 해당됨), 스케일링(픽셀 드롭핑 및 듀플리케이션 또는 선형 보간), 컬러 보정(프레쉬톤 보정(fleshtone correction)만 해당됨), 콘트라스트 보정(비-내용 적응 콘트라스트 보정(non-content adaptive contrast correction만 해당됨), 그리고 디테일 향상(detail enhancement)(선명도(sharpness) 향상만 해당됨) 카테고리의 비디오 프로세싱을 수행할 수 있도록 되어 있다. 그러나, 본 실시예의 GPU(30)는 스캔율 변환, 인터레이싱, 디-노이즈와 같은 다른 카테고리의 비디오 프로세싱은 수행하지 못하게 되어 있다. 다른 실시예들에서, GPU(30)(또는, 보다 일반적으로, 비디오 소스 디바이스(12))는, 동일한 또는 다른 카테고리의 상이한 종류의 비디오 프로세싱을 실행할 수 있게 구성될 수 있음이 이해될 것이다. 명료성을 위하여, 본 명세서에서 사용된 용어 "비디오 프로세싱 알고리즘"이 반드시 소프트웨어 구현을 의미하는 것으로 이해되어서는 안된다. 비디오 프로세싱 알고리즘은, 소프트웨어, 하드웨어(예를 들어, 집적 회로), 펌웨어, 또는 이것들의 조합)에서 실시될 수 있다. 일부 실시예들에서, 각 카테고리의 비디오 프로세싱 알고리즘들은 비디오 프로세서 내의 기능 블록에 의해 나타내질 수 있으며, 여기서 각각의 기능 블록은 적어도 하나의 알고리즘을 수행할 수 있다.
GPU(30)는 프레임 버퍼(34)를 포함한다. 프레임 버퍼(34)는, 싱크 디바이스(14)로 전송되어 싱크 디바이스(14)에 의해 디스플레이될 준비가 된, 처리된 비디오 데이터를 저장하는 버퍼이다. 상기 버퍼(34)의 출력은, 후면판(35)에 있는 소켓에 연결되며, 케이블(16)(도 2)이 HDMI™ 트랜스미터(도시되지 않음)에 의해 상기 소켓에 연결된다. HDMI™ 트랜스미터는 동작되는 HDMI™ 규격에 따라 케이블(16)을 통해 비디오 데이터를 전송하기 위하여 상기 비디오 데이터를 변환하는 역할을 한다. 대안적인 실시예들에서, 프레임 버퍼(34)가 휘발성 메모리의 부분을 형성할 수 있다(하기에서 설명됨).
휘발성 메모리(32)는 GPU(30)에 의한 비디오 프로세싱 애플리케이션 실행 중에 영상 데이터를 위한 임시 저장소로서 기능한다. 메모리(32)는, 일반적으로, 고속 메모리 엑세스를 지원하는 RAM의 형태이다. 메모리(32)는 종래 방식으로 GPU(30)과 상호연결된다. 메모리(32)는 또한 비디오 소스 디바이스(12)(또는, 보다 구체적으로는 비디오 디바이스(12)의 GSS(26) 컴포넌트)(상기 메모리(32)는 비디오 소스 디바이스(12)의 부분을 형성함)의 비디오 프로세싱 성능(31)의 표시를 저장한다. 표시(31)는 본 실시예에서 GSS(26)의 비휘발성 메모리로부터 기인한다.
본 명세서에 기술된 비디오 소스 디바이스(12)(및, 보다 구체적으로, GSS(26))의 동작은, 광학 디스크, 자기 디스크, 또는 예를 들어, 판독전용 메모리칩과 같은 기계판독가능 매체(38)로부터 휘발성 메모리(22)(도 3) 또는 휘발성 메모리(32)(도 4)로 로딩되는 실행가능 명령들에 의해 지배될 수 있다. 예를 들어, 이 코드는, CPU 박스(12)에서 실행되는 운영 시스템의 일부인 드라이버의 형태를 취할 수 있다.
도 5는 시스템 동작 중에 도 2의 비디오 싱크 디바이스(14)를 도시한다. 도시된 바와 같이, 비디오 싱크 디바이스(14)는 프로세서(40), 메모리(42), 그리고 종래 방식으로 상호연결된 스크린(15)을 포함한다. 본 명세서에서 설명된 비디오 싱크 디바이스(14)의 동작은, 예를 들어 광학 디스크, 마그네틱 디스크, 또는 판독전용 메모리 칩으로부터 로딩되는, 프로세서(40)에 의해 실행될 수 있는 명령어들에 의해 지배될 수 있다. 배선(16)을 통해 비디오 데이터를 수신하고 디코딩된 비디오 데이터를 프로세서(40) 및 오디오 부품들(예를 들어, 오디오 향상 프로세서, 스피커들)로 포워딩하기 위한 HDMI™ 수신기와 같은 싱크 디바이스(14)의 다양한 다른 부품들은 도 5에서 명료성을 위해 생략된다.
프로세서(40)는 비디오 데이터를 수신하고 그 데이터에 따라 다양한 비디오 프로세싱 알고리즘들을 실행하는 비디오 및 그래픽 프로세서이다. 프로세서(40)는, 스캔율 변환, 인터레이싱, 디-인터레이싱, 디-노이즈, 스케일링, 컬러 보정, 콘트라스트 보정 그리고 디테일 향상 카테고리들 각각에서 비디오 프로세싱을 수행할 수 있다. 프로세서(20)는 싱크 디바이스(14)(예를 들어, 싱크 디바이스(14)의 후면판)에 연결된 케이블(16)을 통해(그리고, HDMI™ 수신기(도시되지 않음)를 통해) GSS(26)로부터 비디오 데이터를 수신한다.
휘발성 메모리(42)는 비디오 소스 디바이스(12)의 비디오 프로세싱 성능의 표시(31) 및 텔레비전(14)의 비디오 프로세싱 성능의 표시(33)를 저장한다. 표시(31)는 비디오 소스 디바이스(12)로부터의 다운 스트림 통신에서 실시간으로 수신되는 반면, 표시(33)는 텔레비전(14)의 비휘발성 메모리(예를 들어, ROM)로부터 판독된다. 추가적으로, 메모리(42)는 비디오, 예를 들어, 기계-프로세싱 분배 로직(machine-processing apportionment logic)(37)을 저장한다. 소프트웨어(실행가능한 명령어들)의 형태를 취할 수 있는 상기 로직(37)은, 현재 동작 기준(예를 들어, 최대 영상 품질, 전력 보전, 및/또는 로드 밸런싱)을 적용하여, 비디오 프로세싱 분배를 지배한다. 로직(37)은 본 실시예에서 하기에서 설명되는 GUI를 사용하여 사용자가 구성가능하다. 규칙들(37)은 시스템 시작시 로컬 ROM으로부터 판독될 수 있다.
도 6 및 7은, 디바이스들(12 및 14) 각각의 비디오 프로세싱 성능의 표시들(31, 33)을 보다 자세히 도시한다.
도 6을 참조하면, 표시(31)는 테이블의 형태로 표현된다. 시스템(10) 내에서 표시(31)의 실제 형태가, 예를 들어 바이너리 또는 텍스츄얼(texual)(예를 들어, 마크업 언어)일 수 있음이 이해될 것이다. 비디오 소스 디바이스(12)가 수행할 수 있는 비디오 프로세싱의 10개 서로다른 카테고리들 각각-즉, 스캔율 변환, 인터레이싱, 디-인터레이싱, 디-노이즈, 스케일링, 컬러 보정, 콘트라스트 보정 및 디테일 향상-이 도 6의 주요 행으로서 표현되고, 상기 카테고리는 열(60)에 표시된다. 각각의 카테고리 내에서, 적어도 두개의 비디오 프로세싱 알고리즘들이 행(62) 내에 보다 구체적으로 표시된다. 각각의 비디오 프로세싱 알고리즘은 상기 테이블의 주요 행 내의 부수적인 행으로서 표현된다. 예를 들어, 스캔율 변환 카테고리를 나타내는 주요 행은, 그 카테고리 내에, N 프레임들/필드들 마다의 드롭/복제, 3:2 풀다운, 2:2 풀다운, 움직임 보상없는 시간 보간(temporal interpolation), 움직임 보상있는 시간 보간의 5개의 비디오 프로세싱 알고리즘들 각각에 대한 제2 행을 포함한다. 각각의 비디오 프로세싱 알고리즘을 실행하는 디바이스(12)의 성능은 열(64)에 표시된다. 도 6의 값들에 근거하면, 예를 들어, 디바이스(12)는 상기 테이블 내에 표시된 스캔율 변환 또는 인터레이싱 알고리즘들 중 어느것도 수행할 수 없지만, 하나의 디-인터레이싱 알고리즘, 즉 스캔 라인 복제를 행할 수 있음을 알아야한다.
도 7은, 도 6과 동일한 방식을 사용하여, 싱크 디바이스(14)의 비디오 프로세싱 성능의 표시(33)를 도시한다. 도 7에 근거하면, 디바이스(14)는 테이블에 표시된, 다양한 스캔율 변환, 인터레이싱, 디-인터레이싱 알고리즘들은 모두 행할 수 있으나, 디-노이즈, 스케일링, 컬러 보정, 콘트라스트 보정, 디테일 향상 비디오 프로세싱 카테고리들 내의 비디오 프로세싱 알고리즘들에서는 이것들의 서브세트만을 수행할 수 있음이 이해될 것이다. 표시(33)는 표시(31)와 동일한 방식으로 구현될 수 있다(예를 들어, 이것들은 일관성을 위해 공통의 포맷을 가진 데이터 구조일 수 있다.).
명료성을 위하여, 도 6 및 7의 테이블들의 비디오 프로세싱의 특정 카테고리들에 표시된 비디오 프로세싱 알고리즘들이 하기에서 간략히 설명된다.
스캔율 변환( SCAN - RATE CONVERSION )
N프레임들/필드들 마다의 드롭/복제(Dropping/duplicating every N frames/fields) - 이는 매 N 필드 중 한 필드가 드롭되거나 복제되는 간단한 형태의 스캔율 변환이다. 예를 들어, 60Hz 인터레이스 동작에서 50Hz 인터레이스 동작으로의 변환은, 매 6 필드 중 한 필드를 드롭아웃(drop out)할 것이다. 이러한 기법에서 발생가능한 단점은, 외견상 딱딱 끊어지는 움직임(apparent jerky mortion)("떨림현상(judder)"이라고도 지칭됨)이다.
3:2 풀다운(Pulldown) - 이 기법은 24 프레임/초 내용을 NTSC(59.94Hz 필드 레이트)로 변환할 때 일반적으로 사용된다. 필름 속도(film speed)는 0.1% 만큼 느려져서 23.976(24/1.001) 프레임/초까지 느려진다. 두개의 필름 프레임들이 5개의 비디오 필드들을 생성한다.
다른 풀다운 - 예를 들어, 2:2, 24:1 등의 다른 타입의 풀다운이 수행될 수 있다.
시간 보간(Temporal Interpolation) - 이 기법은 요구되는 프레임율을 발생시키기 위해 필요에 따라 본래의 프레임들로부터 새로운 프레임들을 생성한다. 나타나고 사라지는 오브젝트들을 최적으로 처리하기 위해 과거와 미래의 입력 프레임들로부터의 정보가 사용될 수 있다. 시간 보간을 사용하여 50Hz로부터 60Hz로 변환할 때, 매 50Hz 비디오의 5개의 필드들에 대해 60Hz 비디오의 6개의 필드들이 존재한다. 두 소스들이 모두 정렬될 때, 두개의 인접한 50Hz 필드들이 함께 믹스되어 새로운 60Hz 필드를 생성한다.
움직임 보정(Motion Compensation) - 움직임 보정은 비디오 데이터 내의 실제 움직임 벡터들을 식별하여, 움직임 결함(motion artifacts)을 최소화하기 위해 시간 보간 중에 이 정보를 사용하려 시도한다. 이는 결과적으로 떨림현상이 발생하지 않는 부드럽고 자연스러운 움직임이 되게 한다.
인터레이싱( INTERLACING )
스캔 라인 데시메이션(Scan Line Decimation) - 이 기법에서는, 각각의 비-인터레이스 프레임(non-interlaced frame) 내에서 하나걸러 하나의 액티브 스캔 라인이 버려진다.
수직 디-플리커 필터링 - 이 기법에서는, 하나의 인터레이스된 데이터 라인을 발생시키기 위해 두개 이상의 비인터레이스된 데이터 라인들이 사용된다. 빠른 수직 트랜지션들이 몇개의 인터레이스된 라인들을 통해 스무스 아웃(smooth out) 된다.
디- 인터레이싱(DE-INTERLACING)
스캔 라인 복제(Scan Line Duplication) - 스캔 라인 복제는 이전의 액티브 스캔 라인을 복제한다. 액티브 스캔 라인들의 수는 두배가 되지만, 수직 해상도는 증가하지 않는다.
필드 병합(Field Merging) - 이 기법은 두개의 연속적인 필드들을 함께 병합하여 하나의 비디오 프레임을 생성한다. 각각의 필드 시간에, 그 필드의 액티브 스캔 라인들이 이전 필드의 액티브 스캔 라인들과 병합된다. 결과는, 각각의 입력 필드 시간에 대해, 한쌍의 필드들이 결합되어 한 프레임을 생성하게 되는 것이다. 움직이는 오브젝트들은, 두 필드들 사이의 시차로 인하여 결함(artifact)("코밍(combing)"이라고도 지칭됨)을 가질 수 있다.
스캔 라인 보간(Scan Line Interpolation) - 스캔 라인 보간은 본래의 액티브 스캔 라인들 사이에 보간된 스캔 라인들을 생성한다. 액티브 스캔 라인들의 수는 두배가 되나, 수직 해상도는 두배가 되지 않는다. 간단한 실시예에서, 두개의 입력 스캔 라인들 사이에 새로운 스캔 라인을 생성하기 위해 선형 보간이 사용된다. 보다 나은 결과는 유한 임펄스 응답(FIR) 필터를 사용함으로써 달성될 수 있다.
움직임 적응 디-인터레이싱(Motion Adaptive De-interlacing) - 이 기법의 "퍼 픽셀(per pixel)" 버전에서는, 필드 병합이 화면의 스틸 영역들에 대해 사용되고, 스캔 라인 보간이 움직임 영역들에 사용된다. 이를 달성하기 위하여, 움직임은, 샘플별로(sample-by-sample), 전체 화면상에서 실시간으로 검출된다. 따라서, 몇개의 비디오 필드들이 한번에 처리된다. 두개의 필드들이 결합됨에 따라, 화면의 스틸 영역들에서 완전 수직 해상도(full vertical resolution)가 유지된다. 언제 이전 필드(움직임으로 인해 "잘못된"위치에 있을 수 있음)로부터의 샘플을 사용하거나 현재 필드 내에 인접한 스캔 라인들로부터 새로운 샘플을 보간할지에 대한 선택이 이루어진다. 크로스페이딩 또는 "소프트 전환"은 본 방법들 간의 갑작스러운 전환이 보여지는 것을 줄여주기 위해 사용된다. 몇가지 해법들이, 매 샘플에 대한 결정을 내릴 필요를 없애기 위해, "퍼 픽셀" 움직임 적응 디-인터레이싱에서 행해졌던것과 같은, 퍼 필드" 움직임 적응 디-인터레이싱을 수행할 수 있다
움직임 보상 디-인터레이싱(Motion Compensated De-interlacing) - 움직임 적응 디-인터레이싱보다 몇 자리수 이상 더 복잡한 움직임 보상(또는 "스티어링된 움직임 벡터(motion vector steered)") 디-인터레이싱은, 각각의 샘플에 대한 필드들 사이에서 움직임 벡터들을 계산하고, 각각의 샘플의 움직임 궤적(motion trajectory)을 따라 보간할 것을 요구한다. 누락된 샘플들(missing samples) 각각을 통과하는 움직임 벡터들이 또한 발견된다.
대각 에지 보간(Diagonal Edge Interpolation) - 대각선들을 찾고, 외견상의 계단 효과(staircase effects)를 제거하기 위해 이 대각선들을 보간하려 시도한다.
스케일링(SCALING)
픽셀 드롭 및 복제(Pixel Dropping and Duplication) - "최근접 이웃(nearest neighbor)" 스케일링이라 지칭될 수 있는 이 기법에서는, 출력 샘플에 매우 근접한 입력 샘플만이 사용된다. 픽셀 드롭에서, 수평 및 수직방향 모두에서, 매 Y 샘플들 중 X개가 버려진다. 일반적으로 수정된 버전의 브레스넘 라인-드로잉(Bresenham line-drawing) 알고리즘이 어떤 샘플들을 폐기할지를 결정하는 데 사용된다. 간단한 업스케일링을 달성하는 픽셀 복제에서는, 수평 및 수직 방향 모두에서 매 Y 샘플들마다 X개가 복제된다.
선형 보간(Linear Interpolation) - 이 기법에서는, 출력 샘플이 두개의 입력 샘플들 사이에 (수평적으로 또는 수직적으로) 있게될 때, 상기 출력 샘플은 상기 두개의 입력 샘플들 사이에서 선형적으로 보간함으로써 계산된다.
안티-에일리어스드 리샘플링(Anti-Aliased Resampling) - 이 기법은 주파수 내용이 영상 사이즈에 비례하게 스케일되게 하기 위해 사용된다. 핵심적으로, 입력 데이터는 업샘플링되고, 프로세스에 의해 생성되는 영상 주파수들을 없애기 위해 로우-패스 필터링된다. 필터는 리샘플링 프로세스에서 에일리어싱될 주파수들을 제거한다.
내용-적응 스케일링(Content-Adaptive Scaling) - 보편적으로 적용되는(universally-applied) 스케일링 알고리즘과는 대조적으로, 스케일링이 부분적으로 스케일되는 데이터에 근거한다.
컬러 보정(COLLOR CORRECTION)
플레쉬톤 보정(fleshtone correction), 화이트-포인트 보정(white-point correction), 그리고 컬러-새츄에이션 향상(color-satuation enhancement)은 모두, 대안적으로, 또는 서로 결합하여 적용될 수 있는 다른 타입의 컬러 보정 알고리즘들의 예이다.
디테일 향상(DETAIL ENHANCEMENT)
선명도 향상 - 선명도는, 예를 들어, 인접 픽셀들의 밝기의 검사 및 그것들 사이의 콘트라스트 향상을 통해 향상된다.
에지 향상 - 영상 내의 앵글 또는 가장자리를 검출하여 그것들을 전체적으로 증폭시킨다.
슈퍼-해상도 - 영상 피쳐의 해상도를 향상시키기 위해, 피처에 대한 정보가 그 피쳐가 나타나는 일련의 프레임들 상에서 수집된다. 이 정보는 그후 상기 프레임들 각각에서 그 피쳐의 선명도를 증가시키는 데 사용될 수 있다.
위의 비디오 프로세싱 알고리즘들은 단지 예시적인 것이며, 대안적인 실시예들에서는 달라질 수 있다는 것이 이해되어야 한다.
도 8 및 9는 시스템(10) 내의 비디오 소스 디바이스(12)와 비디오 싱크 디바이스(14) 사이에서 비디오 프로세싱 성능의 표시를 통신하기 위한 본 실시예의 동작(800, 900)을 도시한다. 동작(800)은 비디오 소스 디바이스(12)(구체적으로, GSS(26))에서 발생하며, 동작(900)은 비디오 싱크 디바이스(14)에서 발생한다.
동작(800, 900)을 개시하기 전에, 사용자는 어떤 비디오 프로세싱이 비디오 소스 디바이스(12)에 의해 행해져야 하고 어떤 비디오 프로세싱이 디바이스(14)에 의해 행해져야 하는가를 결정하는 데에 있어서 비디오 싱크 디바이스(14)(도 5)의 분배 로직(37)이 사용하기 위한 분배 기준을 규정한다. 본 실시예에서, 이는 도 10에 도시된 GUI(1000)을 통해 행해진다.
도 10을 참조하면, GUI(1000)는, 세 개의 비디오 프로세싱 분배 기준들 중 하나를 동작의 기준으로서 선택하기 위한 세 개의 라디오 버튼들(1004, 1006, 1016)을 포함하는 라디오 버튼 그룹(1002)을 포함한다. 제1 라디오 버튼(1004)은 동작 기준으로서 최대 영상 품질을 선택한다. 제2 라디오 버튼(1006)은 동작 기준으로서 전력 보전을 선택한다. 제3 라디오 버튼(1016)은 동작 기준으로서 비디오 소스 디바이스(12)와 비디오 싱크 디바이스(14) 사이의 로드 밸런싱을 선택한다. 본 실시예에서, 라디오 버튼들의 동작에 의해, 한 기준을 선택하면 다른 기준들은 선택되지 않는다. 다른 실시예들에서, 기준들은 상호 배타적이 아닐 수도 있다. 대안적인 실시예들에서, 분배 기준들은 위에서 기술한 것들과 전적으로 또는 부분적으로 다를 수 있다.
제2 라디오 버튼(1006)은, 전력 보전이 비디오 소스 디바이스(12)(라디오 버튼(1010)), 비디오 싱크 디바이스(14)(라디오 버튼(1012)), 또는 배터리에 의해 전원이 공급되는 임의의 디바이스(들)(12 및/또는 14))에서 실행될지를 지정해주기 위한 종속 라디오 버튼 그룹(1008)을 포함한다. 라디오 버튼 그룹(1008)은 버튼(1006)이 선택되기까지는 고스트 상태(즉, 활성화되지 않음) 남아있다.
제3 라디오 버튼(1016)은 디바이스들(12, 14) 사이의 비디오 프로세싱 연산 로드의 타겟 밸런스를 지정하기 위한 슬라이더(1018)를 포함한다. 도 10에 도시된 바와 같이, 슬라이더(1018)의 눈금에 표시된 상기 타겟 밸런스는 XX%/YY%의 형태로 표현되며, 여기서 XX는 비디오 소스 디바이스(12)에 의해 처리될 로드의 백분율이고 YY는 비디오 싱크 디바이스(14)에 의해 처리될 로드의 백분율이며, 여기서 XX와 YY의 합계는 100이다. 슬라이더(1018)에 의해 표시된 정확한 밸런스를 달성하는 것과 같은 정확도를 지닌 비디오 프로세싱의 분배는 불가능할 수 있으며, 따라서 비디오 프로세싱 분배 로직(37)은 단순히 지정된 밸런스를 달성하기 위해 최대한 노력한다(예를 들어, 분배될 비디오 프로세싱이을 고려하여 모든 가능한 로드 밸런싱 대안들 중 요구되는 밸런스에 가장 근접한 로드 밸런스를 달성할 수 있을 것이다.) 슬라이더의 이동은 눈금 사이를 점핑하는 것으로 제한될 수 있다.
사용자 가까이에 있는 디바이스(12 또는 14) 내의 비디오 프로세싱 회로가 과도한 열을 발생시키는 것을 방지하고자하는 사용자의 욕구(예를 들어, 사용자가 불필요한 소음을 발생시킬 것으로 생각되는 냉각 팬을 작동시키지 않으려하는 욕구)가, 전력 보전 또는 로드 밸런싱 각각의 분배 기준을 지정하는 라디오 버튼들(1006, 1016)에 대한 선택의 동기가 될 수 있다.
몇몇 실시예에서, 시스템(10)을 구성하는 데 있어서 사용자의 작업을 단순화하기 위해, 도 10의 GUI(1000)가 비디오에 대한 다른 사용자 선호 설정들과 결합될 수 있다. 또한, 몇몇 실시예들의 비디오 사용자 선호 GUI들은 상기 설정이 비디오 프로세싱 분배와 관련된다는 것을 명시적으로 나타내지 않을 수 있다. 오히려, GUI들은 비디오 분배가 필요한 이점(예를 들어, 영상 품질 최대화, 배터리 수명 증대 또는 팬 노이즈 제한)을 달성하기 위한 메커니즘이라는 것을 표시하지 않은채, 단순히 상기 이점의 선택만을 허용할 수 있다. 이는 일반적인 사용자는, 원하는 이점이 제공되는 한 비디오 프로세싱 분배의 세부사항은 고려하지 않는다는 믿음을 바탕으로 한다.
도시된 실시예에서, 라디오 버튼들(1004, 1006, 1016)에 의해 표현된 세 개의 옵션 중 하나에 대한 사용자의 선택에 따라, 그리고 OK버튼(1020)을 통해 상기 선택에 대해 사용자가 확인함에 따라, 비디오 프로세싱 분배 로직(37)은 지정된 기준(또는, 이 경우에는, 기준들)으로 구성될 수 있다. 이 구성은 예를 들어, 텔레비전(14)(도 5)의 메모리(42)에 상기 지정된 기준을 나타내는 전자 데이터 파일(명시적으로 도시되지 않음)을 저장함으로써, 또는 다른 경우에는 로직을 구성함으로써(37) 달성될 수 있으며, 여기서 상기 전자 데이터 파일은 로직(37)이 실행될 때 로직(37)에 의해 판독 될 수 있다.
동작(800, 900)을 개시하기 전에, 비디오 싱크 디바이스(14)(도 5)의 메모리(42)는 비디오 소스 디바이스(12)의 비디오 프로세싱 성능의 표시(31)를 포함하고 있지 않으나, 비디오 싱크 디바이스(14)의 비디오 프로세싱 성능의 표시(33)를 포함하고 있다. 비디오 싱크 디바이스(14)는 디바이스가 활성화되면 로컬 ROM으로부터 판독될 수 있다.
도 8을 참조하면, GSS(26)은 초기에 그것의 비디오 프로세싱 성능(비디오 디바이스(12)가 처리할 수 있는 비디오 프로세싱 알고리즘들을 나타냄)의 표시(31)를 배선(16)을 통해 다운스트림으로 비디오 싱크 디바이스(14)에 송신한다(S802). 이는, 예를 들어, 싱크 디바이스(14)의 검출에 따라, 비디오 소스 디바이스(12)의 초기화 중에 이루어질 수 있다. 초기화 단계 동안(그리고 가능하게는 그 단계 동안에만) 표시(31)를 전송하는 이유는, 표시(31)가 디바이스들(12, 14)의 상호연결 기간 동안 변경되지 않을 것이기 때문이다. 그러나, 이러한 디바이스들에 새로운 그리고 향상된 기능을 제공하는 소프트웨어/펌웨어 업데이트가 적용/인스톨되는 것이 드문일이 아니므로, 디바이스들(12, 14)의 성능은 변경될 수 있다는 것이 인지되어야 한다. 일반적으로 표시(31)는 배선(16)을 지배하는 비디오 연결 규격이 존재한다면 상기 규격에의해 정의된 보조 채널(비디오 데이터가 통신될 수 있는 주 채널에 대한 보조적인 채널)을 통해 통신될 수 있다. 예를 들어, 상기 표시는 DDC 채널(HDMI™ 또는 DVI 배선의 DDC 채널), 보조 채널(디스플레이 포트® 배선의 보조 채널), 그리고 가능하게는 HDMI™ 연결의 CEC(Consumer Electronics Control) 채널을 통해 송신될 수 있다. 본 기술분야에서 알려져있는 바와 같이, CEC채널은 공통 프로토콜에 따라 비디오 소스 디바이스와 비디오 싱크 디바이스 사이에서 명령들을 운반하기 위한 HDMI™에서의 선택적인 메커니즘이다. 이 메커니즘은 단일-배선(single-wire), 쌍방향(bidirectoinal), 시리얼 버스이다. HDMI™ 에 따른 케이블들은, CEC 프로토콜의 구현이 현재 비디오 소스 디바이스 및 비디오 싱크 디바이스에 대해 선택적인 것임에도 불구하고, CEC 채널을 위한 배선을 포함할 필요가 있다. 종래에, CEC 프로토콜은 일반적으로, 소스 디바이스 및 싱크 디바이스 중 하나의 원격 제어만으로 상기 두 디바이스에 대한 사용자 제어가 되게하기 위해, 또는 특정 상황들에서 소스 디바이스 및 싱크 디바이스 중 하나가 다른 디바이스를 자동적으로 제어(예를 들어, DVD 플레이어의 DVD수납장치에 디스크가 있는 채로 닫힐 때, 플레이어 디바이스가 자동적으로 상호연결된 텔레비전에게 전원을 켜도록 명령할 수 있음)할 수 있게 해주기 위해 사용된다. 따라서, 위에 기술된 목적의 이 채널의 사용은, 기술된 시점부터, 이 채널의 사용이 불편할 것을 의미한다. 대안적으로, 예를 들어, 수직 또는 수평 블랭킹 구간들과 같은 비디오 데이터가 사용되지 않은 부분들 내에서 상기 표시(31)가 멀티플렉스되어, 배선(16)을 통해 비디오 데이터가 통신되면서 표시(31)가 인-밴드로 송신될 수 있다. 비디오 프로세싱 성능(31) 표시의 이러한 인밴드 임베딩을 달성하기 위한 구체적 기법은, 배선(16)을 지배하는 동작 비디오 배선 표준이 존재하는 경우 이 표준에 의존한다. 예를 들어, 배선이 HDMI 표준 또는 CEA(Consumer Electronics Association) 861 표준(Rev.D)을 따르는 실시예들에서, 표시(31)는, 통신의 메인 채널에서 "인포 프레임들(Info Frames)"또는 "인포 패킷들(Info Packets)"이라 지칭되는 하나 이상의 제2 데이터 패킷들 내에 정보를 임베딩할 수 있다.
도 9를 참조하면, 비디오 싱크 디바이스(14)가, 비디오 소스 디바이스(12)가 처리할 수 있는 비디오 프로세싱 알고리즘들에 대한 표시(31)를 수신하여, 그것을 메모리(42)에 저장한다(S902).
수신된 표시(31)는, 디바이스(14)가 처리할 수 있는 비디오 프로세싱 알고리즘들에 대한 표시(33)와 함께, 공동적으로, 원하는 비디오 프로세싱을 달성하기 위하여 수행될 수 있는 사용가능한 비디오 프로세싱 알고리즘들의 전체를 표시한다. 용어 "원하는 비디오 프로세싱"은, 비디오 데이터의 특성들(예를 들어, 포맷, 프레임율, 또는 비디오 데이터 내의 노이즈 또는 압축 결함들의 존재), 디바이스(12 및/또는 14)의 특성들(예를 들어, 디스플레이의 리프레시율 또는 해상도), 요구되는 비디오 영상 특성들을 지정하는 사용자 선호 세팅들(예를 들어, 허용가능한 노이즈 레벨, 콘트라스트 또는 컬러 설정), 또는 이것들의 조합과 같은 요인들에 의해 필요한 것으로 여겨지는 비디오 프로세싱을 나타낸다. 그후, 비디오 싱크 디바이스(14)(도 5)의 로직(37)은 상기 원하는 비디오 프로세싱을 달성하기 위하여 이 전체 중에서 비디오 프로세싱 알고리즘들의 세트를 식별하고, 이 비디오 프로세싱 알고리즘들의 세트를 두개의 서브세트, 즉 비디오 소스 디바이스(12)에 의해 수행되는 제1 서브세트, 및 비디오 싱크 디바이스(14)에 의해 수행되는 제2 서브세트로 분류한다(S905). 이 분류는 도 10의 GUI(1000)를 통해 사용자에 의해 설정된 현재 동작하는 비디오 프로세싱 분배 기준(본 예에서, 라디오 버튼(1004)에 대한 사용자의 선택에 근거하여, 단일 비디오 프로세싱 분배 기준으로 최대 영상 품질을 지정한 분배 기준)을 근거로 수행된다. 따라서, 로직(37)은 디바이스(12 또는 14)가 그 알고리즘을 처리할 수 있는지에 관계 없이, 결과적인 비디오 영상의 품질이 최대가 되게 하는 비디오 프로세싱 알고리즘들을 선택한다. 보다 구체적으로, 만약 원하는 비디오 프로세싱이, 도 6 및 7의 표시들(31 및 33)에 표시된 비디오 프로세싱의 각각의 카테고리가 적용되어야 한다고 지정하면, 비디오 프로세싱의 각각의 카테고리에 대해, 로직(37)이, 그 카테고리 내에서, 결과적인 영상 품질과 관련하여 디바이스(12) 및/또는 디바이스(14)에서 사용가능한 알고리즘들을 비교하여, 최고 품질 결과를 생성할 수 있는 비디오 프로세싱 알고리즘이 각 카테고리에서 선택된다. 만약 두 디바이스들(12, 14)이 모두 선택된 알고리즘을 수행할 수 있다면, 두 디바이스들(12, 14) 중 어느 디바이스가 그 알고리즘을 행할 것인지를 선택하는 데 있어서, 예를 들어, 로드 밸런싱(GUI(1000)에서 분배 기준으로서 명시적으로 선택되지 않았다 하더라도)이 고려될 것이다. 그렇지 않다면, 알고리즘의 수행은 두 디바이스들 중 상기 알고리즘을 처리할 수 있는 어떤 디바이스에라도 배정될 것이다. 분배는 특정 비디오 프로세싱 알고리즘들 또는 카테고리들을 수행하기 위한 논리적인 "오퍼레이션들의 순서(order of operation)"에 의해 영향을 받는다. 예를 들어, 디-인터레이싱이 스케일링 전에, 또는 적어도 "동시에" (나중에는 아님) 수행되어야 한다는 것은 일반적인 사실이다. 마찬가지로, 디테일 향상 전에 노이즈 제거를 수행하는 것이 일반적으로 바람직하다.
예를 들어, 도 6 및 7의 테이블에 표시된 다양한 디-인터레이싱 알고리즘들(즉, 스캔 라인 복제, 필드 병합, 스캔 라인 보간, 움직임 적응 디-인터레이싱 및 움직임 보상 디-인터레이싱)이 그것들의 실행으로 인한 디-인터레이스된 비디오의 상대적인 품질에 의해 오름차순으로 순서정렬되었다고 가정하면, 동작(S904)은, 텔레비전(14)에 의해 움직임 보상 디-인터레이싱을 작동시키는 것을 선호하면서, GSS(26)가 그것의 스캔 라인 복제(GSS(26)이 처리할 수 있는 유일한 형태의 디-인터레이싱)를 비활성화해야한다고 결정할 것이다.
배터리-전력 디바이스들에서 전력의 보전이 선택될 때(도 10의 라디오 버튼들(1006, 1014)의 선택에 의해), 두 디바이스들(12, 14)이 배터리 전력이라면, 동작(S904)은 두 디바이스들(12, 14) 중 어느것이 적은 양의 전력을 소비하면서 비디오 프로세싱을 처리할 수 있는지를 식별하는 단계를 포함할 것이다. 허용가능한 품질의 비디오 영상들에 대한 비디오 프로세싱의 최소 임계값이 충족될 필요가 있다. 이 비디오 프로세싱의 최소 임계값은 분배 로직(37)에 의해 하드-코딩되거나, 비디오에 적용되는 사용자 선호들에 근거할 수 있다.
일부 실시예들에서, 비디오 프로세싱 분배 로직(37)은 최소의 가능한 전력 소비로 최대 비디오 영상 품질을 제공하는 것과 같은 복수의 분배 기준을 고려하도록 구성될 수 있다. 이 경우 GUI가 동작 기준을 지정하기 위해 사용된다면, 상기 GUI는 라디오 버튼이 아닌 사용자 인터페이스 제어(위젯들), 예를 들어, 선택이 상호 배타적이지 않은 체크박스와 같은 인터페이스 제어를 사용할 수 있다.
비디오 프로세싱 분배 로직(37)이, 서로다른 카테고리의 비디오 프로세싱 알고리즘들 사이의 종속성을 포함할 수 있다는 것이 이해되어야 한다. 즉, 로직(37)은, 하나의 비디오 프로세싱 알고리즘의 활성화/비활성화가 또 다른 비디오 프로세싱 알고리즘이 다른 비디오 프로세싱 카테고리 내에서 활성화되거나 활성화되지 않않는지에 의존한다는 사실을 반영한다. 예를 들어, 필수적으로 스케일링을 수반하는 형태의 디인터레이싱이 수행되어야 한다면, 로직(37)은 스케일링이 또한 활성화되어야 한다는 것과, 디-인터레이싱 전에, 또는 동시에 스케일링을 수행하는 것이 바람직하다는 것을 자동적으로 인지할 것이다.
일단 비디오 소스 디바이스(12)("슬레이브")에 의해 수행될 비디오 프로세싱 알고리즘들의 서브세트가 식별되면, 마스터 디바이스(14)는 상기 슬레이브 디바이스(12)가 상기 슬레이브에게 배정된 비디오 프로세싱 알고리즘들을 실행하게 하는 하나 이상의 명령들을 생성한다. 명령(들)(19)이 그후 실시를 위해 케이블(16)을 통해 디바이스(12)로 송신된다(S906). 상기 명령(들)의 통신은, 다운스트림 방향으로 비디오 데이터를 운반하는 채널과는 다른 배선(16)의 보조 또는 "사이드" 채널에 의해 행해진다. 본 실시예에서, 명령(들)은 DDC채널을 통해 비디오 소스 디바이스(12)로 송신된다. 비디오 소스 디바이스(12)가 일반적으로 DDC 채널의 마스터이므로, 비디오 싱크 디바이스(14)가 DDC 채널을 통해 통신을 개시할 것으로 예측되지는 않고, 명령(들)(19)의 송신은 초기에 비디오 싱크 디바이스(14)가 핫 플러그 검출 이벤트를 시뮬레이션할 것을 요구할 수 있다. 본 기술분야에서 알려진 바와 같이, 핫 플러그 검출 이벤트는, 일반적으로 비디오 소스 디바이스(12)(일반적으로 CPU 박스)에게 디스플레이 디바이스가 상기 비디오 소스 디바이스에 동적으로 플로그인되거나 언플러그되었음을 통신하기 위해 사용된다. 그러한 이벤트를 시뮬레이션함으로써, 비디오 소스 디바이스(12)는 예를 들어, EDID 데이터 구조의 일부로서, 명령어를 "검색"하게 될 수 있다. 본 기술분야에서 알려져 있는 바와 같이, VESA Enhanced Extended Display Identification Data(E-EDID) 표준, 릴리즈 A, 2.0(2006년 9월)는 최신 컴퓨터로하여금 상기 컴퓨터에 어떤 종류의 모니터가 연결되었는지를 알 수 있게 해주는, 벤더 정보, 최대 영상 사이즈, 컬러 특성, 공장 프리셋 타이밍, 주파수 범위 제한, 및 모니터 이름과 시리얼 번호를 위한 문자열을 포함한 정보를 포함하는 128-바이트 데이터 구조("EDID 1.4" 데이터 구조와 같이 지칭될 수 있음)를 정의한다. 명령(들)(19)은 데이터 구조의 일부로서 정의되거나 또는 그 데이터 구조에 대한 확장 블럭 내에 정의된다. 대안적인 실시예들에서, 이러한 핫 플러그 검출 이벤트 시뮬레이션은 불필요할 수 있다. 예를 들어, 일부 실시예들은, 명령(들)(19)을 디바이스(12)에 통신하기 위해 CEC 채널을 사용할 수 있다. CEC 프로토콜은 복수의 마스터들이 단일 CEC 채널 상에 함께 존재하는 것을 허용하므로, 비디오 싱크 디바이스(14)가 명령(들)(19)을 디바이스(12)로 통신하기 시작하는것이 가능할 것이다. CEC 채널은 명령들을 통신하기 위한 목적으로 DDC 채널과도 함께 사용될 수 있다. 예를 들어, 비디오 디바이스(12)에게 "DDC 채널을 통해 비디오 싱크 디바이스(14)로 부터의 명령(들)(19) 판독할 것"을 지시하는 CEC 명령이 비디오 싱크 디바이스(14)에 의해 송신될 수 있다. 이 경우, 배선(16)은 HDMI™ 보다는 디스플레이포트® 인터페이스에 의해 지배되고, 비디오 싱크 디바이스(14)가 비디오 소스 디바이스(12)로 인터럽트 신호를 송신함으로서 명령(들)(19)의 통신을 개시할 수 있으며, 이후 디바이스(12)가 인터럽트 벡터 레지스터를 사용하여 디스플레이포트® 보조 채널을 통해 디바이스(14)로부터 상기 명령(들)을 액세스할 수 있다. 디바이스들(12, 14) 사이에서 명령(들)(19) 및 하기에서 설명되는 메타데이터를 통신하기 위한 다양한 메커니즘들이 가능하다.
명령(들)(19)의 포맷 또는 구조는 각각의 디바이스(12, 14)에서 프로그램될 수 있다. 다양한 명령 포맷들이 사용될 수 있다. 일 실시예에서, 다바이스가 실행할 수 있는 각각의 비디오 프로세싱 알고리즘에 대한 단일 비트를 포함하는 바이너리 명령이 디바이스(12)로 송신된다. 비트 값 "1"은 비디오 프로세싱 알고리즘이 활성화될 것임을 표시하고, 비트 값 "0"은 비디오 프로세싱 알고리즘이 비활성화될 것임을 표시한다. 제2 서브세트의 비디오 프로세싱 알고리즘들이 이미 활성상태인 경우 이 비디오 프로세싱 알고리즘들이 활성 상태로 유지될 수 있는지에 대한 디바이스(12)에서의 모호성을 피하기 위해서는, 제2 서브세트의 비디오 프로세싱 알고리즘들이 디바이스(12)에서 비활성화되어야한다는 것을 비디오 소스 디바이스(12)에게 명시적으로 통신하는 것이 바람직하다. 또 다른 예시적인 명령 포맷에서, 명령(들)(19)은, 각각의 비디오 프로세싱 알고리즘에 대해, 그 알고리즘의 식별자(예를 들어, 일 바이트 중 7비트들) 및 그 알고리즘에 대한 요구되는 상태(예를 들어, 바이트의 최종 비트="1"(알고리즘을 활성화) 또는 "0"(알고리즘을 비활성화))를 포함하는 다양한 길이 리스트를 포함할 수 있다. 디바이스들 간에는, 명령(들)(19)에서 명시적으로 표시되지 않은 임의의 비디오 프로세싱 알고리즘들은 디바이스(14)의 관점에서 "상관없음(don't cares)"일 수 있는데, 즉, 상기 알고리즘들은 그것들이 이미 활성상태라면 활성상태로 남아있고 현재 비활성이라면 오프(off)상태로 남아있을 수 있다. 비디오 소스 디바이스(12)에 대해 배정된 비디오 프로세싱 알고리즘들의 서브세트가 비어있다면, (모든 실시예들에서 반드시 요구되는 것은 아니라 하더라도) 이 비디오 프로세싱 알고리즘들이 디바이스(12)에서 비활성임을 보장하기 위하여 명령(들)(19)을 송신하는 것이 여전히 바람직할 수 있다.
마스터 디바이스는 또한 비디오 프로세싱 알고리즘들(S907)의 제2 서브세트를 수행하도록 구성될 수 있다. 비디오 프로세싱 알고리즘들의 제2 서브세트가 빈 세트(empty set)(예를 들어, 활성화될 모든 비디오 프로세싱 알고리즘들이 다른 디바이스에 배정되었다면)일 경우에, 이러한 구성은 불필요할 것이다.
도 8을 다시 참조하면, 비디오 소스 디바이스(12)(S804)에서 명령(들)(19)을 수신함에 따라, 디바이스(12)는, 실행될 비디오 프로세싱 알고리즘(들)을 식별하기 위해 상기 명령(들)을 파싱(parsing)한다. 식별된 알고리즘(들)은 그후 디바이스(12), 구체적으로 GPU(30)(도 4)에서 실행된다(S806).
그후, 본 실시예의 비디오 소스 디바이스(12)는 수행된 비디오 프로세싱 알고리즘들을 표시하는 메타데이터를 생성한다(S808). 생성된 메타데이터는 그후 비디오 배선(16)을 통해 비디오 싱크 디바이스(14)로 통신되어, 명령(들)이 실시를 확인시켜준다(S810). 이 메타데이터의 포맷은, 예를 들어, 바이너리 또는 텍스츄얼, 패킷화, 마크업 언어, 또는 ITU Recommendation ITU-BT.1364-1에 호환되는 포맷일 수 있다. 이 메타데이터는 배선(16)을 통해 비디오 데이터와 함께 통신된다. 동일한 채널이 사용되면, 메타데이터는 비디오 데이터와 멀티플렉스(예를 들어, 비디오 데이터 스트림의 사용되지 않은 부분들(예를 들어, 수직 블랭크 또는 수평 블랭크 구간)을 점유)될 수 있다. 복수의 채널들이 사용된다면, 메타데이터는 비디오 데이터가 전송되는 주 채널과는 별개의 보조 채널을 통해 운반될 수 있다. 메타데이터의 통신은 미국 특허 출원 시리얼번호 XX/XXX,XXX(부여 예정) "MEHOD AND APPARATUS FOR DECRIBING VIDEO PROCESSING"(AMD Ref. No. 070047, 대리인 문서관리 번호 91922-138)에 기재된 것과 같은 것일 수 있으며, 상기 출원은 본 명세서에 참조로서 포함된다. 동작(S808, S810)은 일정 시간동안 계속될 수 있다.
도 9를 참조하면, 비디오 싱크 디바이스(14)에서 메타데이터가 수신되어(S908), 전에 전송된 명령(들)(19)이 실제로 비디오 소스 디바이스(12)에서 제1 서브세트의 비디오 프로세싱 알고리즘들이 수행되게 했는지를 확인하는 데 사용된다. 만약 메타데이터가 제1 서브세트의 비디오 프로세싱 알고리즘들 중 어느것도 디바이스(12)에 의해 실행되지 않았음을 표시하면, 비디오 싱크 디바이스(14)는, 비-실행된(non-effected) 알고리즘을 실행하기 위해 상기 디바이스(14)의 비디오 프로세싱을 조정하거나, 명령(들)(19)이 비디오 소스 디바이스(12)에 도달하지 않은것으로 간주되는 경우에는 가능하게는 명령(들)(19)을 재송신하는 것과 같은 치유 단계를 취할 수 있다. 반대로, 메타데이터가, 디바이스(12)가 명시적으로 비활성화할 것을 명령한 비디오 프로세싱 알고리즘들 중 임의의 알고리즘이 (예를 들어, 디바이스(12)의 사용자에 의한 비디오 프로세싱 알고리즘의 수동적인 활성화에 의해) 활성 상태로 남아있음을 표시하면, 비디오 싱크 디바이스(14)는 (불필요한 중복되는 노력을 피하기 위해) 그 알고리즘을 수행하는 것을 멈추게하기 위해 상기 디바이스(14)의 비디오 프로세싱을 조정하거나, 명령(들)(19)이 비디오 소스 디바이스(12)에 도달하지 않은 것으로 간주되는 경우에는 가능하게는 명령(들)(19)을 재송신하는 것과 같은 치유 단계들을 취할 수 있다.
당업자가 이해할 바와 같이, 본 발명의 핵심으로부터 벗어남이 없이 상술된 실시예에 대한 수정이 이루어질 수 있다. 예를 들어, 비디오 소스 디바이스(12)가 PC의 CPU 박스일 필요는 없으며, 대신에 예를 들어, DVD 플레이어, HD DVD 플레이어, 블루레이 디스크 플레이어, 중간 비디오 프로세서, 또는 (가능하게는 디지털 비디오 레코딩 성능을 지닌) 셋톱박스 또는 다른 비디오 데이터 소스일 수 있다. 또한, 비디오 싱크 디바이스(14)는 LCD 텔레비전 이외의 다른 디바이스, 예를 들어, 또 다른 타입의 텔레비전, 모니터, 또는 중간 비디오 프로세서와 같은 디바이스일 수 있다.
도 6 및 7의 표시들(31, 33)에 표시된 비디오 프로세싱 알고리즘들 및 비디오 프로세싱 카테고리들은 다른 실시예들에서 달라질 수 있다.
또 다른 대안예에서, 비디오 프로세싱 성능의 표시(31, 33)는 분배 결정(apportionment determination)을 보조하기 위해 비디오 프로세싱 알고리즘 로직(37)에 의해 사용되는 정보를 포함할 수 있다. 예를 들어, 품질 표시자가 각각의 비디오 프로세싱 알고리즘에 제공될 수 있다. 품질 표시자는 알고리즘의 상대적인 품질을, 예를 들어, 0 내지 100의 절대 스케일로 표시할 수 있으며, 여기서 0은 아주 낮은 품질(또는 관련 알고리즘을 수행할 수 없음)을 표시하고 100은 매우 높은 품질을 표시한다. 스케일은, 예를 들어, 비교가능한 상용 디바이스의 비디오 프로세싱 성능의 평가에 근거하여 표준화 기구(standards body)에 의해 설정된 표준 스케일(standardized scale)일 수 있다. 표준 스케일의 사용은 디바이스들 사이의 비디오 프로세싱 성능의 즉시 비교가 되게해줄 수 있다. 또 다른 예에서, 비디오 프로세싱 성능의 표시들(31, 33)는, 전력 보존이 동작적 분배 기준일 때 사용하기 위해, 각각의 비디오 프로세싱 알고리즘에 대한 상대적인 전력 소비의 표시자를 포함할 수 있다. 이 표시들 역시, 각각의 디바이스에서의 비디오 프로세싱으로 인한 예측된 전력 소비의 비교를 보조하기 위해 표준 스케일을 따를 수 있다.
비디오 프로세싱 분배 로직(37)이 GUI(1000)(도 10)와 같은 그래픽 사용자 인터페이스를 통해 동적으로 구성가능해야할 필요는 없다. 일부 실시예들에서, 로직(37)은 미리 결정될 수 있다. 미리 결정된다하더라도, 로직(377)은, 위에서 언급된 바와 같이, 비디오 프로세싱의 분배를 결정하는데 있어서, 비디오 데이터의 특성, 디바이스(들)(12 및/또는 14)의 특성, 원하는 비디오 영상 특성들을 지정하는 사용자 선호 설정, 또는 이것들의 조합과 같은 요인들을 고려할 수 있다.
동작(S808, S810)(도 8) 및 동작(S908, S910)(도 9)는 어떤 실시예들에서는 발생하지 않을 수 있다. 그러한 실시예들에서, 예를 들어, 비디오 프로세싱이 적용되었다는 증거를 찾기위해 비디오 데이터 영상들을 분석하지 않는다면, 비디오 싱크 디바이스(14)는 그것의 명령들이 비디오 소스 디바이스(12)에 의해 실행되었음을 확인하지 못할 수 있다.
위에서 언급된 바와 같이, 비디오 프로세싱 분배의 측면에서 디바이스들(12, 14)의 역할은 뒤바뀔 수 있다. 즉, 디바이스(12)가 마스터로서 동작하고 디바이스(14)가 슬레이브로서 동작할 수 있다. 그러한 실시예는 도 11에 도시된다.
도 11에 도시된 바와 같이, 시스템(110)은 비디오 소스 디바이스(112) 및 비디오 데이터 배선(116)에 의해 상호연결된 비디오 싱크 디바이스(114)를 포함한다. 이 실시예에서, 도 8 및 9에서 "비디오 소스 디바이스"에 대한 개개의 참조는 "비디오 싱크 디바이스"로 대체(그 반대의 경우도 마찬가지임)되어야 한다는 것을 제외하고는, 비디오 싱크 디바이스(114)가 도 8의 동작(800)을 수행하는 반면 비디오 소스 디바이스(112)는 도 9의 동작(900)을 수행한다. 따라서, 디바이스(114)는, 화살표(117)에 의해 나타낸 바와 같이, 그것의 비디오 프로세싱 성능의 표시를 디바이스(12)로 통신하며, 명령들(119)는 반대 방향으로 송신된다. DDC 또는 CEC 채널은 디바이스들(112, 114) 사이에서 명령들을 통신하는 데 사용된다. GUI(1000)는, 실행된다면, 비디오 시크 디바이스(114)에 의해서보다는 비디오 소스 디바이스(112)에 의해서 실시될 것이다. 또한, 슬레이브 디바이스에 의해 통신되는 메타데이터는, 비디오 싱크 디바이스(14)로부터 비디오 소스 디바이스(12)로 "업스트림" 통신될 것이다.
일부 실시예들에서, 비디오 프로세싱 성능의 표시들(31, 330은 관련 디바이스(12, 14) 각각의 사용자 구성(user configuration)을 반영한다. 예를 들어, 디바이스(12)의 사용자가 디바이스(12)에서 모든 인터레이싱 알고리즘들을 수동적으로 턴오프했다면, 표시(31)은 디바이스(12)가 현재 인터레이싱 성능을 가지지 않는 단는 사실을 반영할 것이다. 사용자가 나중에 하나 이상의 인터레이싱 알고리즘들을 활성화하였다면, 인터레이싱 알고리즘들이 이제 사용가능하다는 사실을 반영하는 개정된 표시가 송신될 수 있다.
일부 실시예들에서, 배선(16)이 운반하는 각각의 비디오 스트림 타입에 대해 별개의 표시(31, 33)가 제공될 수 있다. 예를 들어, 비디오 모드들(480i, 480p, 720p, 1080i, 1080p) 각각에 대해 별개의 표시(31, 33)가 존재할 수 있다.
일부 실시예들에서 비디오 소스 디바이스와 비디오 싱크 디바이스 각각이 회로를 포함할 수 있다는 것이 이해될 것이다. 상기 회로는 예를 들어, 단독형 집적 회로(standalone integrated circuit)일 수 있으며, 또는 더 큰 집적 회로의 부분을 형성하거나, 또는 하나 이상의 전자 디바이스들 내에 포함될 수 있다. 상기 회로는 예를 들어, 반도체 제조 플랜트 또는 주조공장에서 볼 수 있는 유형의 장비와 같은 제조 장비를 사용하여 제조될 수 있다. 상기 장비는 회로를 기술하는 하드웨어 기술 언어(hardware description language)를 포함하는 명령어들의 세트에근거하여 회로를 생성할 수 있따. 상기 제조 장비는 명령어들을 처리하고, 그 처리에 근거하여, 회로를 생성한다. 이러한 기법은, 비디오 소스 디바이스를 나타내는 회로 또는 비디오 싱크 디바이스를 나타내는 회로(또는 이 둘 모두)를 제조하는 데 사용될 수 있다.
이 기법은 도 12에 개략적으로 도시된다. 기계판독가능 매체 상에 저장된 예시적인 하드웨어 기술 언어 명령어들은 예시적인 제조 장비(112)에 의해 처리되며, 상기 장비는 상기 처리된 명령어들에 근거하여 예시적인 회로(124)를 생성한다. 상기 예시적인 명령어들은 예를 들어, 초고속 집적 회로 하드웨어 기술 언어(VHDL: Very High Sped Integrated Circuit Hardware Description Language), 베릴로그(Verilog), 또는 베릴로그-A와 같은 하드웨어 기술 언어일 수 있다.
다른 수정들이 당업자에게 자명할 것이며, 따라서, 본 발명은 청구항들에서 정의된다.

Claims (28)

  1. 비디오 소스 디바이스와 비디오 싱크 디바이스간 간에 원하는 비디오 프로세싱을 배분(apportion)하는 방법에 있어서, 상기 디바이스들 중의 일 디바이스에서,
    상기 비디오 소스 디바이스와 상기 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여,
    - 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하는 단계와; 그리고
    - 상기 세트의 비디오 프로세싱 알고리즘들을 상기 타 디바이스에서 수행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와, 상기 일 디바이스에서 수행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하는 단계와;
    상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위해 적어도 하나의 명령을 송신하는 단계와; 그리고
    상기 송신하는 단계에 후속하여, 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행했는지를 표시하는 메타데이터를 수신하는 단계를 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  2. 제1 항에 있어서,
    상기 일 디바이스가 상기 비디오 프로세싱 알고리즘들의 제2 서브세트를 실행하게 하는 단계를 더 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  3. 제1 항에 있어서,
    상기 일 디바이스에서, 상기 비디오 소스 디바이스와 상기 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 상기 표시를 수신하는 단계를 더 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  4. 제1 항에 있어서,
    상기 분류하는 단계는 하나 이상의 비디오 프로세싱 분배 기준에 따라 행해지는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  5. 제4 항에 있어서,
    상기 하나 이상의 비디오 프로세싱 분배 기준을 규정하기 위한 적어도 하나의 사용자 인터페이스 제어를 포함하는 사용자 인터페이스를 제공하는 단계를 더 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  6. 제4 항에 있어서,
    상기 비디오 프로세싱 분배 기준은, 상기 비디오 소스 디바이스 및 상기 비디오 싱크 디바이스 중 하나 또는 둘 모두에서, 전력을 보존하는 것과 비디오 영상(video image)들의 품질을 최대화하는 것 중의 적어도 하나를 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  7. 제4 항에 있어서,
    상기 비디오 프로세싱 분배 기준은 상기 비디오 소스 디바이스 및 상기 비디오 싱크 디바이스 사이에서 원하는 비디오 프로세싱과 관련된 부하(load)를 밸런싱(balancing)하는 단계를 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  8. 제1 항에 있어서,
    만약 상기 메타데이터가 상기 제1 서브세트 중 임의의 비디오 프로세싱 알고리즘이 상기 타 디바이스에 의해 실행되지 않았음을 표시하면, 상기 일 디바이스로하여금 상기 비디오 프로세싱 알고리즘을 수행하게 하는 단계를 더 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  9. 제1 항에 있어서,
    상기 메타데이터가 상기 제2 서브세트 중 임의의 비디오 프로세싱 알고리즘이 상기 타 디바이스에 의해 실행되었음을 표시하면, 상기 일 디바이스가 상기 비디오 프로세싱 알고리즘을 수행하지 않게하는 단계를 더 포함하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  10. 제1 항에 있어서,
    상기 송신하는 단계는, 상기 비디오 소스 디바이스와 비디오 싱크 디바이스 사이의 배선의 보조 채널(auxiliary channel)을 통해 상기 적어도 하나의 명령을 전송하는 단계를 포함하며, 상기 채널은 상기 비디오 소스 디바이스로부터 상기 비디오 싱크 디바이스로 비디오 신호를 통신하기 위한 상기 배선의 주 채널(primary channel)에 보조적인 채널인 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  11. 제10 항에 있어서,
    상기 배선은 HDMI(High-Definition Multimedia Interface) 배선이고 상기 보조 채널은 디스플레이 데이터 채널(Display Data Channel) 또는 소비자 가전제품 제어(Consumer Electronics Command) 채널인 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  12. 제1 항에 있어서,
    상기 표시를 수신하는 단계는, 상기 비디오 소스 디바이스와 상기 비디오 싱크 디바이스 사이의 배선의 보조 채널을 통해 상기 표시를 수신하는 단계를 포함하고, 상기 채널은 상기 비디오 소스 디바이스로부터 상기 비디오 싱크 디바이스로 비디오 신호를 통신하기 위한 상기 배선의 주 채널에 보조적인 채널인 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  13. 제1 항에 있어서,
    상기 일 디바이스는 비디오 소스 디바이스이고, 상기 타 디바이스는 비디오 싱크 디바이스인 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  14. 제1 항에 있어서,
    상기 일 디바이스는 비디오 싱크 디바이스이고, 상기 타 디바이스는 비디오 소스 디바이스인 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  15. 제1 항에 있어서,
    상기 적어도 하나의 명령은 상기 타 디바이스에서 비활성화되는 상기 제2 서브세트의 비디오 프로세싱 알고리즘들을 식별하는 것을 특징으로 하는 비디오 프로세싱 배분 방법.
  16. 명령어들(instructions)을 저장하고 있는 기계판독가능 매체로서, 상기 명령어들은 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 일 디바이스의 프로세서에 의해 실행될 때, 상기 일 디바이스로 하여금,
    상기 비디오 소스 디바이스와 상기 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시와 상기 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여,
    - 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게하고; 그리고
    - 상기 세트의 비디오 프로세싱 알고리즘들을 상기 타 디바이스에 의해 실행하기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와 상기 일 디바이스에 의해 실행하기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하게 하고;
    상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령을 송신하게 하고; 그리고
    상기 송신하는 것에 후속하여, 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행했는지를 표시하는 메타데이터를 수신하는 것을 특징으로 하는 기계판독가능 매체.
  17. 제16 항에 있어서,
    상기 명령어들은 또한 상기 일 디바이스로 하여금 상기 비디오 프로세싱 알고리즘들의 제2 서브세트를 실행하게 하는 것을 특징으로 하는 기계판독가능 매체.
  18. 프로세서 및 상기 프로세서에 상호연결된 메모리를 포함하는 비디오 소스 디바이스에 있어서, 상기 메모리는 명령어들을 저장하고 있으며, 상기 명령어들은 상기 프로세서에 의해 실행될 때, 상기 비디오 소스 디바이스로 하여금,
    비디오 싱크 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 비디오 소스 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여,
    - 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게 하고; 그리고
    - 상기 세트의 비디오 프로세싱 알고리즘들을 상기 비디오 싱크 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와 상기 비디오 소스 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하게 하고; 그리고
    상기 비디오 싱크 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령어를 송신하게 하고; 그리고
    상기 송신하는 것에 후속하여, 상기 비디오 싱크 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행했는지를 표시하는 메타데이터를 수신하는 것을 특징으로 하는 비디오 소스 디바이스.
  19. 제18 항에 있어서,
    상기 명령어들은 또한 상기 비디오 소스 디바이스로 하여금 상기 비디오 프로세싱 알고리즘들의 제2 서브세트를 실행하게 하는 것을 특징으로 하는 비디오 소스 디바이스.
  20. 프로세서 및 상기 프로세서에 상호연결된 메모리를 포함하는 비디오 싱크 디바이스에 있어서, 상기 메모리는 명령어들을 저장하고 있으며, 상기 명령어들은 상기 프로세서에 의해 실행될 때, 상기 비디오 싱크 디바이스로 하여금,
    비디오 소스 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 비디오 싱크 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여,
    - 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하게 하고; 그리고
    - 상기 세트의 비디오 프로세싱 알고리즘들을 상기 비디오 소스 디바이스에 의해 실행하기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트와 상기 비디오 싱크 디바이스에 의해 실행하기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하게 하고;
    상기 비디오 소스 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하기 위한 적어도 하나의 명령을 송신하게 하고; 그리고
    상기 송신하는 것에 후속하여, 상기 비디오 소스 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행했는지를 표시하는 메타데이터를 수신하는 것을 특징으로 하는 비디오 싱크 디바이스.
  21. 제20 항에 있어서,
    상기 명령어들은 상기 비디오 싱크 디바이스로 하여금 상기 비디오 프로세싱 알고리즘들의 제2 서브세트를 실행하게 하는 것을 특징으로 하는 비디오 싱크 디바이스.
  22. 명령어들을 저장하고 있는 기계판독가능 매체로서, 상기 명령어들은 처리될 때,
    비디오 소스 디바이스와 비디오 싱크 디바이스 중 일 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시 및 상기 비디오 소스 디바이스와 비디오 싱크 디바이스 중의 타 디바이스가 실행할 수 있는 비디오 프로세싱 알고리즘들의 표시에 근거하여,
    - 원하는 비디오 프로세싱을 달성하기 위한 비디오 프로세싱 알고리즘들의 세트를 식별하고; 그리고
    - 상기 세트의 비디오 프로세싱 알고리즘들을 상기 타 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제1 서브세트 및 상기 일 디바이스에 의해 실행되기 위한 비디오 프로세싱 알고리즘들의 제2 서브세트로 분류하고; 그리고
    상기 타 디바이스가 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행하게 하는 적어도 하나의 명령을 송신하고; 그리고
    상기 송신하는 것에 후속하여, 상기 타 디바이스가 상기 비디오 프로세싱 알고리즘들의 제1 서브세트를 실행했는지를 표시하는 메타데이터를 수신할 수 있는 회로를 생성하며,
    상기 회로는 상기 일 디바이스를 포함하는 것을 특징으로 하는 기계판독가능 매체.
  23. 제22 항에 있어서,
    상기 일 디바이스는 비디오 소스 디바이스이고 상기 타 디바이스는 비디오 싱크 디바이스인 것을 특징으로 하는 기계판독가능 매체.
  24. 제22 항에 있어서,
    상기 일 디바이스는 비디오 싱크 디바이스이고 상기 타 디바이스는 비디오 소스 디바이스인 것을 특징으로 하는 기계판독가능 매체.
  25. 제22 항에 있어서,
    상기 명령어들은 하드웨어 기술 언어(HDL: hardware description language) 명령어들을 포함하는 것을 특징으로 하는 기계판독가능 매체.
  26. 제25 항에 있어서,
    상기 하드웨어 기술 언어는 베릴로그(Verilog) 하드웨어 기술 언어, 베릴로그-A(Verilog-A) 하드웨어 기술 언어, 그리고 초고속 집적회로 하드웨어 기술언어(VHDL) 중 하나인 것을 특징으로 하는 기계판독가능 매체.
  27. 삭제
  28. 삭제
KR1020107015970A 2007-12-17 2008-12-15 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체 KR101623513B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/957,938 US8866971B2 (en) 2007-12-17 2007-12-17 Method, apparatus and machine-readable medium for apportioning video processing between a video source device and a video sink device
US11/957,938 2007-12-17

Publications (2)

Publication Number Publication Date
KR20100114033A KR20100114033A (ko) 2010-10-22
KR101623513B1 true KR101623513B1 (ko) 2016-05-23

Family

ID=40752714

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107015970A KR101623513B1 (ko) 2007-12-17 2008-12-15 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체

Country Status (5)

Country Link
US (2) US8866971B2 (ko)
EP (1) EP2232850B1 (ko)
KR (1) KR101623513B1 (ko)
CN (1) CN101971616A (ko)
WO (1) WO2009076766A1 (ko)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9198084B2 (en) 2006-05-26 2015-11-24 Qualcomm Incorporated Wireless architecture for a traditional wire-based protocol
US20080045149A1 (en) * 2006-05-26 2008-02-21 Dinesh Dharmaraju Wireless architecture for a traditional wire-based protocol
US8667144B2 (en) * 2007-07-25 2014-03-04 Qualcomm Incorporated Wireless architecture for traditional wire based protocol
TW200929071A (en) * 2007-12-25 2009-07-01 Altek Corp Image processing method and image capture apparatusapplying the same
JP4831081B2 (ja) * 2008-01-22 2011-12-07 ソニー株式会社 送信装置及びフレームレート変換システム
US8811294B2 (en) * 2008-04-04 2014-08-19 Qualcomm Incorporated Apparatus and methods for establishing client-host associations within a wireless network
KR20100050888A (ko) * 2008-11-06 2010-05-14 삼성전자주식회사 우선순위를 결정하는 방법 및 그 방법을 수행하는 장치
US9398089B2 (en) * 2008-12-11 2016-07-19 Qualcomm Incorporated Dynamic resource sharing among multiple wireless devices
JP5055254B2 (ja) * 2008-12-19 2012-10-24 日立コンシューマエレクトロニクス株式会社 映像伝送システム及びedidの読み出し方法
WO2010095081A1 (en) * 2009-02-18 2010-08-26 Koninklijke Philips Electronics N.V. Transferring of 3d viewer metadata
US8416248B2 (en) * 2009-03-26 2013-04-09 Stmicroelectronics Ltd. Methods and device for display device in-system programming through displayable signals
JP5212736B2 (ja) 2009-05-22 2013-06-19 ソニー株式会社 情報処理装置および方法、並びにプログラム
CN102804789B (zh) * 2009-06-23 2015-04-29 Lg电子株式会社 接收系统和提供3d图像的方法
US9264248B2 (en) * 2009-07-02 2016-02-16 Qualcomm Incorporated System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment
CN102474641B (zh) * 2009-07-07 2015-05-13 Lg电子株式会社 用于显示三维用户界面的方法
KR101677527B1 (ko) * 2009-09-22 2016-11-21 삼성전자주식회사 복수의 입력소스들로부터의 비디오 신호들을 디스플레이하기 위한 방법 및 장치
EP2489198A4 (en) * 2009-10-16 2013-09-25 Lg Electronics Inc METHOD FOR DISPLAYING 3D CONTENTS AND DEVICE FOR PROCESSING A SIGNAL
US9582238B2 (en) 2009-12-14 2017-02-28 Qualcomm Incorporated Decomposed multi-stream (DMS) techniques for video display systems
JP5688255B2 (ja) * 2010-09-15 2015-03-25 日立マクセル株式会社 映像処理装置、表示装置及び映像処理方法
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US20130013318A1 (en) 2011-01-21 2013-01-10 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US10135900B2 (en) 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US9065876B2 (en) 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US8674957B2 (en) 2011-02-04 2014-03-18 Qualcomm Incorporated User input device for wireless back channel
US10108386B2 (en) 2011-02-04 2018-10-23 Qualcomm Incorporated Content provisioning for wireless back channel
US9503771B2 (en) 2011-02-04 2016-11-22 Qualcomm Incorporated Low latency wireless display for graphics
CN102695023A (zh) * 2011-03-23 2012-09-26 宏碁股份有限公司 视频信号处理系统与方法
US20130070052A1 (en) * 2011-03-31 2013-03-21 Panasonic Corporation Video procesing device, system, video processing method, and video processing program capable of changing depth of stereoscopic video images
JP6004628B2 (ja) * 2011-10-19 2016-10-12 キヤノン株式会社 電子機器
US9525998B2 (en) 2012-01-06 2016-12-20 Qualcomm Incorporated Wireless display with multiscreen service
EP2792139A4 (en) * 2012-03-15 2015-09-16 Nokia Technologies Oy METHOD, APPARATUS AND COMPUTER PROGRAM FOR IMAGE CAPTURE
EP2859729B1 (en) * 2012-06-12 2020-09-16 Coherent Logix, Incorporated A distributed architecture for encoding and delivering video content
JP6465541B2 (ja) * 2013-08-06 2019-02-06 キヤノン株式会社 通信装置、再生装置、及びその方法、並びにプログラム
US20150049251A1 (en) * 2014-10-28 2015-02-19 YENOUKOUME Serge BOKO DAGOUN Portable computing device
US20160180804A1 (en) * 2014-12-23 2016-06-23 Intel Corporation Refresh rate control using sink requests
CN104717436A (zh) * 2015-02-09 2015-06-17 深圳市嘉利达专显科技有限公司 一种用于手术室的内窥显示驱动系统及其方法
KR102310241B1 (ko) 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
KR20170017145A (ko) * 2015-08-05 2017-02-15 노틸러스효성 주식회사 금융 자동화 기기 및 이를 이용한 다계좌 입금 방법
CN105657488A (zh) * 2015-08-21 2016-06-08 乐视致新电子科技(天津)有限公司 音视频播放设备
US10319336B2 (en) * 2016-02-16 2019-06-11 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US10334254B2 (en) * 2016-09-23 2019-06-25 Apple Inc. Feed-forward and feed-back metadata exchange in image processing pipelines to improve image quality
KR102411287B1 (ko) * 2017-11-22 2022-06-22 삼성전자 주식회사 미디어 출력 제어 장치 및 방법
CN110769129B (zh) * 2019-10-14 2022-04-05 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN114631326A (zh) * 2019-11-12 2022-06-14 索尼集团公司 信息处理设备、信息处理方法、信息处理程序、终端设备以及用于控制终端设备的方法和程序
CN111107403B (zh) * 2019-12-18 2021-06-04 海信视像科技股份有限公司 一种显示设备
WO2021120483A1 (zh) 2019-12-18 2021-06-24 海信视像科技股份有限公司 一种显示设备
CN111093106B (zh) * 2019-12-18 2021-05-04 海信视像科技股份有限公司 一种显示设备
CN111050197B (zh) * 2019-12-18 2021-06-04 海信视像科技股份有限公司 一种显示设备
TWI748532B (zh) 2020-06-24 2021-12-01 瑞昱半導體股份有限公司 訊號強化中繼裝置及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060184992A1 (en) 2005-02-14 2006-08-17 Sbc Knowledge Ventures, L.P. Automatic switching between high definition and standard definition IP television signals

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4792974A (en) 1987-08-26 1988-12-20 Chace Frederic I Automated stereo synthesizer for audiovisual programs
EP0880278B1 (en) * 1992-09-29 2002-12-11 Eizo Nanao Corporation CRT display unit and power supply control method therefor
US5852472A (en) 1995-09-28 1998-12-22 Intel Corporation Method and apparatus for connecting video sources and video sinks
JPH10290440A (ja) 1997-04-14 1998-10-27 Matsushita Electric Ind Co Ltd ディジタル放送送信方法、ディジタル放送送信装置、及びディジタル放送再生装置
US5960081A (en) 1997-06-05 1999-09-28 Cray Research, Inc. Embedding a digital signature in a video sequence
US6314479B1 (en) 1997-08-04 2001-11-06 Compaq Computer Corporation Universal multi-pin plug and display connector for standardizing signals transmitted between a computer and a display for a PC theatre interconnectivity system
EP1988715B1 (en) 1997-10-23 2010-03-03 Mitsubishi Denki Kabushiki Kaisha Image decoding apparatus
JP2000353108A (ja) 1999-06-11 2000-12-19 Fujitsu Ltd 情報処理装置
US6463445B1 (en) 1999-08-27 2002-10-08 Sony Electronics Inc. Multimedia information retrieval system and method including format conversion system and method
KR100327377B1 (ko) 2000-03-06 2002-03-06 구자홍 디지털 영상 수신기와 디지털 디스플레이 장치 사이에서디지털 영상 신호를 디스플레이 하는 방법
US7216177B1 (en) 2000-06-16 2007-05-08 Palm, Inc. Apparatus and method for supplying electronic content to network appliances
US20020156870A1 (en) 2000-11-08 2002-10-24 Equate Systems, Inc. Method and apparatus for dynamically directing an application to a pre-defined target multimedia resource
US7242324B2 (en) 2000-12-22 2007-07-10 Sony Corporation Distributed on-demand media transcoding system and method
US20020161844A1 (en) * 2001-02-27 2002-10-31 Overtoom Eric J. Method and apparatus for peer to peer communication over a master slave interface
KR100633154B1 (ko) * 2001-03-20 2006-10-11 삼성전자주식회사 모니터의 표시모드자동설정방법 및 그 시스템과,표시모드자동설정방법과 표시모드자동설정시스템이 저장된기록매체
US20030191623A1 (en) 2002-02-25 2003-10-09 Oak Technology, Inc. Computer system capable of executing a remote operating system
JP4713812B2 (ja) 2002-09-30 2011-06-29 富士通株式会社 情報処理装置、プログラム及び情報処理システム
US7091944B2 (en) * 2002-11-03 2006-08-15 Lsi Logic Corporation Display controller
GB0226661D0 (en) 2002-11-15 2002-12-24 Koninkl Philips Electronics Nv Asynchronous communication system
US7733425B2 (en) 2003-03-31 2010-06-08 Sony Corporation Automatic picture conditioning based upon user input choosing a video label
US8068485B2 (en) 2003-05-01 2011-11-29 Genesis Microchip Inc. Multimedia interface
US8204076B2 (en) * 2003-05-01 2012-06-19 Genesis Microchip Inc. Compact packet based multimedia interface
US20040218599A1 (en) 2003-05-01 2004-11-04 Genesis Microchip Inc. Packet based video display interface and methods of use thereof
US20050259751A1 (en) 2004-05-21 2005-11-24 Howard Brad T System and a method for controlling audio/video presentation on a sink device
US7256835B2 (en) 2004-06-04 2007-08-14 Lucent Technologies Inc. Apparatus and method for deinterlacing video images
US7535466B2 (en) 2004-09-27 2009-05-19 Idc, Llc System with server based control of client device display features
US7706692B2 (en) 2004-09-29 2010-04-27 Finisar Corporation Consumer electronics with optical communication interface
US7548675B2 (en) 2004-09-29 2009-06-16 Finisar Corporation Optical cables for consumer electronics
KR100819736B1 (ko) 2004-12-21 2008-04-07 삼성전자주식회사 영상신호처리회로 및 이를 포함하는 디스플레이장치
KR100677545B1 (ko) * 2004-12-29 2007-02-02 삼성전자주식회사 복수개의 데이터 처리 장치를 이용한 데이터 처리 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체
US7349029B1 (en) 2005-01-19 2008-03-25 Kolorific, Inc. Method and apparatus for de-interlacing interlaced video fields originating from a progressive video source
US20060182422A1 (en) 2005-01-31 2006-08-17 Action Electronics Co., Ltd Decoding method and apparatus for automotive media-player
KR100772373B1 (ko) 2005-02-07 2007-11-01 삼성전자주식회사 복수개의 데이터 처리 장치를 이용한 데이터 처리 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체
US8117620B2 (en) 2005-03-21 2012-02-14 Intel Corporation Techniques for implementing a communication channel with local and global resources
US20060269056A1 (en) 2005-05-19 2006-11-30 Bruce Montag Messaging interface for protected digital outputs
JP4670494B2 (ja) 2005-06-13 2011-04-13 株式会社日立製作所 表示装置及び表示画質設定方法
US20080246775A1 (en) 2005-08-27 2008-10-09 Displaylink (Uk) Limited Display System and a Method of Operating a Displaying System
JP4487204B2 (ja) 2005-09-14 2010-06-23 ソニー株式会社 情報処理装置および方法、提供装置および方法、並びにプログラム
US20070186015A1 (en) * 2006-02-08 2007-08-09 Taft Frederick D Custom edid content generation system and method
US8458753B2 (en) 2006-02-27 2013-06-04 Time Warner Cable Enterprises Llc Methods and apparatus for device capabilities discovery and utilization within a content-based network
CN101395904B (zh) 2006-03-03 2012-07-18 松下电器产业株式会社 发送装置、接收装置和发送接收装置
US8634463B2 (en) 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
WO2007149444A2 (en) 2006-06-16 2007-12-27 Droplet Technology, Inc. System, method and apparatus of video processing and applications
US7954131B2 (en) 2007-06-13 2011-05-31 Time Warner Cable Inc. Premises gateway apparatus and methods for use in a content-based network
US7929525B2 (en) 2007-06-28 2011-04-19 Dell Products L.P. System and method for adding transport layer to uncompressed visual information packets
US20090031381A1 (en) 2007-07-24 2009-01-29 Honeywell International, Inc. Proxy video server for video surveillance
US9866785B2 (en) * 2007-08-15 2018-01-09 Advanced Micro Devices, Inc. Automatic reduction of video display device power consumption
US20100142723A1 (en) 2008-12-08 2010-06-10 Willard Kraig Bucklen Multimedia Switching Over Wired Or Wireless Connections In A Distributed Environment
US8416988B2 (en) 2008-12-24 2013-04-09 David Matsumoto Systems and methods for analyzing facial expressions, identifying intent and transforming images through review of facial expressions
JP4621787B2 (ja) 2009-05-19 2011-01-26 株式会社東芝 無線転送装置および無線転送方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060184992A1 (en) 2005-02-14 2006-08-17 Sbc Knowledge Ventures, L.P. Automatic switching between high definition and standard definition IP television signals

Also Published As

Publication number Publication date
US20150036052A1 (en) 2015-02-05
WO2009076766A1 (en) 2009-06-25
KR20100114033A (ko) 2010-10-22
US8866971B2 (en) 2014-10-21
US20090153737A1 (en) 2009-06-18
EP2232850B1 (en) 2019-08-21
EP2232850A1 (en) 2010-09-29
US9473678B2 (en) 2016-10-18
EP2232850A4 (en) 2012-08-15
CN101971616A (zh) 2011-02-09

Similar Documents

Publication Publication Date Title
KR101623513B1 (ko) 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱을 배분하기 위한 방법, 장치, 및 기계판독가능 매체
KR101562954B1 (ko) 비디오 소스 디바이스와 비디오 싱크 디바이스 간에 비디오 프로세싱 성능을 통신하기 위한 방법, 장치, 및 기계판독가능 매체
US8615156B2 (en) Adjusting video processing in a system having a video source device and a video sink device
US20200329213A1 (en) Image data output device, image data output method, integrated circuit, and image display device
JP6290033B2 (ja) ビデオ処理を記述するための方法、装置および機械可読記録媒体
WO2013099369A1 (ja) 表示装置
WO2013099377A1 (ja) Av機器
JPWO2008013131A1 (ja) Av機器
KR100737312B1 (ko) 디브이아이/에이치디엠아이 출력장치 및 그 제어방법
JP5688255B2 (ja) 映像処理装置、表示装置及び映像処理方法
KR101506030B1 (ko) 멀티비전 시스템 및 그 화면 구현 방법
EP2244474A2 (en) Method for setting display apparatus and display apparatus using the same
KR20090038660A (ko) 미디어 싱크 디바이스 및 그 제어방법
KR101369390B1 (ko) Av 입력신호 판단기능을 구비한 영상재생장치 및 그 방법
JP2007110215A (ja) 受信装置、受信方法および受信装置を用いた電子機器
CN219227673U (zh) 一种hdmi信号多路分配器
KR20070076759A (ko) 디스플레이시스템
JP2013051648A (ja) 画像処理装置及び画像処理装置の制御方法
EP2315443A1 (en) Instant image processing system, method for processing instant image and image transferring device
JP2008141345A (ja) 半導体集積回路及びこれを備えた送信装置
JP2012065057A (ja) 映像処理装置、表示装置及び映像処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190417

Year of fee payment: 4