KR20060103935A - 그래픽 오버레이 정보 통신 방법 및 장치 - Google Patents

그래픽 오버레이 정보 통신 방법 및 장치 Download PDF

Info

Publication number
KR20060103935A
KR20060103935A KR1020067012685A KR20067012685A KR20060103935A KR 20060103935 A KR20060103935 A KR 20060103935A KR 1020067012685 A KR1020067012685 A KR 1020067012685A KR 20067012685 A KR20067012685 A KR 20067012685A KR 20060103935 A KR20060103935 A KR 20060103935A
Authority
KR
South Korea
Prior art keywords
video
planes
overlay
graphics
plane
Prior art date
Application number
KR1020067012685A
Other languages
English (en)
Inventor
란디 알. 던톤
에릭 아우자스
니콜라스 제이. 스타시크
Original Assignee
인텔 코오퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코오퍼레이션 filed Critical 인텔 코오퍼레이션
Publication of KR20060103935A publication Critical patent/KR20060103935A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Abstract

제1 및 제2 비디오 평면을 송신하기 위한 비디오 소스 모듈; 제1 및 제2 비디오 평면들과 각각 블렌딩되는 제1 및 제2 오버레이 평면을 송신하기 위한 그래픽 소스 모듈; 상기 비디오 소스 모듈 및 상기 그래픽 소스 모듈에 접속하기 위한 미디어 센터 - 상기 미디어 센터는 상기 비디오 평면을 수신하기 위한 비디오 프로세싱 서브시스템 및 상기 그래픽 평면을 수신하기 위한 상기 그래픽 프로세싱 서브시스템을 포함하고, 상기 그래픽 프로세싱 서브시스템은 단일 버스를 통해 상기 비디오 프로세싱 서브시스템에 상기 그래픽 평면들을 송신하고, 상기 비디오 프로세싱 서브시스템은 상기 제1 비디오 평면을 상기 제1 오버레이 평면과 블렌딩하여 제1 블렌딩된 프레임을 형성하고, 상기 제2 비디오 평면을 상기 제2 오버레이 평면과 블렌딩하여 제2 블렌딩된 프레임을 형성함 - ; 및 상기 제1 블렌딩된 프레임을 수신 및 디스플레이하기 위한 제1 디스플레이 모듈 및 상기 제2 블렌딩된 프레임을 수신 및 디스플레이하기 위한 제2 디스플레이 모듈을 갖는 다수의 디스플레이 모듈을 포함한다.
비디오 소스, 그래픽 소스, 미디어 센터, 디스플레이 모듈

Description

그래픽 오버레이 정보 통신 방법 및 장치{METHOD AND APPARATUS TO COMMUNICATE GRAPHICS OVERLAY INFORMATION}
미디어 센터는 텔레비젼과 같은 디스플레이 유닛을 위한 다양한 기능들을 제공할 수 있다. 예를 들어, 미디어 센터는 텔레비젼에서 디스플레이를 위한 비디오 신호들을 수신 및 디코드할 수 있다. 다른 일례에서, 미디어 센터는 비디오 이미지를 통해 투명하거나 반투명한 그래픽을 그리는 것과 같이 그래픽 및 비디오를 동시에 디스플레이할 수 있다. 그러나, 미디어 센터에 의해 지원되는 디스플레이 유닛들의 수와 관련하여 그러한 기능을 제공하는 기술들은 점점 더 복잡해질 수 있다. 복잡성은 프로세서, 메모리 및 통신 버스와 같은 미디어 센터를 위한 리소스들을 비효율적으로 사용하게 할 수 있다. 따라서, 미디어 센터 리소스 사용에 대한 개선점들이 미디어 센터에 대한 향상된 성능을 야기할 수 있다. 따라서, 디바이스 또는 네트워크의 기술들이 향상될 필요가 있다.
본 실시예들과 관련된 주제는 자세히 설명되고 특히 본 명세서의 결론부에 명확하게 청구된다. 그러나, 목적, 특징 및 장점과 함께 구성 및 동작 방법과 관련된 본 실시예들은 첨부 도면들과 함께 이하의 상세한 설명을 참조해서 가장 잘 이해될 수 있다:
도 1은 일 실시예를 구현하기에 적합한 시스템을 도시한 도면.
도 2는 일 실시예에 따른 미디어 센터의 블록도를 도시한 도면.
도 3은 일 실시예에 따른 미디어 센터용 그래픽 플임 버퍼를 논리적으로 표현한 도면.
도 4는 일 실시예에 따른 미디어 센터에 의해 실행되는 프로그래밍 로직의 블록 흐름도를 도시한 도면.
도 5는 일 실시예에 따라 그래픽 버스를 통해 그래픽 정보를 전달하기 위한 제1 타이밍도를 도시하는 도면.
도 6은 일 실시예에 따라 그래픽 버스를 통해 그래픽 정보를 전달하기 위한 제2 타이밍도를 도시하는 도면.
다수의 특정 세부 사항들이 본 발명의 실시예들의 전반적인 이해를 돕기 위해 본 명세서에 기재될 수 있다. 그러나, 본 기술 분야에 숙련된 자들은 본 발명의 실시예들이 특정 세부 사항들 없이 구현될 수 있음을 알 것이다. 다른 일례들에서, 공지된 방법들, 절차들, 컴포넌트들 및 회로들이 본 발명의 실시예들을 불명료하게 하지 않도록 상세히 기술되지 않는다. 본 명세서에 기술된 특정 구조 및 기능 세부 사항들은 대표적인 것일 수 있으며 본 발명의 범위를 제한하려는 것이 아님을 알 수 있다.
"일 실시예" 또는 "실시예"에 대한 명세서 내에서의 임의의 기술된 특정 기능, 구조 또는 특징이 적어도 하나의 실시예에 포함됨을 의미함을 주지할 만하다. 명세서의 여러 곳에 나오는 "일 실시예에서"라는 구절은 반드시 모두 동일일 실시예를 나타내는 것은 아니다.
도면과 관련해서, 유사한 파트들은 유사한 참조 부호들로 기술되며, 도 1에는 일 실시예를 구현하기에 적합한 시스템이 도시되어 있다. 도 1은 시스템(100)의 블록도이다. 시스템(100)은 다수의 네트워크 노드들을 포함할 수 있다. 본 명세서에서 사용되는 "네트워크 노드"라는 용어는 하나 이상의 프로토콜들에 따라 정보를 전달할 수 있는 임의의 노드와 관련될 수 있다. 네트워크 노드들의 일례들은 컴퓨터, 서버, 비디오 시스템, 오디오 시스템, 그래픽 시스템, 디스플레이 모듈, 미디어 센터, 스위치, 라우터, 브릿지, 게이트웨이 등을 포함할 수 있다. 본 명세서에서 사용되는 "프로토콜"이라는 용어는 통신 매체를 통해 정보가 전달되는 방법을 제어하기 위한 명령 집합과 관련될 수 있다.
일 실시예에서, 시스템(100)은 다양한 네트워크 노드들 간에 다양한 타입들의 정보를 전달할 수 있다. 예를 들어, 한 타입의 정보는 미디어 정보를 포함할 수 있다. 본 명세서에 사용되는 "미디어 정보"라는 용어는 사용자를 위한 콘텐츠를 나타내는 임의의 데이터를 말할 수 있다. 콘텐츠의 일례들은 예를 들어, 비디오, 스트리밍 비디오, 오디오, 스트리밍 오디오, 그래픽, 이미지, 영숫자 심볼들, 텍스트 등을 포함할 수 있다. 다른 타입의 정보는 컨트롤 정보를 포함할 수 있다. 본 명세서에 사용되는 "컨트롤 정보"라는 용어는 자동 시스템을 위한 커맨드, 명령 또는 컨트롤 워드를 나타내는 임의의 데이터를 말할 수 있다. 예를 들어, 컨트롤 정보는 네트워크를 통해 미디어 정보를 라우트하거나, 선정된 방식으로 미디어 정보를 프로세스하도록 네트워크 노드에게 명령하는데 사용될 수 있다.
일 실시예에서, 하나 이상의 기술자들이 정보를 위해 사용될 수 있다. 기술자는 미디어 정보 또는 컨트롤 정보를 사용하거나 전송하는 동작을 기술하는 소프트웨어 또는 기본 하드웨어에 의해 인식될 수 있는 데이터 구조이다. 기술자는 하나 이상의 세그먼트들을 포함할 수 있다. 세그먼트는 미디어 정보 또는 컨트롤 정보의 특정 피스를 표현하기 위한 데이터 구조 내의 필드일 수 있다. 세그먼트는 예를 들어, 컨트롤 세그먼트, 어드레스 세그먼트 및 데이터 세그먼트를 포함할 수 있다. 예를 들어, 일 실시예에서, 기술자는 컨트롤 블록 또는 콘텐츠 블록을 포함할 수 있다. 본 명세서에서 사용되는 "컨트롤 블록"이라는 용어는 컨트롤 정보를 전달하는데 사용되는 필드를 지칭할 수 있다. 본 명세서에서 사용되는 "콘텐츠 블록"이라는 용어는 미디어 정보를 전달하기 위한 필드를 나타낼 수 있다. 컨트롤 블록은 기술자 데이터 구조용 컨트롤 세그먼트의 일부 또는 전부를 포함할 수 있다. 콘텐츠 블록은 기술자 데이터 구조용 데이터 세그먼트의 일부 또는 전부를 포함할 수 있다.
일 실시예에서, 하나 이상의 통신 매체들이 노드들을 접속할 수 있다. 본 명세서에서 사용되는 "통신 매체"라는 용어는 정보 신호들을 수반할 수 있는 임의의 매체를 지칭할 수 있다. 통신 매체의 일례들은 금속 리드, 반도체 재료, 트위스트-페어 와이어, 동축 케이블, 광섬유, 무선 주파수(RF) 등을 포함할 수 있다. 본 문맥에서 "접속" 또는 "상호 접속"이라는 용어 및 그 변화들은 물리적 접속 및/또는 논리적 접속을 지칭할 수 있다.
다시 도 1을 참조하면, 시스템(100)은 비디오 소스(102), 그래픽 소스(104), 미디어 센터(106) 및 디스플레이 모듈들(1-N)을 포함할 수 있다. 상기 네트워크 노드들은 하나 이상의 통신 매체들을 경유하여 함께 접속될 수 있다. 도 1이 제한된 수의 네트워크 노드들을 도시하지만, 임의의 수의 네트워크 노드들이 시스템(100)에서 사용될 수 있음을 알 수 있다.
일 실시예에서, 시스템(100)은 비디오 소스(102)를 포함할 수 있다. 비디오 소스(102)는 아날로그 또는 디지털 비디오 정보의 소스를 명시하도록 구성된 임의의 비디오 시스템을 포함할 수 있다. "비디오 정보"라는 용어는 비디오로부터의 데이터 및 정보를 포함하는 미디어 정보의 부집합을 지칭할 수 있다. 비디오 정보의 일례들은 비디오 프로그램으로부터의 콘텐츠, 컴퓨터 생성 이미지들(CGI) 등을 포함할 수 있다. 비디오 소스(102)의 일례들은 디지털 비디오 디스크(DVD) 디바이스, VHS 디바이스, 컴퓨터, 게이밍 콘솔 등과 같은 다양한 포맷들로 기억된 선기록(pre-recorded) 미디어를 전달하기 위한 임의의 시스템 또는 디바이스를 포함할 수 있다. 비디오 소스(102)는 또한 방송 또는 스트리밍 아날로그 또는 디지털 비디오 정보를 미디어 센터(106)에 제공하기 위한 멀티미디어 분배 시스템을 포함할 수 있다. 예를 들어, 멀티미디어 분배 시스템의 일례들은 공중(OTA; Over The Air) 방송 시스템, 지상 케이블 시스템, 위성 방송 시스템 등을 포함할 수 있다. 비디오 소스(102)의 타입들 및 위치들은 본 컨텍스트로 제한되지 않는다.
오디오 정보가 비디오 정보와 함께 포함될 수 있음을 주목할 만하다. 오디오 정보는 싱글 미디어 스트림 또는 상이한 비디오 및 오디오 스트림들로 비디오 정보와 함께 내장될 수 있다. 본 명세서에서 사용되는 바와 같이, 비디오 정보라는 용어는 소정의 구현을 위해 요구되는 대로 오디오 정보를 포함하거나 배제할 수 있음을 의미할 수 있다. 실시예들은 본 컨텍스트로 제한되지 않는다.
일 실시예에서, 시스템(100)은 그래픽 소스(104)를 포함할 수 있다. 그래픽 소스(104)는 오버레이 정보의 소스를 명시하도록 구성된 임의의 장치를 포함할 수 있다. 본 명세서에서 사용되는 "오버레이 정보"라는 용어는 비디오 정보를 통해 오버레이되거나 배치되는 임의의 미디어 정보를 지칭할 수 있다. 오버레이 정보는 소정의 구현을 위해 요구되는 대로 불투명하거나 다양한 투명도를 가질 수 있다. 오버레이 정보의 일례들은 비디오 소스(102), 그래픽 소스(104), 미디어 센터(106), 디스플레이 모듈들(1-N) 등을 제어하기 위한 아이템 메뉴를 나타내는 것과 같은 그래픽 또는 텍스트를 포함할 수 있다. 오버레이 정보의 다른 일례는 예를 들어, PIP(picture-in-picture) 기능을 제공하기 위한 비디오 정보를 포함할 수 있다. 또 다른 일례는 게이밍 애플리케이션 또는 디바이스로부터의 그래픽일 수 있다. 여타 일례들에서, 비디오 정보 및 오버레이 정보는 모두 동시에 디스플레이되어 사용자가 볼 수 있다. 본 실시예들은 본 컨텍스트로 제한되지 않는다.
명백성을 위해, 그래픽 소스(104)가 개별 네트워크 노드로 도시될 수 있지만, 그래픽 소스(104)가 또한 미디어 센터(106)와 통합될 수 있으며 이 또한 본 실시예의 범위 내에 포함됨을 주목할 만하다. 예를 들어, 그래픽 소스(104)는 도 2를 참조해서 기술된 그래픽 프로세싱 서브시스템(224)과 같은 그래픽 프로세싱 서브시스템과 통합될 수 있다.
일 실시예에서, 시스템(100)은 디스플레이 모듈들(1-N)을 포함할 수 있다. 디스플레이 모듈은 비디오 정보를 디스플레이하도록 구성된 임의의 장치를 포함할 수 있다. 디스플레이 모듈의 일례들은 텔레비젼, 모니터를 갖는 컴퓨터 등을 포함할 수 있다. 일 실시예에서, 디스플레이 모듈들(1-N)은 ATSC(Advanced Television Systems Committee)에 의해 정의된 하나 이상의 디지털 텔레비젼(DTF) 포맷들과 같은 상이한 디스플레이 또는 프레임 포맷들에 따라 동작하도록 구성될 수 있다.
일 실시예에서, 예를 들어, 디스플레이 모듈은 SDTV(Standard Definition Television) 포맷에 따라 동작하도록 구성될 수 있다. SDTV 포맷은 480i/30의 DTV 포맷을 포함할 수 있다. DVD-비디오 어스펙트비의 인터레이스 비디오 출력과 동등할 수 있다. SDTV는 대략 초당 4-7 메가비트의 데이터율을 사용하기 때문에, 3 내지 6개의 SDTV 채널들이 HDTV(High Definition Television) 채널과 거의 동일한 대역폭을 사용해서 전달될 수 있다.
일 실시예에서, 예를 들어, 디스플레이 모듈은 EDTV(Enhanced Definition Television) 포맷에 따라 동작하도록 구성될 수 있다. EDTV 포맷은 보다 많은 대역폭을 사용하는 비용 면에서 SDTV 보다 더 양호한 화상 품질을 제공할 수 있다. EDTV는 가변 화상 품질 정도를 제공하는 다양한 포맷들을 포함할 수 있다. 수직 해상도는 통상 480 라인들로 제한되지만, 수평 해상도는 640 내지 704 수직 라인들 사이에서 변할 수 있다. EDTV는 4:3 및 16:9 어스펙트비 모두, 다수의 새로 고침 빈도들, 및 인터레이스와 프로그레시브 스캐닝 모두를 포함할 수 있다.
일 실시예에서, 예를 들어, 디스플레이 모듈은 HDTV 포맷에 따라 동작하도록 구성될 수 있다. HDTV는 SDTV 및 EDTV에 비해 강화된 화상 품질을 위해 대략 25 내지 27 Mbps의 데이터 레이트를 사용할 수 있다. 모든 HDTV 포맷들은 16:9 어스펙트비 내에 있다. 720 라인 수직 해상도는 다양한 새로 고침 빈도들에서 프로그레시브 스캐닝을 사용할 수 있다. 종래의 방송 및 소비자 장치의 한계점들로 인해, 최고 해상도는 통상 인터레이스 스캐닝 모드(예를 들어, 1080i)에서 사용된다.
일 실시예에서, 시스템(100)은 미디어 센터(106)를 포함할 수 있다. 미디어 센터(106)는 시스템(100)용 미디어 및 컨트롤 정보를 관리하기 위해 프로세싱 시스템을 포함할 수 있다. 미디어 센터(106)는 프로세서 및 메모리를 포함할 수 있다. 미디어 센터(106)는 또한 하드 드라이브, 컴팩트 디스크(CD) 드라이브, DVD 드라이브 등과 같은 다수의 입출력 장치들을 포함할 수 있다. 미디어 센터(106)는 또한 예를 들어, 비디오 소스(102), 그래픽 소스(104) 및 디스플레이 모듈들(1-N)과 인터페이스하기 위해 다수의 통신 인터페이스들을 포함할 수 있다.
일반적인 동작시, 미디어 센터(106)는 비디오 소스(102)로부터의 비디오 정보 및 그래픽 소스(104)로부터의 오버레이 정보를 수신 및 디코드할 수 있다. 미디어 센터(106)는 비디오 정보를 통해 오버레이 정보를 디스플레이하라는 커맨드를 수신할 수 있다. 예를 들어, 커맨드는 텔레비젼 리모트 컨트롤에서 "메뉴" 버튼을 사용자가 누를 때 수신될 수 있다. 미디어 센터(106)는 오버레이 정보 및 비디오 정보를 동시에 사용자가 볼 수 있도록 다양한 투명도로 오버레이 정보를 비디오 정보와 블렌딩할 수 있다.
일 실시예에서, 미디어 센터(106)는 다수의 디스플레이 모듈들(1-N)을 지원할 수 있다. 또한, 각각의 디스플레이 모듈은 예를 들어, SDTV, EDTV 및 HDTV와 같은 다양한 디스플레이 포맷들에 따라 비디오 및 오버레이 정보를 동시에 디스플레이하도록 구성될 수 있다. 따라서, 미디어 센터(106)는 다수의 디스플레이 포맷들을 갖는 다수의 디스플레이 모듈들에서 디스플레이되도록 다수의 비디오 정보 스트림들을 수신하고, 상이한 스트림의 비디오 정보를 오버레이 정보와 블렌딩하도록 구성될 수 있다. 미디어 센터(106)는 디스플레이 모듈들(1-N) 중 적합한 디스플레이 모듈로 블렌딩된 정보를 송신할 수 있다. 디스플레이 모듈들(1-N)은 미디어 센터(106)로부터 블렌딩된 정보를 수신해서, 사용자가 보도록 블렌딩된 정보를 디스플레이할 수 있다. 일반적으로는 시스템(100), 그리고 특별하게는 미디어 센터(106)가 도 2 내지 도 6을 참조해서 더 상세히 기술될 수 있다.
도 2는 일 실시예에 따른 미디어 센터를 도시한다. 도 2는 미디어 센터(200)를 도시할 수 있다. 미디어 센터(200)는 예를 들어, 미디어 센터(106)를 대표할 수 있다. 미디어 센터(200)는 다수의 모듈들을 포함할 수 있다. 본 명세서에서 사용되는 "모듈"이라는 용어는 정보를 나타내는 신호를 처리할 수 있는 요소, 컴포넌트, 보드, 디바이스 또는 시스템을 지칭할 수 있다. 예를 들어, 신호는 전기 신호, 광 신호, 음향 신호, 화학 신호 등일 수 있다. 실시예는 설명을 용이하게 하기 위해 "모듈들"에 대해서 기술되었지만, 하나 이상의 회로들, 컴포넌트들, 레지스터들, 프로세서들, 소프트웨어 서브루틴들, 또는 임의의 그들의 결합이 모듈들 중 하나, 수개 또는 전부로 대체될 수 있다.
일 실시예에서, 미디어 센터(200)는 상이한 디스플레이 포맷들을 갖는 다수의 디스플레이 모듈들을 지원하도록 구성될 수 있다. 예를 들어, 로컬 텔레비젼(214)은 HDTV 신호들을 디스플레이하는 텔레비젼을 포함할 수 있다. 다른 일례에서, 원격 텔레비젼(218)은 SDTV 신호들을 디스플레이하는 텔레비젼을 포함할 수 있다. 디스플레이 포맷들은 일례로만 사용되는 것임을 알 수 있으며, 실시예들은 본 컨텍스트로 제한되지 않는다.
미디어 센터(200)가 다수의 디스플레이 모듈들을 지원하도록 구성되기 때문에, 다수의 비디오 정보 집합들로 다수의 오버레이 정보 집합들을 렌더링할 필요가 있을 수 있다. 이러한 렌더링을 용이하게 하기 위해, 미디어 센터(200)는 개별 메모리들을 갖는 2개의 이산 서브시스템들을 사용할 수 있다. 일 실시예에서, 예를 들어, 미디어 센터(200)는 그래픽 프로세싱 서브시스템(224) 및 비디오 프로세싱 서브시스템(226)을 포함할 수 있다. 두개의 서브시스템들만이 도 2에 도시되어 있지만, 다른 서브시스템들도 미디어 센터(200)에 포함될 수 있음을 알 수 있다. 실시예들은 본 컨텍스트로 제한되지 않는다.
일 실시예에서, 예를 들어, 그래픽 프로세싱 서브시스템(224)은 프로세서(202), 그래픽 메모리 및 컨트롤러 허브(GMCH)(204) 및 그래픽 프레임 버퍼(206)를 포함할 수 있다. 그래픽 프로세싱 서브시스템(224)은 그래픽 소스(104)를 통해 수신된 오버레이 정보를 수신, 기억 및 관리할 수 있다. 오버레이 정보는 그래픽 평면들 G1 및 알파 평면들 A1을 포함할 수 있다. 그래픽 평면은 적색, 녹색, 청색(RGB)과 같은 3개의 성분들을 사용하는 컬러 정의를 지정하는 2차원 또는 3차원 그래픽을 포함할 수 있다. 적색, 녹색, 청색 성분들은 실제 컬러들을 나타낼 수 있다. 알파 평면은 알파(A) 성분들을 포함할 수 있다. 알파 성분들은 오버레이 정보에 대한 투명도 레벨을 나타내기 위해 블렌딩 팩터를 나타낼 수 있다. 일 실시예에서, 예를 들어, 결합된 RGBA 정보는 각각의 R,G,B,A 성분들에 대해 8비트씩, 픽셀 당 32 비트들을 사용하여 기억될 수 있다. 그래픽 평면은 또한 예를 들어, Y'CBCR과 같은 다른 컬러 공간 코딩 기술들을 사용해서 표현될 수 있다.
도 3은 일 실시예에 따른 미디어 센터용 그래픽 프레임 버퍼의 논리적 표현(300)을 도시한다. 도 3에 도시된 바와 같이, 그래픽 평면들 G1은 그래픽 프레임 버퍼(206)에 기억될 수 있다. RGBA 그래픽 평면들 G1은 논리적인 2차원 주소 공간 (x/y)(312)에서 그래픽 프레임 버퍼(206) 내에 조직될 수 있다. 예를 들어, 논리적 표현(300)은 주소 공간(312)의 한 파트에 기억된 블록들(302 및 304)의 제1 집합 및 주소 공간(312)의 상이한 파트의 블록들(306, 308 및 310)의 제2 집합을 도시한다. 블록들의 제1 및 제2 집합들은 상이한 새로 고침 빈도 도메인들에서 유사한 그래픽 평면들이 함께 그룹화되도록 구성된 상이한 그래픽 평면들을 나타낼 수 있다. 예를 들어, 블록들(302 및 304)은 HDTV 그래픽 평면들을 나타낼 수 있다. HDTV 그래픽 평면들은 1920 × 1080 또는 1280 × 720 픽셀 블록을 각각 포함할 수 있다. HDTV 그래픽 평면들은 주소 공간(312)의 24Hz의 제1 새로 고침 빈도 도메인에 함께 기억될 수 있다. 다른 일례에서, 블록들(306, 308 및 310)은 SDTV 그래픽 평면들을 나타낼 수 있다. SDTV 그래픽 평면들은 720 × 480 픽셀 블록을 각각 포함할 수 있다. SDTV 그래픽 평면들은 주소 공간(312)의 60 Hz의 제2 새로 고침 빈도 도메인에 함께 기억될 수 있다. 제1 새로 고침 빈도 도메인 및 제2 새로 고침 빈도 도메인이 반드시 상이한 새로 고침 빈도들을 사용할 필요는 없으며 하나의 경우에 소정의 구현을 위해 동일한 새로 고침 빈도를 사용할 수 있음을 알 수 있다. 효율성을 위해, 비사용 픽셀들의 전송 가능성을 감소시키기 위해 사각 영역들을 생성하도록 요구될 수 있다. 이러한 값들은 일례로만 사용되는 것으로, 실시예의 범위를 제한함을 의미하는 것이 아님을 알 수 있다.
일 실시예에서, 각각의 그래픽 평면 G1에 대한 RGBA 데이터는 래스터 주사 기술을 사용해서 그래픽 프레임 버퍼(206)의 주소 공간(312) 밖으로 전송될 수 있다. 래스터 주사 기술은 스캔 포인트 A 및 B에 의해 표시된 바와 같이 좌에서 우로 또한 위에서 아래로 RGBA 데이터를 검색한다. 전송 동작은 도 4 내지 도 6을 참조해서 보다 상세히 기술될 수 있다.
일 실시예에서, 예를 들어, 비디오 프로세싱 서브시스템(226)은 비디오 프로세서(208), 튜너들(1-N) 및 비디오 프로세서 프레임 버퍼(220)를 포함할 수 있다. 비디오 프로세싱 서브시스템(226)은 로컬 텔레비젼(214) 및 원격 텔레비젼(218)과 같은 다수의 디스플레이 모듈들을 더 포함할 수 있다. 본 명세서에서 사용되는 "로컬 텔레비젼"이라는 용어는 미디어 센터(200)와 함께 배치된 디스플레이 모듈과 관련될 수 있다. 본 명세서에서 사용되는 "원격 텔레비젼"이라는 용어는 미디어 센터(200)로부터 원격으로 위치한 디스플레이 모듈을 지칭할 수 있다. 원격 텔레비젼(218)은 변조기들(216)을 경유하여 비디오 프로세서(208)로부터의 신호들을 수신할 수 있다. 대안으로, 비디오 프로세서(208)로부터의 신호들은 변조기들(216) 없이 예를 들어, LAN(Local Area Network)을 통해 원격 텔레비젼(218)에 송신될 수 있다. 비디오 프로세서(208)는 비디오 경로(210), 디코더(212) 및 블렌딩 모듈(230)을 포함할 수 있다.
일 실시예에서, 비디오 프로세서(208)는 비디오 디코더(212)를 포함할 수 있다. 비디오 프로세서(208)는 튜너들(1-N)을 경유하여 비디오 소스(102)로부터 비디오 정보를 수신할 수 있다. 디코더(212)는 비디오 평면들 V1로 비디오 정보를 디코드할 수 있다. 각각의 비디오 평면은 RGB 성분들을 사용해서 표현된 비디오 이미지를 포함할 수 있다. 비디오 프로세서(208)는 비디오 프로세서 프레임 버퍼(220) 내에 비디오 평면들을 저장할 수 있다.
일 실시예에서, 비디오 프로세서(208)는 블렌딩 모듈(230)을 포함할 수 있다. 블렌딩 모듈(230)은 알파 평면들 A1에 따라 그래픽 평면들 G1과 비디오 평면들 V1의 알파 블렌딩을 실행하도록 구성될 수 있다. 알파 블렌딩은 텔레비젼에서 디스플레이되는 그래픽과 같은 투명하거나 반투명한 물체에 대한 투명도 정보를 제공하는데 사용되는 기술이다. 알파 블렌딩에서, 디스플레이 모듈에서 보여지는 픽셀의 결과적인 컬러는 전경 컬러 및 배경 컬러의 결합이다. 전경 컬러는 반투명 물체의 컬러, 예를 들어, 그래픽 평면 G1을 나타낼 수 있다. 배경 컬러는 반투명 물체 아래에 있는 비디오 정보, 예를 들어, 비디오 평면 V1일 수 있다. 알파 평면은 비디오 평면과 그래픽 평면을 블렌딩하기 위해 알파 성분들을 포함할 수 있다. 알파 값들은 픽셀 단위로 그래픽 평면과 비디오 평면으로부터의 컬러들을 블렌딩해서, 정보의 블렌딩된 프레임을 형성하는데 사용될 수 있다. 정보의 블렌딩된 프레임은 그 후 예를 들어, 로컬 텔레비젼(214) 또는 원격 텔레비젼(218)과 같은 디스플레이 모듈에서 디스플레이될 수 있다.
일 실시예에서, 그래픽 프로세싱 서브시스템(224)은 임의의 그래픽 변경 또는 애니케이션들을 제공하는데 필요한 임의의 원하는 프레임 레이트로 그래픽을 렌더링할 수 있다. 비디오 프레임 버퍼는 통상 그래픽 프레임 레이트보다 높은 텔레비젼 비디오 새로 고침 빈도로 통합될 수 있다.
일 실시예에서, 그래픽 프로세싱 서브시스템(224)은 버스(228)를 통해 비디오 프로세싱 서브시스템(226)으로 그래픽 평면들 G1 및 알파 평면들 A1을 송신할 수 있다. 서브시스템들은 모두 버스(228)를 사용해서 버스 프로토콜을 구현하기 위해 버스 인터페이스와 함께 구성될 수 있다. 일 실시예에서, 예를 들어, 버스(228)는 본 명세서에서 기술된 원리들을 사용해서 변경되는 바와 같이, 인텔® 코포레이션에 의해 개발된 디지털 비디오 출력(DVO) 포트 하드웨어 외부 디자인 명세서(Eds) Ver 2.0 명세서에 따라 동작하는 그래픽 오버레이 전송 버스일 수 있다.
동작시, 그래픽 프로세싱 서브시스템(224) 및 비디오 프로세싱 서브시스템(226)은 다수의 비디오 평면들 V1과 다수의 그래픽 평면들 G1을 블렌딩하도록 통합될 수 있는데, 비디오 평면들은 상이한 디스플레이 포맷들을 사용하는 디스플레이 모듈들을 위한 비디오 정보를 포함한다. 그래픽 평면들은 상이한 디스플레이 포맷들에 대응하도록 생성될 수 있으며, 소정의 디스플레이 포맷 내에서 다양한 크기들을 가질 수 있다. 그래픽 평면들 G1 및 비디오 평면들 V1은 블렌딩된 프레임들을 형성하기 위해 블렌딩될 수 있으며, 블렌딩된 프레임은 목적지 디스플레이 모듈을 위한 적합한 디스플레이 포맷으로 되어 있다. 비디오 경로(210)는 블렌딩된 프레임들을 수신해서, 로컬 텔레비젼(214) 및 원격 텔레비젼(218)과 같은 적합한 디스플레이 모듈에 블렌딩된 프레임들을 송신할 수 있다.
미디어 센터(200)는 적어도 두개의 모드들로 블렌딩 동작들을 실행할 수 있다. 제1 모드는 "실시간 블렌딩(real-time blending)"이라 할 수 있다. 제2 모드는 "카피-블렌딩(copy-blending)"이라 할 수 있다. 실시간 블렌딩이 사용되면, 각각의 새로 고침 빈도는 하나의 비디오 클록 및 버스를 요구할 수 있다. 일반 새로 고침 빈도들을 갖는 디스플레이 모듈들은 동일한 비디오 클록 및 데이터 버스 인터페이스를 공유할 수 있다. 이러한 두개의 모드들은 도 3 내지 도 6을 참조해서 보다 상세히 기술될 수 있다.
시스템들(100 및 200)의 동작들은 도 4 내지 도 6 및 첨부 일례들을 참조해서 더 기술될 수 있다. 본 명세서에서 제공된 도 4 내지 도 6 중 하나 이상의 도면들이 특정 프로그래밍 로직을 포함할 수 있지만, 프로그래밍 로직은 단지 본 명세서에 기술된 일반 기능이 구현될 수 있는 방법의 예를 제공한다는 것을 알 수 있다. 또한, 소정의 프로그래밍 로직은 달리 지시되지 않는 한 반드시 제공된 순서로 실행될 필요는 없다. 또한, 소정의 프로그래밍 로직이 상술된 모듈들로 구현되는 것으로 본 명세서에 기술될 수 있지만, 프로그래밍 로직이 시스템 내의 임의의 장소에서 구현될 수 있으며 이 또일 실시예들의 범위 내에 속함을 알 수 있다.
도 4는 일 실시예에 따른 미디어 센터에 대한 프로그래밍 로직을 도시한다. 도 4는 프로그래밍 로직(400)을 도시한다. 프로그래밍 로직(400)에 도시된 바와 같이, 제1 및 제2 비디오 평면은 블록(402)에서 수신될 수 있다. 수신된 비디오 평면들은 예를 들어, 비디오 프로세서 프레임 버퍼에 기억될 수 있다. 블록(404)에서 제1 및 제2 비디오 평면들과 각각 블렌딩되는 제1 및 제2 오버레이 평면이 수신될 수 있다. 수신된 오버레이 평면들은 그래픽 프레임 버퍼에 기억될 수 있다. 제1 비디오 평면은 블록(406)에서 제1 블렌딩된 프레임을 형성하도록 제1 오버레이 평면과 블렌딩될 수 있다. 제2 비디오 평면은 또한 블록(406)에서 제2 블렌딩된 프레임을 형성하도록 제2 오버레이 평면과 블렌딩될 수 있다. 제1 블렌딩된 프레임은 블록(408)에서 제1 프레임 포맷을 갖는 제1 디스플레이 모듈에 송신될 수 있다. 제2 블렌딩된 프레임은 또한 블록(408)에서 제2 프레임 포맷을 갖는 제2 디스플레이 모듈에 송신될 수 있다.
일 실시예에서, 블렌딩 동작은 카피-블렌딩 기술을 사용해서 발생할 수 있다. 예를 들어, 오버레이 평면들은 그래픽 프레임 버퍼(206)로부터 비디오 프로세서 프레임 버퍼(220)로 송신될 수 있다. 카피 블렌딩에서, 그래픽 프레임 버퍼(206)로부터 비디오 프로세서 프레임 버퍼(220)로의 카피는 최소 레이트를 사용해서 그래픽 프레임 버퍼(206)의 메모리 대역폭 필요성을 최적화하는 소정의 구현에 필요한 임의의 레이트로 발생할 수 있다. 그러나, 비디오 프로세서 프레임 버퍼(220)는 보다 높은 대역폭을 요구할 수 있는, 로컬 텔레비젼(214) 또는 원격 텔레비젼(216)의 새로 고침 빈도에 따라 블렌딩 모듈(230)에 정보를 송신할 필요가 있을 수 있다. 예를 들어, 오버레이 평면들은 디스플레이 모듈의 수직 동기화 신호의 몇몇 배수에 따라 송신될 수 있다. 오버레이 평면들은 비디오 프로세서 프레임 버퍼(220)에 기억될 수 있다. 오버레이 평면들은 그 후 블렌딩 동작들을 실행하기 위해 비디오 프로세서 프레임 버퍼(220)로부터 검색될 수 있다.
일 실시예에서, 오버레이 평면들은 수직 동기화 신호를 사용해서 그래픽 프레임 버퍼(206)로부터 비디오 프로세서 프레임 버퍼(220)로 송신될 수 있다. 수직 동기화 신호의 상승 에지 또는 하강 에지에서, 제1 컨트롤 블록이 버스(228)를 통해 그래픽 프레임 버퍼(206)로부터 비디오 프로세서 프레임 버퍼(220)로 송신될 수 있다. 제1 컨트롤 블록은 제1 오버레이 평면에 대한 치수들의 집합을 가질 수 있다. 다음 천이시, 제1 오버레이 평면에 대한 데이터를 포함하는 제1 콘텐츠 블록이 버스(228)를 통해 송신될 수 있다. 다른 천이시, 제2 컨트롤 블록이 버스(228)를 통해 송신될 수 있다. 제2 컨트롤 블록은 제2 오버레이 평면에 대한 치수들의 집합을 가질 수 있다. 다른 천이시, 제2 오버레이 평면에 대한 데이터를 포함하는 제2 콘텐츠 블록이 버스(228)를 통해 송신될 수 있다.
일 실시예에서, 하나의 오버레이 평면은 다른 오버레이 평면보다 작은 치수를 가질 수 있다. 예를 들어, 제1 오버레이 평면은 HDTV 텔레비젼을 위한 것일 수 있으며, 제2 오버레이 평면은 SDTV를 위한 것일 수 있다. 그 결과, 일 실시예는 다른 컨트롤 블록을 송신하기 전에 하나 이상의 콘텐츠 블록들 내의 다수의 제2 오버레이 프레임들을 함께 송신할 수 있다. 예를 들어, 다수의 제2 오버레이 평면들은 수신되어 그래픽 프레임 버퍼(206)에 기억될 수 있다. 전송을 위해 준비될 때, 제2 오버레이 평면들은 그래픽 프레임 버퍼(206)로부터 검색되고, 제2 콘텐츠 블록으로 형성되어, 버스(228)를 통해 송신될 수 있다. 이러한 방식으로, 다수의 제2 오버레이 평면들은 제1 오버레이 평면들 중 하나와 동일한 시간 간격으로 전송될 수 있다.
일 실시예에서, 블렌딩 동작은 실시간 블렌딩 기술을 사용해서 발생할 수 있다. 예를 들어, 제1 오버레이 평면들의 제1 집합 및 제2 오버레이 평면들의 제2 집합이 수신될 수 있다. 제1 집합은 그래픽 프레임 버퍼(206)의 제1 새로 고침 빈도 도메인 내에 기억될 수 있다. 제2 집합은 그래픽 프레임 버퍼(206)의 제2 새로 고침 빈도 도메인 내에 기억될 수 있다. 오버레이 평면들의 제1 집합은 수평 및 수직 동기화 신호들에 따라 블렌딩 모듈(230)에 송신될 수 있으며, 제2 집합은 수평 및 수직 동기화 신호들에 따라 블렌딩 모듈(230)에 송신될 수 있다. 블렌딩 모듈(230)은 오버레이 평면들의 제1 집합으로부터의 오버레이 평면과 제1 비디오 평면을 블렌딩하여 제1 블렌딩된 프레임을 형성하고, 오버레이 평면들의 제2 집합으로부터의 오버레이 평면과 제2 비디오 평면을 블렌딩하여 제2 블렌딩된 프레임을 형성할 수 있다. 블렌딩은 제1 및 제2 집합들이 블렌딩 모듈(230)에서 수신되는 대로 실시간으로 발생할 수 있다.
일 실시예에서, 오버레이 평면들의 제1 및 제2 집합들이 수평 및 수직 동기화 신호들에 따라 블렌딩 모듈(230)로 송신될 수 있다. 이는 수직 동기화 신호가 상태를 변경할 때 제1 집합에 대한 치수들의 집합을 갖는 제1 컨트롤 블록을 송신함으로써 발생할 수 있다. 다수의 콘텐츠 블록들이 수평 동기화 신호에 따라 컨트롤 블록 후에 송신될 수 있는데, 각각의 콘텐츠 블록은 제1 집합의 라인을 갖는다. 이러한 동작은 오버레이 평면들의 제2 집합을 송신할 때 반복될 수 있다.
시스템(100 및 200)의 동작 및 도 4에 도시된 프로그래밍 로직은 일례로서 더 잘 이해될 수 있다. 미디어 센터(200)가 상이한 디스플레이 포맷들을 사용하는 다수의 텔레비젼들을 지원한다고 가정하자. 또한, 미디어 센터(200)가 상이한 디스플레이 포맷들에 대한 다수의 그래픽 오버레이들을 지원한다고 가정하자. 미디어 센터(200)는 관련 핀 카운트를 감소시킬 뿐만 아니라 버스 성능을 향상시키기 위해 버스 프로토콜을 구현하는 버스 인터페이스를 사용할 수 있다. 버스 인터페이스는 미디어 센터(200)의 적어도 두개의 블렌딩 모드들을 지원하여 동작하도록 구성될 수 있다. 블렌딩 모드들은 카피 블렌딩 및 실시간 블렌딩을 포함할 수 있다.
미디어 센터(200)가 카피 블렌딩 모드에서 동작하도록 구성되었다고 가정하자. RGBA 픽셀들을 포함하는 그래픽 평면들은 그래픽 프레임 버퍼(206)에 대한 대역폭 요구를 감소하도록 설계된 레이트, 예를 들어, 20 Hz로 전송된다. 그래픽 평면들은 그래픽 프레임 버퍼(206)로부터 비디오 프로세서 프레임 버퍼(220)로 카피될 수 있다. 비디오 프로세서(208)는 60Hz의 새로 고침 빈도로 동작하는 텔레비젼 스크린을 재생하기 위해 비디오 프로세서 프레임 버퍼(220)로부터 카피된 그래픽 평면들을 판독할 수 있다. 그래픽 평면들은 버스(228)와 같은 단일 버스를 통해 전송될 수 있으며, 버스(228)용 클록이 그래픽 프로세싱 서브시스템(224)에 의해 구동될 수 있다.
도 5는 일 실시예에 따라 그래픽 버스를 통해 그래픽 정보를 전달하기 위한 제1 타이밍도를 도시한다. 도 5는 카피 블렌딩 모드에서 그래픽 프레임 버퍼(206)로부터의 그래픽 평면들을 비디오 프로세서 프레임 버퍼(220)로 전달하기 위한 타이밍도(500)를 도시한다. 동작의 카피 블렌딩 모드에서, 제1 새로 고침 빈도 도메인 내에 기억된 블록들의 치수 속성들은 수직 동기화(VSYNC)(510)에 따라 송신된다. 예를 들어, HDTV 그래픽 평면들은 주소 공간(312)의 제1 새로 고침 빈도 도메인 내에 기억된다. 컨트롤 블록(502)은 이하의 콘텐츠 블록(504)이 1920의 소스 폭, 1080의 소스 높이, 및 0으로 설정된 버퍼 선택 필드를 갖는 HDTV 그래픽 평면 데이터를 포함함을 나타내는 컨트롤 정보를 갖도록 구성될 수 있다. 본 일례의 버퍼 선택 필드는 블록들(302 및 304)을 지칭할 수 있다. 컨트롤 블록(502)은 비디오 프로세싱 서브시스템(226)이 어떤 타입의 데이터가 버스(228)를 통해 전달되는지를 식별하고, 비디오 프로세서 프레임 버퍼(220) 내의 수신된 그래픽 평면들을 기억하는 장소를 결정하도록 할 수 있다. 컨트롤 블록(502)이 송신되면, 제1 새로 고침 빈도 도메인(예를 들어, 블록들(302 및 304))으로부터의 HDTV 그래픽 평면 데이터는 콘텐츠 블록(504)를 사용해서 송신될 수 있다. HDTV 그래픽 평면들이 버스(228)를 통해 송신되면, 컨트롤 블록(506)은 VSYNC(510)의 다른 클록 천이시 송신될 수 있다. 컨트롤 블록(504)은 이하의 콘텐츠 블록(508)이 720의 소스 폭, 1440의 소스 높이, 및 블록들(306, 308, 310)을 나타내는 1로 설정된 버퍼 선택 필드를 갖는 SDTV 그래픽 평면 데이터를 포함함을 나타내는 컨트롤 정보를 갖도록 구성될 수 있다. 컨트롤 블록(506)이 송신되면, 제2 새로 고침 빈도 도메인으로부터의 SDTV 그래픽 평면 데이터는 콘텐츠 블록(508)을 사용해서 송신될 수 있다. 각각 720×480 치수를 갖는 3개의 SDTV 그래픽 평면들은 버스(228)를 통한 전송을 위해 720(x)×1440(y)로 구성될 수 있다. 도 5에 도시된 바와 같이, 비디오 및 그래픽 프레임 레이트들이 아키텍처에서 분리되기 때문에 전송들을 위해 단일 버스(228)를 사용할 수 있다. 또한, VSYNC(510)을 사용해서 다양한 새로 고침 빈도 도메인들 사이에서 전환할 수 있다.
콘텐츠 블록(504)은 HDTV 그래픽 평면 데이터의 1개의 블록을 송신하는데 사용될 수 있는 반면, 콘텐츠 블록(508)은 SDTV 그래픽 평면 데이터의 3개의 블록들을 송신하는데 사용될 수 있음을 주목할 만하다. 그러나, 상기 숫자들은 소정의 구현에 사용되는 디스플레이 모듈들의 디스플레이 포맷들 및 새로 고침 빈도들과 같은 다수의 요인들에 따라 변할 수 있음을 알 수 있다.
미디어 센터(200)가 실시간 블렌딩 모드에서 동작하도록 구성되었다고 가정하자. 그래픽 프레임 버퍼(206)에 기억된 그래픽 평면들은 텔레비젼 스크린의 비디오 새로 고침 빈도와 동기화되도록 설계된 레이트로 비디오 프로세싱 서브시스템(226)으로 전송될 수 있다. 그래픽 평면들은 예를 들어, 60Hz로 동작하는 텔레비젼 스크린을 재생하기 위해 필요한 때 그래픽 프레임 버퍼(206)로부터 비디오 프로세싱 서브시스템(226)의 블렌딩 모듈(230)로 직접 전송될 수 있다. 실시간 블렌딩 모드는 비디오 프로세서 프레임 버퍼(220)에 대한 대역폭 요구를 감소시킬 수 있다. 하나의 새로 고침 빈도 도메인의 모든 전송들을 위한 버스(228)의 공유로 인해, 라인 버퍼가 비디오 프로세싱 서브시스템(226)에 의해 요구될 수 있음을 주목할 만하다.
도 6은 일 실시예에 따라 그래픽 버스를 통해 그래픽 정보를 전달하기 위한 제2 타이밍도를 도시한다. 도 6은 실시간 블렌딩 모드에서 그래픽 프레임 버퍼(206)로부터의 그래픽 평면들을 비디오 프로세서 프레임 버퍼(220)로 전달하기 위한 타이밍도(600)를 도시한다. 실시간 블렌딩 모드에서, 그래픽 평면들은 카피 블렌딩 모드와 유사한 방식으로 구성되어 그래픽 프레임 버퍼(206) 내에 기억될 수 있지만, 데이터 전송 동작은 상이할 수 있다. 컨트롤 블록(602)은 새로 고침 빈도 도메인의 치수들로 구성될 수 있다. 예를 들어, 컨트롤 블록(602)은 이하의 콘텐츠 블록들이 1920의 소스 폭, 480의 소스 높이, 및 1로 설정된 버퍼 선택 필드를 갖는 SDTV 그래픽 평면 데이터를 포함함을 나타내는 컨트롤 정보를 갖도록 구성될 수 있다. 컨트롤 블록(602)은 VSYNC 신호(614)에 따라 버스(228)를 통해 송신될 수 있다. 컨트롤 블록(602)이 송신되면, 콘텐츠 블록들(604, 606, 608, 610, 612)이 HSYNC 신호(616)에 따라 송신될 수 있다. HSYNC(616)에 따라, SDTV 그래픽 오버레이들(논리 공간에서 서로 수평으로 다음에 위치함) 각각의 라인이 전송된다. 도 3에 도시된 바와 같이, 제2 새로 고침 빈도 영역은 3개의 SDTV 그래픽 평면들을 포함하는데, 각각은 640×480 치수를 가지기 때문에, 결과적으로 1920×480 그룹 영역이 된다. 모두 1920(3×640)개의 픽셀들이 각각의 HSYNC 펄스 간에 송신된다. 비디오 프로세서(208)는 상기 전송을 기억하기 위해 3개의 라인 버퍼들을 가질 수 있다. 개별 HSYNC 및 RGBA 인터페이스는 상이한 새로 고침 빈도들을 갖는 스크린들을 지원하는데 필요할 수 있다. 상술된 실시간 블렌딩 전송 동작들은 예를 들어, 블록(302 및 304)으로 표시된 HDTV 그래픽 평면들을 포함해서, 그래픽 프레임 버퍼(206)에 기억된 모든 새로 고침 빈도 도메인들에 적용될 수 있다.
실시예들은 원하는 계산 속도, 전력 레벨들, 열 허용 오차들, 프로세싱 사이클 버짓, 입력 데이터 레이트, 출력 데이터 레이트, 메모리 리소스들, 데이터 버스 속도 및 다른 성능 제약 사항들과 같은 임의의 수의 요인들에 따라 변할 수 있는 아키텍처를 사용해서 구현될 수 있다. 예를 들어, 일 실시예는 프로세서에 의해 실행되는 소프트웨어를 사용해서 구현될 수 있다. 프로세서는 예를 들어, 인텔® 코포레이션에 의해 만들어진 프로세서와 같은 범용 또는 전용 프로세서일 수 있다. 소프트웨어는 컴퓨터 프로그램 코드 세그먼트들, 프로그래밍 로직, 명령 또는 데이터를 포함할 수 있다. 소프트웨어는 기계, 컴퓨터 또는 다른 프로세싱 시스템에 의해 액세스 가능한 매체에 기억될 수 있다. 수용가능한 매체들의 일례들은 ROM(read-only memory), RAM(random-access memory), PROM(Programmable ROM), EPROM(Erasable PROM), 자기 디스크, 광 디스크 등과 같은 컴퓨터 판독 가능 매체들을 포함할 수 있다. 일 실시예에서, 매체는 프로세서에 의해 실행되기 전에 인스톨러에 의해 컴파일 또는 설치되어야만 하는 명령들 뿐만 아니라 압축 및/또는 암호화 포맷으로 프로그래밍 명령들을 기억할 수 있다. 다른 일례에서, 일 실시예는 ASIC(Application Specific Integrated Circuit), PLD(Programmable Logic Device) 또는 DSP(Digital Signal Processor) 및 수반하는 하드웨어 구조들과 같은 전용 하드웨어로서 구현될 수 있다. 또 다른 일례에서, 일 실시예는 프로그래밍된 범용 컴퓨터 컴포넌트들 및 맞춤 하드웨어 컴포넌트들의 임의의 결합으로 구현될 수 있다. 본 실시예들은 본 컨텍스트로 제한되지 않는다.
본 발명의 실시예들의 특정 기능들이 본 명세서에 기술되었지만, 이제 본 기술 분야에 숙련된 자들에게 다수의 변경들, 치환들, 변화들 및 등가물들이 일어날 것이다. 따라서, 첨부된 청구항들은 본 발명의 실시예들의 원리 내에 속한 모든 그러한 변경 및 변화를 포함함을 알 것이다.

Claims (20)

  1. 제1 및 제2 비디오 평면을 수신하는 단계;
    상기 제1 및 제2 비디오 평면들과 각각 블렌딩되는 제1 및 제2 오버레이 평면을 수신하는 단계;
    상기 제1 비디오 평면을 상기 제1 오버레이 평면과 블렌딩하여 제1 블렌딩된 프레임을 형성하고, 상기 제2 비디오 평면을 상기 제2 오버레이 평면과 블렌딩하여 제2 블렌딩된 프레임을 형성하는 단계; 및
    단일 버스를 통해, 제1 프레임 포맷을 갖는 제1 디스플레이 모듈로 상기 제1 블렌딩된 프레임을 송신하고, 제2 프레임 포맷을 갖는 제2 디스플레이 모듈로 상기 제2 블렌딩된 프레임을 송신하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 블렌딩 단계는,
    상기 비디오 평면들을 비디오 프로세서 프레임 버퍼에 기억시키는 단계; 및
    상기 오버레이 평면들을 그래픽 프레임 버퍼에 기억시키는 단계
    를 포함하는 방법.
  3. 제2항에 있어서,
    상기 블렌딩 단계는,
    수직 동기화 신호에 따라 상기 오버레이 평면들을 상기 비디오 프로세서 프레임 버퍼에 송신하는 단계;
    상기 비디오 프로세서 프레임 버퍼에 상기 오버레이 평면들을 기억시키는 단계; 및
    상기 블렌딩을 실행하기 위해 상기 비디오 프로세서 프레임 버퍼로부터 상기 비디오 평면들 및 상기 오버레이 평면들을 검색하는 단계
    를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 오버레이 평면들을 송신하는 단계는,
    상기 제1 오버레이 평면에 대한 치수들의 집합을 갖는 제1 컨트롤 블록을 송신하는 단계;
    상기 제1 오버레이 평면을 갖는 제1 콘텐츠 블록을 송신하는 단계;
    상기 제2 오버레이 평면에 대한 치수들의 집합을 갖는 제2 컨트롤 블록을 송신하는 단계; 및
    상기 제2 오버레이 평면을 갖는 제2 콘텐츠 블록을 송신하는 단계
    를 포함하는 방법.
  5. 제4항에 있어서,
    다수의 제2 오버레이 평면을 수신하는 단계; 및
    상기 다수의 제2 오버레이 평면을 상기 그래픽 프레임 버퍼에 기억시키는 단계
    를 더 포함하는 방법.
  6. 제5항에 있어서,
    상기 제2 콘텐츠 블록을 송신하는 단계는,
    상기 다수의 제2 오버레이 평면을 검색하는 단계;
    상기 제2 콘텐츠 블록 내에 상기 다수의 제2 오버레이 평면을 형성하는 단계; 및
    상기 다수의 제2 오버레이 평면을 갖는 상기 제2 콘텐츠 블록을 송신하는 단계
    를 포함하는 방법.
  7. 제2항에 있어서,
    상기 블렌딩하는 단계는,
    제1 오버레이 평면들의 제1 집합 및 제2 오버레이 평면들의 제2 집합을 수신하는 단계;
    제1 새로 고침 빈도(refresh rate) 도메인의 상기 제1 집합을 상기 그래픽 프레임 버퍼에 기억시키고, 제2 새로 고침 빈도 도메인의 상기 제2 집합을 상기 그 래픽 프레임 버퍼에 기억시키는 단계;
    수평 및 수직 동기화 신호들에 따라 블렌딩 모듈에 상기 제1 오버레이 평면들을 송신하는 단계;
    상기 수평 및 수직 동기화 신호들에 따라 상기 블렌딩 모듈에 상기 제2 오버레이 평면들을 송신하는 단계; 및
    상기 제1 집합으로부터의 오버레이 평면과 상기 제1 비디오 평면을 블렌딩하여 상기 제1 블렌딩된 프레임을 형성하고, 상기 제2 집합으로부터의 오버레이 평면과 상기 제2 비디오 평면을 블렌딩하여 상기 제2 블렌딩된 프레임을 형성하는 단계를 더 포함하며,
    상기 제1 및 제2 집합들은 상기 블렌딩 모듈에서 수신되는 방법.
  8. 제7항에 있어서,
    상기 제1 집합을 송신하는 단계는,
    상기 수직 동기화 신호가 상태를 변경할 때 상기 제1 집합에 대한 치수들의 집합을 갖는 제1 컨트롤 블록을 송신하는 단계; 및
    상기 수평 동기화 신호에 따라 다수의 콘텐츠 블록을 송신하는 단계
    를 포함하며,
    각각의 콘텐츠 블록은 상기 제1 집합의 라인을 갖는 방법.
  9. 제7항에 있어서,
    상기 제2 집합을 송신하는 단계는,
    상기 수직 동기화 신호가 상태를 변경할 때 상기 제2 집합에 대한 치수들의 집합을 갖는 제1 컨트롤 블록을 송신하는 단계; 및
    상기 수평 동기화 신호에 따라 다수의 콘텐츠 블록을 송신하는 단계
    를 포함하며,
    각각의 콘텐츠 블록은 상기 제2 집합의 라인을 갖는 방법.
  10. 제1 및 제2 비디오 평면을 수신하는 비디오 프로세서;
    상기 비디오 프로세서에 접속하며, 상기 제1 및 제2 비디오 평면들과 각각 블렌딩되는 제1 및 제2 오버레이 평면들을 수신하고, 단일 버스를 통해 상기 비디오 프로세서에 상기 제1 및 제2 오버레이 평면들을 송신하는 그래픽 프로세서를 포함하고;
    상기 비디오 프로세서는 블렌딩 모듈을 가지며, 상기 블렌딩 모듈은 상기 제1 비디오 평면을 상기 제1 오버레이 평면과 블렌딩하여 제1 블렌딩된 프레임을 형성하고, 상기 제2 비디오 평면을 상기 제2 오버레이 평면과 블렌딩하여 제2 블렌딩된 프레임을 형성하고;
    상기 비디오 프로세서는 제1 프레임 포맷을 갖는 제1 디스플레이 모듈로 상기 제1 블렌딩된 프레임을 송신하고, 제2 프레임 포맷을 갖는 제2 디스플레이 모듈로 상기 제2 블렌딩된 프레임을 송신하는 장치.
  11. 제10항에 있어서,
    상기 비디오 프로세서에 접속하여 상기 비디오 평면들을 기억하는 비디오 프로세서 프레임 버퍼; 및
    상기 그래픽 프로세서에 접속하여 상기 오버레이 평면들을 기억하는 그래픽 프레임 버퍼
    를 더 포함하는 장치.
  12. 제11항에 있어서,
    상기 비디오 프로세서 및 상기 그래픽 프로세서를 접속하는 버스를 더 포함하며;
    상기 그래픽 프로세서는 수직 동기화 신호에 따라 상기 버스를 통해 상기 오버레이 평면들을 상기 비디오 프로세서 프레임 버퍼에 송신하고;
    상기 비디오 프로세서는 상기 버스를 통해 상기 그래픽 프로세서로부터 상기 오버레이 평면들을 수신하고 상기 오버레이 평면들을 상기 비디오 프로세서 프레임 버퍼에 기억시키며;
    상기 블렌딩 모듈은 상기 블렌딩을 실행하기 위해 상기 비디오 프로세서 프레임 버퍼로부터 상기 비디오 평면들 및 상기 오버레이 평면들을 수신하는 장치.
  13. 제12항에 있어서,
    상기 버스는 그래픽 오버레이 전송 버스이고, 상기 오버레이 평면들은 DVO 규격에 따라 상기 그래픽 오버레이 전송 버스를 통해 전달되는 장치.
  14. 제11항에 있어서,
    상기 비디오 프로세서 및 상기 그래픽 프로세서를 접속하는 버스를 더 포함하며;
    상기 그래픽 프로세서는 수평 및 수직 동기화 신호들에 따라 상기 버스를 통해 상기 오버레이 평면들을 상기 블렌딩 모듈로 송신하고;
    상기 블렌딩 모듈은 상기 버스로부터 상기 오버레이 평면들을 수신하고 상기 비디오 프로세서 프레임 버퍼로부터 상기 비디오 평면들을 수신하고, 상기 오버레이 평면들이 수신되면 상기 제1 및 제2 블렌딩된 프레임들을 형성하는 장치.
  15. 제11항에 있어서,
    상기 그래픽 프로세서는 제1 오버레이 평면들의 제1 집합 및 제2 오버레이 평면들의 제2 집합을 수신하고, 상기 그래픽 프로세서는 상기 그래픽 프레임 버퍼에 제1 새로 고침 빈도 도메인의 상기 제1 집합을 기억시키고 상기 그래픽 프레임 버퍼에 제2 새로 고침 빈도 도메인의 상기 제2 집합을 기억시키며, 상기 그래픽 프로세서는 수평 및 수직 동기화 신호들에 따라 상기 버스를 통해 상기 블렌딩 모듈로 상기 제1 오버레이 평면들을 송신하는 장치.
  16. 제1 및 제2 비디오 평면들을 송신하는 비디오 소스 모듈;
    상기 제1 및 제2 비디오 평면들과 각각 블렌딩되는 제1 및 제2 오버레이 평면들을 송신하는 그래픽 소스 모듈;
    상기 비디오 소스 모듈 및 상기 그래픽 소스 모듈에 접속하고, 상기 비디오 평면들을 수신하는 비디오 프로세싱 서브시스템 및 상기 그래픽 평면들을 수신하는 그래픽 프로세싱 서브시스템을 포함하는 미디어 센터 - 상기 그래픽 프로세싱 서브시스템은 단일 버스를 통해 상기 그래픽 평면들을 상기 비디오 프로세싱 서브시스템으로 송신하고, 상기 비디오 프로세싱 서브시스템은 상기 제1 비디오 평면을 상기 제1 오버레이 평면과 블렌딩하여 제1 블렌딩된 프레임을 형성하고, 상기 제2 비디오 평면을 상기 제2 오버레이 평면과 블렌딩하여 제2 블렌딩된 프레임을 형성함 - ; 및
    상기 제1 블렌딩된 프레임을 수신 및 디스플레이하는 제1 디스플레이 모듈과, 상기 제2 블렌딩된 프레임을 수신 및 디스플레이하는 제2 디스플레이 모듈을 갖는 다수의 디스플레이 모듈
    을 포함하는 시스템.
  17. 제16항에 있어서,
    상기 디스플레이 모듈들은 상이한 디스플레이 포맷들을 갖는 시스템.
  18. 제16항에 있어서,
    상기 미디어 센터는,
    상기 제1 및 제2 비디오 평면들을 수신하는 비디오 프로세서; 및
    상기 비디오 프로세서에 접속하며, 상기 제1 및 제2 비디오 평면들과 각각 블렌딩되는 상기 제1 및 제2 오버레이 평면들을 수신하는 그래픽 프로세서를 포함하고;
    상기 비디오 프로세서는 블렌딩 모듈을 가지며, 상기 블렌딩 모듈은 상기 제1 비디오 평면을 상기 제1 오버레이 평면과 블렌딩하여 상기 제1 블렌딩된 프레임을 형성하고, 상기 제2 비디오 평면을 상기 제2 오버레이 평면과 블렌딩하여 상기 제2 블렌딩된 프레임을 형성하는 시스템.
  19. 제18항에 있어서,
    상기 비디오 프로세서에 접속하여 상기 비디오 평면들을 기억하는 비디오 프로세서 프레임 버퍼; 및
    상기 그래픽 프로세서에 접속하여 상기 오버레이 평면들을 기억하는 그래픽 프레임 버퍼
    를 더 포함하는 시스템.
  20. 제18항에 있어서,
    상기 비디오 프로세서 및 상기 그래픽 프로세서를 접속하는 버스를 더 포함하며, 상기 그래픽 프로세서는 상기 버스를 통해 상기 오버레이 평면들을 상기 비디오 프로세서에 송신하는 시스템.
KR1020067012685A 2003-12-24 2004-12-22 그래픽 오버레이 정보 통신 방법 및 장치 KR20060103935A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/746,424 US7535478B2 (en) 2003-12-24 2003-12-24 Method and apparatus to communicate graphics overlay information to display modules
US10/746,424 2003-12-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020087021398A Division KR101031472B1 (ko) 2003-12-24 2004-12-22 그래픽 오버레이 정보 통신 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20060103935A true KR20060103935A (ko) 2006-10-04

Family

ID=34700644

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020067012685A KR20060103935A (ko) 2003-12-24 2004-12-22 그래픽 오버레이 정보 통신 방법 및 장치
KR1020087021398A KR101031472B1 (ko) 2003-12-24 2004-12-22 그래픽 오버레이 정보 통신 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020087021398A KR101031472B1 (ko) 2003-12-24 2004-12-22 그래픽 오버레이 정보 통신 방법 및 장치

Country Status (8)

Country Link
US (1) US7535478B2 (ko)
EP (1) EP1697917A2 (ko)
JP (1) JP4633738B2 (ko)
KR (2) KR20060103935A (ko)
CN (1) CN100426340C (ko)
CA (1) CA2548189C (ko)
TW (1) TWI257248B (ko)
WO (1) WO2005064455A2 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7176848B1 (en) * 2003-04-14 2007-02-13 Ati Technologies, Inc. Method of synchronizing images on multiple display devices with different refresh rates
US8253750B1 (en) * 2004-02-14 2012-08-28 Nvidia Corporation Digital media processor
JP4737991B2 (ja) * 2005-01-04 2011-08-03 株式会社東芝 再生装置
JP4417854B2 (ja) * 2005-01-04 2010-02-17 株式会社東芝 再生装置
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
US7782274B2 (en) * 2006-06-09 2010-08-24 Cfph, Llc Folding multimedia display device
CN101971617B (zh) * 2007-12-20 2015-12-02 Ati技术无限责任公司 具有视频来源装置与视频接收装置的系统中的调整视频处理
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
US8643658B2 (en) * 2009-12-30 2014-02-04 Intel Corporation Techniques for aligning frame data
US8823721B2 (en) * 2009-12-30 2014-09-02 Intel Corporation Techniques for aligning frame data
US8836713B2 (en) * 2010-03-03 2014-09-16 Qualcomm Incorporated Driving and synchronizing multiple display panels
TWI450238B (zh) * 2010-09-21 2014-08-21 Wistron Corp 複合顯示裝置與其顯示控制方法
CN103959198B (zh) * 2011-11-30 2017-09-12 英特尔公司 降低3d工作负荷的功率
KR101369146B1 (ko) * 2012-07-16 2014-03-06 옵티시스 주식회사 영상 시스템
US10419725B2 (en) * 2013-01-10 2019-09-17 Tyco Safety Products Canada Ltd. Security system and method with modular display of information
CN104113704A (zh) * 2014-07-01 2014-10-22 深圳市欢创科技有限公司 一种游戏图像处理方法及装置
KR102491499B1 (ko) * 2016-04-05 2023-01-25 삼성전자주식회사 소모 전류를 줄이는 방법 및 전자 장치
US10726604B2 (en) 2016-06-03 2020-07-28 Apple Inc. Controlling display performance using display statistics and feedback
US10510317B2 (en) 2016-06-03 2019-12-17 Apple Inc. Controlling display performance with target presentation times
US11468915B2 (en) * 2020-10-01 2022-10-11 Nvidia Corporation Automatic video montage generation
KR20220129946A (ko) * 2021-03-17 2022-09-26 삼성전자주식회사 복수의 주사율들에 기반하여 컨텐트를 표시하는 전자 장치 및 그 동작 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0775014A (ja) * 1993-07-06 1995-03-17 Hitachi Ltd 映像表示装置、マルチ画面表示システム及び拡大処理回路
JPH07182131A (ja) * 1993-12-22 1995-07-21 Hitachi Ltd 表示制御装置における表示切替制御方法
JP2000066649A (ja) * 1998-08-24 2000-03-03 Toshiba Corp 携帯情報処理装置、及び外部表示出力の制御方法
US6326984B1 (en) * 1998-11-03 2001-12-04 Ati International Srl Method and apparatus for storing and displaying video image data in a video graphics system
US6768774B1 (en) * 1998-11-09 2004-07-27 Broadcom Corporation Video and graphics system with video scaling
US6731295B1 (en) * 1998-11-09 2004-05-04 Broadcom Corporation Graphics display system with window descriptors
ES2209533T3 (es) 1998-11-11 2004-06-16 Siemens Aktiengesellschaft Procedimiento para la deteccion y correccion de no linealidades de osciladores de alta frecuencia, controlados con tension.
US6157415A (en) * 1998-12-15 2000-12-05 Ati International Srl Method and apparatus for dynamically blending image input layers
US6621499B1 (en) * 1999-01-04 2003-09-16 Ati International Srl Video processor with multiple overlay generators and/or flexible bidirectional video data port
US6707505B2 (en) * 1999-03-26 2004-03-16 Tvia, Inc. Method and apparatus for combining video and graphics
JP2000339130A (ja) * 1999-05-31 2000-12-08 Casio Comput Co Ltd 表示制御装置及び表示制御プログラムを記録した記録媒体
JP4224748B2 (ja) * 1999-09-13 2009-02-18 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置
US6545724B1 (en) * 1999-10-29 2003-04-08 Intel Corporation Blending text and graphics for display on televisions
DE60009140T2 (de) 1999-12-14 2005-02-03 Broadcom Corp., Irvine Verfahren und system zur dekodierung von videosequenzen und grafiken
US6996838B2 (en) * 2001-06-12 2006-02-07 Scientific Atlanta, Inc. System and method for media processing with adaptive resource access priority assignment
US6828987B2 (en) * 2001-08-07 2004-12-07 Ati Technologies, Inc. Method and apparatus for processing video and graphics data
US20030079919A1 (en) 2001-10-31 2003-05-01 Hochmuth Roland M. System and method for displaying an image on a network attachable display device
JP2003280630A (ja) * 2002-03-20 2003-10-02 Toshiba Corp 情報処理装置および同装置で使用される表示制御方法
US20050097451A1 (en) * 2003-11-03 2005-05-05 Cormack Christopher J. Annotating media content with user-specified information

Also Published As

Publication number Publication date
KR20080091843A (ko) 2008-10-14
CN100426340C (zh) 2008-10-15
US20050140695A1 (en) 2005-06-30
CA2548189A1 (en) 2005-07-14
CN1898714A (zh) 2007-01-17
US7535478B2 (en) 2009-05-19
TWI257248B (en) 2006-06-21
CA2548189C (en) 2012-12-04
KR101031472B1 (ko) 2011-04-26
EP1697917A2 (en) 2006-09-06
TW200531537A (en) 2005-09-16
WO2005064455A2 (en) 2005-07-14
JP4633738B2 (ja) 2011-02-16
WO2005064455A3 (en) 2005-11-03
JP2007522490A (ja) 2007-08-09

Similar Documents

Publication Publication Date Title
KR101031472B1 (ko) 그래픽 오버레이 정보 통신 방법 및 장치
US6771278B2 (en) Image processing system, image display method, recording medium and image display apparatus
JP4443571B2 (ja) 多重ビデオ信号のオーバレイの制御方法
US8804040B2 (en) Shared memory multi video channel display apparatus and methods
US6661464B1 (en) Dynamic video de-interlacing
US8401339B1 (en) Apparatus for partitioning and processing a digital image using two or more defined regions
KR20100117571A (ko) 비디오 소스 디바이스와 비디오 싱크 디바이스를 구비하는 시스템에서의 비디오 프로세싱 조정
US8736757B2 (en) Shared memory multi video channel display apparatus and methods
CN101778199B (zh) 一种合成多路高清视频图像画面的实现方法
JP2002033972A (ja) Osdヘッダを連鎖させることにより単一のosdピクスマップを複数のビデオラスタサイズにわたって使用するための方法およびシステム
EP1154643B1 (en) A method and system for using a single osd pixmap across multiple video raster sizes by using multiple headers
US6611269B1 (en) Video display unit and program recording medium
CN101448108A (zh) 图像处理装置与相关方法
JP6335913B2 (ja) 映像処理装置および同装置を操作する方法
CN100464567C (zh) 一体式视频信号交换装置及方法
CN115967830A (zh) 一种显示设备及音画同步方法
JPH0468680A (ja) テレビジョン受像機
JP2002199355A (ja) ビデオデバイス
JP2005159765A (ja) 映像信号処理装置及び方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
A107 Divisional application of patent
AMND Amendment
E801 Decision on dismissal of amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20080801

Effective date: 20091217

J121 Written withdrawal of request for trial
WITB Written withdrawal of application