KR101366202B1 - 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 - Google Patents
공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 Download PDFInfo
- Publication number
- KR101366202B1 KR101366202B1 KR1020137012070A KR20137012070A KR101366202B1 KR 101366202 B1 KR101366202 B1 KR 101366202B1 KR 1020137012070 A KR1020137012070 A KR 1020137012070A KR 20137012070 A KR20137012070 A KR 20137012070A KR 101366202 B1 KR101366202 B1 KR 101366202B1
- Authority
- KR
- South Korea
- Prior art keywords
- video signal
- scaler
- video
- memory
- scaled
- Prior art date
Links
- 230000015654 memory Effects 0.000 title claims abstract description 160
- 238000000034 method Methods 0.000 title claims description 47
- 238000012545 processing Methods 0.000 claims description 105
- 239000000872 buffer Substances 0.000 claims description 75
- 230000009977 dual effect Effects 0.000 description 48
- 239000003638 chemical reducing agent Substances 0.000 description 44
- 238000006243 chemical reaction Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 239000002131 composite material Substances 0.000 description 14
- 238000002156 mixing Methods 0.000 description 13
- 230000009467 reduction Effects 0.000 description 9
- 239000000203 mixture Substances 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005055 memory storage Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000000630 rising effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 208000018747 cerebellar ataxia with neuropathy and bilateral vestibular areflexia syndrome Diseases 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 241000255925 Diptera Species 0.000 description 1
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 101100434411 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) ADH1 gene Proteins 0.000 description 1
- 101150102866 adc1 gene Proteins 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 229920000729 poly(L-lysine) polymer Polymers 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42607—Internal components of the client ; Characteristics thereof for processing the incoming bitstream
- H04N21/4263—Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific tuning arrangements, e.g. two tuners
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4305—Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4347—Demultiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440263—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440281—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
- H04N21/4435—Memory management
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42607—Internal components of the client ; Characteristics thereof for processing the incoming bitstream
- H04N21/4263—Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific tuning arrangements, e.g. two tuners
- H04N21/42638—Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific tuning arrangements, e.g. two tuners involving a hybrid front-end, e.g. analog and digital tuners
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Software Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
스케일러 포지셔닝 모듈은 다수의 비디오 신호들로부터 선택된 하나의 비디오 신호를 수신한다. 스케일러 포지셔닝 모듈은 스케일러 포지셔닝 모듈에서 적어도 하나의 스케일러를 통해 선택된 비디오 신호의 신호 경로를 구성하는 스케일러 슬롯들을 포함한다. 스케일러 슬롯들은 스케일러 포지셔닝 모듈이 3개 모드에서 동작할 수 있게 한다. 3개 모드는 스케일러 포지셔닝 모듈이 메모리 오퍼레이션 없이 스케일된 데이터를 출력하고, 메모리 쓰기 이전에 스케일하고, 그리고 메모리 읽기 후에 스케일할 수 있게 한다. 블랭크 타임 옵티마이저(BTO)는 스케일러 포지셔닝 모듈로부터 제1 클럭 속도로 데이터를 수신하고, 그리고 대역폭 요구 결정에 기초하여 메모리 액세스들을 분배한다. BTO는 제2 클럭 속도로 메모리에 액세스한다. 제2 클럭 속도는 제1 클럭 속도보다 느린데, 이는 메모리 대역폭을 감소시키고 다른 비디오 신호가 더 빨리 메모리에 액세스할 수 있게 한다.
Description
본 발명은 멀티 비디오 채널 디스플레이에 관한 것이다.
본 출원은 2006년 4월 18일 출원의 미국 가출원 60/793,288, 2006년 4월 18일 출원의 미국 가출원 60/793,276, 2006년 4월 18일 출원의 미국 가출원 60/793,277, 그리고 2006년 4월 18일 출원의 미국 가출원 60/793,275의 이익을 주장하며, 이들 각 개시를 참고자료로 인용한다.
전통적으로, 멀티 비디오 채널 텔레비젼 디스플레이 스크린은 듀얼 채널 비디오 처리 칩을 구비하고 있는데, 이를 통해 사용자는 디스플레이 스크린의 여러 부분에서 동시에 하나 이상의 채널을 볼 수 있다. 화면 속에 화면을 디스플레이하는 이러한 형태를 흔히 화면 속 화면(Picture-In-Picture) 또는 PIP라 부른다. 도1a는 4:3의 가로세로비를 갖는 디스플레이 스크린의 여러 부분에 2개 채널을 디스플레이하는 예이다. 스크린(100A)은 스크린의 대부분에 제1 채널(112)를 디스플레이하고, 동시에 스크린의 상당히 작은 부분에 제2 채널(122)가 디스플레이된다. 도1b는 스크린의 다른 부분들 상에 실질적으로 동일한 가로세로비를 갖는 제1 및 제2 채널을 갖는 디스플레이의 예시인데, 아래에서 보다 상세히 설명될 것이다.
PIP 디스플레이(100A)를 생성하는 전형적 텔레비젼 시스템이 도2에 도시되어 있다. 텔레비젼 디스플레이 시스템(200)은 텔레비젼 방송 신호(202), 하이브리드 TV 튜너(210), 베이스밴드 입력(280), 복조기(220), MPEG 코덱(230), 오프칩 스토리지(240), 오프칩 메모리(300), 비디오 프로세서(250), 외부 컴포넌트(예를들어, 디스플레이)(270)를 포함한다. 하이브리드 TV 튜너(210)는 텔레비젼 방송 신호(202)에 의해 제공되는 하나 이상의 텔레비젼 채널에 동조할 수 있다. 하이브리드 TV 튜너(210)는 디지털 텔레비젼 신호를 복조기(220)로 제공하고, 아날로그 비디오 신호 컴포넌트(예를들어, 복합 비디오 베이스밴드 신호(CVBS))를 비디오 프로세서(250)에 제공한다. 또한, 베이스밴드 입력(280)은 여러 텔레비젼 신호(예를들어, CVBS, 슈퍼 비디오(S-video), 컴포넌트 등)를 수신하고, 그들을 비디오 프로세서(250)으로 제공한다. 다른 외부 디지털 또는 아날로그 신호(예를들어, DVI 또는 고화질(HD))도 비디오 프로세서(250)에 제공될 수 있다.
비디오는 복조기(220)에 의해 복조되어, MPEG 코덱(230)에 의해 압축해제(decompress)된다. MPEG 코덱(230)에 의해 요구되는 몇몇 동작은 데이터를 저장하기 위해 오프칩 스토리지(240)를 사용할 수 있다. 이후, 디지털 신호는 비디오 프로세서(250)에 의해 처리되는데, 이는 외부 컴포넌트(270) 상의 디스플레이를 위한 적절한 신호(260)를 생성하는 듀얼 채널 프로세싱 칩일 수 있다. 비디오 프로세서(250)는 잡음 저감 및 디-인터레이싱과 같은 메모리 집중 비디오 프로세싱 동작(memory intensive video processing operations), 즉 3D YC 분리와 프레임률 변환(FRC:frame rate conversion)을 수행하는 오프칩 메모리(300)를 사용할 수 있다.
이러한 PIP 적용에서, 제1 채널(112)가 제2 채널(122)보다 더 중요하다고 일반적으로 생각한다. PIP를 생성하는데 사용되는 일반적인 듀얼 채널 프로세싱 칩은 제1 채널 비디오 파이프에 더 나은 품질의 엠퍼시스를 두는데, 이는 제1 채널(112)의 대형 디스플레이를 생성한다. 더 작은 디스플레이의 제2 채널(122)을 생성하는 제2 채널 비디오 파이프는 비용을 낮추기 위해 품질이 더 낮다. 예를들어, 디-인터레이싱, 잡음 저감 및 비디오 디코딩과 같은 3-D 비디오 프로세싱 동작은 제1 채널 비디오 파이프에서 구현될 수 있고, 반면 제2 채널 비디오 파이프에서는 단지 2-D 비디오 프로세싱 동작을 구현한다. 3-D 비디오 프로세싱 동작은 공간적 도메인(spatial domain) 및 시간적 도메인(temporal domain)에서, 종종 프로세싱 동작에 사용되는 하나 이상의 비디오 프레임을 버퍼링하면서, 비디오를 처리하는 동작이라고 부른다. 대조적으로, 2-D 비디오 프로세싱 동작은 공간적 도메인에서, 즉 현재 프레임 비디오에서만 동작하면서, 비디오를 처리할 뿐이다.
16:9의 가로세로비를 갖는 와이드 디스플레이 스크린이 등장하면서, 같은 사이즈 또는 4:3의 가로세로비를 갖는 2개 채널을 동일 스크린에 디스플레이하는 것이 점점 더 요구되고 있다. 이러한 형태의 적용을 흔히 PAP(picture-and-picture)라고 부른다. 도1b에, 스크린(100B)은 제1 채널(110)을 디스플레이하고 있고, 실질적으로 같은 가로세로비를 갖는 제2 채널(120)이 스크린의 제2 부분에 디스플레이되고 있다. 이러한 적용에서, 제1 채널은 제2 채널과 비슷한 품질로 생성되어야 한다.
그러므로, 제1 및 제2 비디오 채널 파이프 모두에 3-D 비디오 프로세싱을 구현하는 것이 2개의 고품질 비디오 이미지를 생성하는데 필요하다. 필요한 디스플레이를 생성하기 위하여 3-D 비디오 프로세싱을 수행하는 것은 일반적으로 메모리 집중 동작을 필요로 하는데, 이는 품질이나 무결성에서 손실없이 이미지를 디스플레이하는데 적당한 시간 프레임 내에 수행되어야 한다. 메모리 동작은 3-D 비디오 프로세싱을 필요로 하는 채널의 수와 비례적으로 증가한다. 일반적인 듀얼 비디오 프로세싱 칩은 고품질을 갖는 2개 비디오 신호를 처리하는 능력이 부족하고, 따라서 고품질 비디오를 갖는 2개 채널을 디스플레이하는 요구가 증가하면서 안 쓰이고 있다.
전형적인 듀얼 비디오 프로세싱 칩이 다수의 고품질 비디오 신호를 처리하는 능력이 부족한 하나의 이유는, 비디오 프로세서와 오프칩 메모리 사이에서 요구되는 많은 양의 데이터 대역폭이다. 전통적으로, 비디오 프로세싱 칩 파이프라인의 일부는 잡음 저감기와 디-인터레이서를 포함하는데, 이들 각각은 오프칩 메모리와 함께 높은 데이터 대역폭을 필요로 한다.
특히, 잡음 저감기는 주로 하나의 필드를 다음 필드와 비교하고 각 필드에서 동일하지 않은 필드의 부분을 제거함으로써 동작한다. 이 때문에, 잡음 저감기는 현재 필드와의 비교를 위해 적어도 2개 필드의 스토리지를 필요로 한다. 디-인터레이서는 저장된 2개 필드를 읽고 그들을 결합하여, 인터레이서의 동작을 거꾸로 하게 된다.
도3은 전형적인 비디오 프로세서의 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작을 도시하고 있다. 비디오 프로세싱 파이프라인의 일부는 잡음 저감기(330), 디-인터레이서(340), 그리고 오프칩 메모리(300)을 포함하는데, 여기서 오프칩 메모리는 적어도 4개의 필드 버퍼 섹션(310,311,312,313)을 포함한다.
제1 필드 구간 동안, 잡음 저감기(330)는 하나의 필드 버퍼 섹션(310)을 읽고, 그것을 비디오 신호(320)와 비교하여, 경감된 잡음을 갖는 새로운 필드를 생성하고, 이 필드 출력(322)을 2개의 필드 버퍼 섹션(311,312)에 쓴다. 필드 버퍼 섹션(311,312)에 이미 저장되어 있는 콘텐츠는 필드 버퍼 섹션(310,313)으로 각각 복사된다. 이와같이, 필드 구간의 끝에서, 잡음 저감기(330)의 필드 출력(322)은 필드 버퍼 섹션(311,312)에 저장되고, 필드 버퍼 섹션(311,312)에 이미 저장된 필드는 지금 필드 버퍼 섹션(310,313)에 각각 있다.
다음 필드 구간 동안, 이전 필드 구간으로부터 잡음 저감기(330)의 필드 출력을 갖는 필드 버퍼 섹션(312)은 디-인터레이서(340)에 의해 읽혀지고, 필드 버퍼 섹션(312)에 저장되었던, 이 필드 구간 이전의 필드 구간으로부터 잡음 저감기(330)의 필드 출력을 갖는 필드 버퍼 섹션(313)은 디-인터레이서(340)에 의해 읽혀진다. 현재 필드 구간의 잡음 저감기(330)의 필드 출력(322)도 디-인터레이서(340)에 의해 읽혀진다. 디-인터레이서(340)는 이들 필드 세그먼트들을 처리하고, 그들을 결합하여 디-인터레이스된 출력(342)을 비디오 파이프라인의 다음 모듈로 제공한다.
예시적으로 앞서 설명한 비디오 파이프라인 부분은 단일 채널에 대해서 이러한 동작들을 수행하고, 그것의 동작들은 각각의 추가 채널에 대해 증배된다. 따라서, 메모리 액세스 대역폭이 같은 시간 간격에서 쓰여지고/읽혀져야 하는 데이터의 양에 비례적으로 증가하고, 다수 채널에서 잡음 저감과 디-인터레이싱을 수행하는 것은 같은 방식으로 데이터 대역폭을 증가시킬 수 있다. 위의 비디오 프로세싱 동작의 믿기지 않는 대역폭 요구는 이러한 동작들을 동시에 수행하는 능력을 제한한다.
따라서, 다수의 고품질 비디오 채널 스트림들을 갖는 디스플레이를 생성하기 위해서는 하나 이상 채널의 하나 이상 비디오 파이프라인 단들(stages)의 여러 섹션들에서 메모리 액세스 대역폭을 줄이는 시스템과 방법을 갖는 것이 요구된다.
본 발명의 원리에 따라, 다수의 고품질 비디오 채널 스트림을 갖는 디스플레이를 생성하기 위하여 하나 이상 채널의 하나 이상 비디오 파이프라인 단들의 여러 섹션에서 메모리 액세스 대역폭을 감소시키기 위한 시스템 및 방법이 제공된다.
프레임률 변환을 수행하기 위한 시스템들과 방법들이 제공된다. 다수의 비디오 신호들이 수신될 수 있다. 제1의 복수의 비디오 신호들이 선택될 수 있다. 선택된 비디오 신호의 신호 경로 내에 스케일러를 위치시킬 수 있는데, 여기서 스케일러는 적어도 2개의 스케일러 슬롯들 중 하나에 위치된다. 비디오 신호는 다른 회로 컴포넌트로의 출력을 위해 스케일될 수 있다.
2개 이상의 비디오 신호들이 메모리에 대한 액세스를 공유하게 하는 시스템들과 방법들이 제공된다. 메모리에 액세스하기 위해 2개 이상의 비디오 신호들로부터 요청이 수신될 수 있다. 각 요청에 대한 대역폭 요구가 결정될 수 있다. 메모리 액세스 대역폭은 각 비디오 신호의 대역폭 요구에 기초하여 분배될 수 있다.
스케일러 포지셔닝 모듈에서 3개의 스케일러 포지셔닝 슬롯들 중 하나 내에 하나의 스케일러를 위치시키기 위한 시스템들과 방법들이 제공된다. 제1 스케일러 포지셔닝 슬롯에서, 입력 비디오 신호는 동시에 스케일될 수 있다. 제2 스케일러 포지셔닝 슬롯에서, 입력 비디오 신호는 다운-스케일될 수 있고, 다운-스케일된 비디오 신호는 메모리에 쓰여질 수 있다. 제3 스케일러 포지셔닝 슬롯에서, 메모리로부터 읽혀진 비디오 신호는 업-스케일될 수 있다.
본 발명의 원리들에 따라, 하나 이상 채널의 하나 이상의 비디오 파이프라인 단들의 여러 섹션들에서 메모리 액세스 대역폭을 감소시키기 위한 방법들과 장치가 제공되는데, 이는 다수의 고품질 비디오 채널 스트림들을 갖는 디스플레이를 생성하기 위함이다. 듀얼 비디오 프로세서는 다른 포맷일 수 있는 하나 이상의 아날로그 또는 디지털 신호들을 수신할 수 있다. 하나 이상의 비디오 모드에서 2개의 동시적 비디오 신호들을 디코딩할 수 있는 듀얼 비디오 디코더(예를들어, NTSC/PAL/SECAM 비디오 디코더)가 제공될 수 있다. 비디오 모드들 중 하나에서, 듀얼 비디오 디코더는 타임 멀티플렉싱(time multiplexing)을 수행하는데, 이는 비디오 신호들을 디코딩하는 데 사용되는 아날로그/디지털 컨버터와 같은 적어도 하나의 컴포넌트를 공유하기 위한 것이다.
비디오 디코더의 출력들, 또는 그 시스템의 다른 컴포넌트에 의해 제공된 다른 세트의 비디오 신호들은 신호 처리 회로(예를들어, 잡음 저감기 및/또는 디-인터레이서)에 제공된다. 신호 처리 회로는 메모리 디바이스에 액세스해서 다양한 필드 라인들을 저장한다. 신호 처리 회로가 필요로 하는, 저장된 필드 라인들의 일부가 공유된다. 몇몇 저장된 필드 라인들의 공유는 전체 메모리 대역폭과 용량 요구를 감소시킨다. 신호 처리 회로는 다수의 필드 라인 프로세싱을 수행할 수 있다. 한 세트의 필드 라인 버퍼들은 다수의 필드 세그먼트를 위한 필드 라인들을 저장하기 위해 구비되고, 그리고 그 데이터를 신호 처리 회로의 대응하는 입력에 제공한다. 저장량(storage)을 더 줄이기 위해서, 몇몇 필드 라인 버퍼들은 신호 처리 회로들 사이에서 공유되기도 한다.
비디오 디코더의 출력들, 또는 그 시스템의 다른 컴포넌트에 의해 제공된 다른 세트의 비디오 신호들은 다르게 스케일된 비디오 신호들을 생성하기 위한 하나 이상의 스케일러들에 제공된다. 스케일러는 메모리 앞, 메모리 뒤, 또는 메모리 액세스가 필요없다면 앞이나 뒤(즉, 메모리 사이)의 여러 슬롯에 위치한다. 비디오 신호가 업-스케일되면, 스케일러는 메모리 뒤에 위치하여 메모리에 저장될 데이터의 양을 줄인다. 비디오 신호가 다운-스케일되면, 스케일러는 메모리 앞에 위치하여 메모리에 저장될 데이터의 양을 감소시킨다. 대안으로, 하나의 스케일러가 메모리 앞에 위치하고, 다른 하나의 스케일러는 메모리 뒤에 위치할 수도 있는데, 이를 통해 메모리 스토리지와 대역폭을 감소시키면서 다르게 스케일되는(즉, 하나는 업-스케일되고, 다른 하나는 다운-스케일되는) 2개의 비디오 신호를 제공한다.
비디오 디코더의 출력들, 또는 그 시스템의 다른 컴포넌트에 의해 제공된 다른 세트의 비디오 신호들은 하나 이상의 프레임률 변환 유닛으로 제공된다. 블랭크 타임 옵티마이저(BTO:blank time optimizer)는 제1 클럭 속도로 비디오 신호의 한 프레임의 필드 라인에 속하는 데이터를 수신한다. BTO는 그 프레임의 다음 필드 라인이 수신되기 전에 이용가능한 시간의 최대량을 결정한다. 이러한 결정에 기초해서 BTO는 제2 클럭 속도로 메모리할 프레임의 필드 라인을 전송하거나 수신한다. 메모리 액세스에 사용되는 제2 클럭 속도는 제1 클럭 속도보다 상당히 느린데, 이를 통해 메모리 대역폭을 줄이고, 필드 라인들 사이에 더 짧은 양의 이용가능한 시간을 갖는 다른 비디오 신호가 메모리에 더 빨리 액세스할 수 있게 한다. 이번에는, 본래 BTO는 메모리 대역폭의 효율적 사용을 증진시키는 방식으로 여러 메모리 클라이언트(즉, 메모리 액세스를 요구하는 유닛들)로부터의 메모리 액세스를 분배한다.
BTO의 비디오 신호 출력들, 또는 그 시스템의 다른 컴포넌트에 의해 제공된 다른 세트의 비디오 신호들은 추가 프로세싱을 위해 오버레이 엔진으로 제공된다. 오버레이 엔진에서, 2개 이상의 비디오 신호들이 오버레이되어, 색 관리 유닛(CMU:Color Management Unit)으로 제공된다. CMU는 오버레이된 비디오 신호를 수신하고 그 오버레이된 비디오 신호들을 부분들로 처리한다. 오버레이된 비디오 신호의 일부가 제1 비디오 신호와 부합한다는 표시를 수신하면, CMU는 제1 비디오 신호 부분과 부합하는 파라메터들을 이용하여 그 비디오 신호 부분을 처리하여 출력을 제공한다. 대안으로, 오버레이된 비디오 신호의 일부가 제2 비디오 신호와 부합한다는 표시를 수신하면, CMU는 제2 비디오 신호 부분과 부합하는 파라메터들을 이용하여 그 비디오 신호 부분을 처리하여 출력을 제공한다. 오버레이 엔진의 멀티플레인(Multi-plane, M-plane) 오버레이 회로는 2개 이상의 비디오 신호들을 수신하고(여기서, 이들 신호들의 하나는 CMU에서 제공됨), 그리고 오버레이된 신호를 제공한다. 비디오 신호들은 우선권 지정자를 포함하고, 그리고 오버레이 회로는 우선권 지정자에 기초하여 그 신호들을 오버레이한다.
오버레이 엔진의 출력, 또는 순차적인 그 시스템의 다른 컴포넌트에 의해 제공된 다른 세트의 비디오 신호들은 주 및/또는 보조 출력 단에 제공된다. 대안으로, 비디오 신호들은 오버레이 엔진을 바이콘텐츠하여 주 및/또는 보조 출력 단에 제공될 수 있다. 주 및/또는 보조 출력 단들에서, 예를들어 디스플레이 장치와 기록 장치와 같은 주 및/또는 보조 장치의 요구를 충족시키기 위해, 비디오 신호들은 포맷 변환이나 프로세싱을 겪는다.
본 발명의 상기 및 다른 목적과 이점은 첨부한 도면과 함께 다음의 상세한 설명을 보면 명백하게 된다. 여기서, 참조 부호는 전체를 통해서 동일 구성을 가리킨다.
도 1a 및 1b는 동일 스크린의 여러 부분에 디스플레이되는 2개 채널의 예이다.
도2는 PIP 디스플레이를 생성하는 예이다.
도3은 전형적인 비디오 프로세서에서 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작에 대한 예이다.
도4는 본 발명의 원리에 따른 텔레비젼 디스플레이 시스템의 예이다.
도5는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 내장 비디오 처리 섹션의 기능을 상세히 설명한 예이다.
도6은 본 발명의 원리에 따른 클럭 발생 시스템의 예이다.
도 7-9는 본 발명의 원리에 따른 비디오 신호를 생성하는 3개 모드의 예들이다.
도10은 본 발명의 원리에 따른 3개 비디오 신호를 생성하기 위해 2개 디코더를 사용하는 구현예이다.
도11은 본 발명의 원리에 따른 2개 비디오 신호의 2개 부분을 시분할 멀티플렉싱하기 위한 타이밍 도의 예이다.
도12는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 전단 비디오 파이프라인의 기능을 상세히 설명한 예이다.
도13은 본 발명의 원리에 따른 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작의 예이다.
도14는 본 발명의 원리에 따른 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작의 예시적 타이밍 도이다.
도15는 본 발명의 원리에 따른 다수 필드 라인 프로세싱의 예이다.
도16은 본 발명의 원리에 따른 플레임률 변환과 스케일링을 수행하는 상세 예이다.
도17은 본 발명의 원리에 따른 스케일러 포지셔닝 모듈의 예이다.
도18은 본 발명의 원리에 따른 BTO 멀티플렉서의 동작을 예시한 것이다.
도19는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 컬러 프로세싱 및 채널 블렌딩(CPCB) 비디오 파이프라인의 상세 예이다.
도20은 본 발명의 원리에 따른 오버레이 엔진의 상세 예이다.
도21은 본 발명의 원리에 따른 색 관리 유닛의 상세 예이다.
도22는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 후단 비디오 파이프라인의 상세 예이다.
도 1a 및 1b는 동일 스크린의 여러 부분에 디스플레이되는 2개 채널의 예이다.
도2는 PIP 디스플레이를 생성하는 예이다.
도3은 전형적인 비디오 프로세서에서 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작에 대한 예이다.
도4는 본 발명의 원리에 따른 텔레비젼 디스플레이 시스템의 예이다.
도5는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 내장 비디오 처리 섹션의 기능을 상세히 설명한 예이다.
도6은 본 발명의 원리에 따른 클럭 발생 시스템의 예이다.
도 7-9는 본 발명의 원리에 따른 비디오 신호를 생성하는 3개 모드의 예들이다.
도10은 본 발명의 원리에 따른 3개 비디오 신호를 생성하기 위해 2개 디코더를 사용하는 구현예이다.
도11은 본 발명의 원리에 따른 2개 비디오 신호의 2개 부분을 시분할 멀티플렉싱하기 위한 타이밍 도의 예이다.
도12는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 전단 비디오 파이프라인의 기능을 상세히 설명한 예이다.
도13은 본 발명의 원리에 따른 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작의 예이다.
도14는 본 발명의 원리에 따른 잡음 저감기와 디-인터레이서의 오프칩 메모리 액세스 동작의 예시적 타이밍 도이다.
도15는 본 발명의 원리에 따른 다수 필드 라인 프로세싱의 예이다.
도16은 본 발명의 원리에 따른 플레임률 변환과 스케일링을 수행하는 상세 예이다.
도17은 본 발명의 원리에 따른 스케일러 포지셔닝 모듈의 예이다.
도18은 본 발명의 원리에 따른 BTO 멀티플렉서의 동작을 예시한 것이다.
도19는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 컬러 프로세싱 및 채널 블렌딩(CPCB) 비디오 파이프라인의 상세 예이다.
도20은 본 발명의 원리에 따른 오버레이 엔진의 상세 예이다.
도21은 본 발명의 원리에 따른 색 관리 유닛의 상세 예이다.
도22는 본 발명의 원리에 따른 듀얼 비디오 프로세서의 후단 비디오 파이프라인의 상세 예이다.
본 발명은 하나 이상의 고품질 출력 신호를 생성하기 위하여 하나 이상 채널의 다수 비디오 파이프라인 단들의 여러 섹션에서 메모리와 다른 프로세싱 리소스들을 공유하고 메모리 액세스 대역폭을 감소시키는 방법과 장치에 관한 것이다.
도4는 본 발명의 원리에 따른 텔레비젼 디스플레이 시스템을 도시하고 있다. 도4에 도시된 텔레비젼 디스플레이 시스템은 텔레비젼 방송 신호(202), 듀얼 튜너(410), MPEG 코덱(230), 오프칩 스토리지(240), 오프칩 메모리(300), 듀얼 비디오 프로세서(400), 메모리 인터페이스(530) 그리고 적어도 하나의 외부 컴포넌트(270)를 포함한다. 듀얼 튜너(410)는 텔레비젼 방송 신호(202)를 수신하고 제1 비디오 신호(412)와 제2 비디오 신호(414)를 생성한다. 비디오 신호(412,414)는 듀얼 디코더(420)로 제공된다. 듀얼 디코더(420)는 듀얼 비디오 프로세서(400)에 내장되는 것으로 도시되어 있으나, 달리 비디오 프로세서(400)의 외부에 있을 수 있다. 듀얼 디코더(420)는 제1 및 제2 비디오 신호(412,414)에 대해 디코더(220)(도2)와 유사한 기능을 수행한다. 듀얼 디코더(420)는 적어도 하나의 멀티플렉서(424)와 2개의 디코더(422)를 포함한다. 다른 배열에서는, 멀티플렉서(424)와 하나 또는 2개의 디코더(422)가 듀얼 디코더(420)의 외부에 있다. 디코더(422)는 디코드된 비디오 신호 출력(426,428)을 제공한다. 디코더(422)는 MPEG 디코더와 다른 어떤 NTSC/PAL/SECAM 디코더일 수 있음을 이해해야 한다. 디코더(422)에 대한 입력은 디지털 CVBS, 슈퍼 비디오(S-Video) 또는 컴포넌트 비디오 신호일 수 있고, 디코더(422)의 출력은 Y-Cb-Cr 데이터 신호와 같은 디지털 표준일 수 있다. 듀얼 디코더(420)의 동작에 대한 보다 상세한 검토는 도7,8,9 및 10과 관련하여 제공한다.
멀티플렉서(424)는 2개 비디오 신호(412,414) 중에서 적어도 하나를 선택하거나 입력 비디오 신호들 중에서 임의의 개수를 선택하는데 사용된다. 선택된 적어도 하나의 비디오 신호(425)는 디코더(422)로 제공된다. 선택된 적어도 하나의 비디오 신호(425)는 도면이 복잡해지지 않도록 단일 비디오 신호로 도면에 나타나 있지만, 비디오 신호(425)는 임의 개수의 디코더(422)의 입력에 제공되는 임의 개수의 비디오 신호를 나타내고 있음을 이해해야 한다. 예를들어, 멀티플렉서(424)는 5개의 입력 비디오 신호를 수신하고, 그 중 2개를 2개의 다른 디코더(422)로 제공한다.
도4에 도시된 특정 비디오 신호 처리 배열은 듀얼 비디오 프로세서(400)상의 내부 듀얼 디코더(420)이 사용될 수 있게 하여, 타임 시프팅 애플리케이션에서 요구되는 외부 디코더 사용의 비용을 감소시킨다. 예를들어, 듀얼 디코더(420)의 출력(426,428) 중 하나는 656 엔코더(440)에 제공되어, 비디오 신호를 인터레이싱하기 전에 비디오 신호를 표준 포맷으로 적절히 엔코딩한다. 656 엔코더(440)는 더 빠른 클럭 주파수에서 처리하기 위하여 데이터 사이즈를 줄이는데 이용된다. 예를들어, 몇 예에서, 656 엔코더(440)는 16비트의 데이터, h-sync 및 v-sync 신호들을 8비트로 줄여, 2배 주파수에서 처리하게 한다. 이것은 SD 비디오 및 어떤 NTSC/PAL/SECAM 디코더와 MPEG 엔코더 사이에 인터페이스하는 표준일 수 있다. 엔코드된 비디오 신호(413)는 예를들어 비디오 프로세서의 포트를 경유해서 외부 MPEG 코덱(230)으로 제공되어, 타임 스프트된 비디오 신호를 생성한다. 또 다른 포트, 즉 듀얼 비디오 프로세서(400) 상의 플렉시포트(450)는 MPEG 코덱(230)으로부터 타임 스프트된 비디오 신호를 수신하는데 사용된다. 이것은, 디지털 비디오 신호의 부분들을 비디오 프로세서의 외부에서 처리함으로써, 비디오 프로세서의 복잡성을 감소시키기에 바람직하다. 게다가, MPEG 코덱(230)에 의해 수행된 타임 시프팅은 압축, 압축해제, 그리고 비휘발성 대용량 저장장치와의 인터페이싱을 포함하는 동작을 필요로 하는데, 이들 모두는 비디오 프로세서의 영역을 벗어나 있다.
다른 비디오 신호들(예를들어, 커서, 온-스크린 디스플레이, 또는 적어도 하나의 외부 컴포넌트(270)에서 사용되거나 그렇지 않다면 외부 컴포넌트에 제공되는 방송 비디오 신호(202)와는 다른 다양한 다른 형태의 디스플레이)이 듀얼 비디오 프로세서(400)를 이용하여 생성되기도 한다. 예를들어, 듀얼 비디오 프로세서(400)는 이 목적을 위해 그래픽스 포트(460) 또는 패턴 생성기(470)를 포함할 수 있다.
다양한 다른 비디오 신호, 그래픽스 생성기(460), 또는 패턴 생성기(470)는 물론 디코드된 비디오 신호드은 셀렉터(480)에 제공된다. 셀렉터(480)는 이들 비디오 신호들 중 적어도 하나를 선택하고, 그 선택된 신호를 내장 비디오 처리 섹션(490)으로 제공한다. 비디오 신호(482,484)는 셀렉터(480)에 의해 내장 비디오 처리 섹션(490)으로 제공되는 2개의 예시적인 신호들이다.
내장 비디오 처리 섹션(490)은 디-인터레이싱, 스케일링, 프레임률 변환, 그리고 채널 블렌딩 및 색 관리와 같은 어떤 적당한 비디오 처리 기능을 수행한다. 듀얼 비디오 프로세서(400)의 어떤 처리 리소스는 메모리 인터페이스(530)를 경유해서 오프칩 메모리(300)(이것은 경로RAM, RAMBUS, 또는 어떤 다른 타입의 휘발성 스토리지)로 데이터를 보내고 오프칩 메모리(300)로부터 데이터를 받는다. 이들 각 기능은 도5의 설명에서 상세히 설명된다.
결국, 듀얼 비디오 프로세서(400)는 하나 이상의 비디오 출력 신호(492)를 출력한다. 비디오 출력 신호(492)는 디스플레이, 저장, 다른 처리 또는 다른 적당한 사용을 위해 하나 이상의 외부 컴포넌트(270)으로 제공된다. 예를들어, 하나의 비디오 출력 신호(492)는 고화질 TV(High Definition TV, HDTV) 해상도를 지원하는 주 출력 신호일 수 있고, 제2 비디오 출력 신호(492)는 표준 화질 TV(Standard Definition TV, SDTV) 해상도를 지원하는 보조 출력일 수 있다. 주 출력 신호는 디지털 TV나 프로젝터와 같은 하이-엔드 외부 컴포넌트(270)를 구동하는데 사용되고, 동시에 보조 출력은 표준 화질 (DVD) 비디오 리코더, 표준 화질 TV(SDTV), 표준 화질 프리뷰 디스플레이 또는 다른 적당한 비디오 애플리케이션을 위해 사용된다. 이러한 방식에서, 보조 출력 신호는, 사용자로 하여금 임의의 적절한 SDTV 매체(예를들어, DVD) 상에 HDTV 프로그램을 기록할 수 있도록 하고, 이와 동시에 사용자로 하여금 HDTV 디스플레이 상에서 프로그램을 시청할 수 있도록 할 수 있다.
도5는 듀얼 비디오 프로세서(400)의 내장 비디오 처리 센션(490)의 기능을 더 상세히 도시하고 있다. 내장 비디오 처리 섹션(490)은 입력 신호 구성(510), 메모리 인터페이스(530), 구성 인터페이스(520), 전단 파이프라인 섹션(540), 프레임률 변환(FRC) 및 스케일링 파이프라인 섹션(550), 컬러 프로세싱 및 채널 블렌딩 파이프라인 섹션(560), 그리고 후단 파이프라인 섹션(570)를 포함한다.
구성 인터페이스(520)는 예를들어 I2C 인터페이스를 경유해서 프로세서와 같은 외부 컴포넌트로부터 제어 정보(522)를 수신한다. 구성 인터페이스(522)는 입력 신호 구성(510), 전단(510), 프레임률 변환(550), 컬러 프로세서(510), 후단(570), 그리고 메모리 인터페이스(530)를 배열하는데 사용된다. 입력 신호 구성(510)은 듀얼 비디오 프로세서(400) 상의 외부 입력에 연결되는데, 이는 입력(HDTV 신호, SDTV 신호, 또는 다른 적당한 디지털 비디오 신호들과 같은)상에 비디오 신호와 선택된 비디오 신호(482,484)(도4)를 수신하기 위함이다. 입력 신호 구성(510)은 수신된 비디오 신호들(예를들어, 신호들(482, 484, 502)) 중 적어도 하나를 비디오 소스 스트림(512)로서 전단(540)에 제공하도록 구성된다.
이 구성에 따라, 내장 비디오 처리 섹션(490)으로 제공된 이들 신호들 중 여러 개는 내장 비디오 처리 파이프라인을 이용해서 다른 시간들에서 처리될 수 있다. 예를들어 한 예에서, 듀얼 비디오 프로세서(400)는 8개 입력 포트를 포함한다. 예시된 포트들은 2개의 16비트 HDTV 신호 포트, 1개의 20비트 HDTV 신호 포트, CCIR656 포맷일 수 있는 3개의 8비트 SDTV 신호 포트, 1개의 24비트 그래픽스 포트 그리고 1개의 16비트 외부 온-스크린 디스플레이 포트를 포함한다.
전단(540)은 이용가능한 입력들의 적어도 하나의 비디오 신호 스트림들(512)(즉, 채널들) 사이에서 선택하고 그 선택된 비디오 신호 스트림을 하나 이상의 비디오 처리 파이프라인 단들을 따라 처리하도록 구성된다. 전단(540)은 처리된 비디오 신호 스트림을 하나 이상의 파이프라인 단들에서 프레임률 변환 및 스케일링 파이프라인 단(550)으로 제공한다. 몇 예에서, 전단(540)은 3개의 비디오 처리 파이프라인 단들을 포함하고 3개의 각 출력을 FRC 및 스케일링 파이프라인 단(550)으로 제공한다. FRC 및 스케일링 파이프라인 단(550)에는, 하나 이상의 프로세싱 채널이 있다. 예를들어, 제1 채널은 주 스케일러 및 프레임률 변환 유닛을 포함하고, 제2 채널은 또다른 스케일러 및 프레임률 변환 유닛을 포함하고, 그리고 제3 채널은 더 낮은 가격의 스케일러를 포함한다. 스케일러들은 서로 독립적이다. 예를들어, 하나의 스케일러가 입력 이미지를 크게 하면, 다른 것은 그 이미지를 작게 한다. 스케일러 둘다 444 픽셀(RGB/YUB 24비트) 또는 422 픽셀(YC 16비트)와 연동할 수 있다.
컬러 프로세싱 및 채널 블렌딩 파이프라인 단(560)은 색 관리 기능을 제공하기 위해 구비된다. 이 기능은 컬러 재매핑(color re-mapping), 밝기(brightness), 콘트라스트(contrast), 휴 및 세츄레이션 향상(hue & saturation enhancement), 감마 정정(gamma correction) 그리고 픽셀 확인(pixel validation)을 포함한다. 추가적으로, 컬러 프로세싱 및 채널 블렌딩 파이프라인 단(560)은 다른 채널을 오버레이하면서 비디오 블렌딩 기능을 제공하거나, 또는 2개의 블렌드된 비디오 채널을 제3 채널과 블렌드 또는 오버레이한다.
후단 파이프라인 단(570)은 데이터 포맷팅, 사인/비사인 수 변환, 세츄레이션 로직, 클럭 딜레이, 또는 듀얼 비디오 프로세서(400)로부터 하나 이상 채널의 출력 이전에 필요한 다른 적절한 최종 신호 처리를 수행하도록 구성된다.
여러 파이프라인 단 세그먼트들의 각각은 메모리 인터페이스(530)를 이용하여 오프칩 메모리(300)로 데이터를 보내거나 오프칩 메모리(300)로부터 데이터를 받는다. 메모리 인터페이스(530)는 적어도 메모리 콘트롤러와 메모리 인터페이스를 포함한다. 메모리 콘트롤러는 메모리로 지원되는 최대 속도로 구동되도록 구성된다. 한 예에서, 데이터 버스는 32비트일 수 있고, 200 ㎒의 주파수로 동작할 수 있다. 이 버스는 초당 12.8 기가비트에 가까운 처리율을 제공하다. 메모리 인터페이스(530)(즉, 메모리 클라이언트)를 사용하는 각 기능 블록은 동작의 버스트 모드에서 메모리에 어드레스한다. 여러 메모리 클라이언트들 사이의 조정은 라운드 로빈 방식 또는 다른 적절한 조정 스킴으로 이루어진다. 여러 파이프라인 세그먼트들에 대한 보다 상세한 검토는 도 12,20,21 및 22와 함께 제공된다.
듀얼 비디오 프로세서(400)의 여러 컴포넌트와 파이프라인 단들은 다른 클로킹 메커니즘 또는 클럭 주파수를 필요로 한다. 도6은 이 목적을 위한 다양한 클럭 신호를 생성하는 클럭 생성 시스템(600)을 도시하고 있다. 클럭 생성 시스템(600)은 적어도 수정 발진기(610), 범용 아날로그 위상동기 루프 회로(620), 디지털 위상동기 루프 회로(640a-n), 그리고 메모리 아날로그 위상동기 루프 회로(630)를 포함한다. 수정 발진기(610)의 출력(612)은 범용 위상동기 루프(620), 메모리 위상동기 루프(630), 듀얼 비디오 프로세서(400)의 다른 컴포넌트, 또는 필요한 대로 그 프로세서에 외장되는 적절한 컴포넌트에 연결된다.
메모리 아날로그 위상동기 루프 회로(630)는 메모리 클럭 신호(632)를 생성하는데 사용되고, 추가적으로 메모리 장치(예를들어 200㎒ DDR 메모리)나 다른 시스템 컴포넌트를 동작시키는 클럭 신호(652)로 사용하기 위하여 셀렉터(650)에 의해 선택되는 다른 주파수의 다른 클럭 신호들(636)를 생성하는데 사용된다.
범용 아날로그 위상동기 루프(620)는 하나 이상의 디지털 위상동기 루프(PLL) 회로들(640a-n)을 위한 베이스 클럭으로 사용되는 200㎒ 클럭을 생성한다. 디지털 PLL 회로(640a-n)는 개방 루프 모드에서 사용되고, 여기서 그것은 주파수 합성기(즉, 베이스 클럭 주파수를 적절한 수로 체배하는 것)로서 동작한다. 대안으로, 디지털 PLL 회로(640a-n)는 폐쇄 루프 모드에서 사용되는데, 여기서 그것은 각 입력 클럭 신호(642a-n)(예를들어, 비디오 싱크 입력)를 추적함으로써 주파수 로크(frequency lock)를 얻을 수 있다. 디지털 PLL은 폐쇄 루프 모드에서 대단히 낮은 클럭 신호까지 정확한 주파수 로크를 얻을 수 있는 성능을 가지고 있다. 예를들어, 비디오 처리 영역에서, 수직 비디오 클럭 신호(예를들어 v-sync)는 50-60 Hz 범위에 있다. 다양한 시스템 컴포넌트는 다양한 오픈 루프 또는 폐쇄 루프 신호를 필요로 하는 다른 동작에 대해 디지털 PLL 회로(640a-n)의 출력(644a-n)을 사용한다. 출력(640a-n)의 각각은 다른 주파수 또는 같은 주파수의 클럭 신호를 제공할 수 있음은 물론이다.
예를들어, 디지털 PLL 회로(640a-n)에 의해 생성된 클럭 신호를 사용하는 하나의 컴포넌트는 듀얼 디코더(420)(도4)인데, 그 동작은 도 7,8,9,10과 함께 보다 상세히 설명된다. 듀얼 디코더(420)는 디코더(422)(도4)를 포함한다. 디코더(422)는 도 7,8,9에서 설명되듯이 여러 모드의 동작에서 사용된다.
도 7,8,9는 비디오 신호(426,428)를 생성하기 위하여 디코더(422)를 사용하는 3개의 예시 모드를 도시하고 있다. 이들 3개의 동작 모드들은 예를들어 복합 비디오 신호, 슈퍼 비디오 신호, 그리고 컴포넌트 비디오 신호를 제공한다.
이들 3개 모드들 중 첫번째는 복합 비디오 신호를 생성하기 위해서 사용되는데, 도7에 도시되어 있다. 제1 디코더는 DC 리스토어 유닛(720), 아날로그/디지털 컨버터(730), 그리고 디코더(422)를 포함하는데, 이들 각각은 듀얼 디코더(420)(도4)에 포함될 수 있다. 듀얼 튜너(410)에 의해 제공되거나 멀티플렉서(424)에 의한 다른 구성에서 제공될 수 있는 비디오 신호(425)(도4)는 DC 리스토어(restore) 유닛(720)으로 제공된다. DC 리스토어 유닛(720)은, AC 결합된 신호인 비디오 신호(425)가 자신의 DC 기준을 잃어버리고 그것을 주기적으로 리셋하여 밝기와 같은 비디오 특성 정보를 유지해야 할 때, 사용된다. DC 리스토어 유닛(720)으로부터의 비디오 신호는 아날로그/디지털 컨버터(730)에 의해 디지털화되어, 디코더(422)로 제공된다.
제1 모드에서, 디코더(422)는 단일 아날로그/디지털 컨버터(730)로부터의 디지털화된 비디오 신호(732)를 사용하여 복합 비디오 신호를 생성한다. 아날로그/디지털 컨버터(730)와 디코더(422)는 예를들어 20,21,22,23,24,25,26,27,28,29 또는 30Mz인 디지털 클럭 신호(644a-n)(도6)를 수신함으로써 동작한다. 추가로, 디코더(422)는 출력 피드백 신호(427)를 이용하여 DC 리스토어 유닛(720)의 동작을 제어한다. 출력 피드백 신호(427)는 예를들어 2비트 제어 신호일 수 있는데, 이는 DC 리스토어 유닛(720)에 지시하여 아날로그/디지털 컨버터(730)로 제공되는 비디오 신호 상의 DC 출력을 증가시키거나 감소시킨다.
3개 모드 중 두번째는 슈퍼 비디오 신호를 생성하는데 사용되며, 그것은 도8과 관련해서 도시되어 있다. 제2 디코더 모드는 제2 아날로그/디지털 컨버터(820)를 추가하여 제1 모드에서 설명된 모든 엘리먼트들을 포함한다. 비디오 신호(425)(도4)는 제1 부분(812)과 제2 부분(810)으로 분리된다. 멀티플렉서(424)에 의해 제공되는 비디오 신호(425)(도4)의 신호들 중 제1 부분(812)은 DC 리스토어 유닛(720)으로 제공되고, 비디오 신호(425)(도4)의 신호들 중 제2 부분(810)은 제2 아날로그/디지털 컨버터(820)로 입력된다. DC 리스토어 유닛(720)으로부터의 비디오 신호(425)의 제1 부분(812)은 제2 아날로그/디지털 컨버터(730)에 의해 디지털화되어 디코더(422)로 제공된다. 추가로, 비디오 신호(425)의 제2 부분(810)도 아날로그/디지털 컨버터(820)에 의해 디코더(422)로 제공된다. 슈퍼 비디오 신호는 2-와이어 아날로그 포트를 필요로 하는데, 이는 여러 장치(예를들어, VCR, DVD 플레이어 등)에 연결하기 위함이다.
이러한 제2 모드에서, 디코더(422)는 2개의 아날로그/디지털 컨버터(730,820)로부터 디지털화된 비디오 신호(732,832)를 이용해서 슈퍼 비디오 신호를 생성한다. 아날로그/디지털 컨버터(730,820)와 디코더(422)는 예를들어 20,21,22,23,24,25,26,27,28,29,30 MHz일 수 있는 디지털 클럭 신호(644a-n)(도6)를 수신함으로써 동작한다. 몇 예에서, 비디오 신호의 제1 부분(812)은 비디오 신호(425)의 Y-채널이고, 비디오 신호(425)의 제2 부분(810)은 비디오 신호의 크로마 채널이다.
3개 모드 중 세번째는 컴포넌트 비디오 신호를 생성하는데 사용되는데, 이는 도9에 도시되어 있다. 제3 디코더는 제2 모드에서 설명된 모든 엘리먼트를 포함하고, 덧붙여 제2 및 제3 DC 리스토어 유닛(930,920)과 멀티플렉서(940)를 포함한다. 비디오 신호(425)는 제1 부분(914), 제2 부분(910), 그리고 제3 부분(912)로 분할된다. 멀티플렉서(424)에 의해 제공되는 비디오 신호(425)(도4)의 제1 부분(914)은 DC 리스토어 유닛(720)으로 제공되고, 비디오 신호(425)(도4)의 신호들 중 제2 부분(910)은 DC 리스토어 유닛(930)으로 제공되고, 그리고 비디오 신호(425)(도4)의 신호들 중 제3 부분(912)은 DC 리스토어 유닛(920)으로 제공된다. 컴포넌트 비디오 신호들은 3-와이어 아날로그 포트를 필요로 하는데, 이는 여러 장치(예를들어, VCR, DVD 플레이어 등)에 연결하기 위함이다.
DC 리스토어 유닛(720)으로부터 비디오 신호(425)의 제1 부분(914)은 아날로그/디지털 컨버터(730)에 의해 디지털화되어, 디코더(422)로 제공된다. DC 리스토어 유닛(930,920)으로부터 비디오 신호(425)의 제2 및 제3 부분(910,912)은 아날로그/디지털 컨버터(820)에 의해 선택적으로 디지털화되어(예를들어, 멀티플렉서(940)를 이용하여 선택되는 것에 의해), 디코더(422)로 제공된다. 멀티플렉서(940)는 디코더(422)로부터 제어 신호(429)를 수신하는데, 이는 아날로그/디지털 컨버터(820)를 통해 비디오 신호(425)의 제2 및 제3 부분(910,912)를 타임 멀티플렉스하기 위함이다.
제3 모드에서, 몇 예는, 디코더(422)가 2개 아날로그/디지털 컨버터(730,820)로부터 디지털화된 비디오 신호(732,832)를 이용하여 컴포넌트 비디오 신호를 생성한다. 아날로그/디지털 컨버터(730,820)와 디코더(422)는 예를들어 20,21,22,23,24,25,26,27,28,29,30 MHz일 수 있는 디지털 클럭 신호(644a-n)(도6)를 수신함으로써 동작한다. 추가로, 디코더(422)는 출력 피드백 신호(427)를 이용하여 DC 리스토어 유닛(720,930,920)의 동작을 제어한다. 몇 예에서, 비디오 신호(425)의 제1, 제2 및 제3 부분(914,910,912)은 각각 비디오 신호(425)의 Y-채널, U-채널, 그리고 V-채널일 수 있다.
보통 이용가능한 여러 종류의 DC 리스토어 유닛, 아날로그/디지털 컨버터, 그리고 비디오 디코더가 위의 기능들을 수행하는데 이용될 수 있다. 설명을 간단히 하기 위해서, 그들의 특정 동작들은 이 설명에서 생략되어 있다.
도10에 도시된 예에서, 3개 디코더 모드 모두는 디코더(422) 중 2개, 아날로그/디지털 컨버터(730,820) 중 3개를 사용하여 구현되어 있다. 도10에 도시된 구성은 듀얼 디코더(420)(도4)가 3개 모드 중 어떤 2개와 부합하는 적어도 2개의 비디오 신호(426,428)(즉, 각 디코더로부터 하나의 비디오 신호)를 실질적으로 동시에 제공한다.
도10은 2개 디코더를 사용하여 2개의 복합 비디오 신호, 1개의 복합 및 1개의 슈퍼 비디오 신호, 1개의 복합 및 1개의 컴포넌트 비디오 신호, 그리고 2개의 슈퍼 비디오 신호 중 적어도 한 가지를 생성한다. 도10에 도시된 구현예는 한 세트의 멀티플렉서(1020,1022,1023,1025,1021,1024,1026,1027 및 1028), 3개의 아날로그/디지털 컨버터(730,820,1010), 4개의 DC 리스토어 유닛(720,721,930,920), 디멀티플렉서(1040), 그리고 2개의 디코더(422a,422b)를 포함한다.
도10의 구현 예는, 2개의 복합 비디오 신호를 생성하기 위해 사용될 때, 다음의 방식으로 동작한다. 제1 비디오 신호(425a)는 멀티플렉서(1020)의 제1 입력에 연결되고, 제2 비디오 신호(914)는 멀티플렉서(1024)의 제2 입력에 연결된다. 멀티플렉서(1020)의 제1 입력은 선택되고, 그리고 멀티플렉서(1021)의 제4 입력으로 출력되어 DC 리스토어 유닛(720)으로 입력된다. 멀티플렉서(1024)의 제2 입력은 선택되고, 그리고 DC 리스토어 유닛(721)으로 출력된다. 구현의 나머지 부분들의 동작은 복합 비디오 신호가 생성되는 도7에서 설명되었던 것과 유사하다. 예를들어, DC 리스토어 유닛(720,721), 아날로그/디지털 컨버터(730,1010), 그리고 디코더(422a,422b)는 도7에서 설명된 바와 같은 복합 비디오 신호를 생성하는 유사한 방식으로 동작한다.
도10에 도시된 구현 예를 이용하여 1개 복합 및 1개 슈퍼 비디오 신호 또는 1개 복합 및 1개 컴포넌트 비디오 신호의 생성은 위에서 설명한 2개 복합 비디오 신호를 생성하는 것과 유사한 방식으로 수행된다. 예를들어, 슈퍼 비디오 신호를 생성하는데 사용되는 비디오 신호(425)의 제1 및 제2 비디오 신호 부분(812,810)은 멀티플렉서(1022,1026)으로 제공된다. 멀티플렉서(1022,1026)의 출력은 아날로그/디지털 컨버터(730,820)에 의해 처리될 비디오 신호를 선택하는 멀티플렉서(1021,1027)로 제공된다. 유사하게, 멀티플렉서(1024)는 어느 비디오 신호가 아날로그/디지털 컨버터(1010)에 의해 처리될 지를 선택한다. 동작의 다양한 모드에 대한 멀티플렉서 입력 선택의 보다 상세한 설명은 아래의 테이블1에 나타나 있다.
도10에 도시된 구현 예는 2개의 슈퍼 비디오 신호(426,428)의 생성을 가능하게 할 수도 있다. 이 기능을 제공하기 위해서, 제1 주파수 및 제1 위상(예를들어 20 MHz)에서 동작하는 제1 클럭 신호(644a)는 아날로그/디지털 컨버터(730)와 디코더(422a)로 제공된다. 제1 클럭 신호로부터 180도 위상이 벗어난 제2 주파수(예를들어 180도 위상차를 갖는 20 MHz)에서 동작하는 제2 클럭 신호(644b)는 아날로그/디지털 컨버터(1010)와 디코더(422b)로 제공된다. 제1 클럭 신호와 동일한 위상을 가지며 실질적으로 제1 클럭 주파수의 2배의 주파수인 제3 주파수(예를들어 40 MHz)에서 제3 클럭 신호(644c)는 아날로그/디지털 컨버터(820)로 제공된다. 클럭 신호(644b)는 클럭 신호(644b)를 멀티플렉서들(1026,1027)에 선택적으로 결합시키는 멀티플렉서(1030)에 제공된다. 클럭 신호를 멀티플렉서(1026,1027)의 선택 입력으로 연결시킴으로써, 아날로그/디지털 컨버터(820) 상에서 비디오 신호 입력(810a-c)에 대해 시분할 멀티플렉싱을 수행할 수 있다. 클럭 신호(644a)는 디멀티플렉서(1040)로 연결되어, 시분할된 비디오 신호를 디멀티플렉스한다. 시분할 멀티플렉싱 동작에 대한 보다 명료한 설명은 도11에서 제공된다.
도11은 2개 비디오 신호(425) 중 2개의 제2 부분(810)을 시분할 멀티플렉싱하기 위한 예시적인 타이밍도이다. 동작들을 시분할 멀티플렉싱함으로써, 제4 아날로그/디지털 컨버터의 필요성이 없어지게 되고, 그 결과로 듀얼 비디오 프로세서(400)의 전체 비용을 줄인다. 도11의 타이밍도는 제1, 제2, 제3 클럭 신호(644a,644b,644c) 각각에 상응하는 3개 클럭 신호와 3개 아날로그/디지털 컨버터(730,1010,820)의 출력들을 포함한다. 타이밍도에서 볼 수 있듯이, 클럭 1과 클럭 2는 클럭 3의 1/2 주파수에서 동작하고, 그리고 클럭 3의 하강 에지에서 변한다.
보여지는 바와 같이, T1과 T4 사이에서, 클럭 644a(클럭1)의 전체 구간이 완료되고, 제1 비디오 신호(S0)의 제1 부분(812a-c)에 상응하는 아날로그/디지털 컨버터(730)(ADC1)의 출력은 디코더(422a)에 의한 프로세싱에 이용가능하다. 타임 구간(T2)의 시작에서 클럭 3의 상승 에지에, 아날로그/디지털 컨버터(820)(ADC3)는 제2 비디오 신호(S1)의 제1 부분(810a-c)를 처리하기 시작하고, 타임 구간(T3)의 끝에서 프로세싱을 완료한다.
타임 구간(T3)의 시작에서, 아날로그/디지털 컨버터(820)(ADC2)는 비디오 신호(S1)의 제1 부분(810a-c)를 처리하기 시작하고, 타임 구간(T6)의 끝에서 프로세싱을 완료한다. 비디오 신호(S1)의 제1 부분(810a-c)에 상응하는 ADC2의 출력은 타임 구간(T6)의 끝에서 디코더(422b)에 의한 프로세싱에 이용가능하게 된다. 타임 구간(T4)의 시작에서 클럭 3의 상승 에지에, 아날로그/디지털 컨버터(820)(ADC3)는 비디오 신호(S0)의 제2 부분(810a-c)를 처리하기 시작하고, 타임 구간(T5)의 끝에서 프로세싱을 완료한다.
이와같이, 타임 구간(T6)의 끝에서, 2개 비디오 신호(S0,S1)의 2개 부분은 단지 3개의 아날로그/디지털 컨버터를 사용해서 프로세싱을 완료하였다.
타임 구간(T5,T6) 사이에서 클럭 3의 상승 에지에, 디멀티플렉서(1040)은 ADC3로부터 비디오 신호(S0)의 제2 부분(810a-c)의 출력을 디코더(644a)로 제공하여 처리된 비디오 신호(426)를 생성한다. 동시에, 비디오 신호(S1)의 제2 부분(812)은 아날로그/디지털 컨버터(820)(ADC3)에 의한 프로세싱을 위하여 선택되고, 타임 구간(T7)의 끝에서 이용가능하게 된다.
위의 것은 3개의 아날로그/디지털 컨버터(730,1010,820)를 이용하여 2개의 슈퍼 비디오 신호(426,428)를 생성하기 위한 예의 설명이다. 아래 테이블1은 복합(cst), 컴포넌트(cmp), 그리고 슈퍼 비디오 신호(svid)의 다양한 결합을 생성하기 위하여 상응하는 멀티플렉서들로 제공될 수 있는 여러 예시적인 선택 신호들을 요약하고 있다.
듀얼 디코더(420)는 비디오 카세트 레코더(VCR)로부터 수신되는 불안정 아날로그 또는 디지털 신호를 처리하도록 구성되기도 한다. 불안정 신호는 빠른 포워딩, 빠른 리와인딩 또는 휴지 모드와 같은 다양한 모드의 동작때문에 VCR에 의해 생성된다. 듀얼 디코더(420)는 이러한 타입의 신호들을 처리해서 그러한 상황 중에 양질의 출력 신호를 제공할 수 있다.
불안정 비디오 신호는 VCR에 의해 생성된 불안정 싱크 신호로 인해 야기될 수 있다. 불안정 싱크 신호를 처리하는 하나의 적당한 기술은 불안정 비디오 신호를 버퍼링하는 것이다. 예를들어, 선입선출(FIFO) 버퍼를 디코더의 출력 가까이에 위치시킬 수 있다. 먼저, 디코더 출력 데이터는 기준으로서 불안정 싱크 신호를 이용하여 FIFO 버퍼로 쓰여진다. 싱크 신호와 클럭은 디코더 내의 로직 블록으로부터 재발생 혹은 재생성되고, 이후 그러한 모드의 동작이 이루어질 때 FIFO 버퍼로부터 그 데이터를 읽는데 사용될 수 있다. 이와같이, 불안정 비디오 신호는 안정 싱크 신호로 출력될 수 있다. 동작의 모든 다른 시나리오나 모드에서, FIFO 버퍼는 바이콘텐츠될 수 있고, 그 출력은 FIFO의 입력과 동일할 수 있다.
대안으로, 오프칩 메모리에서 FIFO 버퍼들을 구현하는 것은 불안정 싱크 신호들의 적절한 처리를 가능하게 한다. 예를들어, 불안정 싱크 신호가 검출되면, 디코더는 2-D 모드에 놓이고, 이를 통해 더 적은 오프칩 메모리를 이용하게 된다. 보통 3-D 동작에 사용되는 오프칩 메모리(300)의 상당 부분은 자유롭게 되고, 앞서 언급한 FIFO 버퍼를 구현하는데 사용될 수 있다(즉, 적어도 하나의 전체 데이터 벡터의 동등한 것이 자유 메모리 공간으로서 이용가능하다). 더구나, 오프칩 메모리 내의 FIFO 버퍼는 전체 프레임을 위한 픽셀들을 저장할 수 있고, 그래서 쓰기와 읽기 속도가 일치하지 않아도 출력에서 프레임들이 리피트되거나(get repeated) 드롭되는(get dropped) 것 중 적어도 하나로 된다. 특정 프레임 또는 프레임 내의 필드의 리피팅(repeating)이나 드로핑(dropping)은 시스템이 상당히 양호한 픽처를 디스플레이할 수 있도록 한다.
도12는 비디오 파이프라인 내 전단(540)의 예시적 기능을 상세히 도시하고 있다. 특히, 채널 셀렉터(1212)는 다수의 비디오 소스 스트림들(512)로부터 4개의 채널을 선택하도록 구성된다. 4개 채널은 전단(540) 내 4개 파이프라인된 단들을 따라 처리될 수 있다. 몇 예에서, 4개 채널은 메인 비디오 채널, PIP 채널, 온스크린 디스플레이(OSD) 채널, 그리고 데이터 계측 또는 테스팅 채널이다.
전단(540)은 채널들 중 어떤 하나에 여러 비디오 프로세싱 단들(1220a,1220b,1230,1240)을 구현할 수 있다. 몇 예에서, 여러 채널은 다른 단들 중 어떤 하나로부터 하나 이상의 리소스들을 공유하여, 여러 채널의 프로세싱 파워를 증가시킨다. 비디오 프로세싱 단들(1220a,1220b)에 의해 제공되는 기능들의 몇 예는 최대 픽처 품질을 생성하는데 사용되는 잡음 저감과 디-인터레이싱을 포함할 수 있다. 잡음 저감과 디-인터레이싱 기능은 오프칩 메모리(300)를 공유하고, 그리고 그러한 메모리는 공유 메모리 단들(1260)이라고 표시하기도 하는데, 이는 도13과 15의 설명에서 보다 자세하게 설명될 것이다. 과도한 도면 작업을 피하기 위해서, 공유 메모리 단들(1260)은 도12에서 채널 1에 상응하는 프로세싱 단들의 일부로 도시되어 있다. 그러나, 하나 이상의 공유 메모리 단들(1260)이 전단(540)에서 채널 파이프라인들의 어떤 하나의 일부일 수 있다.
잡음 저감은 임펄스 잡음, 가우시안 잡음(공간적 및 시간적), 그리고 블록 잡음과 모스키토 잡음과 같은 MPEG 아티팩트(artifact)들을 제거할 수 있다. 디-인터레이싱은 인터레이스된 비디오로부터 순차 비디오를 생성하는 것을 포함하는데, 이는 움직임에서 가장자리 적응형 보간법을 이용하여 어떤 소실된 라인들을 삽입함으로써 이루어진다. 대안으로, 디-인터레이싱 기능은 적응성 있게 움직임에 기초하여 시간적 및 공간적 삽입의 결합을 이용할 수 있다. 잡음 저감기와 디-인터레이서 모두는 3-D 도메인에서 동작하고, 그리고 오프칩 메모리에 프리임의 필들들을 저장하는 것을 요구한다. 따라서, 디-인터레이서와 잡음 저감기는 오프칩 메모리에 액세스하는데 사용되는 메모리 인터페이스(530)에 대해 클라이언트로서 역할한다. 몇 예에서, 잡음 저감기와 디-인터레이서는 오프칩 메모리를 공유해서 메모리 공간을 최대화하고, 가장 효율적인 방식으로 데이터를 처리한다. 이는 공유 메모리 단들(1260)에 의해 보여진 바와 같다. 이 프로세스는 도13과 15의 설명에서 보다 상세하게 설명될 것이다.
3개의 비디오 처리 단들(1220a,1220b,1230)의 어떤 것은 포맷 변환을 수행하여 비디오 신호를 원하는 도메인으로 변환한다. 예를들어, 이러한 타입의 변환은 입력 비디오 신호 스트림을 601 또는 709 컬러 스페이스에서 YC 4:2:2 포맷으로 변경하는데 사용될 수 있다.
전단(540)은 또한 계측 파이프라인(instrumentation pipeline)(1240)을 제공하여 데이터 계측 기능을 수행한다. 계측 파이프라인(1240)은 예를들어 액티브 비디오의 시작 및 종료 픽셀과 라인 위치들을 찾는데 사용되고, 그리고 제어가능한 위상 샘플러(ADC) 업스트림이 있을 때 바람직한 샘플링 클럭 위상을 찾는데 사용된다. 이러한 기능들을 수행하는 것은 해상도, 레터-박싱(letter-boxing), 그리고 필러-박싱(pillar-boxing)과 같은 입력 채널 파라메터들을 자동 검출하는 데 도움이 된다. 게다가, 그러한 채널 파라메터들을 검출하는 것은 마이크로-콘트롤러나 다른 적절한 프로세싱 엘리먼트를 통해서 스케일링과 가로세로비 변환과 같은 특성을 제어하는 데 그것들을 이용하는데 도움이 된다. 전단(540)은 또한 모든 4개 채널에 대해 싱크 비디오 신호 계측 기능을 수행하는데, 이는 싱크 신호의 손실, 클럭 신호의 손실, 또는 범위 밖의 싱크나 클럭 신호를 검출하기 위한 것이다. 이러한 기능들은 또한 마이크로-콘트롤러나 다른 적절한 프로세싱 엘리먼트를 통해 전력 관리 제어를 구동하는데 사용된다.
전단(540)의 끝에서, 한 세트의 FIFO 버퍼들(1250a-c)는 비디오 스트림을 샘플해서 샘플된 비디오 신호들(1252,1254,1256)을 제공하는데, 이는 전단(540)과 프레임률 변환 및 스케일링(550)(도5) 파이프라인 단들 사이에서 선택된 채널들을 재타이밍하는 데 사용된다.
공유 메모리 단들(1260)에 대한 보다 상세한 설명은 도13과 15의 설명에서 제공된다. 특히, 도13에 도시된 바와 같이, 공유 메모리 단들(1260)은 적어도 잡음 저감기(330)와 디-인터레이서(340)의 기능을 포함한다. 이들 기능 둘은 고품질 프레임을 생성하기 위하여 프레임 스토리지를 필요로 하는 시간적 기능들이다. 여러 메모리 액세스 블록들(즉, 메모리 클라이언트들)이 오프칩 메모리(300)를 공유할 수 있게 함으로써, 오프칩 메모리(300)의 사이즈와 오프칩 메모리(300)와 인터페이스하는데 필요한 대역폭이 감소될 수 있다.
잡음 저감기(330)는 3-D 모드에서 인터레이스된 입력의 2개 필드에서 동작한다. 잡음 저감기(330)가 동작하는 2개 필드는 라이브 필드(1262)와 라이브 필드(1262) 앞의 2개 필드였던(즉, 이전 필드(332)의 이전) 필드를 포함한다. 디-인터레이서(340)는 3-D 모드에서 3개의 인터레이스된 필드들에서 동작한다. 3개 필드는 라이브 필드(1262), 이전 필드(1330), 그리고 이전 필드의 이전 필드(332)를 포함한다.
도13과 도14에 도시된 바와 같이, 필드 버퍼들(1310,1312)는 잡음 저감기(330)와 디-인터레이서(340)에 의해 공유된다. 잡음 저감기(330)는 오프칩 메모리(300)로부터 읽으며 필드 버퍼(1310)로부터 이전 필드(332)의 이전을 읽어, 그것을 라이브 필드(1262)와 처리하여 잡음 저감된 출력(322)을 제공한다. 잡음 저감된 출력(322)은 오프칩 메모리(300)의 필드 버퍼(1312)에 쓰여진다. 디-인터레이서(340)는, 오프칩 메모리(300)로부터, 필드 버퍼(1312)로부터의 이전 필드(1330) 및 필드 버퍼(1310)로부터의 이전 필드(332) 이전을 읽고, 읽은 필드들을 라이브 필드(1262) 또는 잡음 저감된 출력(322)와 처리하여 디-인터레이스된 비디오(1320)를 출력으로 제공한다.
예를들어, 도14에 도시된 바와 같이, 라이브 필드(1262)(필드1)는 잡음 저감기(330)에 제공되는데, 이는 잡음 처리된 출력(322)을 제1 타임 구간(즉, T1) 동안에 출력하기 위함이다. 잡음 저감기(330)가 필드1의 처리를 완료한 후 또는 전에(즉, 타임 구간 T2), 잡음 저감된 출력(322)(필드1)은 잡음 저감기(330)에 의해 디-인터레이서(340)에 제공되고, 또는 대안적으로 잡음 저감기(330)를 바이패스하고 직접 디-인터레이서(340)으로 라이브 필드(1262)를 경유해서 제공된다(예를들어, 잡음 저감이 필요하지 않는다면). 다른 경우에서, 제2 타임 구간 동안(즉, 타임 구간 T2), 잡음 저감된 출력(322)(필드1)은 잡음 저감기(330)에 의해 오프칩 메모리(300)의 필드 버퍼(1312)로 쓰여진다.
필드 버퍼(1312)(필드1)의 출력(1330)은, 프레임(필드2) 내의 다음 라이브 필드를 처리하면서, 타임 구간(T2) 동안 오프칩 메모리(300)로부터 디-인터레이서(340)에 의해 읽혀진다. 그 결과, 필드 버퍼(1312)는 잡음 처리된 출력(322)(필드2)보다 먼저 처리되었던 잡음 저감된 출력(필드1)을 제공한다(즉, 라이브 필드 보다 이전).
잡음 저감기(330)가 제3 타임 구간(즉, T3) 동안 라이브 필드(1262)(필드2) 에서 다음 필드의 처리를 완료한 후 또는 전에, 필드 버퍼(1312)의 라이브 필드(1330)보다 이전 필드가 필드 버퍼(1310)로 쓰여진다. 다음의 잡음 저감된 출력(322)(필드2)은 잡음 저감된 출력(필드1) 대신에 필드 버퍼(1312)에 쓰여질 수 있다. 타임 구간(T3) 동안, 필드 버퍼(1312)의 콘텐츠는 잡음 저감된 출력(필드2)(즉, 이전 라이브 필드)이고, 필드 버퍼(1310)의 콘텐츠는 잡음 저감된 출력(필드1)(즉, 이전 라이브 필드보다 이전)이다.
타임 구간(T3) 동안, 잡음 저감기(330)는 라이브 필드(1262)(필드3)에서 그리고 선행 라이브 필드보다 이전의 필드(332)(필드1)에서 동작한다. 동일 타임 구간(T3) 동안, 디-인터레이서(340)는 라이브 필드(1262)(필드3) 혹은 잡음 저감된 출력(필드3), 라이브 필드(1330) 이전의 라이브 필드(필드2), 및 이전 라이브 필드(332)보다 이전의 라이브 필드(필드2)에서 동작할 수 있다. 이로 인해, 잡음 저감기(330)와 디-인터레이서(340) 사이의 오프칩 메모리(300)의 공유는 단지 2-필드 버퍼 로케이션만을 사용하는 결과가 되고, 반면에 도3에 도시된 4개 필드 버퍼 로케이션은 유사한 기능을 제공하기 위해 오프칩 메모리(300)에 전형적으로 요구된다.
메모리에서 필드 버퍼 로케이션의 수를 줄임으로써, 추가적인 비디오 처리 파이프라인들이 같은 처리 능력과 더 많은 메모리 스토리지 및 대역폭을 가지고 제공될 수 있으며, 이로 인해 적어도 2개 채널의 고품질 비디오 처리를 가능하게 한다. 게다가, 듀얼 비디오 프로세서(400)와 오프칩 메모리(300) 사이의 데이터 전송 대역폭은 감소될 수 있는데, 이는 단지 하나의 쓰기 포트와 2개의 읽기 포트만이 전술한 기능을 제공하는데 사용될 수 있기 때문이다.
몇몇 다른 예에서, 잡음 저감기(330)와 디-인터레이서(340)는 각 프레임에서 동시에 다수의 필드 라인들에 대해 동작할 수 있다. 도15에 도시된 바와 같이, 이들 필드 라인들의 각각은 라이브 필드 라인 버퍼들(1520), 이전 라이브 필드 라인 버퍼들(1530), 그리고 이전 라이브 필드 라인 버퍼들 이전(1510)에 저장될 수 있다. 라인 버퍼들(1510,1520,1530)은 듀얼 비디오 프로세서(400) 내의 스토리지 로케이션들일 수 있는데, 이는 데이터를 저장하고 액세스하는데 고성능 및 속도를 제공할 수 있다. 스토리지 공간을 더 줄이기 위해서, 잡음 저감기(330)와 디-인터레이서(340) 모두에 의해 사용되는 라인 버퍼들(1510)은 잡음 저감기와 디-인터레이서 모듈들에서 공유될 수 있다.
도15에 도시된 바와 같이, 라이브 필드(1262)가 잡음 저감기(330)와 디-인터레이서(340)에 의해 수신될 때, 필드 버퍼(1312)에 라이브 필드를 저장하기 위해 도13과 14에서 설명된 동작에 더하여, 라이브 필드(1262)는 또한 라이브 필드 라인 버퍼들(1520)에 저장될 수 있다. 이는 잡음 저감기(330)와 디-인터레이서(340)로 하여금 다른 시간 구간들에서 동시에 수신된 다수의 라이브 필드 라인들을 액세스할 수 있게 한다. 유사하게, 필드 버퍼 로케이션들(1310,1312)에 저장된 콘텐츠는 대응하는 라인 버퍼들(1510,1530)로 이동될 수 있고, 각각 차례대로 이전 라이브 필드(라이브 필드 이전의 잡음 저감된 출력)와 이전 라이브 필드 라인들의 이전들(이전 라이브 필드에 앞서는 잡음 저감된 출력)에 대한 버퍼링을 제공한다. 이는 잡음 저감기(330)와 디-인터레이서(340)로 하여금 다수의 이전 라이브 필드 라인들과 이전 라이브 필드 라인들의 이전에 동시에 액세스할 수 있게 한다. 필드 라인 버퍼들을 포함하는 결과로서, 잡음 저감기(330)와 디-인터레이서(340)는 다수의 필드 라인들에서 동시에 동작할 수 있다. 결과적으로, 잡음 저감기(330)와 디-인터레이서(340)는 필드 버퍼 로케이션(1310)에 저장된 이전 라이브 필드의 이전에 대한 액세스를 공유하기 때문에, 그것들은 또한 대응하는 필드 라인 버퍼들(1510)에 대한 액세스를 공유할 수 있다. 이것은 차례로 듀얼 비디오 프로세서(400)에 대하여 또는 실질적으로 근접하여 요구되는 스토리지의 양을 줄일 수 있다.
단지 3개의 라인 버퍼들이 도15에 도시되어 있지만, 임의 개수의 필드 라인 버퍼들이 제공될 수 있다. 특히, 제공되는 필드 라인 버퍼들의 수는 듀얼 비디오 프로세서(400) 및/또는 잡음 저감기(330)와 디-인터레이서(340)에 의해 요구되는 동시 필드 라인들의 수에 달려 있다. 그러나, 임의 개수의 추가적 잡음 저감 유닛과 디-인터레이싱 유닛들이 다수의 필드 라인들을 처리하는데 도움을 주도록 구비될 수 있다.
예를들어, 각각 3개의 라이브 필드 라인들을 동시에 처리할 수 있는 2개의 잡음 저감기(330)와 2개의 디-인터레이서(340)가 제공되면, 8개의 라이브 필드 라인 버퍼들(1520), 6개 이전 라이브 필드 라인 버퍼들(1530), 그리고 6개의 이전 라이브 필드 라인 버퍼들의 이전들(1510)은 다수의 필드 라인들을 처리하기 위해 사용될 수 있는데, 여기서 각 필드 라인 버퍼의 출력들은 잡음 저감기들과 디-인터레이서 유닛들의 대응하는 입력들과 연결된다. 사실, 필요한 잡음 저감기들과 디-인터레이서들의 수와 온칩 스페이스가 이용가능하다면, 하나 이상의 프레임들의 콘텐츠는 필드 버퍼들에 저장될 수 있다.
도16은 프레임률 변환 및 스케일링 파이프라인(FRC 파이프라인)(550)(도5)을 보다 상세히 도시하고 있다. FRC 파이프라인(550)은 적어도 스케일링 및 프레임률 변환 기능을 포함할 수 있다. 특히, FRC 파이프라인(550)은 스케일링을 위해 사용되는 적어도 2개의 모듈을 포함하며, 이들은 스케일러 슬롯들(1630,1632,1634,1636) 중 2개에 위치할 수 있는데, 하나는 제1 채널에서 스케일링을 제공하기 위한 것이고, 하나는 제2 채널에서 스케일링을 제공하기 위한 것이다. 이 배열의 이점은 도17의 설명에서 보다 분명해 질 것이다. 스케일러 슬롯들(1630,1632,1634,1636) 내의 이들 스케일링 모듈들 각각은 어떤 스케일링 비율로 업-스케일링과 다운-스케일링을 수행할 수 있다. 스케일러들은 또한 가로세로비 변환, 수평 비선형 3 존 스케일링, 인터레이싱 및 디-인터레이싱을 수행하기 위한 회로를 포함할 수 있다. 몇 예에서 스케일링은 동기 모드에서(즉, 출력이 입력과 동기됨) 또는 오프칩 메모리(300)를 통해서(즉, 출력이 입력에 대해 어디에서도 위치될 수 있음) 수행될 수 있다.
FRC 파이프라인(550)은 또한 프레임률 변환(FRC)을 위한 기능을 포함할 수 있다. 채널들 중 적어도 2개는 프레임률 변환 회로를 포함할 수 있다. FRC를 수행하기 위해, 비디오 데이터는 메모리 버퍼에 쓰여지고 그리고 원하는 출력 속도로 버퍼로부터 읽혀져야 한다. 예를들어, 프레임률의 증가는 입력 프레임보다 더 빨리 출력 버퍼를 읽기 때문에 발생하는데, 이로 인해 특정 프레임이 규정 시간을 넘어 반복되는 것을 유발한다. 프레임률의 감소는 특정 프레임이 쓰여지는 것보다 늦은 속도로 버퍼로부터 출력되는 프레임을 읽음으로써(즉, 입력 속도보다 늦게 프레임을 읽는 것) 발생한다. 프레임 티어링(tearing)이나 비디오 아티팩트들은 비디오 데이터가 이용가능한 구간 동안에 특정 프레임(즉, 액티브 비디오)을 읽음으로써 나타날 수 있다.
특히, 액티브 비디오에서 나타나는 프레임 티어링과 같은 비디오 아티팩트들을 피하기 위해서는, 프레임들의 반복과 드롭핑이 한 프레임 내의 필들들 중간에서가 아니라 전체 입력 프레임들에 걸쳐 일어나야 한다. 달리 말해, 비디오의 불연속성은 프레임 경계들(즉, 픽처 데이터가 제공되지 않는 수직 또는 수평 싱크)을 가로질러서 만 발생해야 하고, 액티브 비디오의 영역 내는 아니다. 티어링 없는 콘트롤 메커니즘(1610)은 프레임들 사이의 불연속성을 완화하기 위해 동작할 수 있는데, 이는 예를들어 메모리 인터페이스(530)가 메모리 내의 프레임의 일부를 읽을 때 제어함으로써 이루어진다. FRC는 정상 모드나 티어링 없는 모드에서 수행될 수 있다(즉, 티어링 없는 콘트롤 메커니즘(1610)을 이용하여).
제1 및 제2 채널들의 각각에서 스케일러 슬롯들(1630,1632,1634,1636) 중 2개에 위치하는 2개 스케일러들에 더하여, 제3 채널에 하부 단 스케일러(1640)가 더 있을 수 있다. 하부 단 스케일러(1640)는 보다 기본적인 스케일러인데, 예를들어 단지 1:1 또는 1:2 업-스케일링이나 다른 필요한 스케일링 비율을 수행하는 스케일러이다. 대안으로, 제1 및 제2 채널들 내의 스케일러들 중 하나는 제3 채널 상에서 스케일링을 수행할 수 있다. 멀티플렉서들(1620,1622)은 적어도 3개의 채널들 중 어느 것이 이용가능한 스케일러들 중 어느 것에 연결되는 지를 제어할 수 있다. 예를들어, 멀티플렉서(1620)는 슬롯(1630) 또는 슬롯(1632) 내 하나의 스케일러에서 제1 타입의 스케일링 동작을 수행하기 위해 채널 3을 선택하고, 슬롯(1634) 또는 슬롯(1636) 내 하나의 스케일러에서 제2 타입의 스케일링 동작을 수행하기 위해 채널 1을 선택한다. 하나의 채널은 또한 임의 개수의 이용가능한 스케일러들을 이용할 수 있다.
FRC 파이프라인(550)은 또한 스무쓰무비(smoothmovie) 모드를 포함할 수 있는데, 이는 모우션 저더(motion judder)를 줄이기 위한 것이다. 예를들어, 디-인터레이서에는 필름-모드 검출 블록이 있을 수 있는데, 이는 입력 비디오 신호의 모드를 검출한다. 비디오 입력 신호가 제1 주파수(예를들어, 60 Hz)로 동작하면, 그것은 더 높은 주파수(예를들어, 72 Hz) 또는 더 낮은 주파수(예를들어, 48 Hz)로 변환될 수 있다. 더 높은 주파수로 변환하는 경우에, 프레임-반복 표시 신호는 필름-모드 검출 블록에서 FRC 블록으로 제공될 수 있다. 프레임-반복 표시 신호는 디-인터레이서에 의해 생성될 수 있는 데이터 중에서 제1 세트의 프레임들(예를들어, 프레임들 중 하나) 동안에는 높고, 제2 세트의 프레임들(예를들어, 4개 프레임들) 동안에는 낮을 수 있다. 프레임-반복 표시 신호가 높은 타임의 부분 동안, FRC는 프레임을 반복해서, 결과적으로 더 높은 주파수에서 데이터의 적정 시퀀스를 생성한다. 유사하게, 더 낮은 주파수로 변환하는 경우에, 프레임-드롭 표시 신호가 필름-모드 검출 블록에서 FRC 블록으로 제공될 수 있다. 프레임-드롭 표시 신호가 높은 타임의 부분 동안, 특정 세트의 프레임들은 시퀀스 밖으로 드롭되어, 결과적으로 더 낮은 주파수에서 데이터의 적정 시퀀스를 생성한다.
스케일러 포지셔닝 모듈(1660)에서 보는 바와 같이, 요구되는 스케일링의 타입에 의존하여, 스케일러는 여러 스케일러 슬롯들(1630,1632,1634,1636)에 위치되도록 구성될 수 있다. 비록 스케일러 슬롯(1632)은 제1 채널에서 수행된 스케일링 동작에 대응하고 스케일러 슬롯(1636)은 제2 채널에서 수행된 스케일링 동작에 대응하더라도, 스케일러 슬롯들(1632,1636)은 둘 다 메모리 인터페이스 뒤에 놓여 있다. 도시된 바와 같이, 하나의 스케일러 포지셔닝 모듈(1660)은 멀티플렉서(1624)를 포함하는데, 이는 특성 스케일러 구성에 대응하는 출력을 선택한다. 한편, 다른 하나의 스케일러 포지셔닝 모듈(1660)은 멀티플렉서를 포함하지 않고 대신에 다른 비디오 파이프라인 컴포넌트에 직접 연결된 스케일러의 출력을 가질 수 있다. 멀티플렉서(1624)는 단지 2개의 스케일러 슬롯들을 이용하여 3개 모드의 동작을 구현하는 유연성을(도17에서 보다 상세히 설명) 제공한다. 예를들어, 멀티플렉서(1624)가 제공되고, 슬롯(1630)에 위치된 스케일러가 다운-스케일링 또는 업-스케일링을 제공하기 위해 메모리에 연결될 수 있고, 또한 멀티플렉서(1624)에 연결될 수도 있다. 메모리 동작이 필요하지 않다면, 멀티플렉서(1624)는 스케일러 슬롯(1630)의 출력을 선택할 수 있다. 대안으로, 메모리 동작이 필요하면, 스케일러 슬롯(1630) 내의 스케일러는 데이터를 스케일할 수 있고, 그리고 멀티플렉서(1624)는 데이터를 업-스케일하거나 다운-스케일할 수 있고 스케일러 슬롯(1632)에 놓이는 다른 스케일러로부터 데이터를 선택할 수 있다. 멀티플렉서(1624)의 출력은 이후 블랭크 타임 옵티마이저(1650)와 같은 다른 하나의 비디오 파이프라인 컴포넌트로 제공되는데, 이에 대해서는 도18에서 보다 자세히 설명된다.
도17에 도시된 바와 같이, 스케일러 포지셔닝 모듈(1660)은 적어도 입력 FIFO 버퍼(1760), 메모리 인터페이스(530)로의 연결, 3개 스케일러 포지셔닝 슬롯들(1730,1734,1736) 중 적어도 하나, 쓰기 FIFO 버퍼(1740), 읽기 FIFO 버퍼(1750), 그리고 출력 FIFO 버퍼(1770)를 포함할 수 있다. 스케일러 포지셔닝 슬롯들은 도16에 설명된 슬롯들에 대응된다. 예를들어, 스케일러 포지셔닝 슬롯(1734)은 슬롯들(1630,1634)에 대응하고, 유사하게 스케일러 포지셔닝 슬롯(1730)은 슬롯(1630)에 대응하는데, 위에서 설명한 바와 같이 멀티플렉서(1624)를 이용하는 것은 슬롯(1630)으로 하여금 스케일러 포지셔닝 슬롯들(1730,1734)의 기능을 제공할 수 있게 한다. 1개 또는 2개 스케일러가 메모리 인터페이스(530)에 대해서 3개 스케일러 포지셔닝 슬롯들(1730,1734,1736) 중 하나 또는 2개에 위치될 수 있다. 스케일러 포지셔닝 모듈(1660)은 FRC 파이프라인(550) 내의 어떤 채널 파이프라인의 일부일 수 있다.
동기 모드가 필요할 때, 스케일러는 스케일러 포지셔닝 슬롯(1730)에 위치될 수 있다. 이 모드에서, FRC는 시스템에 없을 수 있는데, 이는 특정 FRC 채널 파이프라인에 의해 메모리로 액세스할 필요성을 없앤다. 이 모드에서, 출력 v-싱크 신호들은 입력 v-싱크 신호들에 동기될 수 있다.
스케일러는 대안적으로 스케일러 포지셔닝 슬롯(1734)에 위치될 수 있다. FRC가 필요하고 입력 데이터가 다운-스케일되어야 할 때, 스케일러를 슬롯(1734)에 위치시킬 필요가 있다. 메모리에 쓰기 전에 입력 데이터를 다운-스케일링하는 것은(즉, 더 적은 프레임 사이즈가 필요하기 때문에), 결과적으로 요구될 수 있는 메모리 스토리지의 양을 감소시킨다. 더 적은 데이터가 메모리에 저장되므로, 출력 데이터 읽기 속도는 감소될 수 있고, 이로 인해 요구되는 전체 메모리 대역폭을 줄이고 그리고 보다 효율적인 시스템을 제공한다.
다른 시나리오에서, 스케일러는 스케일러 포지셔닝 슬롯(1736)에 위치될 수 있다. FRC가 필요하고 입력 데이터가 업-스케일되어야 할 때, 스케일러를 슬롯(1736)에 위치시킬 필요가 있다. 읽혀지는 출력 데이터보다 낮은 속도로 데이터가 메모리에 제공된다(즉, 프레임 사이즈가 출력에서보다 입력에서 더 작다). 이번에는, 더 적은 데이터가 메모리에 쓰여지는데, 이는 더 작은 프레임을 저장하고 나중에 출력에서 스케일러를 이용해서 프레임 사이즈를 증가시킴으로써 이루어진다. 예를들어, 만약 스케일러가 슬롯(1734) 내 메모리 앞에 위치되고 입력 데이터를 업-스케일하는데 이용되었다면, 더 큰 프레임이 메모리에 저장되어 더 큰 대역폭을 필요로 했을 것이다. 그러나, 이 경우, 스케일러를 메모리 뒤에 위치시킴으로써, 더 작은 프레임이 초기에 메모리에 저장되고(따라서 더 적은 대역폭을 소비함) 나중에 다시 읽어(read back)지고 업 스케일(up-scale)된다.
제1 및 제2 채널에 대해, 2개의 개별 스케일러 포지셔닝 모듈(1660) 내에 2개의 독립 스케일러가 있기 때문에, 이들 스케일러 포지셔닝 모듈(1660)의 둘 모두에 메모리 액세스 요구가 있게 되면, 그것들 중 하나는 높은 대역폭을 요구하고 다른 것은 낮은 대역폭 메모리 액세스를 요구하는 경우일 수 있다. 블랭크 타임 옵티마이저(BTO) 멀티플렉서(1650)는 하나 이상의 스토리지 버퍼들(하나 이상의 필드 라인들을 저장하기에 충분히 큰)을 제공하는데, 이는 메모리 대역폭을 감소시키고 임의 개수의 채널들이 그 저장된 필드 라인을 공유할 수 있게 하며, 이로 인해 메모리 스토리지 요구들을 감소시킨다.
도18은 BTO 멀티플렉서(1650)(도16)의 동작에 대한 예시이다. 도18에 도시된 바와 같이, 제1 채널(메인)은 스크린(1810)의 대부분을 차지하고,제2 채널(PIP)은 스크린(1810)의 작은 부분을 차지한다. 결과로, PIP 채널은 더 적은 액티브 데이터를 갖고, 동일 타임 구간에서 메인 채널보다 메모리에 대한 더 적은 액세스를 요구하는데, 이로 인해 더 적은 대역폭을 요구한다.
예를들어, 한 프레임 내의 하나의 필드 라인이 16 픽셀을 포함한다면, PIP 채널은 그 프레임의 전체 필드의 4개 픽셀만을 차지하고, 한편 메인 채널은 나머지 12개 픽셀을 차지한다. 그러므로, PIP 채널이 4개 픽셀을 처리하기 위해 메모리에 액세스해야할 시간의 양은 메인 채널의 그것보다 4배 더 길고, 그래서 메모리 액세스 타임라인(1840)에 보여진 바와 같이 더 적은 대역폭을 요구한다(즉, PIP는 더 큰 블랭크 타임 구간을 갖는다). 따라서, 요구되는 메모리 대역폭을 줄이기 위해서는, PIP 채널은 상당히 낮은 속도로 메모리에 액세스하고, 메인 채널로 하여금 나머지 대역폭을 사용할 수 있게 한다.
BTO 멀티플렉서(1650)는 상이한 채널들에서 메모리에 액세스할 때 여러 클럭 속도를 사용하도록 구성된다. 예를들어, 더 낮은 클럭 속도이 특정 채널에서 요구될 때, BTO 멀티플렉서(1650)는 하나의 클럭 속도(1844)를 사용하여 메모리 액세싱 블록(클라이언트)(1820)으로부터 요청된 데이터를 수신하고, 그 데이터를 필드 라인 스토리지 버퍼에 저장하고, 그리고 제2 클럭 속도(1846)(이것은 더 낮을 수 있음)를 사용하여 메모리에 액세스한다. 클라이언트가 메모리에 직접 액세스하는데 높은 클럭 속도를 사용하는 것을 막고 대신에 더 낮은 클럭 속도로 메모리에 액세스하는데 필드 라인 버퍼를 이용함으로써, 대역폭 요구가 감소될 수 있다.
BTO 멀티플렉서(1650)는 상이한 채널 필드 라인 버퍼들의 공유를 가능하게 하는데, 이는 오프칩 메모리(300)에 의해 요구되는 스토리지의 양을 더 감소시킨다. BTO 멀티플렉서(1650)는 디스플레이의 한 부분을 공유하는 상이한 채널들을 블렌딩하거나 오버레이하기 위해 공유된 필드 라인 버퍼들을 사용할 수 있다.
BTO 멀티플렉서(1650)의 출력은 컬러 프로세싱 및 채널 블렌딩 비디오 파이프라인(560)(도5)에 제공될 수 있다. 도19는 컬러 프로세싱 및 채널 블렌딩(CPCB) 비디오 파이프라인(560)에 대한 보다 상세한 설명을 예시하고 있다. CPCB 비디오 파이프라인(560)은 적어도 샘플러(1910), 비쥬얼 프로세싱 및 샘플링 모듈(1920), 오버레이 엔진(2000), 그리고 보조 채널 오버레이(1962)를 포함하고, 더 나아가 주 및 보조 채널 스케일링 및 프로세싱 모듈(1970,1972), 서명 누산기(1990), 그리고 다운-스케일러(1980)를 포함한다.
CPCB 비디오 파이프라인(560)의 기능들은 적어도 루마 및 크로마 에지 개선에 의한 이미지 개선, 그리고 블루 잡음 형성 마스크를 통한 필름 그레인 생성 및 추가와 같은 비디오 신호 특성을 향상시키는 것을 포함한다. 또한, CPCB 비디오 파이프라인(560)은 적어도 2개의 채널을 블렌드할 수 있다. 블렌드된 채널들의 출력은 제3 채널과 선택적으로 블렌드되어, 하나의 3개 채널 블렌드 출력과 하나의 2개 채널 블렌드 출력을 제공한다.
도21에 도시된 바와 같이, CMU(1930)는 CPCB 비디오 파이프라인(560)의 오버레이 엔진(2000) 부분에 포함되는데, 적어도 하나의 비디오 신호 특성을 개선한다. 비디오 신호 특성들은 적응형 콘트라스트 개선(2120), 밝기, 콘트라스트, 이미지에서 글로벌한 휴 및 세츄레이션 조정, 부분적인 지능형 컬러 리매핑(2130), 휴와 밝기를 변하지 않게 하는 지능형 세츄레이션 콘트롤, 룩업 테이블을 통한 감마 콘트롤(2150, 2160), 그리고 요구된 컬러 스페이스로의 컬러 스페이스 변환(CSC)(2110)을 포함한다.
CMU(1930)의 아키텍쳐는 CMU로 하여금 어떤 포맷으로 비디오 채널 신호(1942)를 수신하고 그 출력(1932)을 어떤 다른 포맷으로 변환한다. CMU 파이프라인의 전단 내 CSC(2110)는 비디오 채널 신호(1942)를 수신하고 어떤 가능한 3-컬러 스페이스를 비디오 컬러 프로세싱 스페이스로 변환한다(예를들어, RGB를 YCbCr로 변환). 추가적으로, CMU 파이프라인의 끝에서 CSC는 컬러 프로세싱 스페이스로부터 출력 3-컬러 스페이스로 변환한다. 포괄적 프로세싱 기능(2140)은 밝기, 콘트라스트, 휴 및/또는 세츄레이션을 조정하는데 사용되고 출력 CSC와 공유될 수 있다. CSC와 포괄적 프로세싱 기능(2140)이 매트릭스 승산 연산(matrix multiplication operation)들을 수행하기 때문에, 2개의 매트릭스 멀티플렉서는 하나로 결합될 수 있다. 이 타입의 공유는 2개의 매트릭스 승산 연산들을 결합한 후 최종 계수를 미리 계산함으로써 수행될 수 있다.
CPCB 비디오 파이프라인(560)은 디스플레이 장치에 의해 요구될 수 있는 특정 수의 비트에 디더링(dithering)을 제공할 수도 있다. 채널 출력들 중 적어도 하나를 위한 인터레이서도 또한 제공될 수 있다. CPCB 비디오 파이프라인(560)은 장치에서 디스플레이될 수 있는 채널 출력들 중 적어도 하나에 대한 콘트롤 출력들(Hsync, Vsync, Field)을 생성할 수도 있다. 또한, CPCB 비디오 파이프라인(560)은 출력 채널들 중 적어도 하나에 대해 밝기, 콘트라스트, 포괄적인 휴 및 세츄레이션 조정을 분리할 수 있고, 출력 채널들 중 적어도 하나에 대해 추가적 스케일링과 FRC를 제공할 수 있다.
다시 도16과 19를 참조하면, FRC 파이프라인(550)으로부터의 채널 출력들(1656,1652,1654)는 CPCB 비디오 파이프라인(560)에 제공된다. 제1 채널(1656)은 제1 채널(1656)에서 비디오 신호를 업-샘플링하기 위해 샘플러(1910)를 이용하는 제1 경로를 따라 처리되고, 샘플러(1910)의 출력(1912)은 주 채널 오버레이(1960)와 보조 채널 오버레이(1962) 모두에 제공되어 출력들 중의 적어도 하나에 대해 블렌드된 이미지를 생성한다. 제2 채널(1652)은 모듈(1920)에 비쥬얼 프로세싱 및 샘플링을 제공하는 제2 경로를 따라 처리될 수 있다. 비쥬얼 프로세싱 및 샘플링 모듈(1920)(이것은 비디오 신호를 업-샘플함)의 출력은 비디오 오버레이(1940)(또는 오버레이 엔진(2000))로 입력되어 제3 채널(1654)(이것은 또한 샘플러(1910)를 통해서 수행될 수 있음)을 출력을 가지고 블렌딩하거나 포지셔닝한다. 오버레이 엔진(2000)의 기능은 도20에서 보다 상세히 설명된다.
비디오 오버레이의 출력(1942)(이것은 제2 비디오 채널 신호(1625)와 오버레이된 제1 비디오 채널 신호(1623)일 수 있음)은 CMU(1930)를 통해서 주 채널 오버레이(1960)로 제공되고, 그리고 또한 멀티플렉서(1950)으로 제공된다. 비디오 오버레이의 출력(1942)을 수신하는 것에 더하여, 멀티플렉서(1950)은 또한 비쥬얼 프로세싱 및 샘플링 모듈(1920)과 샘플러(1910)의 출력을 수신할 수 있다. 멀티플렉서(1950)는 그것의 비디오 신호 입력들 중 어느 것을 보조 채널 오버레이(1962)로 제공할 지를 선택하기 위해 동작한다. 대안으로, 멀티플렉서(1951)는 멀티플렉서(1950)의 출력 또는 CMU(1930)의 출력(1932)을 선택하여 비디오 신호 출력(1934)으로서 보조 채널 오버레이(1962)로 제공한다. 주 및 보조 채널 오버레이들 전의 프로세싱 유닛들의 배열은 동일 비디오 신호가 보조 채널 오버레이들뿐 아니라 주 채널 오버레이들에도 제공될 수 있게 한다. 유닛들(1970,1972)에 의해 더 처리함으로써, 동일 비디오 신호(VI)는 주 출력 신호로서 주 출력(1974)에서의 디스플레이를 위한 출력임과 동시에 보조 출력 신호로서 보조 출력(1976)에서의 디스플레이 또는 스토리지를 위한 출력이 되기 전에 다운-스케일링을 더 거치게 된다.
주 출력(1974)과 보조 출력(1976) 모두에 대한 데이터 선택의 독립적 콘트롤을 제공하기 위해, 주 및 보조 채널들은 제1 및 제2 비디오 채널 오버레이 모듈(1940)로부터 제1 및 제2 비디오 채널 신호들(1932,1934)을 독립적으로 선택함으로써 형성된다. 보조 채널 오버레이 모듈(1962)은 제1 비디오 채널 신호(1652), 제2 비디오 채널 신호(1654), 또는 오버레이된 제1 및 제2 비디오 채널 신호(1942)를 선택한다. CMU(1930)가 제1 비디오 채널 신호(1652)에 인가되므로, 제2 비디오 채널 신호(1654)는 멀티플렉서(1951)에 의해 CMU(1930) 전 또는 후에 선택되는데, 이는 제1 및 제2 비디오 채널 신호들이 동일한 또는 다른 컬러 스페이스를 가지는 지에 달려있다. 추가적으로, 제1 및 제2 비디오 채널 신호들(1932,1934)은 제3 비디오 채널 신호(1656)과 독립적인 블렌딩을 갖는다.
CPCB 비디오 파이프라인(560)은 또한 다운스케일러(1980)에 의해 제시된 보조 출력(1976)을 위한 스케일링 및 FRC를 제공한다. 이 특징은 주 출력(1974)와 분리된 보조 출력(1976)을 제공하기 위해서 필요하다. 더 높은 주파수 클럭이 스케일링 클럭으로 선택되어야 하므로, CPCB 비디오 파이프라인(560)은 주 출력 클럭을 벗어날 수 있다. 이는 보조 클럭 주파수가 주 클럭의 그것보다 적거나 같을 수 있기 때문이다. 다운스케일러(1980)는 또한 인터레이스된 데이터를 생성할 수도 있는데, 이는 FRC 및 출력 데이터 포맷팅을 거쳐 보조 출력으로 사용되도록 할 수 있다.
몇 시나리오들에서, 제1 채널이 SDTV 비디오 신호이고 주 출력(1974)이 HDTV 신호여야 하고 보조 출력(1976)이 SDTV 비디오 신호여야 할 때, CMU(1930)는 제1 채널 SD 비디오 신호를 HD 비디오로 변환하고 이후 HD 컬러 프로세싱을 수행한다. 이 경우, 멀티플렉서(1950)는 자신의 출력 비디오 신호(1942)(CMU(1930)를 통하지 않은 신호)로서 선택하고, 이것에 의해 HD 신호를 주 채널 오버레이 모듈(1960)로 제공하고 그리고 처리된 SDTV 신호를 보조 채널 오버레이(1962)로 제공한다. 더하여, 보조 채널 스케일링 및 프로세싱 모듈(1972)은 보조 출력(1976)을 위한 컬러 콘트롤을 수행한다.
몇몇 다른 시나리오들에서, 제1 채널이 HDTV 비디오 신호이고 주 출력(1974)이 HDTV 신호여야 하고 보조 출력(1976)이 SDTV 비디오 신호여야 할 때, CMU(1930)는 HD 프로세싱을 수행하고 멀티플렉서(1951)는 CMU(1932)의 출력을 선택하여 HDTV 처리된 신호를 보조 채널 오버레이 모듈(1962)로 제공한다. 더하여, 보조 채널 스케일링 및 프로세싱 모듈(1972)은 보조 출력(1976)을 위해 컬러 스페이스를 SDTV로 변경시키는 컬러 콘트롤을 수행한다.
몇몇 다른 시나리오들에서, 주 및 보조 출력(1974,1976) 모두가 SD 비디오 신호들인 경우, 더하여 채널 스케일링 및 프로세싱 모듈들(1970,1972)은 유사한 컬러 콘트롤 기능들을 수행하여 상응하는 주 및 보조 출력들(1974,1976)에 대한 출력을 위한 상태에 신호들을 놓이게 한다.
비디오 채널이 파이프라인 세그먼트들(540,550,560,570)(도5)의 어떤 것에서 파이프라인의 특정 부분을 사용하지 않는다면, 그 부분은 다른 비디오 채널에 의해 사용되어 비디오 품질을 높이는 데 사용되도록 구성될 수 있다. 예를들어, 제2 비디오 채널(1264)이 FRC 파이프라인(550)의 디-인터레이서(340)를 사용하지 않는다면, 제1 비디오 채널(1262)은 제2 비디오 채널 파이프라인의 디-인터레이서(340)을 사용하도록 구성되어 그것의 비디오 품질을 개선시킨다. 도15에서 설명된 바와 같이, 추가의 잡음 저감기(330)와 추가의 디-인터레이서(340)는 특정 비디오 신호의 품질을 향상시킬 수 있는데, 이는 공유된 메모리 파이프라인 세그먼트(1260)가 추가의 필드 라이들을 동시에 처리할 수 있게 함으로써 가능하다(즉, 6 동시적 필드 라인 프로세싱).
CPCB 비디오 파이프라인(560)을 사용하여 제공되는 몇몇 예시적 출력 포맷들은 동일 입력 이미지의 NTSC 및 PAL 제1 및 제2 출력들, 동일 입력 이미지의 HD 및 SD(NTSC 또는 PAL) 제1 및 제2 출력들, 제1 채널 이미지가 주 출력에 제공되고 제2 채널 이미지가 보조 출력에 제공되는 2개의 다른 출력들, 주 출력 상의 오버레이된 제1 및 제2 채널 비디오 신호들과 보조 출력 상의 하나의 채널 비디오 신호(제1 채널 또는 제2 채널), 주 및 보조 출력들 상의 상이한 OSD 블렌딩 팩터들(알파 값들), 주 및 보조 출력들 상의 독립적인 밝기, 콘트라스트, 휴, 및 세츄레이션 조정들, 주 및 보조 출력들을 위한 상이한 컬러 스페이스들(예를들어, 주 출력을 위한 Rec. 709와 보조 출력을 위한 Rec.601), 그리고/또는 제1 채널 스케일러와 제2 채널 스케일러 상의 다른 세트의 스케일링 계수들의 사용을 통한 보조 출력들 상의 더 예리하고/더 평활한 이미지를 포함한다.
도20은 오버레이 엔진(2000)(도19)을 보다 상세히 도시하고 있다. 오버레이 엔진(2000)은 적어도 비디오 오버레이 모듈(1940), CMU(1930), 제1 및 제2 채널 파라메터들(2020,2030), 셀렉터(2010), 그리고 주 M-플레인 오버레이 모듈(2060)을 포함한다. 주 M-플레인 모듈(2060)은 주 채널 오버레이(1960)(도19)와 유사하고, 그러나 추가적인 기능을 포함하는데, 그것은 뒤따른 채널 비디오 신호들(2040)을 제3 채널 입력(1912)(도19)와 블렌드하거나 오버레이하는 것이다.
오버레이 엔진(2000)은 단일 비디오 채널 스트림을 생성하는데, 이는 M 이용가능한 독립 비디오/그래픽스 플레인들을 최종 디스플레이 캔버스에 놓음으로써 이루어진다. 한 특정 예에서, 오버레이 엔진(2000)은 단일 채널 스트림을 생성하는데, 이는 6 플레인을 최종 디스플레이 캔버스에 놓음으로써 이루어진다. 디스플레이 상의 각 플레인의 위치는 구성할 수 있다. 각 플레인의 우선권도 구성가능하다. 예를들어, 디스플레이 캔버스 상의 플레인들의 위치가 오버랩되면, 우선권 랭킹은 어느 플레인이 위에 놓이는 지 그리고 어느 플레인이 숨겨지는 지를 결정하는 데 사용될 수 있다. 오버레이는 또한 각 플레인에 대해 선택적 보더(optional border)를 할당하는 데 사용된다.
뒤따른 비디오 채널 신호들(2040)과 그것들의 소스들의 예들은 제1 채널 비디오 신호(1652)일 수 있는 메인 플레인, 제2 채널 비디오 신호(1654)일 수 있는 PIP 플레인, 온칩 캐릭터 OSD 생성기를 이용하여 생성되는 캐릭터 OSD 플레인, 비트-맵된 OSD 엔진을 이용하여 생성되는 비트-맵된 OSD 플레인을 포함한다. 메모리 인터페이스가 메모리에 여러 비트-맵된 미리-저장된 오브젝트들을 불러와서 그것들을 메모리에 저장되기도 하는 캔버스들 상에 위치시키는 데 사용되는 메모리에, OSD 이미지들이 저장될 수 있다. 메모리 인터페이스는 또한 요청된 오브젝트를 불러오는 동안 포맷 변환을 수행하기도 한다. 비트-맵된 OSD 엔진은 저장된 캔버스들을 래스터 주사 순서로 읽어, 그것을 오버레이로 보낸다. 추가 비디오 채널 신호들(2040)은 커서 OSD 엔진에 의해 생성되고 커서와 같은 작은 오브젝트의 비트맵을 저장하기 위해 작은 온칩 메모리를 사용할 수 있는 커서 OSD 플레인, 외부 소스로부터 수신되는 외부 OSD 플레인을 포함한다. 외부 OSD 엔진은 래스터 콘트롤 신호들과 디스플레이 클럭을 내 보낸다. 외부 OSD 소스는 이들 콘트롤 신호들을 기준으로 이용하여 데이터를 스캔 순서로 보낸다. 이 데이터는 오버레이로 라우터될 수 있다. 외부 OSD 플레인이 이네이블(enabled)되면, 플렉시포트가 외부 OSD 데이터를 수신하는데 이용될 수 있다.
CMU(1930) 이전의 오버레이(1940)는 제1 비디오 채널 스트림(1653)과 제2 비디오 채널 스트림(1655)을 오버레이할 수 있다. 오버레이(1940)는 CMU(1930)가 보다 효율적으로 기능할 수 있게 하는데, 이는 CMU(1930)로 하여금 단일 비디오 스트림에서 동작할 수 있게 하여 다수의 비디오 채널 스트림들에 대해 CMU(1930) 내의 모듈들을 복사할 필요를 없앰으로써 가능하다. CMU(1930)로 단일 비디오 채널 신호(1942)를 제공하는 것에 더하여 오버레이(1940)는 또한 부분(즉, 픽셀별(pixel-by-pixel)) 표시자(1944)를 CMU(1930)에 제공하여 그 비디오 부분이 제1 비디오 채널 스트림 또는 제2 비디오 채널 스트림에 속하는 것으로 인식하게 한다.
제1 비디오 채널 스트림(1653)과 제2 비디오 채널 스트림(1655)에 대응하는 2 세트의 프로그램가능한 파라메터들(2020,2030)가 제공될 수 있다. 셀렉터(2010)는 부분 표시자(1944)를 이용하여 어느 프로그램가능한 파라메터들을 CMU(1930)로 제공할 지를 선택한다. 예를들어, 부분 표시자(1944)가 CMU(1930)에 의해 처리된 그 부분이 제1 비디오 채널 스트림(1653)에 속하는 것을 표시하면, 셀렉터(2010)는 CMU(1930)에 제1 비디오 채널 스트림(1653)에 대응하는 프로그램가능한 파라메터들(2020)을 제공한다.
비디오 플레인들의 수와 동일한 수의 레이어들이 있다. 레이어 0은 최하위 레이어이고, 다음의 레이어들은 증가하는 레이어 인덱스를 갖는다. 레이어들은 차원적 또는 위치적 특성을 가지지 않고, 대신 그것들이 적층되어야 할 순서를 제공할 수 있다. 오버레이 엔진(2000)은 레이어 0으로 시작하여 위쪽 방향으로 움직이는 레이어들을 합성한다. 레이어 1은 레이어 1 상에 놓인 비디오 플레인에 관련된 블렌드 팩터를 이용하여 레이어 0와 먼저 블렌드된다. 레이어 0과 레이어 1 블렌딩의 출력은 이후 레이어 2와 블렌드된다. 사용되는 블렌드 팩터는 레이어 2 상에 놓인 플레인에 연관된 것일 수 있다. 레이어 0, 레이어 1, 그리고 레이어 2 블렌딩의 출력은 이후 레이어 3과 블렌드되는데, 최종 레이어가 합성될 때까지 계속된다. 당업자라면 본 발명의 개시 범위를 벗어나지 않고도 어떤 결합으로 레이어들을 블렌드하는 것을 선택할 수 있다. 예를들어, 레이어 1은 레이어 3과 블렌드되고, 이후 레이어 2와 블렌드될 수 있다.
오버레이 엔진(2000)이 주 출력 채널과 관련하여 설명되었지만, 컬러 프로세싱 및 채널 블렌딩 파이프라인(560)은 보조 출력 채널 상에 오버레이 엔진(2000)을 이용하여 M-플레인 오버레이를 제공하도록 변경될 수 있다.
도22는 비디오 파이프라인의 후단 파이프라인 단(570)을 보다 상세히 도시하고 있다. 후단 파이프라인 단(570)은 적어도 주 출력 포맷터(2280), 서명 누산기(1990), 보조 출력 포맷터(2220), 그리고 셀렉터(2230)를 포함한다.
후단 파이프라인 단(570)은 주 및 보조 출력 모두에 대한 출력 포맷팅을 수행하고, 보조 출력으로서 콘트롤 출력들(Hsync, Vsync, Field)을 생성한다. 후단 파이프라인 단(570)은 디지털 및 아날로그 인터페이스들을 사용하기 쉽게 한다. 주 출력 포맷터(2280)는 처리된 주 비디오 채널 신호들(1974)를 수신하고, 대응하는 주 출력 신호(492a)를 생성한다. 보조 출력 포맷터(2220)는 처리된 보조 비디오 채널 신호들(1976)를 수신하고, 대응하는 보조 출력 신호(492b)를 생성한다. 서명 누산기(1990)는 보조 비디오 채널 신호들(1976)를 수신하고 누산하며, 누산된 신호들 사이의 차이를 비교하여 출력 비디오 신호의 비디오 신호 품질을 결정하고, 이러한 정보를 프로세서에 제공하여 필요한 경우 시스템 파라메터들을 변경한다.
보조 비디오 채널 신호들(1976)은 출력(492b)을 위해 포맷되기 전에 또한 CCIR656 엔코더(미도시)로 제공된다. CCIR656 엔코더는 신호를 외부 스토리지 또는 다른 적절한 수단을 위한 상태로 놓기 위한 어떤 필요한 엔코딩을 수행한다. 대안으로, 보조 비디오 채널 신호들(1976)은 엔코딩이나 포맷팅 없이 출력 신호(492b)로서 제공될 수 있는데, 이는 바이패스 보조 비디오 채널 신호(492b)를 선택하는 셀렉터(2230)를 이용함으로써 이루어진다.
후단 파이프라인 단(570) 내의 인터레이싱 모듈(미도시)도 제공될 수 있다. 입력 신호가 인터레이스되면, 그것은 먼저 디-인터레이서(340)(도13)에 의해 순차적으로 변환된다. 디-인터레이서는 비디오 파이프라인 단들 내의 모든 수반하는 모듈들은 순차적인 도메인에서 작동한다. 후단 파이프라인 단(570) 내의 인터레이서는 인터레이스된 출력이 요구되면 선택적으로 턴온될 수 있다.
인터레이서 모듈은 적어도 2개 라인의 픽셀들을 저장할 만한 충분히 큰 메모리를 적어도 포함하지만, 필요하면 전체 프레임을 저장하도록 변경될 수 있다. 순차적 입력은 순차적 타이밍들을 가지고 메모리에 쓰여진다. 순차적인 타이밍들과 동기된 인터레이스된 타이밍들은 픽셀 속도의 반으로 생성된다. 데이터는 인터레이스된 타이밍들로서 메모리로부터 읽혀진다. 짝수 필드 라인들은 홀수 필들에서 드롭되고, 홀수 필드 라인들은 짝수 필드들에서 드롭될 수 있다. 이것은 주어진 장치에 사용되기에 적적한 인터레이스된 출력을 생성한다.
공유된 스토리지를 이용하여 다수의 고품질 비디오 채널 스트림들을 제공하는 장치와 방법이 제공되었다. 이 분야의 당업자라면, 설명된 실시예와 다르게 실현될 수 있음을 알 수 있을 것이다. 설명된 실시예들은 한정이 아닌 설명을 위해 제시되었다. 본 발명은 수반하는 청구항들에 의해서만 제한된다.
Claims (20)
- 비디오 신호 프로세싱 회로(video signal processing circuit)로서,
복수의 비디오 신호들을 수신하고 상기 복수의 비디오 신호들 중 임의의 비디오 신호를 선택하는 선택 회로와; 그리고
적어도 두 개의 비디오 신호 경로들 중 하나의 비디오 신호 경로 내에 스케일러(scaler)의 배치를 구성하는 스케일러 포지셔닝 모듈(scaler positioning module)을 포함하여 구성되고,
상기 스케일러 포지셔닝 모듈은,
상기 적어도 두 개의 비디오 신호 경로들 중 제 1 비디오 신호 경로 내에 위치하여 상기 선택된 비디오 신호를 수신하도록 되어 있는 제 1 스케일러 슬롯(scaler slot)과; 그리고
상기 적어도 두 개의 비디오 신호 경로들 중 제 2 비디오 신호 경로 내에 위치하여 스토리지(storage)로부터 검색된 비디오 신호를 수신하도록 되어 있는 제 2 스케일러 슬롯을 포함하며,
상기 스케일러는 상기 제 1 스케일러 슬롯과 상기 제 2 스케일러 슬롯 중 하나의 스케일러 슬롯에 위치하는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제1항에 있어서,
상기 스케일러는,
상기 선택된 비디오 신호를 스케일링(scaling)하고; 그리고
상기 스케일링된 선택된 비디오 신호를 메모리 인터페이스(memory interface)를 통해 메모리에 기입(write)하도록 되어 있는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제2항에 있어서,
셀렉터(selector)를 더 포함하고, 상기 스케일러는 상기 스케일링된 선택된 비디오 신호를 상기 셀렉터의 제 1 입력에 출력하는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제3항에 있어서,
상기 스케일러는 제 1 스케일러이고, 상기 스케일러 포지셔닝 모듈은 상기 제 2 비디오 신호 경로 내에 제 2 스케일러의 배치를 구성하며, 상기 제 2 스케일러는,
상기 스케일링된 선택된 비디오 신호를 상기 메모리 인터페이스를 통해 상기 메모리로부터 판독(read)하고;
상기 판독된 스케일링된 선택된 비디오 신호를 더 스케일링하고; 그리고
상기 더 스케일링된 선택된 비디오 신호를 상기 셀렉터의 제 2 입력에 제공하도록 되어 있는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제4항에 있어서,
상기 제 2 스케일러는 상기 판독된 스케일링된 선택된 비디오 신호를 출력하도록 되어 있는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제2항에 있어서,
상기 스케일러 포지셔닝 모듈은 상기 제 1 비디오 신호 경로와 상기 제 2 비디오 신호 경로 중 하나의 비디오 신호 경로 내에 티어링 없는 제어 모듈(tearless control module)의 배치를 구성하는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 제1항에 있어서,
상기 스케일러 포지셔닝 모듈은 스케일링된 선택된 비디오 신호를 블랭크 타임 옵티마이저(blank time optimizer)에 출력하는 것을 특징으로 하는 비디오 신호 프로세싱 회로. - 스케일러 포지셔닝 모듈(scaler positioning module)로서,
제 1 스케일러 포지셔닝 슬롯(scaler positioning slot)과;
제 2 스케일러 포지셔닝 슬롯과;
제 3 스케일러 포지셔닝 슬롯과; 그리고
스케일러를 포함하여 구성되고,
상기 스케일러 포지셔닝 모듈은,
입력 비디오 신호를 동기식으로(synchronously) 스케일링하기 위해서는 상기 스케일러를 상기 제 1 스케일러 포지셔닝 슬롯에 위치시키고;
상기 입력 비디오 신호를 다운-스케일링(down-scaling)하고 상기 다운-스케일링된 비디오 신호를 메모리에 기입하기 위해서는 상기 스케일러를 상기 제 2 스케일러 포지셔닝 슬롯에 위치시키며; 그리고
상기 메모리로부터 판독된 비디오 신호를 업-스케일링(up-scaling)하기 위해서는 상기 스케일러를 상기 제 3 스케일러 포지셔닝 슬롯에 위치시키도록 동작가능하고,
상기 스케일러는 임의의 주어진 시간에 상기 제 1 스케일러 포지셔닝 슬롯과 상기 제 2 스케일러 포지셔닝 슬롯과 상기 제 3 스케일러 포지셔닝 슬롯 중 단지 하나의 스케일러 포지셔닝 슬롯에만 배치되는 것을 특징으로 하는 스케일러 포지셔닝 모듈. - 제8항에 있어서,
상기 제 1 스케일러 포지셔닝 슬롯 내의 상기 스케일러는 상기 입력 비디오 신호를 출력 비디오 신호에 동기(lock)시키는 것을 특징으로 하는 스케일러 포지셔닝 모듈. - 제8항에 있어서,
스케일링된 비디오 신호를 상기 슬롯들 중 적어도 하나의 슬롯 내의 상기 스케일러로부터 수신하고 상기 스케일된 비디오 신호를 상기 스케일러 포지셔닝 모듈로부터 선택적으로 출력하는 선택 회로를 더 포함하는 것을 특징으로 하는 스케일러 포지셔닝 모듈. - 제10항에 있어서,
쓰기 선입선출(First-In-First-Out, FIFO) 버퍼 및 읽기 FIFO 버퍼를 더 포함하고, 상기 슬롯들 중 제1의 슬롯 내의 상기 스케일러는 상기 스케일링된 비디오 신호를 상기 쓰기 FIFO 버퍼를 통해 상기 메모리에 기입하고, 상기 슬롯들 중 제2의 슬롯 내의 상기 스케일러는 상기 스케일링된 비디오 신호를 상기 읽기 FIFO 버퍼를 통해 상기 메모리로부터 판독하는 것을 특징으로 하는 스케일러 포지셔닝 모듈. - 제11항에 있어서,
상기 선택 회로는 상기 판독된 스케일링된 비디오 신호를 상기 읽기 FIFO 버퍼로부터 수신하고, 그리고 상기 판독된 스케일링된 비디오 신호를 상기 스케일러 포지셔닝 모듈의 출력으로부터 선택적으로 출력하는 것을 특징으로 하는 스케일러 포지셔닝 모듈. - 비디오 신호들을 프로세싱하기 위한 방법으로서,
복수의 비디오 신호들을 수신하는 단계와;
상기 복수의 비디오 신호들 중 임의의 비디오 신호를 선택하는 단계와;
적어도 두 개의 비디오 신호 경로들 중 하나의 비디오 신호 경로 내에 스케일러의 배치를 구성하는 단계와;
상기 적어도 두 개의 비디오 신호 경로들 중 제 1 비디오 신호 경로 내에 제 1 스케일러 슬롯을 위치시키는 단계와, 여기서 상기 제 1 스케일러 슬롯은 상기 선택된 비디오 신호를 수신하도록 되어 있고;
상기 적어도 두 개의 비디오 신호 경로들 중 제 2 비디오 신호 경로 내에 제 2 스케일러 슬롯을 위치시키는 단계와, 여기서 상기 제 2 스케일러 슬롯은 스토리지로부터 검색된 비디오 신호를 수신하도록 되어 있고;
상기 제 1 스케일러 슬롯과 상기 제 2 스케일러 슬롯 중 하나의 스케일러 슬롯에 상기 스케일러를 위치시키는 단계와; 그리고
상기 선택된 비디오 신호를 스케일링하는 단계를 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제13항에 있어서,
상기 스케일링된 선택된 비디오 신호를 메모리 인터페이스를 통해 메모리에 기입하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제14항에 있어서,
상기 스케일링된 선택된 비디오 신호를 셀렉터의 제 1 입력에 제공하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제15항에 있어서,
상기 제 2 비디오 신호 경로 내에 제 2 스케일러의 배치를 구성하는 단계와;
상기 스케일링된 선택된 비디오 신호를 상기 메모리 인터페이스를 통해 상기 메모리로부터 판독하는 단계와;
상기 판독된 스케일링된 선택된 비디오 신호를 더 스케일링하는 단계와; 그리고
상기 더 스케일링된 선택된 비디오 신호를 상기 셀렉터의 제 2 입력에 제공하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제16항에 있어서,
상기 판독된 스케일링된 선택된 비디오 신호를 출력하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제14항에 있어서,
상기 제 1 비디오 신호 경로와 상기 제 2 비디오 신호 경로 중 하나의 비디오 신호 경로 내에 티어링 없는 제어 모듈의 배치를 구성하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제13항에 있어서,
상기 복수의 비디오 신호들 중 두 번째 비디오 신호를 선택하는 단계, 상기 두 번째 선택된 비디오 신호를 스케일링하는 단계, 그리고 상기 스케일링된 두 번째 선택된 비디오 신호를 출력하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법. - 제13항에 있어서,
상기 스케일링된 첫 번째 선택된 비디오 신호는 블랭크 타임 옵티마이저에 출력되는 것을 특징으로 하는 비디오 신호들을 프로세싱하기 위한 방법.
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79327606P | 2006-04-18 | 2006-04-18 | |
US79327706P | 2006-04-18 | 2006-04-18 | |
US79328806P | 2006-04-18 | 2006-04-18 | |
US79327506P | 2006-04-18 | 2006-04-18 | |
US60/793,277 | 2006-04-18 | ||
US60/793,275 | 2006-04-18 | ||
US60/793,276 | 2006-04-18 | ||
US60/793,288 | 2006-04-18 | ||
US11/736,564 US8218091B2 (en) | 2006-04-18 | 2007-04-17 | Shared memory multi video channel display apparatus and methods |
US11/736,564 | 2007-04-17 | ||
PCT/US2007/009580 WO2007124004A2 (en) | 2006-04-18 | 2007-04-18 | Shared memory multi video channel display apparatus and methods |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020087026571A Division KR101366199B1 (ko) | 2006-04-18 | 2007-04-18 | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130058763A KR20130058763A (ko) | 2013-06-04 |
KR101366202B1 true KR101366202B1 (ko) | 2014-02-21 |
Family
ID=38625590
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137012070A KR101366202B1 (ko) | 2006-04-18 | 2007-04-18 | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 |
KR1020087026571A KR101366199B1 (ko) | 2006-04-18 | 2007-04-18 | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020087026571A KR101366199B1 (ko) | 2006-04-18 | 2007-04-18 | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8218091B2 (ko) |
EP (2) | EP2355496B8 (ko) |
JP (1) | JP5217037B2 (ko) |
KR (2) | KR101366202B1 (ko) |
CN (1) | CN102572360B (ko) |
WO (1) | WO2007124004A2 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170122580A (ko) * | 2016-04-27 | 2017-11-06 | 삼성전자주식회사 | 그래픽 데이터를 합성하는 전자 장치 및 방법 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8284322B2 (en) | 2006-04-18 | 2012-10-09 | Marvell World Trade Ltd. | Shared memory multi video channel display apparatus and methods |
US8264610B2 (en) | 2006-04-18 | 2012-09-11 | Marvell World Trade Ltd. | Shared memory multi video channel display apparatus and methods |
US20090022229A1 (en) * | 2007-07-17 | 2009-01-22 | Chih-Ta Star Sung | Efficient image transmission between TV chipset and display device |
US9516372B2 (en) * | 2010-12-10 | 2016-12-06 | Lattice Semiconductor Corporation | Multimedia I/O system architecture for advanced digital television |
CA3203196A1 (en) * | 2011-06-30 | 2013-01-03 | Echo 360, Inc. | Methods and apparatus for an embedded appliance |
JP2013026727A (ja) * | 2011-07-19 | 2013-02-04 | Sony Corp | 表示装置および表示方法 |
US9160467B2 (en) * | 2011-12-15 | 2015-10-13 | Verizon Patent And Licensing Inc. | Method and system for assigning definitions to media network channels |
TWI520610B (zh) * | 2013-08-01 | 2016-02-01 | 晨星半導體股份有限公司 | 電視控制裝置與相關方法 |
CA2959992A1 (en) | 2014-09-04 | 2016-03-10 | Theranos, Inc. | Pathogen and antimicrobial resistance testing |
CN115868157A (zh) | 2021-03-02 | 2023-03-28 | 京东方科技集团股份有限公司 | 视频图像去交错方法和视频图像去交错装置 |
SE2350439A1 (en) * | 2023-04-14 | 2024-05-21 | Livearena Tech Ab | Systems and methods for managing sharing of a video in a collaboration session |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563506B1 (en) | 1998-12-14 | 2003-05-13 | Ati International Srl | Method and apparatus for memory bandwith allocation and control in a video graphics system |
US20040131276A1 (en) | 2002-12-23 | 2004-07-08 | John Hudson | Region-based image processor |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62159582A (ja) | 1986-01-06 | 1987-07-15 | Sony Corp | テレビジヨン受像機 |
JPH0219079A (ja) | 1988-07-06 | 1990-01-23 | Pioneer Electron Corp | 映像信号処理装置 |
JPH03293822A (ja) | 1990-04-12 | 1991-12-25 | Pioneer Electron Corp | ダイバシティー受信機 |
DE4101629C3 (de) | 1991-01-21 | 2003-06-26 | Fuba Automotive Gmbh | Antennendiversity-Anlage mit mindestens zwei Antennen für den mobilen Empfang von Meter- und Dezimeterwellen |
JP3177543B2 (ja) | 1992-07-22 | 2001-06-18 | トウシバビデオプロダクツ プライベート リミテッド | 映像信号のノイズ低減装置 |
US5636361A (en) * | 1994-12-22 | 1997-06-03 | International Business Machines Corporation | Multi-processor computer system having dual memory subsytems for enabling concurrent memory access thereto by more than one processor |
JPH10506492A (ja) | 1995-07-21 | 1998-06-23 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 高性能密度を有するマルチメディアプロセッサアーキテクチャ |
US5748968A (en) * | 1996-01-05 | 1998-05-05 | Cirrus Logic, Inc. | Requesting device capable of canceling its memory access requests upon detecting other specific requesting devices simultaneously asserting access requests |
US6359654B1 (en) * | 1996-02-14 | 2002-03-19 | Conexant Systems, Inc. | Methods and systems for displaying interlaced video on non-interlaced monitors |
US6020931A (en) | 1996-04-25 | 2000-02-01 | George S. Sheng | Video composition and position system and media signal communication system |
US5847772A (en) | 1996-09-11 | 1998-12-08 | Wells; Aaron | Adaptive filter for video processing applications |
US6104417A (en) * | 1996-09-13 | 2000-08-15 | Silicon Graphics, Inc. | Unified memory computer architecture with dynamic graphics memory allocation |
US5982453A (en) | 1996-09-25 | 1999-11-09 | Thomson Consumer Electronics, Inc. | Reduction of visibility of spurious signals in video |
JP3742167B2 (ja) * | 1996-12-18 | 2006-02-01 | 株式会社東芝 | 画像表示制御装置 |
TW338132B (en) * | 1997-06-28 | 1998-08-11 | United Microelectronics Corp | The adaptive selecting method for memory access priority control in MPEG processor |
US6006303A (en) * | 1997-08-28 | 1999-12-21 | Oki Electric Industry Co., Inc. | Priority encoding and decoding for memory architecture |
JP4086354B2 (ja) | 1998-02-12 | 2008-05-14 | ローム株式会社 | マルチフォーマットビデオエンコーダ |
US6141062A (en) | 1998-06-01 | 2000-10-31 | Ati Technologies, Inc. | Method and apparatus for combining video streams |
JP2000023061A (ja) | 1998-07-02 | 2000-01-21 | Sony Corp | テレビジョン受信機 |
US6456340B1 (en) | 1998-08-12 | 2002-09-24 | Pixonics, Llc | Apparatus and method for performing image transforms in a digital display system |
US6037981A (en) * | 1998-09-02 | 2000-03-14 | Intel Corporation | Method and apparatus for using digital televisions as remote personal computer displays |
JP2000092469A (ja) * | 1998-09-10 | 2000-03-31 | Mitsubishi Electric Corp | デジタル受信端末 |
EP1145218B1 (en) * | 1998-11-09 | 2004-05-19 | Broadcom Corporation | Display system for blending graphics and video data |
US6636222B1 (en) | 1999-11-09 | 2003-10-21 | Broadcom Corporation | Video and graphics system with an MPEG video decoder for concurrent multi-row decoding |
JP2000224139A (ja) | 1999-02-01 | 2000-08-11 | Sony Corp | ダイバーシチ受信装置 |
US6577353B1 (en) | 1999-10-21 | 2003-06-10 | General Electric Company | Optimization of television reception by selecting among or combining multiple antenna inputs |
US6674796B1 (en) | 2000-02-14 | 2004-01-06 | Harmonic, Inc. | Statistical multiplexed video encoding for diverse video formats |
US6690425B1 (en) | 2000-06-22 | 2004-02-10 | Thomson Licensing S.A. | Aspect ratio control arrangement in a video display |
US6853382B1 (en) * | 2000-10-13 | 2005-02-08 | Nvidia Corporation | Controller for a memory system having multiple partitions |
US7477326B2 (en) | 2000-12-15 | 2009-01-13 | Broadcom Corporation | HDTV chip with a single IF strip for handling analog and digital reception |
JP4327370B2 (ja) | 2001-02-28 | 2009-09-09 | ヤマハ株式会社 | ビデオミキサー装置 |
US7034893B2 (en) | 2001-03-30 | 2006-04-25 | Broadcom Corporation | Method and apparatus for reception of terrestrial digital television signals |
JP4563030B2 (ja) | 2001-11-23 | 2010-10-13 | エヌエックスピー ビー ヴィ | ワンパスで複数の出力画像を提供するための信号処理装置 |
AU2002351313A1 (en) | 2001-12-11 | 2003-07-09 | Thomson Licensing S.A. | Multiplexed analog-to-digital converter arrangement |
DE10200805B4 (de) | 2002-01-11 | 2006-07-13 | Harman/Becker Automotive Systems (Becker Division) Gmbh | Verfahren zur Auswahl von n Antennen und einer von m alternativen Empfangsfrequenzen in einer Antennen- und Frequenzdiversityempfangsanlage sowie Antennen- und Frequenzdiversityempfangsanlage |
KR100484132B1 (ko) | 2002-01-29 | 2005-04-18 | 삼성전자주식회사 | 다채널 a/d 변환기 및 그 시스템 |
US6806883B2 (en) * | 2002-03-11 | 2004-10-19 | Sun Microsystems, Inc. | System and method for handling display device requests for display data from a frame buffer |
JP3945328B2 (ja) * | 2002-07-12 | 2007-07-18 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
CA2463228C (en) * | 2003-04-04 | 2012-06-26 | Evertz Microsystems Ltd. | Apparatus, systems and methods for packet based transmission of multiple data signals |
JP3960258B2 (ja) | 2003-04-28 | 2007-08-15 | ソニー株式会社 | 信号処理装置および信号処理方法 |
CN1279756C (zh) | 2003-05-23 | 2006-10-11 | 华亚微电子(上海)有限公司 | 应用场景静止检测的视频信号自适应递归降噪方法 |
US20050104899A1 (en) | 2003-11-19 | 2005-05-19 | Genesis Microchip Inc. | Real time data stream processor |
KR20050049680A (ko) | 2003-11-22 | 2005-05-27 | 삼성전자주식회사 | 노이즈 감쇠장치 및 디인터레이싱 장치 |
KR100710290B1 (ko) | 2003-11-29 | 2007-04-23 | 엘지전자 주식회사 | 비디오 디코딩 장치 및 방법 |
US7262818B2 (en) | 2004-01-02 | 2007-08-28 | Trumpion Microelectronic Inc. | Video system with de-motion-blur processing |
US7400359B1 (en) * | 2004-01-07 | 2008-07-15 | Anchor Bay Technologies, Inc. | Video stream routing and format conversion unit with audio delay |
KR100640885B1 (ko) | 2004-01-27 | 2006-11-02 | 엘지전자 주식회사 | 듀얼 비디오 디코딩을 위한 비디오 버퍼 제어 장치 |
US7259796B2 (en) * | 2004-05-07 | 2007-08-21 | Micronas Usa, Inc. | System and method for rapidly scaling and filtering video data |
JP2008509576A (ja) | 2004-06-21 | 2008-03-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 走査レート変換を利用した画像プロセッサ及び画像処理方法。 |
CA2509001A1 (en) * | 2004-06-22 | 2005-12-22 | Textron Inc. | Blind bolt installation tool |
US7250983B2 (en) * | 2004-08-04 | 2007-07-31 | Trident Technologies, Inc. | System and method for overlaying images from multiple video sources on a display device |
US20060077213A1 (en) * | 2004-09-30 | 2006-04-13 | Chrontel, Inc. | Video conversion system and method |
US7426594B1 (en) * | 2004-10-08 | 2008-09-16 | Nvidia Corporation | Apparatus, system, and method for arbitrating between memory requests |
US20080192146A1 (en) | 2004-10-14 | 2008-08-14 | Akifumi Yamana | Video Signal Processor |
US7692683B2 (en) * | 2004-10-15 | 2010-04-06 | Lifesize Communications, Inc. | Video conferencing system transcoder |
US7769089B1 (en) | 2004-12-02 | 2010-08-03 | Kolorific, Inc. | Method and system for reducing noise level in a video signal |
KR100666880B1 (ko) | 2005-01-14 | 2007-01-10 | 삼성전자주식회사 | 듀얼 비디오 디코딩 시스템 및 방법 |
US7525600B2 (en) | 2005-01-14 | 2009-04-28 | Broadcom Corporation | Single integrated high definition television (HDTV) chip for analog and digital reception |
US7425994B2 (en) | 2005-01-31 | 2008-09-16 | Texas Instruments Incorporated | Video decoder with different signal types processed by common analog-to-digital converter |
US7480012B1 (en) | 2005-02-24 | 2009-01-20 | Pixelworks, Inc. | Multiplexed video digitization system and method |
US7797610B1 (en) * | 2005-07-19 | 2010-09-14 | Xilinx, Inc. | Method and apparatus for virtual quad-port random access memory |
KR20070060612A (ko) | 2005-12-09 | 2007-06-13 | 엘지전자 주식회사 | 디지털 비디오 레코더에서의 감시영상 출력방법 |
JP5448457B2 (ja) | 2006-02-03 | 2014-03-19 | エントロピック・コミュニケーションズ・インコーポレイテッド | ビデオ処理装置およびビデオデータの処理方法 |
US7821578B2 (en) | 2006-04-07 | 2010-10-26 | Marvell World Trade Ltd. | Reconfigurable self-calibrating adaptive noise reducer |
US8284322B2 (en) | 2006-04-18 | 2012-10-09 | Marvell World Trade Ltd. | Shared memory multi video channel display apparatus and methods |
US8264610B2 (en) | 2006-04-18 | 2012-09-11 | Marvell World Trade Ltd. | Shared memory multi video channel display apparatus and methods |
US20080055477A1 (en) | 2006-08-31 | 2008-03-06 | Dongsheng Wu | Method and System for Motion Compensated Noise Reduction |
US8134640B2 (en) | 2006-12-26 | 2012-03-13 | Broadcom Corporation | Video processor architecture and method for frame rate conversion |
-
2007
- 2007-04-17 US US11/736,564 patent/US8218091B2/en active Active
- 2007-04-18 EP EP11002324.9A patent/EP2355496B8/en active Active
- 2007-04-18 KR KR1020137012070A patent/KR101366202B1/ko active IP Right Grant
- 2007-04-18 WO PCT/US2007/009580 patent/WO2007124004A2/en active Application Filing
- 2007-04-18 CN CN201110437942.2A patent/CN102572360B/zh active Active
- 2007-04-18 EP EP07755739A patent/EP2016763A2/en not_active Ceased
- 2007-04-18 JP JP2009506584A patent/JP5217037B2/ja active Active
- 2007-04-18 KR KR1020087026571A patent/KR101366199B1/ko active IP Right Grant
-
2012
- 2012-06-15 US US13/524,353 patent/US8736757B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563506B1 (en) | 1998-12-14 | 2003-05-13 | Ati International Srl | Method and apparatus for memory bandwith allocation and control in a video graphics system |
US20040131276A1 (en) | 2002-12-23 | 2004-07-08 | John Hudson | Region-based image processor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170122580A (ko) * | 2016-04-27 | 2017-11-06 | 삼성전자주식회사 | 그래픽 데이터를 합성하는 전자 장치 및 방법 |
KR102488333B1 (ko) * | 2016-04-27 | 2023-01-13 | 삼성전자주식회사 | 그래픽 데이터를 합성하는 전자 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP5217037B2 (ja) | 2013-06-19 |
KR101366199B1 (ko) | 2014-02-21 |
JP2009534932A (ja) | 2009-09-24 |
CN102572360B (zh) | 2015-02-04 |
CN102572360A (zh) | 2012-07-11 |
EP2355496B1 (en) | 2018-07-18 |
WO2007124004A3 (en) | 2008-04-03 |
US20080055462A1 (en) | 2008-03-06 |
KR20130058763A (ko) | 2013-06-04 |
EP2355496B8 (en) | 2018-08-29 |
US8218091B2 (en) | 2012-07-10 |
WO2007124004A2 (en) | 2007-11-01 |
KR20090047389A (ko) | 2009-05-12 |
US20120300125A1 (en) | 2012-11-29 |
US8736757B2 (en) | 2014-05-27 |
EP2355496A1 (en) | 2011-08-10 |
EP2016763A2 (en) | 2009-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101366203B1 (ko) | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 | |
KR101334295B1 (ko) | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 | |
KR101366202B1 (ko) | 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법 | |
US20070242160A1 (en) | Shared memory multi video channel display apparatus and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] | ||
FPAY | Annual fee payment |
Payment date: 20170214 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180118 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190116 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20200115 Year of fee payment: 7 |