KR20070095836A - 정보 재생 장치 및 정보 재생 방법 - Google Patents

정보 재생 장치 및 정보 재생 방법 Download PDF

Info

Publication number
KR20070095836A
KR20070095836A KR1020070028201A KR20070028201A KR20070095836A KR 20070095836 A KR20070095836 A KR 20070095836A KR 1020070028201 A KR1020070028201 A KR 1020070028201A KR 20070028201 A KR20070028201 A KR 20070028201A KR 20070095836 A KR20070095836 A KR 20070095836A
Authority
KR
South Korea
Prior art keywords
data
graphic
picture
blending
sub
Prior art date
Application number
KR1020070028201A
Other languages
English (en)
Other versions
KR100845066B1 (ko
Inventor
신지 구노
Original Assignee
가부시끼가이샤 도시바
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 도시바 filed Critical 가부시끼가이샤 도시바
Publication of KR20070095836A publication Critical patent/KR20070095836A/ko
Application granted granted Critical
Publication of KR100845066B1 publication Critical patent/KR100845066B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer

Abstract

일 실시예에 따르면, 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와, 상기 비디오 데이터(80) 및 상기 픽쳐 데이터(70)가 시간에 따라 변화하고 그래픽 데이터(61a, 61b, 61c, 61d)가 시간에 따라 변화하지 않을 때, 상기 그래픽 데이터(61a, 61b, 61c, 61d)에서의 상기 비디오 데이터(80) 또는 상기 픽쳐 데이터(70) 상에 수퍼임포즈되는 부분을 둘러싸는 특정 영역(63)을 제외한 영역에서의 데이터가 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역(63)에서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위한 제어를 수행하는 단계를 포함하는 정보 재생 방법이 제공된다.
수퍼임포즈, 픽쳐 데이터, 그래픽 데이터, 정보 재생 장치, 비디오 데이터

Description

정보 재생 장치 및 정보 재생 방법{INFORMATION REPRODUCTION APPARATUS AND INFORMATION REPRODUCTION METHOD}
도 1은 본 발명의 실시예에 따른 재생 장치의 구조를 나타내는 예시적인 블록도이다.
도 2는 도 1에 도시된 재생 장치에 사용된 플레이어 애플리케이션의 구조를 나타내는 예시적인 도면이다.
도 3은 도 2에 도시된 플레이어 애플리케이션에 의해 실현된 소프트웨어 디코더의 기능적 구조를 설명하는 예시적인 도면이다.
도 4는 도 1에 도시된 재생 장치에 탑재된 블렌딩 처리부에 의해 실행된 블렌딩 처리를 설명하는 예시적인 도면이다.
도 5는 도 1에 도시된 재생 장치에 탑재된 GPU에 의해 실행된 블렌딩 처리를 설명하는 예시적인 도면이다.
도 6은 도 1에 도시된 재생 장치에서 서브 비디오 데이터가 메인 비디오 데이터에 수퍼임포즈되고 표시되는 방법을 나타내는 예시적이 도면이다.
도 7은 도 1에 도시된 재생 장치에서 메인 비디오 데이터가 서브 비디오 데이터 영역의 일부에 표시되는 방법을 나타내는 예시적인 도면이다.
도 8은 도 1에 도시된 재생 장치에서 HD 표준에 기초한 AV 콘텐츠 내의 복수 의 화상 데이터 세트를 수퍼임포즈하는 절차를 나타내는 예시적인 개념도이다.
도 9는 복수의 화상 데이터 세트의 블렌딩 처리의 효율을 더 증진시키는 기능적 구조의 일례를 나타내는 예시적인 블록도이다.
도 10은 도 9에 도시된 부분 블렌딩 제어부에 의해 실현된 부분 블렌딩 처리를 설명하는 예시적인 도면이다.
도 11은 도 9에 도시된 디퍼렌셜(differential) 블렌딩 제어부에 의해 실현된 디퍼렌셜 블렌딩 처리를 설명하는 예시적인 도면이다.
도 12는 도 9에 도시된 블렌딩 모드 제어부에 의해 실현된 파이프라인 모드를 설명하는 예시적인 도면이다.
도 13은 파이프라인 모드에서 블렌딩 처리를 실행하는 방법을 나타내는 예시적인 도면이다.
도 14는 순차적 블렌딩 모드에서 블렌딩 처리를 실행하는 방법을 나타내는 예시적인 도면이다.
도 15는 개개의 화상 데이터 세트가 수퍼임포즈되는 영역에 따라 전체 화상에 대한 블렌딩 모드를 동적으로 스위칭하는 일례를 나타내는 예시적인 도면이다.
도 16은 개개의 화상 데이터 세트가 수퍼임포즈되는 방법을 나타내는 예시적인 도면이다.
도 17은 개개의 화상 데이터 세트가 수퍼임포즈되는 영역에 따라 각 화상 부분에 대한 블렌딩 모드를 스위칭하는 일례를 나타내는 예시적인 도면이다.
<도면의 주요 부분에 대한 부호의 설명>
11 : CPU
12 : 노스 브리지
13 : 메인 메모리
14 : 사우스 브리지
15 : 비휘발성 메모리
17 : USB 제어기
18 : HD DVD 드라이브
20 : 그래픽 버스
21 : PCI 버스
22 : 비디오 제어기
23 : 오디오 제어기
25 : 비디오 디코더
30 : 블렌딩 처리부
31 : 메인 오디오 디코더
32 : 서브 오디오 디코더
33 : 오디오 믹서
40 : 비디오 인코더
[특허 문헌 1] 일본 특허 출원 공개 공보 제1996-205092호
본 발명의 일 실시예는 HD DVD(high definition digital versatile disc) 플레이어와 같은 정보 재생 장치 및 정보 재생 방법에 관한 것이다.
최근 몇 년 동안, 움직이는 화상(moving image)에 대한 디지털 압축 및 인코딩 기술의 발달로, HD(high definition) 표준에 기초한 고-화질 픽쳐를 복사할 수 있는 재생 장치(플레이어)가 개발되고 있다.
이러한 유형의 플레이어에서는, 상호 작용성을 향상시키기 위해 고차(higher order)에서 복수의 화상 데이터 세트를 블렌딩하는 기능이 요구된다.
예를 들어, 일본 특허 출원 공개 공보 제1996-205092호에는 그래픽 데이터와 비디오 데이터를 조합하기 위해 표시 제어기를 사용하는 시스템이 개시되어 있다. 해당 시스템에서, 표시 제어기는 비디오 데이터를 캡쳐하고, 캡쳐된 비디오 데이터를 그래픽 스크린 내의 일부 영역과 조합한다.
한편, 위에서 언급한 참고 문헌에 개시된 시스템을 포함하는 종래의 시스템에서는, 상대적으로 낮은 해상도를 갖는 비디오 데이터의 처리가 추정되고, HD 표준에 기초한 비디오 데이터와 같은 고-화질 화상의 처리는 고려되지 않는다. 또한, 많은 화상 데이터 세트의 수퍼임포즈(superimposing)는 계획되지 않는다.
이에 반해, HD 표준에서는, 5세트의 화상 데이터까지 적절하게 서로 수퍼임포즈될 것이다. 따라서, 처리율(throughput)은 실질적인 처리 능력을 초과한다. 따라서, 복수의 화상 데이터 세트를 수퍼임포즈하는 이러한 처리에 관한 한, 부하 를 고려한 효율의 적절한 증진이 요구된다.
본 발명의 목적은, 복수의 화상 데이터 세트를 수퍼임포즈하는 처리의 효율의 증진을 실현하는 재생 장치 및 재생 방법을 제공하는 것이다.
일반적으로, 본 발명의 일 실시예에 따르면, 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와, 상기 비디오 데이터 및 상기 픽쳐 데이터가 시간에 따라 변화하고 그래픽 데이터가 시간에 따라 변화하지 않을 때, 상기 그래픽 데이터에서의 상기 비디오 데이터 또는 상기 픽쳐 데이터 상에 수퍼임포즈되는 부분을 둘러싸는 특정 영역을 제외한 영역에서의 데이터는 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위한 제어를 수행하는 단계를 포함하는 정보 재생 방법이 제공된다.
이제, 도면들을 참조하여 본 발명의 다양한 특징들을 구현하는 일반적인 아키텍쳐가 설명될 것이다. 도면들 및 관련 설명들이 제공되어 본 발명의 실시예들을 설명하지만, 이것이 본 발명의 범위를 한정하는 것은 아니다.
이하에는, 본 발명에 따른 다양한 실시예들이 첨부 도면을 참조하여 설명될 것이다.
도 1은 본 발명의 실시예에 따른 재생 장치의 구조예를 도시한다. 이 재생 장치는 AV(audio video) 콘텐츠를 재생하는 미디어 플레이어이다. 이 재생 장치 는, 예컨대, HD DVD(High Definition Digital Versatile Disc) 표준에 기초한 DVD 미디어에 저장된 AV(audio video) 콘텐츠를 재생하는 HD DVD 플레이어로서 실현된다.
해당 HD DVD 플레이어는, 도 1에 도시된 바와 같이, CPU(central processing unit; 11), 노스 브리지(12), 메인 메모리(13), 사우스 브리지(14), 비휘발성 메모리(15), USB(universal serial bus) 제어기(17), HD DVD 드라이브(18), 그래픽 버스(20), PCI(peripheral component interconnect) 버스(21), 비디오 제어기(22), 오디오 제어기(23), 비디오 디코더(25), 블렌딩 처리부(30), 메인 오디오 디코더(31), 서브 오디오 디코더(32), 오디오 믹서(오디오 믹스)(33), 비디오 인코더(40), HDMI(high definition multimedia interface)(41)와 같은 AV 인터페이스(HDMI-TX)(41) 등으로 구성되어 있다.
해당 HD DVD 플레이어에서, 플레이어 애플리케이션(150)은 OS(151)에서 작동하는 소프트웨어이고, HD DVD 드라이브(18)로부터 판독한 AV 콘텐츠의 재생을 제어한다.
HD DVD 드라이브(18)에 의해 구동된 HD DVD 미디어와 같은 저장 매체에 저장된 AV 콘텐츠는 압축 및 인코드된 메인 비디오 데이터, 압축 및 인코드된 메인 오디오 데이터, 압축 및 인코드된 서브 비디오 데이터, 압축 및 인코드된 서브-픽쳐 데이터, 알파 데이터를 포함하는 그래픽 데이터, 압축 및 인코드된 서브 오디오 데이터, AV 콘텐츠의 재생을 제어하는 네비게이션 데이터(Navigation data) 등을 포함한다.
압축 및 인코드된 메인 비디오 데이터는 H.264/AVC 표준에 기초한 압축 및 인코딩 모드에서 메인 픽쳐(메인 스크린 화상)로서 사용된 움직이는 화상 데이터를 압축 및 인코딩함으로써 얻어진 데이터이다. 메인 비디오 데이터는 HD 표준에 기초한 고-화질 화상으로 형성된다. 또한, SD(standard definition) 표준에 기초한 메인 비디오 데이터 역시 사용될 수 있다. 압축 및 인코드된 메인 오디오 데이터는 메인 비디오 데이터에 대응하는 오디오 데이터이다. 메인 오디오 데이터의 재생은 메인 비디오 데이터의 재생과 동시에 실행된다.
압축 및 인코드된 서브 비디오 데이터는 메인 비디오에 수퍼임포즈되는 상태로 표시된 서브-픽쳐로서, 메인 비디오 데이터를 보완하는 움직이는 화상(예컨대, 영화 감독을 인터뷰하는 장면)으로 형성된다. 압축 및 인코드된 서브 오디오 데이터는 서브 비디오 데이터에 대응하는 오디오 데이터이다. 서브 오디오 데이터의 재생은 서브 비디오 데이터의 재생과 동시에 실행된다.
그래픽 데이터 역시 메인 비디오에 수퍼임포즈되는 상태로 표시된 서브-픽쳐(서브-픽쳐 화상)로서, 예컨대, 메뉴 오브젝트(menu object) 같은 작동 안내(operation guidance)를 표시하는데 요구되는 다양한 종류의 데이터로 형성된다. 각각의 진보된 엘리먼트(Advanced Element)는 정지 화상, (애니메이션을 포함하는) 움직이는 화상 또는 텍스트로 구성된다. 플레이어 애플리케이션(150)은 사용자의 마우스 조작에 따라 드로잉하는 드로잉(drawing) 기능을 갖는다. 이 드로잉 기능에 의해 드로잉된 화상 또한 그래픽 데이터로서 사용되고, 메인 비디오에 수퍼임포즈되는 상태로 표시될 수 있다.
압축 및 인코드된 서브-픽쳐 데이터는 설명 자막(subtitle)과 같은 텍스트를 포함한다.
네비게이션 데이터는 콘텐츠의 재생 순서를 제어하는 재생목록(playlist)과 서브 비디오, 그래픽(진보된 엘리먼트들) 등의 재생을 제어하는 스크립트를 포함한다. 스크립트는 XML과 같은 마크업 언어로 기재된다.
HD 표준에 기초한 메인 비디오 데이터는, 예컨대, 1920×1080 화소 혹은 1280×720 화소의 해상도를 갖는다. 더욱이, 서브 비디오 데이터, 서브-픽쳐 데이터 및 그래픽 데이터 각각은, 예컨대, 720×480 화소의 해상도를 갖는다.
해당 HD DVD 플레이어에서, HD DVD 드라이브(18)로부터 판독된 HD DVD 스트림으로부터 메인 비디오 데이터, 메인 오디오 데이터, 서브 비디오 데이터, 서브 오디오 데이터 및 서브-픽쳐 데이터를 분리하는 분리 처리(separation processing)와, 서브 비디오 데이터, 서브-픽쳐 데이터 및 그래픽 데이터를 디코딩하는 디코딩 처리는 소프트웨어(플레이어 애플리케이션(150))에 의해 실행된다. 이에 반해, 큰 처리율을 필요로 하는 처리, 즉, 메인 비디오 데이터를 디코딩하는 처리, 메인 오디오 데이터 및 서브 오디오 데이터를 디코딩하는 디코딩 처리 등은 하드웨어에 의해 실행된다.
CPU(11)는 해당 HD DVD 플레이어의 동작을 제어하기 위해 탑재된 프로세서로서, 비휘발성 메모리(15)로부터 메인 메모리(13)로 로드되는 플레이어 애플리케이션(150) 및 OS(151)를 실행한다. 메인 메모리(13) 내의 저장 영역 중 일부는 비디오 메모리(VRAM)(131)로서 사용된다. 메인 메모리(13) 내의 저장 영역 중 일부가 반드시 VRAM(131)으로서 이용되어야 하는 것은 아니고, 메인 메모리(13)로부터 독립적인 전용 메모리 디바이스가 VRAM(13)으로 이용될 수도 있다는 것에 유의해야 한다.
노스 브리지(12)는 CPU(11)의 로컬 버스를 사우스 브리지(14)와 접속하는 브리지 디바이스이다. 메인 메모리(13)의 액세스를 제어하는 메모리 제어기는 해당 노스 브리지(12)에 포함된다. 추가로, GPU(grahpics processing unit; 120) 역시 해당 노스 브리지(12)에 포함된다.
GPU(120)는, CPU(11)에 의해 메인 메모리(13)의 저장 영역 중 일부에 할당된 비디오 메모리(VRAM)(131)에 기재된 데이터로부터 그래픽 스크린 화상을 형성하는 그래픽 신호를 생성하는 그래픽 제어기이다. GPU(120)는 비트 블록 전송(bit block transfer)과 같은 그래픽 산술연산 기능(graphics arithmetic function)을 사용하여 그래픽 신호를 생성한다. 예를 들어, 화상 데이터(서브 비디오, 서브-픽쳐, 그래픽 및 커서)가 CPU(11)에 의해 VRAM(131) 내의 4 면 각각에 기재될 때, GPU(120)는 비트 블록 전송을 사용함으로써 각 화소에 대해 4 면에 대응하는 화상 데이터를 수퍼임포즈하는 블렌딩 처리를 실행하고, 이로써, 메인 비디오와 동일한 해상도(예컨대, 1920×1080 화소)를 갖는 그래픽 스크린 화상을 형성하는데 요구된 그래픽 신호를 생성한다. 블렌딩 처리는 서브 비디오, 서브-픽쳐 및 그래픽 각각에 대응하는 알파 데이터를 사용하여 실행된다. 알파 데이터는, 알파 데이터에 대응하는 화상 데이터의 각 화소의 투명도(또는 불투명도)를 나타내는 계수이다. 서브 비디오, 서브-픽쳐 및 그래픽 각각에 대응하는 알파 데이터는 서브 비디오, 서 브-픽쳐 및 그래픽의 화상 데이터와 함께 HD DVD 미디어에 저장된다. 즉, 서브 비디오, 서브-픽쳐 및 그래픽 각각은 화상 데이터와 알파 데이터로 형성된다.
GPU(120)에 의해 생성된 그래픽 신호는 RGB 색 공간을 갖는다. 그래픽 신호의 각 화소는 디지털 RGB 데이터를 사용하여 표현된다.
GPU(120)는 또한 그래픽 스크린 화상 형성을 위한 그래픽 신호를 생성하는 기능뿐만 아니라 생성된 그래픽 데이터에 대응하는 알파 데이터를 외측으로 출력하는 기능도 갖는다.
특히, GPU(120)는 생성된 그래픽 신호를 디지털 RGB 비디오 신호로서 외측에 출력하고, 생성된 그래픽 신호에 대응하는 알파 데이터 역시 출력한다. 알파 데이터는 생성된 그래픽 신호의 각 화소의 투명도(또는 불투명도)를 나타내는 계수이다. GPU(120)는 각 화소에 따라 그래픽 신호(24 비트로 되어 있는 디지털 RGB 비디오 신호)와 알파 데이터(8 비트)로 형성된 알파 데이터(32 비트로 되어 있는 RGBA 데이터)를 갖는 그래픽 출력 데이터를 출력한다. 알파 데이터(32 비트로 되어 있는 RGBA 데이터)를 갖는 그래픽 출력 데이터는 내장된 그래픽 버스(20)를 통해 블렌딩 처리부(30)에 제공된다. 그래픽 버스(20)는 블렌딩 처리부(30)와 GPU(120)를 접속하는 전송로(transmission line)이다.
상술한 바와 같이, 해당 HD DVD 플레이어에서, 알파 데이터를 갖는 그래픽 출력 데이터는 그래픽 버스(20)를 통해 GPU(120)로부터 블렌딩 처리부(30)로 직접 전송된다. 그 결과, 알파 데이터가 PCI 버스(21) 등을 통해 VRAM(131)으로부터 블렌딩 처리부(30)로 전송될 필요가 없으므로, 알파 데이터의 전송으로 인한 PCI 버 스(21)의 트래픽 증가를 피할 수 있게 된다.
알파 데이터가 PCI 버스(21) 등을 통해 VRAM(131)으로부터 블렌딩 처리부(30)로 전송된다면, GPU(120)로부터 출력된 그래픽 신호와 PCI 버스(21)를 통해 전송된 알파 데이터는 블렌딩 처리부(30)에서 서로 동기되어야 하고, 이로써, 블렌딩 처리부(30)의 구조가 복잡하게 된다. 해당 HD DVD 플레이어에서, GPU(120)는 각 화소에 따라 그래픽 신호와 알파 데이터를 서로 동기시키고(synchronize), 그로부터 얻어진 결과를 출력한다. 따라서, 그래픽 신호와 알파 데이터의 동기가 쉽게 실현될 수 있다.
사우스 브리지(14)는 PCI 버스(21)에서 각 디바이스를 제어한다. 또한, 사우스 브리지(14)는 HD DVD 드라이브(18)를 제어하는 IDE(integrated drive electronics) 제어기를 포함한다. 또한, 사우스 브리지(14)는 비휘발성 메모리(15)와 USB 제어기(17)를 제어하는 기능도 갖는다. USB 제어기(17)는 마우스 디바이스(171)를 제어한다. 예를 들어, 사용자는 마우스 디바이스(171)를 조작하여 메뉴를 선택할 수 있다. 물론, 마우스 디바이스(171)를 대신하여 원격 제어 유닛 등이 사용될 수 있다.
HD DVD 드라이브(18)는 HD DVD 표준에 대응하는 AV(audio video) 콘텐츠가 저장된 HD DVD 미디어와 같은 저장 매체를 구동하는 구동 유닛이다.
비디오 제어기(22)는 PCI 버스(21)와 접속된다. 해당 비디오 제어기(22)는 비디오 디코더(23)와 인터페이스를 달성하는 LSI이다. 소프트웨어에 의해 HD DVD 스트림으로부터 분리된 메인 비디오 데이터의 스트림은 PCI 버스(21)와 비디오 제 어기(22)를 경유하여 비디오 디코더(25)에 제공된다. 게다가, CPU(11)로부터 출력된 디코딩 제어 정보 역시 PCI 버스(21)와 비디오 제어기(22)를 통해 비디오 디코더(25)로 공급된다.
비디오 디코더(25)는 H.264/AVC 표준에 대응하는 디코더로서, HD 표준에 기초한 메인 비디오 데이터를 디코드하여, 예컨대, 1920×1080 화소의 해상도를 갖는 비디오 스크린 화상을 형성하는데 사용되는 디지털 YUV 비디오 신호를 생성한다. 해당 디지털 YUV 비디오 신호는 블렌딩 처리부(30)로 전송된다.
블렌딩 처리부(30)는 GPU(120)와 비디오 디코더(25) 각각과 결합되어, GPU(120)로부터 출력된 그래픽 출력 데이터와 비디오 디코더(25)에 의해 디코드된 메인 비디오 데이터를 수퍼임포즈하는 블렌딩 처리를 실행한다. 해당 블렌딩 처리에 있어서, 화소 유닛에서 그래픽 데이터를 구성하는 디지털 RGB 비디오 신호와 메인 비디오 데이터를 구성하는 디지털 YUV 비디오 신호를 수퍼임포즈하는 블렌딩 처리(알파 블렌딩 처리)는 GPU(120)로부터 그래픽 데이터(RGB)와 함께 출력된 알파 데이터에 기초하여 실행된다. 이러한 경우에, 메인 비디오 데이터는 하위 스크린 화상으로 사용되고, 그래픽 데이터는 메인 비디오 데이터에 수퍼임포즈된 상위 스크린 화상으로 사용된다.
블렌딩 처리에 의해 얻어진 출력 화상 데이터는, 예컨대, 디지털 YUV 비디오 신호로서, 비디오 인코더(40)와 AV 인터페이스(HDMI-TX)(41) 각각에 제공된다. 비디오 인코더(40)는 블렌딩 처리에 DLM해 얻어진 출력 화상 데이터(디지털 YUV 비디오 신호)를 컴포넌트 비디오 신호 혹은 S-비디오 신호로 변환하고, 변환된 신호를 TV 수상기와 같은 외부 표시 디바이스(모니터)에 출력한다. AV 인터페이스(HDMI-TX)(41)는 디지털 YUV 비디오 신호와 디지털 오디오 신호를 포함하는 디지털 신호 그룹을 외부 HDMI 디바이스에 출력한다.
오디오 제어기(23)는 PCI 버스(23)와 접속된다. 오디오 제어기(23)는 메인 오디오 디코더(31)와 서브 오디오 디코더(32) 각각에 대해 인터페이스를 달성하는 LSI이다. 소프트웨어에 의해 HD DVD 스트림으로부터 분리된 메인 오디오 데이터의 스트림은 PCI 버스(21)와 오디오 제어기(23)를 경유하여 메인 오디오 디코더(31)에 전송된다. 또한, 소프트웨어에 의해 HD DVD 스트림으로부터 분리된 서브 오디오 데이터의 스트림은 PCI 버스(21)와 오디오 제어기(23)를 통해 서브 오디오 디코더(32)로 이송된다. CPU(11)로부터 출력된 디코딩 제어 정보 역시 비디오 제어기(22)를 통해 메인 오디오 디코더(31)와 서브 오디오 디코더(32) 각각에 제공된다.
메인 오디오 디코더(31)는 메인 오디오 데이터를 디코딩하여 I2S(Inter-IC Sound) 포맷의 디지털 오디오 신호를 생성한다. 해당 디지털 오디오 신호는 오디오 믹서(33)에 제공된다. 메인 오디오 데이터는 복수 종류의 선정된 압축 및 인코딩 모드(즉, 복수 종류의 오디오 코덱) 중 임의의 모드를 사용하여 압축 및 인코드된다. 따라서, 메인 오디오 디코더(31)는 복수 종류의 압축 및 인코딩 모드 각각에 대응하는 디코딩 기능을 갖는다. 즉, 메인 오디오 디코더(31)는 복수 종류의 압축 및 인코딩 모드 중 임의의 모드에 의해 압축 및 인코드된 메인 오디오 데이터를 디코드하여 디지털 오디오 신호를 생성한다. CPU(11)로부터 디코딩 제어 정보 를 통해 메인 오디오 데이터에 대응하는 압축 및 인코딩 모드의 종류가 메인 오디오 디코더(31)에게 통지된다.
서브 오디오 디코더(32)는 서브 오디오 데이터를 디코드하여 I2S(inter-IC sound) 포맷의 디지털 오디오 신호를 생성한다. 해당 디지털 오디오 신호는 오디오 믹서(33)로 전달된다. 서브 오디오 데이터 역시 복수 종류의 선정된 압축 및 인코딩 모드(즉, 복수 종류의 오디오 코덱) 중 임의의 모드를 사용하여 압축 및 인코드된다. 따라서, 서브 오디오 디코더(32) 역시 복수 종류의 압축 및 인코딩 모드 각각에 대응하는 디코딩 기능을 갖는다. 즉, 서브 오디오 디코더(32)는 복수 종류의 압축 및 인코딩 모드 중 임의의 모드를 사용하여 압축 및 인코드된 서브 오디오 데이터를 디코드하여 디지털 오디오 신호를 생성한다. CPU(11)로부터 디코딩 제어 정보를 통해 서브 오디오 데이터에 대응하는 압축 및 인코딩 모드의 종류가 오디오 디코더(32)에게 통지된다.
오디오 믹서(33)는 메인 오디오 디코더(31)에 의해 디코드된 메인 오디오 데이터를 서브 오디오 디코더(32)에 의해 디코드된 서브 오디오 데이터와 믹싱하는 믹싱 처리를 실행하여 디지털 오디오 출력 신호를 생성한다. 해당 디지털 오디오 출력 신호는 AV 인터페이스(HDMI-TX)(41)에 제공되고, 외측으로 출력되는 아날로그 출력 신호로 변환된다.
이제, CPU(11)에 의해 실행되는 플레이어 애플리케이션(150)의 기능적 구조가 도 2를 참조하여 설명될 것이다.
플레이어 애플리케이션(15)은 역다중화(demux) 모듈, 디코딩 제어 모듈, 서 브-픽쳐 디코딩 모듈, 서브 비디오 디코딩 모듈, 그래픽 디코딩 모듈 등을 포함한다.
역다중화 모듈은 HD DVD 드라이브(18)로부터 판독된 스트림으로부터 메인 비디오 데이터, 메인 오디오 데이터, 서브-픽쳐 데이터, 서브 비디오 데이터 및 서브 오디오 데이터를 분리하는 역다중화 처리를 실행하는 소프트웨어이다. 디코딩 제어 모듈은 네비게이션 데이터에 기초한 메인 비디오 데이터, 메인 오디오 데이터, 서브-픽쳐 데이터, 서브 비디오 데이터, 서브 오디오 데이터 및 그래픽 각각에 대한 디코딩 처리를 제어하는 소프트웨어이다.
서브-픽쳐 디코딩 모듈은 서브 픽쳐 데이터를 디코드한다. 서브 비디오 디코딩 모듈은 서브 비디오 데이터를 디코드한다. 그래픽 디코딩 모듈은 그래픽 데이터(진보된 엘리먼트)를 디코드한다.
그래픽 드라이버는 GPU(120)를 제어하는 소프트웨어이다. 디코드된 서브-픽쳐 데이터, 디코드된 서브 비디오 데이터 및 디코드된 그래픽 데이터는 그래픽 드라이버를 경유하여 GPU(120)에 제공된다. 또한, 그래픽 드라이버는 다양한 종류의 드로잉 명령(draw commands)을 GPU(120)에 발행한다.
PCI 스트림 전송 드라이버는 PCI 버스(21)를 통해 스트림을 전송하는 소프트웨어이다. 메인 비디오 데이터, 메인 오디오 데이터 및 서브 오디오 데이터는 PCI 스트림 전송 디라이버에 의해 PCI 버스(21)를 경유하여 비디오 디코더(25), 메인 오디오 디코더(31) 및 서브 오디오 디코더(32)에 각각 전송된다.
이제, CPU(11)에 의해 실행된 플레이어 애플리케이션(150)에 의해 실현된 소 프트웨어 디코더의 기능적 구조가 도 3을 참조하여 설명될 것이다.
소프트웨어 디코더는, 도면에 도시된 바와 같이, 데이터 판독부(101), 코드 해독 처리부(code breaking processing section; 102), 역다중화(demux)부(103), 서브-픽쳐 디코더(104), 서브 비디오 디코더(105), 그래픽 디코더(106), 네비게이션 제어부(201) 등을 탑재한다.
HD DVD 드라이브(18)의 HD DVD 미디어에 저장된 콘텐츠(메인 비디오 데이터, 서브 비디오 데이터, 서브-픽쳐 데이터, 메인 오디오 데이터, 서브 오디오 데이터, 그래픽 데이터 및 네비게이션 데이터)는 데이터 판독부(101)에 의해 HD DVD 드라이브(18)로부터 판독된다. 메인 비디오 데이터, 서브 비디오 데이터, 서브-픽쳐 데이터, 메인 오디오 데이터, 서브 오디오 데이터, 그래픽 데이터 및 네비게이션 데이터 각각은 인코드된다. 메인 비디오 데이터, 서브 비디오 데이터, 서브-픽쳐 데이터, 메인 오디오 데이터 및 서브 오디오 데이터는 HD DVD 스트림으로 다중화된다. 데이터 판독부(101)에 의해 HD DVD 미디어로부터 판독된 메인 비디오 데이터, 서브 비디오 데이터, 서브-픽쳐 데이터, 메인 오디오 데이터, 서브 오디오 데이터, 그래픽 데이터 및 네비게이션 데이터는 각각 콘텐츠 코드 해독 처리부(102)로 입력된다. 코드 해독 처리부(102)는 각 데이터의 코드를 해독하는 처리를 실행한다. 코드가 해독된 네비게이션 데이터는 네비게이션 제어부(201)로 전송된다. 또한, 코드가 해독된 HD DVD 스트림은 역다중화부(103)에 제공된다.
네비게이션 제어부(201)는 그래픽 데이터(진보된 엘리먼트)의 재생을 제어하기 위해 네비게이션 데이터내에 포함된 스크립트(XML)를 분석한다. 그래픽 데이터 는 그래픽 디코더(106)로 공급된다. 그래픽 디코더(106)는 플레이어 애플리케이션(150)의 그래픽 디코딩 모듈로 구성되고, 그래픽 데이터를 디코딩한다.
게다가, 네비게이션 제어부(201)는 또한 사용자에 의한 마우스 디바이스(171)의 조작에 따라 커서를 이동시키는 처리를 실행하고, 효과음을 재생하기 위해 메뉴 선택에 응답하는 처리등을 실행한다. 드로잉(drawing) 기능에 의해 화상을 드로잉하는 것은, 네비게이션 제어부(201)에 의해 사용자로부터 마우스 디바이스(171) 조작을 획득하고, 경로, 즉, GPU(120)내의 커서의 경로를 포함하는 픽쳐의 그래픽 데이터를 생성하고, 다음에 이 데이터를 그래픽 디코더(106)에 의해 디코드된 네비게이션 데이터에 기초한 그래픽 데이터와 동등한 그래픽 데이터로서 GPU(120)에 재-입력함으로써 실행된다.
이러한 역다중화기(103)는 플레이어 애플리케이션(150)의 역다중화 모듈에 의해 실현된다. 역다중화기(103)는 HD DVD 스트림으로부터 메인 비디오 데이터, 메인 오디오 데이터, 서브 오디오 데이터, 서브-픽쳐 데이터, 서브 비디오 데이터및 그 밖의 것등을 분리한다.
메인 비디오 데이터는 PCI 버스(21)를 통해 비디오 디코더(25)로 공급된다. 메인 비디오 데이터는 비디오 디코더(25)에 의해 디코드된다. 디코드된 메인 비디오 데이터는 HD 표준에 기초한 예컨대, 1920×1080 화소의 해상도를 갖고, 디지털 YUV 비디오 신호로서 블렌딩 처리부(30)로 전송된다.
메인 오디오 데이터는 PCI 버스(21)를 통해 메인 오디오 디코더(31)로 공급된다. 메인 오디오 데이터는 메인 오디오 디코더(31)에 의해 디코드된다. 디코드 된 메인 오디오 데이터는 I2S 포맷을 갖는 디지털 오디오 신호로서 오디오 믹서(33)로 공급된다.
서브 오디오 데이터는 PCI 버스(21)를 통해 서브 오디오 디코더(32)로 공급된다. 서브 오디오 데이터는 메인 오디오 디코더(32)에 의해 디코드된다. 디코드된 서브 오디오 데이터는 I2S 포맷을 갖는 디지털 오디오 신호로서 오디오 믹서(33)로 공급된다.
서브-픽쳐 데이터 및 서브 비디오 데이터는 서브-픽쳐 디코더(104) 및 서브 비디오 디코더(105)로 각각 전송된다. 이들 서브-픽쳐 디코더(104) 및 서브 비디오 디코더(105)는 서브-픽쳐 데이터 및 서브 비디오 데이터를 디코드한다. 이들 서브-픽쳐 디코더(104) 및 서브 비디오 디코더(105)는 각각 플레이어 애플리케이션(150)의 서브-픽쳐 디코딩 모듈 및 서브 비디오 디코딩 모듈에 의해 실현된다.
서브-픽쳐 디코더(104), 서브 비디오 디코더(105) 및 그래픽 디코더(106)에 의해 각각 디코드된 서브-픽쳐 데이터, 서브 비디오 데이터 및 그래픽 데이터는 CPU(11)에 의해 VRAM(131)에 기입된다. 또한, 커서 화상에 대응하는 커서 데이터도 CPU(11)에 의해 VRAM(131)에 기입된다. 서브-픽쳐 데이터, 서브 비디오 데이터, 그래픽 데이터 및 커서 데이터 각각은 각 화소에 따라 RGB 데이터 및 알파 데이터(A)를 포함한다.
GPU(120)는, CPU(11)에 의해 VRAM(131)에 기입된 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터로부터 예컨대, 1920×1080 화소의 그래픽 스크린 화상을 형성하는 그래픽 출력 데이터를 생성한다. 이 경우에, 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터는, GPU(120)의 믹서(MIX)부(121)에 의해 실행되는 알파 블렌딩 처리에 의해 각 화소에 따라 수퍼임포즈된다.
이러한 알파 블렌딩 처리는 VRAM(131)에 기입된 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터의 각각에 대응하는 알파 데이터를 이용한다. 즉, VRAM(131)에 기입된 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터 각각은 화상 데이터 및 알파 데이터로 형성된다. 믹서(MIX)부(121)는, 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터가 예컨대 1920×1080 화소의 배경 화상에 수퍼임포즈되는 그래픽 스크린 화상을 생성하기 위해, 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터의 각각에 대응하는 알파 데이터 및 CPU(11)에 의해 특정되는 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터의 각각의 위치 정보에 기초한 블렌딩 처리를 실행한다.
배경 화상의 각 화소에 대응하는 알파값은 이 화소가 투명, 즉, 0임을 나타내는 값이다. 각각의 화상 데이터의 세트가 그래픽 스크린 화상에 수퍼임포즈되는 영역에 관련하여, 이 영역에 대응하는 새로운 알파 데이터가 믹서(MIX)부(121)에 의해 계산된다.
이러한 방식에서, GPU(120)는 1920×1080 화소의 그래픽 스크린 화상을 형성하는 그래픽 출력 데이터(RGB) 및 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터로부터 이러한 그래픽 데이터에 대응하는 알파 데이터를 생 성한다. 서브 비디오 데이터, 그래픽 데이터, 서브-픽쳐 데이터 및 커서 데이터에 대응하는 화상 중 하나가 표시되는 장면과 관련하여, 화상(예컨대, 720×480) 만이 1920×1080 화소의 배경 화상에 배열되는 그래픽 스크린 화상에 대응하는 그래픽 데이터 및 이 그래픽 데이터에 대응하는 알파 데이터가 생성된다.
GPU(120)에 의해 생성되는 그래픽 데이터(RGB) 및 알파 데이터는 그래픽 버스(20)를 통해 RGBA 데이터로서 블렌딩 처리부(30)로 공급된다.
블렌딩 처리부(30)에 의해 실행되는 블렌딩 처리(알파 블렌딩 처리)가 이제 도 4를 참조하여 설명된다.
알파 블렌딩 처리는, 그래픽 데이터(RGB)에 부착된 알파 데이터(A)에 기초하여 화소부내의 그래픽 데이터 및 메인 비디오 데이터를 수퍼임포즈하는 블렌딩 처리이다. 이 경우에, 그래픽 데이터(RGB)는 위-표면(over-surface)으로 이용되고 비디오 데이터상에 수퍼임포즈된다. GPU(120)로부터의 그래픽 데이터 출력의 해상도는 비디오 디코더(25)로부터의 메인 비디오 데이터 출력의 해상도와 동일하다.
1920×1080 화소의 해상도를 갖는 메인 비디오 데이터(비디오)는 화상 데이터 C로서 블렌딩 처리부(30)에 입력되고, 1920×1080 화소의 해상도를 갖는 그래픽 데이터는 화상 데이터 G로서 블렌딩 처리부(30)에 입력되는 것으로 가정한다. 블렌딩 처리부(30)는 1920×1080 화소의 해상도를 갖는 알파 데이터(A)에 기초하여 화소부내의 화상 데이터 C상에 화상 데이터 G를 수퍼임포즈하는 산술 연산을 실행한다. 이 산술 연산은 다음 수학식 1에 의해 실행된다.
Figure 112007022824267-PAT00001
여기서, V는 알파 블렌딩 처리에 의해 얻어진 출력 화상 데이터의 각 화소의 색이며, α는 그래픽 데이터 G에서 각 화소에 대응하는 알파값이다.
GPU(120)의 믹서(MIX)부(121)에 의해 실행되는 블렌딩 처리(알파 블렌딩 처리)가 이제 도 5를 참조하여 설명된다.
여기서, 1920×1080 화소의 해상도를 갖는 그래픽 데이터는, VRAM(131)에 기입된 서브-픽쳐 데이터 및 서브 비디오 데이터로부터 생성되는 것으로 가정한다. 서브-픽쳐 데이터 및 서브 비디오 데이터 각각은 예컨대, 720×480화소의 해상도를 갖는다. 이 경우에, 예컨대, 720×480화소의 해상도를 갖는 알파 데이터도 역시 서브-픽쳐 데이터 및 서브 비디오 데이터의 각각과 관련된다.
예컨대, 서브-픽쳐 데이터에 대응하는 화상은 위-표면으로 이용되고, 서브 비디오 데이터에 대응하는 화상은 아래-표면(under-surface)으로서 이용된다.
서브-픽쳐 데이터에 대응하는 화상 및 서브 비디오 데이터에 대응하는 화상이 서로간에 수퍼임포즈되는 영역내의 각 화소의 색은 다음 수학식2에 의해 얻어진다.
Figure 112007022824267-PAT00002
여기서, G는 화상이 수퍼임포즈되는 영역에서의 각 화소의 색이고, Go는 위- 표면으로 이용되는 서브-픽쳐 데이터에서의 각 화소의 색이고, αo는 위-표면으로 이용되는 서브-픽쳐 데이터에서의 각 화소의 알파값이고, Gu는 아래-표면으로 이용되는 서브 비디오 데이터의 각 화소의 색이다.
또한, 서브-픽쳐 데이터에 대응하는 화상 및 서브 비디오 데이터에 대응하는 화상이 서로 수퍼임포즈되는 영역에서의 각 화소의 알파값은 다음 수학식3에 의해 얻어진다.
Figure 112007022824267-PAT00003
여기서, α는 화상이 수퍼임포즈되는 영역에서의 각 화소의 알파값이고, αu는 아래-표면으로 이용되는 서브 비디오 데이터에서의 각 화소의 알파값이다.
이러한 방식에서, GPU(120)의 믹서(MIX)부(121)는 서브-픽쳐 데이터 및 서브 비디오 데이터를 수퍼임포즈하기 위해 서브-픽쳐 데이터에 대응하는 알파 데이터의 위-표면으로 이용되는 알파 데이터 및 서브 비디오 데이터에 대응하는 알파 데이터를 이용하고, 이에 따라 1920×1080 화소의 스크린 화상을 형성하는 그래픽 데이터를 생성한다. 또한, GPU(120)의 믹서부(121)는 서브-픽쳐 데이터에 대응하는 알파 데이터 및 서브 비디오 데이터에 대응하는 알파 데이터로부터 1920×1080 화소의 스크린 화상을 형성하는 그래픽 데이터에서의 각 화소의 알파값을 산출한다.
구체적으로, GPU(120)의 믹서부(121)는, 1920×1080 화소의 스크린 화상을 형성하는 그래픽 데이터 및 1920×1080 화소를 갖는 알파 데이터를 산출하기 위해, 1920×1080 화소의 표면(모든 화소의 색 = 흑색, 모든 화소의 알파값 = 0), 720×480 화소를 갖는 서브 비디오 데이터의 표면, 및 720×480 화소를 갖는 서브-픽쳐 데이터의 표면을 수퍼임포즈하는 블렌딩 처리를 실행한다. 1920×1080 화소의 표면은 가장 아래의 표면으로 이용되고, 서브 비디오 데이터의 표면은 두번째로 아래의 표면으로 이용되고, 서브-픽쳐 데이터의 표면은 가장 높은 표면으로 이용된다.
1920×1080 화소를 갖는 스크린 화상에서, 서브-픽쳐 데이터 및 서브 비디오 데이터 모두가 존재하지 않는 영역에서의 각 화소의 색은 흑색이다. 또한, 서브-픽쳐 데이터만이 존재하는 영역에서의 각 화소의 색은 서브-픽쳐 데이터내의 각각의 대응하는 화소의 원래 색과 동일하다. 마찬가지로, 서브 비디오 데이터만이 존재하는 영역에서의 각 화소의 색은 서브 비디오 데이터내의 각각의 대응하는 화소의 원래 색과 동일하다.
게다가, 1920×1080 화소를 갖는 스크린 화상에서, 서브-픽쳐 데이터 및 서브 비디오 데이터 모두가 존재하지 않는 영역에서의 각 화소에 대응하는 알파값은 0이다. 또한, 서브-픽쳐 데이터만이 존재하는 영역에서의 각 화소의 알파값은 서브-픽쳐 데이터내의 각각의 대응하는 화소의 원래 알파값과 동일하다. 마찬가지로, 서브 비디오 데이터만이 존재하는 영역에서의 각 화소의 알파값은 서브 비디오 데이터내의 각각의 대응하는 화소의 원래 알파값과 동일하다.
도 6은 720×480 화소를 갖는 서브 비디오 데이터가 1920×1080 화소를 갖는 메인 비디오 데이터상에 수퍼임포즈되고 표시되는 방법을 도시한다.
도 6에서, 각 화소에 따른 1920×1080 화소의 표면(모든 화소의 색 = 흑색, 모든 화소의 알파값 = 0), 및 720×480 화소를 갖는 서브 비디오 데이터의 표면을 수퍼임포즈하는 블렌딩 처리에 의해 그래픽 데이터가 생성된다.
전술한 바와 같이, 디스플레이 디바이스로 출력되는 출력 화상 데이터(비디오 + 그래픽)는 그래픽 데이터와 메인 비디오 데이터를 블렌딩하여 생성된다.
1920×1080 화소를 갖는 그래픽 데이터 중에서, 720×480 화소를 갖는 서브 비디오 데이터가 존재하지 않는 영역에서의 각 화소의 알파값은 0이다. 따라서, 서브 비디오 데이터가 720×480 화소를 갖는 영역은 투명하게 되고, 이에 따라 메인 비디오 데이터는 100% 불투명으로 이 영역에 표시된다.
720×480 화소를 갖는 서브 비디오 데이터내의 각 화소는 서브 비디오 데이터에 대응하는 알파 데이터에 의해 특정되는 투명도로 메인 비디오 데이터상에 표시된다. 예컨대, 알파값 = 1을 갖는 서브 비디오 데이터내의 화소는 100% 불투명으로 표시되고, 이 화소의 위치에 대응하는 메인 비디오 데이터내의 화소는 표시되지 않는다.
또한, 도 7에 도시된 바와 같이, 720×480 화소의 해상도로 감소된 메인 비디오 데이터도 또한 1920×1080 화소의 해상도로 확장된 서브 비디오 데이터의 영역의 일부에 표시될 수 있다.
도 7의 디스플레이 배치(conformation)는 GPU(120)의 스케일링 기능 및 비디오 디코더(25)의 스케일링 기능을 이용하여 실현된다.
구체적으로, GPU(120)는, CPU(11)로부터의 명령에 따라 서브 비디오 데이터의 해상도가 1920×1080 화소에 도달할 때까지 서브 비디오 데이터의 해상도를 점 차적으로 증가시키는 스케일링 처리를 실행한다. 이러한 스케일링 처리는 화소 보간(interpolation)을 이용하여 수행된다. 서브 비디오 데이터의 해상도가 증가함에 따라, 720×480 화소를 갖는 서브 비디오 데이터가 1920×1080 화소를 갖는 그래픽 데이터내에 존재하지 않는 영역(알파값 = 0인 영역)은 점차 감소된다. 결과적으로, 메인 비디오 데이터상에 수퍼임포즈되는 동안 표시되는 서브 비디오 데이터의 사이즈는 점차 증가하고, 이에 반해, 알파값 = 0인 영역은 점차 감소한다. 서브 비디오 데이터의 해상도(화상 사이즈)가 1920×1080 화소에 도달할 때, GPU(120)는, 720×480 화소의 영역을 1920×1080 화소를 갖는 서브 비디오 데이터상에서 알파값 = 0으로 배열하기 위해, 각 화소에 따라 1920×1080 화소를 갖는 서브 비디오 데이터상에서 720×480 화소의 표면(모든 화소의 색 = 흑색, 모든 화소의 알파값 = 0)을 수퍼임포즈하는 블렌딩 처리를 실행한다.
한편, 비디오 디코더(25)는, CPU(11)로부터의 명령에 따라 메인 비디오 데이터의 해상도를 720×480 화소로 감소시키는 스케일링 처리를 실행한다.
720×480 화소로 감소된 메인 비디오 데이터는, 1920×1080 화소를 갖는 서브 비디오 데이터상에 배열된 알파값 = 0을 갖는 720×480 화소의 영역에 표시된다. 즉, GPU(120)로부터 출력된 알파 데이터도 또한 메인 비디오 데이터가 표시되는 영역을 제한하는 마스크로서 이용될 수 있다.
GPU(120)로부터 출력된 알파 데이터가 이러한 방식에서 소프트웨어에 의해 자유롭게 제어될 수 있기 때문에, 그래픽 데이터는 메인 비디오 데이터상에 효과적으로 수퍼임포즈될 수 있고 표시될 수 있으며, 이에 따라 고 상호작 용(interactivity)을 갖는 픽쳐의 표현이 용이하게 실현된다. 또한, 알파 데이터는 GPU(120)로부터의 그래픽 데이터와 함께 블렌딩 처리부(30)로 자동으로 전송되기 때문에, 소프트웨어는 알파 데이터가 블렌딩 처리부(30)로 전송되는 것에 대해 인식할 필요가 없다.
도 8은 GPU(120) 및 전술한 바와 같이 동작하는 블렌딩 처리부(30)로써 이러한 HD DVD 플레이어에 의해 재생되는 HD 표준에 기초하여 AV 컨텐츠내의 복수의 화상 데이터의 세트 각각을 수퍼임포즈하는 절차를 도시하는 개념도이다.
HD 표준에서, 5개의 계층, 즉, 계층1 내지 계층 5가 정의되고, 전술한 커서, 그래픽, 서브-픽쳐, 서브 비디오 및 메인 비디오가 각각 각 계층에 할당된다. 또한, 도 8에 도시된 바와 같이, 이러한 HDD DVD 플레이어는, GPU(120)의 믹서부(121)내에서 전-처리(pre-processing)로서 계층 1 내지 계층 5 중에서 계층 1 내지 계층 4에 대한 4개의 화상 a1 내지 a4의 수퍼임포즈를 실행하고, 블렌딩 처리부(30)에서 후-처리(post-processing)로서 이러한 GPU(120)으로부터의 출력 화상과 계층 5의 화상 a5에 대한 수퍼임포즈를 실행하고, 이에 따라 대상(target) 화상 a6를 생성한다.
HD 표준에 기초하여 정의된 계층 1 내지 5의 화상 데이터의 5개 세트에 대한 수퍼임포즈가 이러한 방식에서 2개의 스테이지로 분할될 때, HD DVD 플레이어는 로드를 적당하게 분배한다. 또한, 계층 5의 메인 비디오는 고 해상도 픽쳐이고, 각각의 프레임은 30 프레임/초의 속도로 갱신되어야 한다. 따라서, 이러한 메인 비디오를 처리하는 블렌딩 처리부(30)에서는 30회/초로 수퍼임포즈가 수행되어야 한 다. 한편, 메인 비디오와 같은 고 화상 품질이 계층 1 내지 계층 4의 커서, 그래픽, 서브 픽쳐 및 서브 비디오에서는 요구되지 않기 때문에, GPU(120)내의 믹서부(121)에서는 예컨대 10회/초로 수퍼임포즈를 실행하면 충분하다. 계층 1 내지 계층 4의 커서, 그래픽, 서브-픽쳐, 서브 비디오의 수퍼임포즈가 블렌딩 처리부(30)내에서 계층 5의 메인 비디오와 함께 실행되면, 수퍼임포즈는 각각의 계층 1 내지 4에 대하여 30회/초로 실행되고, 다시 말하면, 20회/초의 실행은 필요 이상이다. 즉, 다음으로, HD DVD 플레이어는 적절하게 효율성을 증진시킨다.
계층 1 내지 4의 커서, 그래픽, 서브-픽쳐 및 서브 비디오가 플레이어 애플리케이션(150)으로부터 GPU(120)로 공급됨에도 불구하고, 플레이어 애플리케이션(150)은, 도 8에 도시된 바와 같이, 각각의 화상 데이터를 GPU(120)로 공급하기 위해, 커서 드로잉 관리기(107), 표면 관리/타이밍 제어기(108)와 전술한 서브-픽쳐 디코더(104), 서브 비디오 디코더(105) 및 그래픽 디코더(엘리먼트 디코더)(106)를 갖는다.
커서 드로잉 관리기(107)는 네비게이션 제어부(201)의 하나의 기능으로 구현되고, 사용자에 의한 마우스 디바이스(171)의 조작에 응답하여 커서를 이동시키기 위해 커서 드로잉 제어를 실행한다. 한편, 표면 관리/타이밍 제어기(108)는 서브-픽쳐 디코더(104)에 의해 디코드된 서브-픽쳐 데이터의 화상을 적절하게 표시하기 위한 타이밍 제어를 실행한다.
드로잉내의 커서 제어는, 마우스 디바이스(171)의 조작에 따라 USB 제어기(17)에 의해 발행(issue)되는 커서의 움직임에 대한 제어 데이터를 나타낸다는 것을 주의한다. ECMA 스크립트는, 포인트, 라인, 그래픽 심볼등을 드로잉하는 명령을 하는 드로잉API가 기입된 스크립트를 나타낸다. iHD 마크업은 적시에(timely basis) 다양한 진보된 엘리먼트를 표시하기 위해 마크업 언어에 기입된 텍스트 데이터이다.
또한, GPU(120)는 스케일링 처리부(122), 루마-키 처리부(123) 및 3D 그래픽 엔진(124) 및 믹서부(121)를 구비한다.
스케일링 처리부(122)는 도 7과 결합되어 기술된 스케일링 처리를 실행한다. 루마-키 처리부(123)는 휘도값이 임계값 이하인 화소의 알파값을 0으로 설정하는 루마-키 처리를 실행하고 이에 따라 화상에서 배경(흑색)을 제거한다. 3D 그래픽 엔진(124)은 드로잉 기능을 위한 화상(커서의 경로를 포함하는 픽쳐)의 생성을 포함하는 그래픽 데이터의 생성 처리를 수행한다.
도 8에 도시된 바와 같이, HD DVD 플레이어는 계층 2 내지 4의 화상 a2 내지 a4에 대한 스케일링 처리를 수행하고, 계층 4의 화상 a4에 대한 루마-키 처리도 수행한다. 또한, HD DVD 플레이어에서, 이들 스케일링 처리 및 루마-키 처리 각각은 GPU(120)에 의해 단독으로 실행되지 않고, 블렌딩 처리(믹서부(121)에 의한)를 수행할 때 블렌딩 처리와 함께 동시에 실행된다. 플레이어 애플리케이션(150)의 측면에서, 스케일링 처리 또는 루마-키 처리는 블렌딩 처리와 함께 동시에 요청된다. 스케일링 처리 또는 루마-키 처리가 GPU(120)에 의해 단독으로 실행되면, 스케일링 처리후의 화상 또는 루마-키 처리후의 화상을 임시로 저장하는 중간 버퍼가 요구되고, 데이터는 이러한 중간 버퍼와 GPU(120)간에 전송되어야 한다. 한편, 스케일링 처리부(122), 루마-키 처리부(123) 및 믹서부(121)가 서로 협력하여 동작하는, 즉, GPU(120)에서 스케일링 처리부(122)로부터의 출력이 필요에 따라 루마-키 처리부(123)로 입력되고 루마-키 처리부(123)로부터의 출력이 필요에 따라 믹서부(121)로 입력되는 소위 파이프라인 처리를 수행하는 HD DVD 플레이어에서는, 중간 버퍼가 필요하지 않고, 중간 버퍼와 GPU(120)간에 데이터의 전송이 발생하지 않는다. 즉, 이러한 HD DVD 플레이어는 또한 이러한 점에서 효율성이 적절하게 증진된다.
도 8에 도시된 화소 버퍼 관리기(153)는, 3D 그래픽 엔진(124)를 이용하여 마우스 조작에 의해 픽쳐를 드로잉하거나 예컨대, 엘리먼트 디코더(106)에 의한 조작 안내의 오브젝트를 드로잉하기 위해 작업 영역으로 이용되는 화소 버퍼 할당의 관리를 실행하는 미들웨어임을 유의한다. 소프트웨어에서 하드웨어로서 화소 버퍼를 이용하도록 준비된 드라이버에 의한 할당 관리를 더 최적화하기 위해, 화소 버퍼 관리기(153)는 이러한 드라이버와 이러한 화소 버퍼를 이용하는 호스트 시스템 사이에 삽입된다.
전술한 바와 같이, 이러한 HD DVD 플레이어에서, 적절한 로드 분배 및 효율성의 증진은 HD 표준에서 정의된 게층 1 내지 5의 화상 데이터의 5개 세트의 수퍼임포즈를 2개의 스테이지로 분할함으로써 얻어지고, 스케일링 처리 또는 루마-키 처리를 블렌딩 처리와 함께 동시에 실행함으로써 효율성이 더 증진된다.
도 9는 복수의 화상 데이터 세트의 블렌딩 처리(blending processing)의 효율성을 증진시키기 위한 기능 구조의 한 예를 도시한 블록도이다. 이하의 설명이, 기술적 개념을 더 잘 이해하기 위해서 세 가지 종류의 데이터, 즉 서브 비디오 데 이터, 서브 픽쳐 데이터(sub-picture data), 및 그래픽 데이터에 중점을 두고 있으며, 커서 데이터 등은 특별히 설명되지는 않았다.
GPU 제어 기능(50)은 GPU(120)의 블렌딩 처리의 효율성의 증진을 구현하는 소프트웨어로 형성된다. 이 GPU 제어 기능은 부분(partial) 블렌딩 제어부(51), 디퍼렌셜(differential) 블렌딩 제어부(52), 블렌딩 모드 제어부(53) 및 그외의 것을 포함한다. 이런 기능들을 사용하면, 동일한 프레임 버퍼에 공급되는 서브 비디오 데이터, 서브 픽쳐 데이터 및 그래픽 데이터에 대한 블렌딩 처리의 속도 증가 및 효율성 증진을 실현할 수 있다.
부분 블렌딩 제어부(51)는, 그래픽 데이터가 예를 들어 전체 면의 일부만을 점유할 때, 그래픽 데이터를 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 블렌딩 처리에 사용된다는 점을 보장하기 위해서 GPU(120)를 제어하는 기능을 한다. 이 제어부(51)는 그래픽 데이터가 복수의 데이터 세트로 분할되고 복수의 데이터 세트의 배치가 특정 조건들을 만족시킬 때 복수의 데이터 세트를 일 프레임으로 둘러싸서 특정 영역을 형성하는 그룹화 처리를 실행하는 기능을 구비한다.
디퍼렌셜 블렌딩 제어부(52)는 서브 비디오 데이터 및 서브 픽쳐 데이터가 시간에 따라 변하고 그래픽 데이터가 시간에 따라 변하지 않을 때 그래픽 데이터에서의 서브 비디오 데이터 또는 서브 픽쳐 데이터 상에 수퍼임포즈(superimpose)된 부분을 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 블렌딩 처리에 사용되는 것을 보장하기 위해 서 GPU(120)를 제어하는 기능을 한다. 이러한 제어부(52)는 또한 그룹화 기능을 효율화하는 기능을 구비한다.
블렌딩 모드 제어부(53)는, 개개의 데이터 세트가 수퍼임포즈되는 영역에 따라서 제1 데이터 처리 모드(이후에 '파이프라인 모드'로 지칭) 및 제2 데이터 처리 모드(이후에 '순차적 블렌딩 모드'로 지칭) 중의 어느 것이 사용될지를 결정하고, 블렌딩 처리가 상기 결정된 모드에서 실행되는 것을 보장하기 위해서 GPU(120)를 제어하는 기능을 한다. 제1 데이터 처리 모드는 다중 스테이지에서 서로 결합된 처리부들을 사용하여 구현되어 서브 비디오 데이터, 서브-픽쳐 데이터 및 그래픽 데이터가 제각기 판독되도록 한다.
도 10은 도 9에 도시된 부분 블렌딩 제어부(51)에 의해 구현된 부분 블렌딩 처리를 설명하는 도면이다.
예를 들어, 그래픽 데이터가 시간에 따라 가변하고 전체 그래픽 면(60) 중에서 일부를 점유하는 경우가 고려될 것이다. 여기서, 그래픽 데이터가 복수의 데이터 세트 (61a, 61b, 61c 및 61d)로 분할된다고 가정하자.
여기서, 복수의 데이터 세트 (61a, 61b, 61c 및 61d)의 배치가 특정 조건들을 만족할 때, 복수의 데이터 세트를 일 프레임으로 둘러싸서 특정 영역(62)을 형성하는 그룹화 처리가 실행된다. 예를 들어, 형성될 특정 영역(62)의 영역과 복수의 데이터 세트 (61a, 61b, 61c 및 61d)의 전체 영역간의 차이(즉, 복수의 데이터 세트 간의 갭들의 영역)가 소정 값보다 작을 때, 그룹화 처리가 실행될 수 있다.
또한, GPU(120)는 특정 영역(62) 이외의 영역에서의 데이터가 블렌딩 처리에 사용되지 않고 상기 특정 영역(62)의 데이터가 블렌딩 처리에 활용되는 것을 보장하도록 제어된다. 즉, 도해되지 않은 서브 비디오 데이터와 서브 픽쳐 데이터가 프레임 버퍼에 공급되고, 다른 한편 그래픽 면(60)의 특정 영역(62) 만의 데이터가 그래픽 데이터와 관련하여 프레임 버퍼로 전송된다.
특정 영역(62) 이외의 영역(배경부)은 예를 들어 투명(무색성, achromatic) 데이터이고 시간에 따라 변화하지 않기 때문에, 블렌딩 처리가 수행될 필요가 없다. 이런 배경부에 관하여는, 블렌딩 처리가 수행되지 않기 때문에 전체 블렌딩 처리 속도의 증가 및 효율성 증진이 구현된다. 더욱이, 알파(alpha) 블렌딩 처리가 배경부에 대하여 실행될 필요가 없어서, 전체 블렌딩 처리의 효율성 증진과 속도의 증가가 추가로 구현된다. 더 나아가, 분포된 패턴에 존재하는 복수의 데이터 세트 (61a, 61b, 61c 및 61d)가 개별적으로 처리되지 않고 그룹화 처리에 의해 형성된 하나의 영역이 일괄적으로 처리되어, 전체 그래픽 처리의 효율성 증진과 속도의 증가가 구현될 수 있다.
도 11은 도 9에 도시된 디퍼렌셜 블렌딩 제어부(52)에 의해 실현되는 디퍼렌셜 블렌딩 처리를 설명하는 도면이다.
그래픽 데이터가 도 10에 도시된 예에서와 같이 전체 그래픽 면(60)의 일부만을 점유하고 복수의 데이터 세트 (61a, 61b, 61c 및 61d)가 분포된 패턴에 존재한다고 가정하자. 여기서, 서브 비디오 데이터(80) 및 서브-픽쳐 데이터(70)가 시간에 따라 변하는 경우와 그래픽 데이터(61a, 61b, 61c 및 61d)가 시간에 따라 변하지 않는 경우를 고려해 볼 수 있다.
먼저, 서브 비디오 데이터(80) 또는 서브 픽쳐 데이터(70) 상에 수퍼임포즈된 각각의 그래픽 데이터 세트 (61a), (61b), (61c) 및 (61d)의 (네 개의) 부분들이 검출된다. 네 개의 수퍼임포즈된 부분들의 배치가 특정 조건들을 만족시킬 때, 이런 부분들을 하나의 프레임으로 둘러싸서 특정 영역(63)을 형성하는 그룹화 처리가 실행된다.
더욱이, GPU(120)는 특정 영역(63) 이외의 영역에서의 데이터가 블렌딩 처리에 사용되지 않고 상기 특정 영역(63)의 데이터가 블렌딩 처리에 활용된다는 것을 보장하도록 제어된다. 즉, 서브 비디오 데이터(80) 및 서브 픽쳐 데이터(70)가 프레임 버퍼로 공급되고, 다른 한편 그래픽 면(60)의 특정 영역(63) 만에서의 데이터가 그래픽 데이터와 관련하여 프레임 버퍼에 공급된다.
도 10에 도시된 예와 마찬가지로, 투명(무색성) 데이터는 시간에 따라 변하지 않기 때문에, 블렌딩 처리는 이 부분에 대하여 실행될 필요는 없다. 또한, 데이터 갱신은 그래픽 데이터 (61a, 61b, 61c 및 61d)의 서브 비디오 데이터(80) 및 서브 픽쳐 데이터(70)의 양자와 오버랩하지 않는 부분(데이터 61b의 하부, 데이터 61c의 하부, 및 데이터 61d의 하부)에서 일어나지 않으며, 이 부분에 대하여 블렌딩 처리를 수행하는 것은 필요하지 않다. 블렌딩 처리는 이런 영역에 관하여 수행되지 않고, 다른 한편 블렌딩 처리는 데이터 갱신이 하부 층(서브 비디오 데이터(80) 및 서브 픽쳐 데이터 (70))에서 일어나는 영역에 대해서만 실행되어서, 전체 블렌딩 처리의 효율성 증진 및 처리 속도의 증가를 추가로 이뤄낸다.
도 12는 도 9에 도시된 블렌딩 모드 제어부(53)에 의해 구현되는 파이프라인 모드를 설명하는 도면이다. 서브 비디오 데이터, 서브 픽쳐 데이터 및 그래픽 데이터 뿐만이 아니라 커서 데이터도 대상물(target)로서 설명될 것임을 주의하라.
GPU(120) 내에 제공된 3D 그래픽 엔진(124)은 다중 스테이지 상에서 연결된처리부들(90A, 90B, 90C 및 90D)을 갖는다. 이 처리부들은 예를 들어 마이크로코드를 사용하는 프로그램에 의해 구현될 수 있다.
처리부(90A)는 도해되지 않은 투명 데이터 및 서브 비디오 데이터를 수신하고, 다음 스테이지에서 이들을 일괄적으로 처리부(90B)로 전송한다. 처리부(90A)는 입력 데이터의 블렌딩 처리, 스케일링 처리, 루마 키 처리(luma-key processing) 및 그외의 것을 실행하는 기능을 구비한다.
처리부(90B)는 처리부(90A)로부터 전송된 데이터 및 서브 픽쳐 데이터를 수신하고, 다음 스테이지에서 이들을 일괄적으로 처리부(90C)로 공급한다. 이 처리부(90B)는 입력 데이터의 블렌딩 처리, 스케일링 처리 및 그외의 것을 수행하는 기능을 구비한다.
처리부(90C)는 처리부(90B)로부터 공급된 데이터 및 그래픽 데이터를 수신하고, 다음 스테이지에서 이들을 일괄적으로 처리부(90D)로 공급한다. 이 처리부(90C)는 입력 데이터의 블렌딩 처리(앞서 기술한 부분 블렌딩 처리 또는 디퍼렌셜 블렌딩 처리를 포함함), 스케일링 처리 및 그외의 것을 수행하는 기능을 구비한다.
처리부(90D)는 처리부(90C)로부터 전송된 데이터 및 커서 데이터를 수신하고, 이들을 일괄적으로 프레임 버퍼(91)로 전송한다. 이 처리부(90C)는 입력 데이 터의 블렌딩 처리, 스케일링 처리 및 그외의 것을 이뤄내는 기능을 구비한다.
이런 방식으로, 다중 스테이지 상에서 연결된 처리부들(90A, 90B, 90C 및 90D)은 순차적으로 입력된 여러 종류의 화상 데이터를 일괄적으로 프레임 버퍼(91)로 전송시키는 파이프라인을 형성한다.
블렌딩 모드 제어부(53)는 파이프라인 모드에서의 블렌딩 처리가 처리부들(90A, 90B, 90C 및 90D)을 통해서 GPU(120)에 의해 실행되는 것을 보장하기 위해서 제어될 수 있다. 즉, 도 13에 도시된 대로, 블렌딩 모드 제어부(53)는, 블렌딩 처리가, 서브 비디오 데이터가 판독되고, 서브 픽쳐 데이터가 판독되고, 그래픽 데이터가 판독되고, 판독된 개개의 데이터가 프레임 버퍼에 일괄적으로 기입되는 파이프라인 모드에서 실행되는 것을 보장하기 위해서 GPU(120)를 제어할 수 있다.
블렌딩 모드 제어부(53)는 블렌딩 처리가 이하에 언급되는 현재의 순차적 블렌딩 모드에서 실행되는 것을 보장하기 위해서 제어될 수 있다는 점을 주의해야 한다. 즉, 도 14에 도시된 대로, 블렌딩 모드 제어부(53)는, 블렌딩 처리가, 기입 처리를 클리어링(clearing)하는 것이 소정 버퍼 영역에 대하여 먼저 수행되고, 이후에 서브 비디오 데이터 및 서브 픽쳐 데이터가 제각기 판독되고, 이런 데이터 세트들이 일괄적으로 버퍼에 기입되고, 일괄적으로 기입된 데이터 및 그래픽 데이터가 제각기 판독되고, 일괄적으로 기입된 이런 데이터 세트들이 제각기 버퍼에 기입되고, 일괄적으로 기입된 데이터 및 커서 데이터가 제각기 판독되고, 이런 데이터 세트들을 조합하여 획득된 데이터가 버퍼에 기입되는 순차적 블렌딩 모드(sequential blending mode)에서 실행되는 것을 보장하기 위해서 제어될 수 있다 는 점을 주의해야 한다.
더욱이, 블렌딩 모드 제어부(53)는, 화상 데이터의 개개의 세트가 수퍼임포즈되는 영역에 따라서 파이프라인 모드와 순차적 블렌딩 모드 중에서 어느 것이 사용될지를 결정하고 블렌딩 처리가 이 결정된 모드에서 실행되는 것을 보장하기 위해 GPU를 제어하는 기능을 구비한다.
도 15는 전체 화상에 대한 블렌딩 모드가 개개의 화상 데이터 세트가 수퍼임포즈되는 영역에 따라서 동적으로 스위칭되는 예를 도시한 도면이다.
블렌딩 모드 제어부(53)는 어떠한 화상 데이터의 수퍼임포즈도 없거나 그런 수퍼임포즈가 작을 때(영역이 소정값보다 작을 때) 순차적 블렌딩 모드를 채택하고 화상 데이터의 수퍼임포즈가 클 때(영역이 소정값보다 작지 않을 때) 파이프라인 모드를 채택하는 제어를 수행할 수 있다.
개개의 화상 데이터 세트가 수퍼임포즈되는 영역에 기초한 이런 판정 처리는 예를 들어 1/30 값에 따라서 수행되어서 동적 스위칭 제어를 구현하게 된다.
도 16은 도 15에 도시된 기술과는 다르게 개개의 화상 데이터 세트가 수퍼임포즈되는 영역에 따라서 블렌딩 모드가 각각의 화상 부분에 대해서 스위칭되는 예를 보여주는 도면이다.
도 16에 도시된 대로, 서브 비디오 데이터, 서브 픽쳐 데이터 및 그래픽 데이터를 블렌딩하는 경우에, 어떤 수퍼임포즈도 존재하지 않는 부분, 두 개의 화상 데이터 세트가 수퍼임포즈되는 부분 및 세 개의 화상 데이터 세트가 수퍼임포즈되는 부분을 갖는 구조에 대해 설명을 할 것이다. 이 경우에, 도 17에 도시된 대로, 순차적 블렌딩 모드가 어떠한 수퍼임포즈도 무조건으로 존재하지 않는 부분에 적용된다. 반면에, 두 개의 화상 데이터 세트가 수퍼임포즈되는 부분에 대하여 또는 세 개의 화상 데이터 세트가 수퍼임포즈되는 부분에 대하여 화상 데이터의 수퍼임포즈된 영역에 따라서 순차적 블렌딩 모드 또는 파이프라인 모드를 적용하는 것이 결정된다.
이상 설명한 대로, 본 실시예들에 따라서, 블렌딩 처리를 포함하는 그래픽 처리에 있어서의 과도한 처리량을 가능한 한 감축시키도록 독창적 개념이 적용되었기 때문에, 오우버헤드가 제거되어 데이터 전송 또는 재생 처리의 속도 증가를 구현하게 된다.
본 발명의 특정 실시예들이 설명되었지만, 이런 실시예들은 예시적 목적을 위해서만 제시된 것이고 본 발명의 범위를 제한하도록 의도된 것은 아니다. 또한 여기 설명된 새로운 방법들 및 시스템들은 다양한 그 밖의 형태로 실시될 수 있을 것이다. 더 나아가, 여기 설명된 방법들 및 시스템들의 형태에 대한 다양한 삭제, 대체 및 변화가 본 발명의 정신을 벗어나지 않고서 이뤄질 수 있다. 첨부된 청구범위 및 이들의 균등물은 본 발명의 범위 및 사상에 속하는 그런 형태들 및 변경들을 포괄하고자 의도한 것이다.
본 발명에 의하면, 블렌딩 처리를 포함하는 그래픽 처리에 있어서의 과도한 처리량을 가능한 한 감축시키도록 독창적 개념이 적용되었기 때문에, 오우버헤드가 제거되어 데이터 전송 또는 재생 처리의 속도 증가를 구현할 수 있다.

Claims (14)

  1. 적어도 비디오 데이터, 픽쳐 데이터(picture data) 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈(superimpose)하여 그래픽 스크린 화상을 생성하는 블렌딩 처리(blend processing)를 포함하는 그래픽 처리를 실행하는 그래픽 처리부와,
    상기 그래픽 데이터가 시간에 따라 변화하고 전체 평면의 일부분만을 점유할 때, 상기 그래픽 데이터를 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위해서 상기 그래픽 처리부를 제어하는 부분(partial) 블렌딩 제어부
    를 포함하는 정보 재생 장치.
  2. 제1항에 있어서, 상기 그래픽 데이터가 복수의 데이터 세트로 분할되고 상기 복수의 데이터 세트의 배치가 특정 조건들을 만족시킬 때, 상기 부분 블렌딩 제어부는 상기 복수의 데이터 세트를 하나의 프레임으로 둘러싸서 상기 특정 영역을 형성하는 그룹화 처리를 실행하는 정보 재생 장치.
  3. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하여 그래픽 스크린 화상을 발생하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 그래픽 처리부와,
    상기 비디오 데이터 및 상기 픽쳐 데이터가 시간에 따라 변화하고 상기 그래픽 데이터가 시간에 따라 변화하지 않을 때, 상기 그래픽 데이터에서의 상기 비디오 데이터 또는 상기 픽쳐 데이터 상에 수퍼임포즈된 부분을 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위해서 상기 그래픽 처리부를 제어하는 디퍼렌셜(differential) 블렌딩 제어부
    를 포함하는 정보 재생 장치.
  4. 제3항에 있어서, 상기 수퍼임포즈된 부분에서의 상기 그래픽 데이터가 복수의 데이터 세트로 분할되고 상기 복수의 데이터 세트의 배치가 특정 조건들을 만족시킬 때, 상기 디퍼렌셜 블렌딩 제어부는 상기 복수의 데이터 세트를 하나의 프레임으로 둘러싸서 상기 특정 영역을 형성하는 그룹화 처리를 실행하는 정보 재생 장치.
  5. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하여 그래픽 스크린 화상을 발생하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 그래픽 처리부와,
    상기 비디오 데이터가 판독되고, 상기 픽쳐 데이터가 판독되고, 상기 그래픽 데이터가 판독되고, 상기 판독된 개개의 데이터 세트가 일괄적으로 버퍼에 기입되는 데이터 처리 모드에서 상기 블렌딩 처리를 실행하도록 상기 그래픽 처리부를 제 어하는 블렌딩 모드 제어부
    를 포함하는 정보 재생 장치.
  6. 제5항에 있어서, 상기 데이터 처리 모드는, 다중 스테이지(multiple stages) 상에서 서로 결합되어 상기 비디오 데이터, 상기 픽쳐 데이터 및 상기 그래픽 데이터를 제각기 판독하는 처리부들에 의해 구현되는 정보 재생 장치.
  7. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하여 그래픽 스크린 화상을 발생하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 그래픽 처리부와,
    개개의 데이터 세트가 수퍼임포즈되는 영역에 따라서 데이터 처리 모드들 중의 어느 것이 사용될지를 결정하고, 상기 결정된 모드에서 상기 블렌딩 처리를 실행하도록 상기 그래픽 처리부를 제어하는 블렌딩 모드 제어부 - 상기 데이터 처리 모드들은, 상기 비디오 데이터가 판독되고, 상기 픽쳐 데이터가 판독되고, 상기 그래픽 데이터가 판독되고, 상기 판독된 개개의 데이터 세트가 일괄적으로 버퍼에 기입되는 제1 데이터 처리 모드와, 상기 비디오 데이터 및 상기 픽쳐 데이터를 제각기 판독하고 조합하여 획득된 데이터가 상기 버퍼에 기입되고, 상기 조합된 데이터와 상기 그래픽 데이터를 제각기 판독하고 조합하여 획득된 데이터가 상기 버퍼에 기입되는 제2 데이터 처리 모드임 -
    를 포함하는 정보 재생 장치.
  8. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와,
    상기 그래픽 데이터가 시간에 따라 변화하고 전체 평면의 일부분만을 점유할 때, 상기 그래픽 데이터를 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역에서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위한 제어를 수행하는 단계
    를 포함하는 정보 재생 방법.
  9. 제8항에 있어서, 상기 제어를 수행하는 단계는, 상기 그래픽 데이터가 복수의 데이터 세트로 분할되고 상기 복수의 데이터 세트의 배치가 특정 조건들을 만족시킬 때, 상기 복수의 데이터 세트를 하나의 프레임으로 둘러싸서 상기 특정 영역을 형성하는 그룹화 처리를 실행하는 것을 포함하는 정보 재생 방법.
  10. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와,
    상기 비디오 데이터 및 상기 픽쳐 데이터가 시간에 따라 변화하고 상기 그래픽 데이터가 시간에 따라 변화하지 않을 때, 상기 그래픽 데이터에서의 상기 비디오 데이터 또는 상기 픽쳐 데이터 상에 수퍼임포즈된 부분을 둘러싸는 특정 영역을 제외한 영역에서의 데이터가 상기 블렌딩 처리에 사용되지 않고 상기 특정 영역에 서의 데이터가 상기 블렌딩 처리에 사용되는 것을 보장하기 위한 제어를 수행하는 단계
    를 포함하는 정보 재생 방법.
  11. 제10항에 있어서, 상기 제어를 수행하는 단계는, 상기 수퍼임포즈된 부분에서의 상기 그래픽 데이터가 복수의 데이터 세트로 분할되고 상기 복수의 데이터 세트의 배치가 특정 조건들을 만족시킬 때, 상기 복수의 데이터 세트를 하나의 프레임으로 둘러싸서 상기 특정 영역을 형성하는 그룹화 처리를 실행하는 것을 포함하는 정보 재생 방법.
  12. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와,
    상기 비디오 데이터가 판독되고, 상기 픽쳐 데이터가 판독되고, 상기 그래픽 데이터가 판독되고, 상기 판독된 개개의 데이터 세트가 일괄적으로 버퍼에 기입되는 데이터 처리 모드에서 상기 블렌딩 처리를 실행하도록 제어를 수행하는 단계
    를 포함하는 정보 재생 방법.
  13. 제12항에 있어서, 상기 데이터 처리 모드는, 다중 스테이지 상에서 서로 결합되어 상기 비디오 데이터, 상기 픽쳐 데이터 및 상기 그래픽 데이터를 제각기 판독하는 처리부들을 사용하여 구현되는 정보 재생 방법.
  14. 적어도 비디오 데이터, 픽쳐 데이터 및 그래픽 데이터의 각각의 평면들을 수퍼임포즈하는 블렌딩 처리를 포함하는 그래픽 처리를 실행하는 단계와,
    개개의 데이터 세트가 수퍼임포즈되는 영역에 따라서 데이터 처리 모드들 중의 어느 것이 사용될지를 결정하고, 상기 결정된 모드에서 상기 블렌딩 처리를 실행하도록 제어를 수행하는 단계 - 상기 데이터 처리 모드들은, 상기 비디오 데이터가 판독되고, 상기 픽쳐 데이터가 판독되고, 상기 그래픽 데이터가 판독되고, 상기 판독된 개개의 데이터 세트가 일괄적으로 버퍼에 기입되는 제1 데이터 처리 모드와, 상기 비디오 데이터 및 상기 픽쳐 데이터를 제각기 판독하고 조합하여 획득된 데이터가 상기 버퍼에 기입되고, 상기 조합된 데이터와 상기 그래픽 데이터를 제각기 판독하고 조합하여 획득된 데이터가 상기 버퍼에 기입되는 제2 데이터 처리 모드임 -
    를 포함하는 정보 재생 방법.
KR1020070028201A 2006-03-22 2007-03-22 정보 재생 장치 및 정보 재생 방법 KR100845066B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00078221 2006-03-22
JP2006078221A JP2007258873A (ja) 2006-03-22 2006-03-22 再生装置および再生方法

Publications (2)

Publication Number Publication Date
KR20070095836A true KR20070095836A (ko) 2007-10-01
KR100845066B1 KR100845066B1 (ko) 2008-07-09

Family

ID=38532909

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070028201A KR100845066B1 (ko) 2006-03-22 2007-03-22 정보 재생 장치 및 정보 재생 방법

Country Status (5)

Country Link
US (1) US20070222798A1 (ko)
JP (1) JP2007258873A (ko)
KR (1) KR100845066B1 (ko)
CN (1) CN101042854A (ko)
TW (1) TW200822070A (ko)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
JP2007257114A (ja) * 2006-03-22 2007-10-04 Toshiba Corp 再生装置および再生装置のバッファ管理方法
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
US8169449B2 (en) * 2007-10-19 2012-05-01 Qnx Software Systems Limited System compositing images from multiple applications
US20100066900A1 (en) * 2008-09-12 2010-03-18 Himax Technologies Limited Image processing method
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
JP4915456B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
KR101576969B1 (ko) 2009-09-08 2015-12-11 삼성전자 주식회사 영상처리장치 및 영상처리방법
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
CN102184720A (zh) * 2010-06-22 2011-09-14 上海盈方微电子有限公司 一种支持多层多格式输入的图像合成显示的方法及装置
JP5686611B2 (ja) * 2011-01-14 2015-03-18 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
CN103875235B (zh) 2011-06-10 2018-10-12 菲力尔系统公司 用于红外成像装置的非均匀性校正技术
US9633407B2 (en) 2011-07-29 2017-04-25 Intel Corporation CPU/GPU synchronization mechanism
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
KR20150033162A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 컴포지터, 이를 포함하는 시스템온칩 및 이의 구동 방법
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
US9898804B2 (en) 2014-07-16 2018-02-20 Samsung Electronics Co., Ltd. Display driver apparatus and method of driving display
CN106873935B (zh) * 2014-07-16 2020-01-07 三星半导体(中国)研究开发有限公司 用于生成电子终端的显示界面的显示驱动设备和方法
JP6460783B2 (ja) * 2014-12-25 2019-01-30 キヤノン株式会社 画像処理装置及びその制御方法
KR102287400B1 (ko) * 2015-02-03 2021-08-06 삼성전자주식회사 이미지 합성 장치와 이를 포함하는 디스플레이 시스템
CN106447596A (zh) * 2016-09-30 2017-02-22 深圳云天励飞技术有限公司 图像处理中数据流的控制方法
KR20210006130A (ko) * 2019-07-08 2021-01-18 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
TW202115478A (zh) * 2019-10-01 2021-04-16 華碩電腦股份有限公司 投影畫面校正系統及其電子設備和投影機
TWI757973B (zh) 2019-12-06 2022-03-11 美商伊路米納有限公司 使用圖形檔案控制電子元件的方法和裝置以及相關的電腦程式產品和圖形檔案組
CN111866408B (zh) * 2020-07-30 2022-09-20 长沙景嘉微电子股份有限公司 图形处理芯片及视频解码显示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0129581B1 (ko) * 1994-06-22 1998-04-17 배순훈 슈퍼임포즈 가능한 CDG(Ccompact Disk Graphios)디스크 및 그 재생장치
JP3135808B2 (ja) * 1995-01-24 2001-02-19 株式会社東芝 コンピュータシステムおよびこのコンピュータシステムに適用されるカード
JP3554477B2 (ja) 1997-12-25 2004-08-18 株式会社ハドソン 画像編集装置
US7483042B1 (en) * 2000-01-13 2009-01-27 Ati International, Srl Video graphics module capable of blending multiple image layers
US6903753B1 (en) * 2000-10-31 2005-06-07 Microsoft Corporation Compositing images from multiple sources
JP3548521B2 (ja) * 2000-12-05 2004-07-28 Necマイクロシステム株式会社 半透明画像処理装置及び方法
CN1700329B (zh) * 2004-01-29 2010-06-16 索尼株式会社 再现装置、再现方法、再现程序和记录介质

Also Published As

Publication number Publication date
CN101042854A (zh) 2007-09-26
TW200822070A (en) 2008-05-16
KR100845066B1 (ko) 2008-07-09
US20070222798A1 (en) 2007-09-27
JP2007258873A (ja) 2007-10-04

Similar Documents

Publication Publication Date Title
KR100845066B1 (ko) 정보 재생 장치 및 정보 재생 방법
KR100865425B1 (ko) 재생장치 및 재생장치를 사용하는 재생 방법
KR100885578B1 (ko) 정보 처리 장치 및 정보 처리 방법
US7973806B2 (en) Reproducing apparatus capable of reproducing picture data
US8204357B2 (en) Reproducing device, reproducing method, reproducing program and recording medium
US20060164437A1 (en) Reproducing apparatus capable of reproducing picture data
RU2537800C2 (ru) Способ и устройство для наложения трехмерной графики на трехмерное видеоизображение
JP4247291B1 (ja) 再生装置および再生方法
US7936360B2 (en) Reproducing apparatus capable of reproducing picture data
US20070245389A1 (en) Playback apparatus and method of managing buffer of the playback apparatus
US20070223885A1 (en) Playback apparatus
US20060164938A1 (en) Reproducing apparatus capable of reproducing picture data
JP2009081540A (ja) 情報処理装置および合成映像生成方法
JP5159846B2 (ja) 再生装置および再生装置の再生方法
JP5060584B2 (ja) 再生装置
JP5275402B2 (ja) 情報処理装置、映像再生方法及び映像再生プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee