KR20070095761A - 재생장치 및 재생장치를 사용하는 재생 방법 - Google Patents

재생장치 및 재생장치를 사용하는 재생 방법 Download PDF

Info

Publication number
KR20070095761A
KR20070095761A KR20070009577A KR20070009577A KR20070095761A KR 20070095761 A KR20070095761 A KR 20070095761A KR 20070009577 A KR20070009577 A KR 20070009577A KR 20070009577 A KR20070009577 A KR 20070009577A KR 20070095761 A KR20070095761 A KR 20070095761A
Authority
KR
South Korea
Prior art keywords
data
sub
video data
picture
processing unit
Prior art date
Application number
KR20070009577A
Other languages
English (en)
Other versions
KR100865425B1 (ko
Inventor
신지 구노
Original Assignee
가부시끼가이샤 도시바
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 도시바 filed Critical 가부시끼가이샤 도시바
Publication of KR20070095761A publication Critical patent/KR20070095761A/ko
Application granted granted Critical
Publication of KR100865425B1 publication Critical patent/KR100865425B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0224Details of interlacing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

재생 장치(playback apparatus)가, 메인 화상으로서 이용되는 메인 비디오 데이터, 보조 화상으로서 이용되는 서브-비디오(sub-video) 데이터, 커서를 디스플레이하기 위한 커서 데이터, 조작 안내(operation guidance)를 디스플레이하기 위한 그래픽(graphics) 데이터, 및 서브타이틀을 디스플레이하기 위한 서브-픽처(sub-picture) 데이터를 출력하도록 구성된 출력 유닛(103)과, 상기 서브-비디오 데이터, 상기 서브-픽처 데이터, 상기 커서 데이터 및 상기 그래픽 데이터를 중첩(superimpose)시키도록 구성된 제1 블렌드 처리 유닛(blend processing unit)(120)과, 상기 제1 블렌드 처리 유닛에 의해 얻어진 중첩된 데이터와 상기 메인 비디오 데이터를 중첩시키도록 구성된 제2 블렌드 처리 유닛(30)을 포함한다.
재생 장치, 메인 화상, 보조 화상, 서브-비디오 데이터, 그래픽 데이터, 제1 블렌드 처리 유닛, 서브-픽처 데이터

Description

재생장치 및 재생장치를 사용하는 재생 방법{PLAYBACK APPARATUS AND PLAYBACK METHOD USING THE PLAYBACK APPARATUS}
도 1은 본 발명의 일 실시예에 따른 재생 장치의 구조를 도시하는 예시적인 블럭도.
도 2는 도 1의 재생 장치에서 사용된 플레이어 애플리케이션의 구조를 도시하는 예시적은 도면.
도 3은 도 2의 플레이어 애플리케이션에 의하여 구현된 소프트웨어 디코더의 구조 및 기능을 도시하는 예시적인 도면.
도 4는 도 1의 재생 장치에 제공된 블렌드 처리 유닛에 의하여 실행된 블렌드 처리를 도시하는 예시적인 도면.
도 5는 도 1의 재생 장치에 제공된 GPU에 의하여 실행된 블렌드 처리를 도시하는 예시적인 도면.
도 6은 도 1의 재생 장치에서 메인 비디오 데이터에 중첩되는 상태로 서브 비디오 데이터가 디스플레이 되는 상태를 도시하는 예시적인 도면.
도 7은 도 1의 재생 장치에서 서브 비디오 데이터의 영역 일부에 메인 비디오 데이터가 디스플레이되는 상태를 도시하는 예시적인 도면.
도 8은 도 1의 재생 장치에서 HD 표준의 AV 컨텐츠 내의 복수의 화상 데이터 아이템들을 중첩시키는 처리를 도시하는 예시적인 개념도.
도 9a 및 9b는 도 1의 재생 장치 내의 GPU 및 블렌드 처리 유닛 중 하나에 의하여 서브 비디오 화상들의 중첩을 선택적으로 실행하는 구조의 일 예를 도시하는 도면들.
<도면의 주요부분에 대한 부호의 설명>
11: CPU 12: 노스 브리지
13: 메인 메모리 14: 사우스 브리지
15: 비휘발성 메모리 17: USB 컨트롤러
18: HD DVD 드라이브 20: 그래픽 버스
23: 오디오 컨트롤러 33: 오디오 믹서
[특허 문헌] 일본 특허 공개 8-205092
본 발명의 일 실시예는 HD DVD(High Definition digital Versatile Disc) 플레이어와 같은 재생장치, 및 그러한 재생장치를 사용하는 재생방법에 관한 것이다.
최근, 동화상들의 디지털 압축 인코딩 기술의 발전으로, HD(High Definition) 표준의 고화질 화상들을 처리할 수 있는 재생장치들(플레이어들)이 개발되었다.
이 유형의 플레이어들은 높은 차수(high order)에서 복수의 화상 데이터 아이템들을 병합하여 인터랙티브 특성(interactive property)을 강화하는 기능들을 갖는 것이 요구된다.
예를 들면, [특허 문헌]은 디스플레이 컨트롤러에 의하여 비디오 데이터와 그래픽 데이터를 결합하는 시스템을 개시한다. 이 시스템에서, 디스플레이 컨트롤러는 비디오 데이터를 캡쳐하고, 캡쳐된 비디오 데이터를 그래픽 픽처(graphics picture) 상의 영역의 일부와 결합한다.
한편, [특허 문헌]에 개시된 시스템을 포함하는 종래의 시스템들에서, 비교적 낮은 화질의 비디오 데이터를 처리하는 것에 입각한 것이고, HD 표준의 비디오 데이터와 같은 고화질(high-definition) 화상들을 다루기 위한 것이 아니다. 더욱이, 그들은 많은 화상 데이터 아이템들을 중첩시키기 위한 것이 아니다.
한편, HD 표준에서, 최대 5개의 화상 데이터 아이템들을 중첩시키는 것이 요구되며, 상기 요구된 처리량은 재생 장치들의 실제 처리능력을 초과한다. 따라서, 부하의 적절한 분배 및 증가된 처리 효율이 강하게 요구된다.
본 발명은 상기 환경들을 고려하여 이루어졌다. 본 발명의 목적은, 부하의 피크를 특정 값 내로 억제하면서, 복수의 화상 데이터 아이템들의 중첩을 실행하는 재생 장치 및 재생 장치를 이용하는 재생 방법을 제공하기 위한 것이다.
상기 목적을 달성하기 위하여, 본 발명에 따른 재생 장치는 메인 화상으로 이용된 메인 비디오 데이터, 보조 화상으로서 사용된 서브-비디오 데이터, 커서를 디스플레이하는 커서 데이터, 조작 안내를 디스플레이하는 그래픽 데이터, 및 서브타이틀을 디스플레이하기 위한 서브-픽쳐 데이터를 출력하도록 구성된 출력 유닛과, 상기 서브-비디오 데이터, 상기 서브-픽처 데이터, 상기 커서 데이터 및 상기 그래픽 데이터를 중첩시키도록 구성된 제1 블렌드 처리 유닛과, 상기 제1 블렌드 처리 유닛에 의하여 얻어진 상기 중첩된 데이터를 상기 메인 비디오 데이터와 중첩시키도록 구성된 제2 블렌드 처리 유닛을 포함한다.
본 발명에 따르면, 부하의 피크를 특정 값 내에 억제하면서, 복수의 화상 데이터 아이템들의 중첩을 실행하는 재생 장치 및 재생 장치를 사용하는 재생 방법이 제공된다.
본 발명의 추가적인 목적들 및 장점들은 후속하는 상세한 설명에서 설명될 것이고, 부분적으로는 상기 상세한 설명으로부터 자명할 것이고, 또는 본 발명의 실시에 의하여 학습될 수 있다. 본 발명의 목적들 및 장점들은 특히 이후에 지적된 수단들 및 조합들에 의하여 실현 및 획득될 수 있다.
본 발명의 다양한 특징을 구현하는 일반적인 아키텍쳐가 이제 도면들을 참조하여 설명될 것이다. 도면들 및 관련된 설명들이 제공되어 본 발명의 실시예들을 예시하는 것이며 본 발명의 범위를 제한하는 것은 아니다.
본 발명에 따른 다양한 실시예들이 첨부도면들을 참조하여 이후에 설명될 것이다.
도 1은 본 발명의 일 실시예에 따른 재생 장치의 구조의 일 예를 도시한다. 재생 장치는 AV(audio video) 컨텐츠를 재생하는 미디어 플레이어이다. 재생 장치는 HD DVD(High Definition Digital Versatile Disc) 표준의 DVD 매체에 저장된 AV 컨텐츠를 재생하는 HD DVD 플레이어로서 실현된다.
도 1에 도시된 바와 같이, HD DVD 플레이어는 CPU(Central Processing Unit, 11), 노스 브리지(12), 메인 메모리(13), 사우스 브리지(14), 비휘발성 메모리(15), USB(Universal Serial Bus) 컨트롤러(17), HD DVD 드라이브(18), 그래픽 버스(20), PCI(Peripheral Component Interconnect) 버스(21), 비디오 컨트롤러(22), 오디오 컨트롤러(23), 비디오 디코더(25), 블렌드 처리 유닛(30), 메인 오디오 디코더(31), 서브-오디오 디코더(32), 오디오 믹서(Audio Mix, 33), 비디오 인코더(40), 및 HDMI(High Definition Multimedia Interface)와 같은 AV 인터페이스(HDMI-TX, 41)를 포함한다.
HD DVD 플레이어에서, 플레이어 애플리케이션(150) 및 OS(operating system, 151)는 비휘발성 메모리(15)에 미리 설치된다. 플레이어 애플리케이션(150)은 OS(151)에서 작동하는 소프트웨어이고, HD DVD 드라이브(18)에 의하여 판독된 AV 컨텐츠를 재생하도록 제어를 수행한다.
HD DVD 드라이브(18)에 의하여 구동된, HD DVD 매체와 같은 저장 매체에 저장된 AV 컨텐츠는 압축되고 인코딩된 메인 비디오 데이터, 압축되고 인코딩된 메인 오디오 데이터, 압축되고 인코딩된 서브-비디오 데이터, 압축되고 인코딩된 서브-픽처 데이터, 알파 데이터를 포함하는 그래픽 데이터, 압축되고 인코딩된 서브-오디오 데이터, 및 AV 컨텐츠의 재생을 제어하는 네비게이션 데이터를 포함한다.
압축되고 인코딩된 메인 비디오 데이터는, H.264/AVC 표준의 압축 인코딩 방법과 함께 메인 화상들(메인 픽처 화상들)로서 사용될, 동화상 데이터를 압축 및 인코딩함으로써 획득된 데이터이다. 메인 비디오 데이터는 HD 표준의 고화질 화상들을 포함한다. SD(Standard Definition)의 비디오 데이터는 메인 비디오 데이터로서 이용될 수 있다. 압축되고 인코딩된 메인 오디오 데이터는 메인 비디오 데이터와 연관된 오디오 데이터이다. 메인 오디오 데이터는 메인 비디오 데이터의 재생과 동기하여 재생된다.
압축되고 인코딩된 서브-비디오 데이터는 메인 비디오 화상들에 중첩되는 상태로 디스플레이되는 보조 화상들(subsidiary images)(서브-픽쳐 화상들)로 형성되고, 메인 비디오 데이터를 보충하는 동화상들(예를 들면, 메인 비디오 화상으로서 기능하는 무비의 디렉터의 인터뷰 신의 화상들)을 포함한다. 압축되고 인코딩된 서브-오디오 데이터는 서브-비디오 데이터와 연관된 오디오 데이터이다. 서브-오디오 데이터는 서브-비디오 데이터의 재생과 동기하여 재생된다.
그래픽 데이터는 또한 메인 비디오 화상들에 중첩되는 상태로 디스플레이되는 보조 화상들(서브-픽처 화상들)로 형성되고, 메뉴 오브젝트들과 같은 조작 안내(operation guidance)를 디스플레이 하는 다양한 데이터(진보된 엘리먼트들)을 포함한다. 고급 엘리먼트들(advanced elements)의 각각은 정지 화상들, 동화상들(애니메이션 포함), 및 텍스트들로 형성된다. 플레이어 애플리케이션(150)은 유저에 의한 마우스 조작들에 따라 픽처들을 드로잉하는 드로잉 기능을 갖는다. 드로잉 기능에 의하여 그려진 화상들은 또한 그래픽 데이터로서 사용되며, 메인 비디오 화 상들에 중첩되는 상태로 디스플레이될 수 있다.
압축되고 인코딩된 서브-픽쳐 데이터는 서브타이틀들과 같은 텍스트들로 형성된다.
네비게이션 데이터는 컨텐츠의 재생 순서를 제어하기 위한 플레이 리스트, 및 서브-비디오 데이터 및 그래픽(진보된 엘리먼트들)의 재생을 제어하기 위한 스크립트를 포함한다. 스크립트는 XML과 같은 마크업 언어에 의하여 기술된다. HD 표준의 메인 비디오 데이터는 1920×1080 픽셀들, 또는 1280×720 픽셀들의 해상도를 갖는다. 더욱이, 서브-비디오 데이터, 서브-픽처 데이터, 및 그래픽 데이터의 각각은 예를 들면, 720×480 픽셀들의 해상도를 갖는다.
HD DVD 플레이어에서, 소프트웨어(플레이어 애플리케이션(150))는 분리 처리 및 디코딩 처리를 수행한다. 분리 처리에서, 메인 비디오 데이터, 메인 오디오 데이터, 서브-비디오 데이터, 서브-오디오 데이터, 및 서브-픽처 데이터는 HD DVD 드라이브(18)에 의하여 판독된 HD DVD 스트림과 분리된다. 디코딩 처리에서, 서브-비디오 데이터, 서브-픽처 데이터, 및 그래픽 데이터가 디코딩된다. 한편, 하드 웨어는 많은 처리량을 요구하는 처리, 즉, 메인 비디오 데이터를 디코딩하는 처리, 및 메인 오디오 데이터와 서브-오디오 데이터를 디코딩하는 처리를 디코딩하는 것을 수행한다.
CPU(11)는 HD DVD 플레이어들의 제어 조작에 제공된 프로세서이다. CPU(11)는 비휘발성 메모리(15)로부터 메인 메모리(13)로 로드된 플레이어 애플리케이션(150) 및 OS(151)를 실행한다. 메인 메모리(13)의 저장 영역의 일부는 VRAM(video memory, 131)으로서 이용된다. 그러나, 메인 메모리(13) 내의 저장 영역의 일부를 VRAM(131)로서 사용하는 것이 필수적인 것은 아니다. 메인 메모리(13)와 독립적인 전용 메모리 장치가 VRAM(131)으로서 사용될 수 있다.
노스 브리지(12)는 CPU(11)의 로컬 버스와 사우스 브리지(14)를 접속시키는 브리지 장치이다. 노스 브리지(12)는 메인 메모리(13)의 액세스 제어를 수행하는 메모리 컨트롤러를 포함한다. 더욱이, 노스 브리지(12)는 또한 GPU(Graphics Control Unit, 120)를 포함한다.
GPU(120)는 메인 메모리(13)의 저장 영역의 일부인 VRAM(131) 내의 CPU(11)에 의해 기입된 데이터로부터, 그래픽 픽처 화상을 형성하는 그래픽 신호를 생성하는 그래픽 컨트롤러이다. GPU(120)는 비트 블럭 트랜스퍼(bit block transfer)와 같은 기능을 계산하는 그래픽을 이용하여 그래픽 신호를 생성한다. 예를 들면, CPU(11)가 VRAM(131) 상의 4개의 각각의 평면들에 화상 데이터 아이템들(서브-비디오, 서브-픽처, 그래픽, 및 커서)을 기입하는 것을 가정한다. GPU(120)는, 비트 블럭 트랜스퍼를 이용하여, 픽셀마다 4개의 평면들의 화상 데이터 아이템들을 중첩하는 블렌드 처리를 수행하여, 메인 비디오와 동일한 해상도(예를 들면, 1920×1080 픽셀들)를 갖는 그래픽 픽처 화상을 형성하는 그래픽 신호를 생성한다. 블렌드 처리는 서브-비디오, 서브-픽처, 및 그래픽에 대응하는 각각의 알파 데이터 아이템들을 이용하여 실행된다. 알파 데이터는 알파 데이터에 대응하는 화상 데이터의 각각의 픽셀의 투명도(또는 불투명도)를 나타내는 계수이다. 서브-비디오, 서브-픽처, 및 그래픽에 대응하는 각각의 알파 데이터 아이템들은 서브-비디오, 서브 -픽처, 및 그래픽의 각각의 화상 데이터 아이템들과 함께 HD DVD 매체에 저장된다. 특히, 서브-비디오, 서브-픽처, 및 그래픽의 각각은 화상 데이터 및 알파 데이터로 형성된다.
GPU(120)에 의하여 생성된 그래픽 신호는 RGB 컬러 스페이스를 갖는다. 그래픽 신호의 각각의 픽셀은 디지털 RGB 데이터(24 비트들)로 표현된다.
그래픽 픽처 화상을 형성하는 그래픽 신호를 생성하는 것 이외에, GPU(120)는 또한 생성된 그래픽에 대응하는 알파 데이터를 외부에 출력하는 기능을 갖는다.
특히, GPU(120)는 생성된 그래픽 신호를 디지털 RGB 비디오 신호로서 외부에 출력하고, 또한 생성된 그래픽에 대응하는 알파 데이터를 외부에 출력한다. 알파 데이터는 생성된 그래픽 신호(RGB 데이터)의 각각의 픽셀의 투명도(또는 불투명도)를 나타내는 계수(8 비트들)이다. GPU(120)는, 각각의 픽셀에 대하여, 그래픽 신호(24 비트의 디지털 RGB 비디오 신호) 및 알파 데이터(8 비트)로 형성된 알파 데이터(32 비트의 RGBA 데이터)를 갖는 그래픽 출력 데이터를 출력한다. 알파 데이터(32 비트의 RGBA 데이터)를 갖는 그래픽 출력 데이터는 전용 그래픽 버스(20)를 통하여 블렌드 처리 유닛(30)에 전송된다. 그래픽 버스(20)는 GPU(120)를 블렌드 처리 유닛(30)과 연결시키는 전송선이다.
전술된 바와 같이, HD DVD 플레이어에서, 알파 데이터를 갖는 그래픽 출력 데이터는 그래픽 버스(20)를 통하여 GPU(120)로부터 블렌드 처리 유닛(30)으로 직접 전송된다. 이것은 PCI 버스(21) 등을 이용하여 알파 데이터를 VRAM(131)으로부터 블렌드 처리 유닛(30)으로 전송할 필요가 없게 하므로 알파 데이터의 전송으로 인한 PCI 버스(21)의 트래픽의 증가를 막는다.
알파 데이터가 PCI 버스(21) 등을 통하여 VRAM(131)으로부터 블렌드 처리 유닛(30)으로 전송되면, GPU(120)로부터 출력된 그래픽 신호와 PCI 버스(21)를 통하여 전송된 알파 데이터를 동기화시킬 것이 요구되어, 블렌드 처리 유닛(30)의 구조가 완성된다. 본 발명의 HD DVD 플레이어에서, GPU(120)는 픽셀마다 서로 동기화되어 그래픽 신호와 알파 데이터를 출력한다. 따라서, 그래픽 신호들과 알파 데이터 간의 동기화는 용이하게 달성된다.
사우스 브리지(14)는 PCI 버스(21)에 배열된 장치들을 제어한다. 사우스 브리지(14)는 HD DVD 드라이브(18)를 제어하는 IDE(Integrated Drive Electronics) 컨트롤러를 포함한다. 사우스 브리지(14)는 또한 비휘발성 메모리(15) 및 USB 컨트롤러(17)를 제어하는 기능을 갖는다. USB 컨트롤러(17)는 마우스 장치(171)를 제어한다. 유저는 마우스 장치(171)를 조작함으로써 메뉴 아이템 등을 선택할 수 있다. 원격 제어 유닛이 마우스 장치(171) 대신에 이용될 수 있는 것은 물론이다.
HD DVD 드라이브(18)는 HD DVD 표준에 부합하는 AV 컨텐츠를 저장하는 HD DVD 매체와 같은 저장 매체를 구동하는 드라이브 유닛이다.
비디오 컨트롤러(22)는 PCI 버스(21)에 접속된다. 비디오 컨트롤러(22)는 비디오 디코더(25)와 인터페이스하는 LSI이다. 소프트웨어에 의하여 HD DVD 스트림으로부터 분리된 메인 비디오 데이터의 스트림(비디오 스트림)은 PCI 버스(21) 및 비디오 컨트롤러(22)를 통하여 비디오 디코더(25)에 전송된다. 더욱이, CPU(11)로부터 출력된 디코드 제어 정보(Control)는 또한 PCI 버스(21) 및 비디오 컨트롤러(22)를 통하여 비디오 디코더(25)에 전송된다.
비디오 디코더(25)는 H.264/AVC 표준에 부합하는 디코더이다. 비디오 디코더(25)는 HD 표준의 메인 비디오 데이터를 디코드하고, 예를 들면, 1920×1080 픽셀들의 해상도를 갖는 비디오 픽처 화상을 형성하는 디지털 YUV 비디오 신호를 생성한다. 디지털 YUV 비디오 신호는 블렌드 처리 유닛(30)에 전송된다.
블렌드 처리 유닛(30)은 GPU(120) 및 비디오 디코더(25)에 접속되고, 블렌드 처리를 실행하여 비디오 디코더(25)에 의하여 디코드된 메인 비디오 데이터와 GPU(120)로부터 출력된 그래픽 출력 데이터를 중첩시킨다. 블렌드 처리에서는, 그래픽 데이터(RGB)와 함께 GPU(120)로부터 출력된 알파 데이터에 기초하여, 픽셀마다, 메인 비디오 데이터를 형성하는 디지털 YUV 비디오 신호와 그래픽 데이터를 형성하는 디지털 RGB 비디오 신호를 중첩시키도록 블렌드 처리(알파 블렌딩 처리)가 수행된다. 상기 처리에서, 메인 비디오 데이터는 하측 픽처 화상으로서 이용되고, 그래픽 데이터는 메인 비디오 데이터상에 중첩된 상측 픽처 화상으로서 이용된다.
블렌딩 처리에 의하여 획득된 출력 화상 데이터는, 예를 들면, 디지털 YUV 비디오 신호로서, AV 인터페이스(HDMI-TX)(41)와 비디오 인코더(40)의 각각에 공급된다. 비디오 인코더(40)는 블렌드 처리에 의하여 획득된 출력 화상 데이터(디지털 YUV 비디오 신호)를 컴포넌트 비디오 신호 또는 S-비디오 신호로 변환하고, 그것을 텔레비젼 세트와 같은 외부 디스플레이 장치(모니터)에 출력한다. AV 인터페이스(HDMI-TX)(41)는 디지털 오디오 신호 및 디지털 YUV 비디오 신호를 포함하는 디지털 신호들의 세트를 외부 HDMI 장치에 출력한다.
오디오 컨트롤러(23)는 PCI 버스(21)에 접속된다. 오디오 컨트롤러(23)는 메인 오디오 디코더(31) 및 서브-오디오 디코더(32)의 각각과 인터페이스하는 LSI이다. 소프트웨어에 의하여 HD DVD 스트림으로부터 분리된 메인 오디오 데이터 스트림은 PCI 버스(21) 및 오디오 컨트롤러(23)을 통하여 메인 오디오 디코더(31)에 전송된다. 또한, 소프트웨어에 의하여 HD DVD 스트림으로부터 분리된 서브-오디오 데이터 스트림은 PCI 버스(21) 및 오디오 컨트롤러(23)를 통하여 서브-오디오 디코더(32)에 전송된다. CPU(11)로부터 출력된 디코딩 제어 정보(Control)는 또한 비디오 컨트롤러(22)를 통하여 서브-오디오 디코더(32) 및 메인 오디오 디코더(31)의 각각에 공급된다.
메인 오디오 디코더(31)는 메인 오디오 데이터를 디코딩함으로써 I2S(Inter-IC-Sound)의 디지털 오디오 신호를 생성한다. 디지털 오디오 신호는 오디오 믹서(Audio Mix, 33)에 전송된다. 메인 오디오 데이터는 복수의 유형의 미리 정해진 압축 인코딩 방법들(즉, 복수 유형의 오디오 코덱들)중 하나를 이용하여 압축 및 인코딩된다. 따라서, 메인 오디오 디코더(31)는 각각의 압축 인코딩 방법들과 부합하는 디코딩 기능들을 갖는다. 특히, 메인 오디오 디코더(31)는 압축 인코딩 방법들중 하나로 압축 및 인코딩된 메인 오디오 데이터를 디코딩함으로써 디지털 오디오 신호를 발생시킨다. 메인 오디오 디코더(31)는 CPU(11)로부터의 디코딩 제어 정보에 의하여, 메인 오디오 데이터를 위하여 이용된 압축 인코딩 방법의 종류를 통지받는다.
서브-오디오 디코더(32)는 서브-오디오 데이터를 디코딩함으로써 I2S(Inter- IC Sound) 포맷의 디지털 오디오 신호를 생성한다. 디지털 오디오 데이터는 오디오 믹서(Audio Mix, 33)에 전송된다. 서브-오디오 데이터는 또한 상기 미리 정해진 압축 인코딩 방법들(즉, 복수 종류의 오디오 코덱들)중 임의의 것을 이용하여 압축 및 인코딩된다. 따라서, 서브-오디오 디코더(32)는 또한 각각의 압축 인코딩 방법들과 부합하는 디코딩 기능들을 갖는다. 특히, 서브-오디오 디코더(32)는 압축 인코딩 방법들 중 하나로 압축 및 인코드된 서브-오디오 데이터를 디코딩함으로써 디지털 오디오 신호를 생성한다. 서브-오디오 디코더(32)는 CPU(11)로부터의 디코딩 제어 정보에 의하여, 서브-오디오 데이터를 위하여 사용된 압축 인코딩 방법의 종류를 통지받는다.
오디오 믹서(Audio MiX, 33)는 서브-오디오 디코더(32)에 의하여 디코드된 서브-오디오 데이터와 메인 오디오 디코더(31)에 의하여 디코드된 메인 오디오 데이터를 믹스하는 믹싱 처리를 실행함으로써, 디지털 오디오 출력 신호를 생성한다. 디지털 오디오 출력 신호는 AV 인터페이스(HDMI-TX, 41)에 전송되고, 아날로그 오디오 출력 신호로 변환된 후 외부로 출력된다.
다음, CPU(11)에 의하여 실행된 플레이어 애플리케이션(150)의 기능 및 구조는 도 2를 참조하여 설명된다.
플레이어 애플리케이션(150)은 디멀티플렉스(Demux) 모듈, 디코딩 컨트롤 모듈, 서브-픽처 디코딩 모듈, 서브-비디오 디코딩 모듈, 및 그래픽 디코딩 모듈을 포함한다.
Demux 모듈은 HD DVD 드라이브(18)에 의하여 판독된 스트림으로부터 메인 비 디오 데이터, 메인 오디오 데이터, 서브-픽처 데이터, 서브-비디오 데이터, 및 서브-오디오 데이터를 분리하는 디멀티프렉스 처리를 실행하는 소프트웨어이다. 디코딩 제어 모듈은 네비게이션 데이터에 기초하여 메인 비디오 데이터, 메인 오디오 데이터, 서브-픽처 데이터, 서브-비디오 데이터, 서브-오디오 데이터, 및 그래픽 데이터의 각각의 디코딩 처리를 제어하는 소프트웨어이다.
서브-픽처 디코딩 모듈은 서브-픽처 데이터를 디코딩한다. 서브-비디오 디코딩 모듈은 서브-비디오 데이터를 디코딩한다. 그래픽 디코드 모듈은 그래픽 데이터(고급 엘리먼트들)를 디코드한다.
그래픽 드라이버는 GPU(120)를 제어하는 소프트웨어이다. 디코드된 서브-픽처 데이터, 디코드된 서브-비디오 데이터, 및 디코드된 그래픽 데이터는 그래픽 드라이버를 통하여 GPU(120)에 전송된다. 또한, 그래픽 드라이버 는 다양한 드로잉 커맨드들을 GPU(120)에 발행한다.
PCI 스트림 트랜스퍼 드라이버는 PCI 버스(21)를 통하여 스트림을 트랜스퍼하는 소프트웨어이다. 메인 비디오 데이터, 메인 오디오 데이터, 및 서브-오디오 데이터는 PCI 스트림 트랜스퍼 드라이버에 의하여 PCI 버스(21)를 통하여 비디오 디코더(25), 메인 오디오 디코더(31), 및 서브-오디오 디코더(32)에 각각 전송된다.
다음, CPU(11)에 의하여 실행된 플레이어 애플리케이션(150)에 의하여 실현된 소프트웨어 디코더의 기능 및 구조가 도 3을 참조하여 설명된다.
도 3에 도시된 바와 같이, 소프트웨어 디코더는 데이터 판독 유닛(101), 복 호 처리 유닛(decryption processing unit, 102), 디멀티플렉스 유닛(Demux, 103), 서브-픽처 디코더(104), 서브-비디오 디코더(105), 그래픽 디코더(10), 및 네비게이션 컨트롤 유닛(201)을 포함한다.
HD DVD(18) 내의 HD DVD 매체에 저장된 컨텐츠(메인 비디오 데이터, 서브-비디오 데이터, 서브-픽처 데이터, 메인 오디오 데이터, 서브-오디오 데이터, 그래픽 데이터, 및 네비게이션 데이터)는 데이터 판독 유닛(101)에 의하여 HD DVD 드라이브(18)로부터 판독된다. 메인 비디오 데이터, 서브-비디오 데이터, 서브-픽처 데이터, 메인 오디오 데이터, 서브-오디오 데이터, 그래픽 데이터, 및 네비게이션 데이터의 각각이 복호화된다(encrypted). 메인 비디오 데이터, 서브-비디오 데이터, 서브-픽처 데이터, 메인 오디오 데이터, 및 서브-오디오 데이터는 HD DVD 스트림 상에서 중첩된다. 데이터 판독 유닛(101)에 의하여 HD DVD 매체로부터 판독된 메인 비디오 데이터, 서브-비디오 데이터, 서브-픽처 데이터, 메인 오디오 데이터, 서브-오디오 데이터, 그래픽 데이터, 및 네비게이션 데이터의 각각은 컨텐츠 복호화 처리 유닛(102)에 입력된다. 복호화 처리 유닛(102)은 복호화된 데이터 아이템들의 각각을 복호화하는 처리를 실행한다. 복호화된 네비게이션 데이터는 네비게이션 컨트롤 유닛(201)에 전송된다. 또한, 복호화된 HD DVD 스트림은 Demux(103)에 전송된다.
네비게이션 컨트롤 유닛(201)은 네비게이션 데이터에 포함된 스크립트(XML)를 분석하고, 그래픽 데이터(고급 엘리먼트들(Advanced Elements))의 재생을 제어한다. 그래픽 데이터(고급 엘리먼트들)는 그래픽 디코더(106)에 전송된다. 그래 픽 디코더(106)는 플레이어 애플리케이션(150)의 그래픽 디코딩 모듈로 형성되고, 그래픽 데이터(고급 엘리먼트들)를 디코딩한다.
더욱이, 네비게이션 컨트롤 유닛(201)은 또한 유저에 의한 마우스 장치(171)의 조작에 응하여 커서를 이동시키는 처리, 및 메뉴 아이템의 선택에 응하여 사운드 효과들을 재생하는 처리를 실행한다. 상기 드로잉 기능에 의한 화상의 드로잉은 다음에 의하여 달성된다: 네비게이션 컨트롤 유닛(201)은 유저의 마우스 장치(171) 조작을 수신하고, GPU(120)가 경로, 즉, 커서 경로에 의하여 형성된 픽처의 그래픽 데이터를 생성하며, 그 후 네비게이션 데이터를 사용하여 그래픽 디코더(106)에 의해 디코드된 그래픽 데이터와 균등한 그래픽 데이터로서 GPU(120)에 다시 데이터를 입력한다.
Demux(103)는 플레이어 애플리케이션(150)의 Demux 모듈에 의하여 실현된다. Demux(103)는 HD DVD 스트림으로부터 메인 비디오 데이터, 메인 오디오 데이터, 서브-오디오 데이터, 서브-픽처 데이터, 및 서브-비디오 데이터를 분리한다.
메인 비디오 데이터는 PCI 버스(21)를 통하여 비디오 디코더(25)에 전송된다. 메인 비디오 데이터는 비디오 디코더(25)에 의하여 디코드된다. 디코드된 메인 비디오 데이터는, 예를 들면, HD 표준의 1920×1080 픽셀들의 해상도를 가지며, 디지털 YUV 비디오 신호로서 블렌드 처리 유닛(30)에 전송된다.
메인 오디오 데이터는 PCI 버스(21)를 통하여 메인 오디오 디코더(31)에 전송된다. 메인 오디오 데이터는 메인 오디오 디코더(31)에 의하여 디코드된다. 디코드된 메인 오디오 데이터는 I2S 포맷의 디지털 오디오 신호로서 오디오 믹서(33) 에 전송된다.
서브-오디오 데이터는 PCI 버스(21)를 통하여 서브-오디오 디코더(32)에 전송된다. 서브-오디오 데이터는 서브-오디오 디코더(32)에 의하여 디코드된다. 디코드된 서브-오디오 데이터는 I2S 포맷의 디지털 오디오 신호로서 오디오 믹서(33)에 전송된다.
서브-픽처 데이터 및 서브-비디오 데이터는 각각 서브-픽처 디코더(104) 및 서브-비디오 디코더(105)에 전송된다. 서브-픽처 디코더(104) 및 서브-비디오 디코더(105)는 각각 서브-픽처 데이터 및 서브-비디오 데이터를 디코드한다. 서브-픽처 디코더(104) 및 서브-비디오 디코더(105)는 각각 플레이어 애플리케이션(150)의 서브-픽처 디코딩 모듈 및 서브-비디오 디코딩 모듈에 의하여 달성된다.
서브-픽처 디코더(104), 서브-비디오 디코더(105), 및 그래픽 디코더(106)에 의하여 디코드된 서브-픽처 데이터, 서브-비디오 데이터, 및 그래픽 데이터는, 각각, CPU(11)에 의하여 VRAM(131)에 기입된다. 더욱이, 커서 화상에 대응하는 커서 데이터는 또한 CPU(11)에 의하여 VRAM(131)에 기입된다. 서브-픽처 데이터, 서브-비디오 데이터, 그래픽 데이터, 및 커서 데이터의 각각은 각각의 픽셀에 대하여 RGB 데이터 및 알파 데이터 (A)를 포함한다.
GPU(120)는 CPU(11)에 의하여 VRAM(131)에 기입된 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터로부터, 1920×1080 픽셀들의 그래픽 픽처 화상을 형성하는 그래픽 출력 데이터를 생성한다. 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터 및 커서 데이터는 GPU(120)의 믹서 유닛(MIX)(121)에 의하여 실행된 알파 블렌딩 처리에 의하여 픽셀마다 중첩된다.
알파 블렌딩 처리에서는, VRAM(131)에 기입된 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터에 대응하는 각각의 알파 데이터 아이템들이 이용된다. 특히, VRAM(131)에 기입된 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터의 각각은 화상 데이터 및 알파 데이터를 포함한다. MIX(121)는 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터 및 커서 데이터에 대응하는 각각의 알파 데이터 아이템들, 및 CPU(11)에 의하여 설계된 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터 및 커서 데이터의 각각의 위치 정보 아이템들에 기초하여 블렌드 처리를 실행한다. 그리하여, MIX(121)는, 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터가 1920×1080 픽셀들의 배경 화상에 중첩되는 그래픽 픽처 화상을 생성한다.
배경 화상의 각 픽셀의 알파 값은 해당 픽셀이 투명한 것을 나타내는 값, 즉, 0이다. 그래픽 픽처 화상에서, 화상 데이터 아이템들이 중첩(superimpose)되는 영역들에 대해서는, 각각의 영역들에 대응하는 새로운 알파 데이터 아이템들이 MIX(121)에 의해 계산된다.
상술한 바와 같이, GPU(120)는, 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터로부터, 1920×1080 픽셀들의 그래픽 픽처 화상을 형성하는 그래픽 출력 데이터(RGB), 및 그 그래픽 데이터에 대응하는 알파 데이터를 생성한다. 서브-비디오 데이터, 그래픽 데이터, 서브-픽처 데이터, 및 커서 데이터 중 하나의 화상만 디스플레이되는 경우, GPU(120)는 1920×1080 픽셀들의 배경 화상 상에 해당 화상(예를 들면, 720×480)만 배치되는 그래픽 픽처 화상에 대응하는 그래픽 데이터를 생성하고, 그 그래픽 데이터에 대응하는 알파 데이터를 생성한다.
GPU(120)에 의해 생성된 그래픽 데이터(RGB) 및 알파 데이터는 RGBA 데이터로서 그래픽 버스(20)를 통하여 블렌드 처리 유닛(30)에 송신된다.
다음으로, 블렌드 처리 유닛(30)에 의해 실행되는 블렌드 처리(알파 블렌딩 처리)에 대하여 도 4를 참조하여 설명한다.
알파 블렌딩 처리는 그래픽 데이터(RGB)를 동반하는 알파 데이터(A)에 기초하여, 그래픽 데이터와 메인 비디오 데이터가 픽셀마다(pixel by pixel) 중첩되는 블렌드 처리이다. 그래픽 데이터(RGB)는 윗면 화상(oversurface image)으로서 이용되어, 비디오 데이터 상에 중첩된다. GPU(120)로부터 출력된 그래픽 데이터의 해상도는 비디오 디코더(25)로부터 출력된 메인 비디오 데이터의 해상도와 동일하다.
1920×1080 픽셀들의 해상도를 가진 메인 비디오 데이터(비디오)가 화상 데이터 C로서 블렌드 처리 유닛(30)에 입력되고, 1920×1080 픽셀들의 해상도를 가진 그래픽 데이터가 화상 데이터 G로서 블렌드 처리 유닛(30)에 입력된다고 가정하자. 블렌드 처리 유닛(30)은 1920×1080 픽셀들의 해상도를 가진 알파 데이터(A)에 기초하여 픽셀마다 화상 데이터 C 상에 화상 데이터 G를 중첩시키는 계산을 실행한다. 이 계산은 다음 수학식 1에 의해 실행된다.
Figure 112007009216548-PAT00001
V는 알파 블렌딩 처리에 의해 얻어진 출력 화상 데이터의 각 픽셀의 컬러를 나타내고, α는 그래픽 데이터 G의 각 픽셀에 대응하는 알파 값을 나타낸다.
다음으로, GPU(120)의 MIX(121)에 의해 실행되는 블렌딩 처리(알파 블렌딩 처리)에 대하여 도 5를 참조하여 설명한다.
이 실시예에서는, 1920×1080 픽셀들의 해상도를 가진 그래픽 데이터가 VRAM(131)에 기입된 서브-픽처 데이터 및 서브-비디오 데이터로부터 생성된다고 가정하자. 서브-픽처 데이터 및 서브-비디오 데이터의 각각은, 예를 들면, 720×480 픽셀들의 해상도를 가진다. 서브-픽처 데이터 및 서브-비디오 데이터의 각각은 720×480 픽셀들의 해상도를 가진 알파 데이터를 동반한다.
예를 들면, 서브-픽처 데이터에 대응하는 화상이 윗면 화상으로서 이용되고, 서브-비디오 데이터에 대응하는 화상이 아랫면 화상(underface image)으로서 이용된다.
서브-픽처 데이터에 대응하는 화상이 서브-비디오 데이터에 대응하는 화상 상에 중첩되는 영역 내의 각 픽셀의 컬러는 다음 수학식 2에 의해 결정된다.
Figure 112007009216548-PAT00002
G는 중첩된 영역 내의 각 픽셀의 컬러를 나타내고, Go는 윗면 화상으로서 이 용되는 서브-픽처 데이터의 각 픽셀의 컬러를 나타내고, αo는 윗면 화상으로서 이용되는 서브-픽처 데이터의 각 픽셀의 알파 값을 나타내고, Gu는 아랫면 화상으로서 이용되는 서브-비디오 데이터의 각 픽셀의 컬러를 나타낸다.
또한, 서브-픽처 데이터에 대응하는 화상이 서브-비디오 데이터에 대응하는 화상 상에 중첩되는 영역 내의 각 픽셀의 알파 값은 다음 수학식 3에 의해 결정된다.
Figure 112007009216548-PAT00003
α는 중첩된 영역의 각 픽셀의 알파 값을 나타내고, αu는 아랫면으로서 이용되는 서브-비디오 데이터의 각 픽셀의 알파 값을 나타낸다.
상술한 바와 같이, GPU(120)의 MIX(121)는, 서브-픽처 데이터에 대응하는 알파 데이터 및 서브-비디오 데이터에 대응하는 알파 데이터 중에서, 윗면 화상으로서 이용되는 데이터의 알파 데이터를 이용함으로써, 서브-픽처 데이터와 서브-비디오 데이터를 중첩시키고, 그에 의해 1920×1080 픽셀들의 픽처 화상을 형성하는 그래픽 데이터를 생성한다. 또한, GPU(120)의 MIX(121)는, 서브-픽처 데이터에 대응하는 알파 데이터 및 서브-비디오 데이터에 대응하는 알파 데이터에 기초하여, 1920×1080 픽셀들의 픽처 화상을 형성하는 그래픽 데이터의 각 픽셀의 알파 값을 계산한다.
구체적으로, GPU(120)의 MIX(121)는, 1920×1080 픽셀들의 표면(픽셀들의 컬 러 = 블랙, 픽셀들의 알파 값 = 0), 720×480 픽셀들의 서브-비디오 데이터의 표면, 및 720×480 픽셀들의 서브-픽처 데이터의 표면을 중첩시키는 블렌드 처리를 실행하고, 그에 의해 1920×1080 픽셀들의 픽처 화상을 형성하는 그래픽 데이터 및 1920×1080 픽셀들의 알파 데이터를 계산한다. 1920×1080 픽셀들의 표면은 최하의 표면(undermost surface)으로서 이용되고, 서브-비디오 데이터의 표면은 두 번째 최하의 표면(second lowest surface)으로서 이용되고, 서브-픽처 데이터의 표면은 최상의 표면으로서 이용된다.
1920×1080 픽셀들의 픽처 화상에서, 서브-픽처 데이터 또는 서브-비디오 데이터의 어느 것도 존재하지 않는 영역 내의 픽셀들의 컬러는 블랙이다. 또한, 서브-픽처 데이터만 존재하는 영역 내의 픽셀들의 컬러는 서브-픽처 데이터의 대응하는 픽셀들의 각각의 최초 컬러와 동일하다. 마찬가지로, 서브-비디오 데이터만 존재하는 영역 내의 픽셀들의 컬러는 서브-비디오 데이터의 대응하는 픽셀들의 각각의 최초 컬러와 동일하다.
또한, 1920×1080 픽셀들의 픽처 화상에서, 서브-픽처 데이터 또는 서브-비디오 데이터의 어느 것도 존재하지 않는 영역 내의 픽셀들에 대응하는 알파 값은 0이다. 서브-픽처 데이터만 존재하는 영역 내의 픽셀들의 알파 값은 서브-픽처 데이터의 대응하는 픽셀들의 최초 알파 값과 동일하다. 마찬가지로, 서브-비디오 데이터만 존재하는 영역 내의 픽셀들의 알파 값은 서브-비디오 데이터의 대응하는 픽셀들의 최초 알파 값과 동일하다.
도 6은 1920×1080 픽셀들의 메인 비디오 데이터 상에 720×480 픽셀들의 서 브-비디오 데이터가 중첩되어 있는 상태로 디스플레이된 상태를 예시한다.
도 6에서는, 1920×1080 픽셀들(픽셀들의 컬러 = 블랙, 픽셀들의 알파 값 = 0)의 표면과 720×480 픽셀들의 서브-비디오 데이터의 표면을 픽셀마다 중첩시키는 블렌딩 처리에 의해 그래픽 데이터가 생성된다.
상술한 바와 같이, 디스플레이 디바이스에 출력되는 출력 픽처 데이터(비디오 + 그래픽)는 그래픽 데이터와 메인 비디오 데이터를 블렌딩함으로써 생성된다.
1920×1080 픽셀들의 그래픽 데이터에서, 720×480 픽셀들의 서브 비디오 데이터가 존재하지 않는 영역 내의 픽셀들의 알파 값은 0이다. 따라서, 서브-비디오 데이터가 존재하지 않는 영역은 투명하고, 그 영역에는 100%의 불투명도를 갖는 메인 비디오 데이터가 디스플레이된다.
720×480 픽셀들의 서브-비디오 데이터의 각 픽셀은, 서브-비디오 데이터에 대응하는 알파 데이터에 의해 지정되는 투명도로, 메인 비디오 데이터 상에 디스플레이된다. 예를 들면, 1의 알파 값을 갖는 서브-비디오 데이터의 픽셀들은 100%의 불투명도로 디스플레이되고, 서브-비디오 데이터의 픽셀 위치들에 대응하는 메인 비디오 데이터의 픽셀들은 디스플레이되지 않는다.
또한, 도 7에 도시된 바와 같이, 720×480 픽셀들의 해상도로 축소된 메인 비디오 데이터가 1920×1080 픽셀들의 해상도로 확대된 서브-비디오 데이터 상의 영역 상에 디스플레이될 수 있다.
도 7의 디스플레이 모드는 GPU(20)의 스케일링 기능 및 비디오 디코더(25)의 스케일링 기능을 이용하여 달성된다.
구체적으로는, CPU(11)로부터의 명령에 따라서, GPU(20)는 서브-비디오 데이터의 해상도(화상 사이즈)가 1920×1080 픽셀들에 도달할 때까지 서브-비디오 데이터의 해상도를 단계적으로 증가시키는 스케일링 처리를 수행한다. 스케일링 처리는 픽셀 내삽(pixel interpolation)을 이용하여 실행된다. 서브-비디오 데이터의 해상도가 증가함에 따라서, 1920×1080 픽셀들의 그래픽 데이터에서 서브-비디오 데이터가 존재하지 않는 영역(0의 알파 값을 갖는 영역)이 점차로 감소한다. 따라서, 메인 비디오 데이터 상에 디스플레이된 서브-비디오 데이터의 사이즈는 점차로 증가하고, 0의 알파 값을 갖는 영역은 점차로 감소한다. 서브-비디오 데이터의 해상도(화상 사이즈)가 1920×1080 픽셀들에 도달하면, GPU(120)는 1920×1080 픽셀들의 서브-비디오 데이터 상에 720×480 픽셀들의 표면(픽셀들의 컬러 = 블랙, 픽셀들의 알파 값 = 0)을 중첩시키는 블렌딩 처리를 실행하고, 그에 의해 1920×1080 픽셀들의 서브-비디오 데이터 상에 0의 알파 값을 갖는 720×480 픽셀들의 영역을 배치한다.
한편, 비디오 디코더(25)는, CPU(11)로부터의 명령에 따라서, 메인 비디오 데이터의 해상도를 720×480 픽셀들로 축소시키는 스케일링 처리를 실행한다.
720×480 픽셀들로 축소된 메인 비디오 데이터는, 1920×1080 픽셀들의 서브-비디오 데이터 상에 배치된, 0의 알파 값을 갖는, 720×480 픽셀들의 영역에 디스플레이된다. 구체적으로는, GPU(120)로부터 출력되는 알파 데이터는 메인 비디오 데이터가 디스플레이되는 영역을 제한하는 마스크로서 이용될 수 있다.
상술한 바와 같이, GPU(120)로부터 출력되는 알파 데이터는 소프트웨어에 의 해 제어될 수 있다. 그에 의해, 그래픽 데이터는 메인 비디오 데이터 상에 중첩되어 있는 상태에서 효과적으로 디스플레이되고, 그에 의해 고도로 인터랙티브(interactive)한 화상 디스플레이가 용이하게 실현된다. 또한, 알파 데이터는 GPU(120)로부터의 그래픽 데이터와 함께 자동으로 블렌드 처리 유닛(30)에 전송되고, 소프트웨어는 알파 데이터를 블렌드 처리 유닛(30)에 전송하는 처리를 별도로 수행할 필요가 없다.
도 8은 상술한 바와 같이 동작하는 GPU(120) 및 블렌드 처리 유닛(30)에 의해 HD DVD 플레이어에 의해 재생되는 HD 표준 AV 콘텐츠 내의 복수의 화상 데이터 아이템들을 중첩시키는 처리를 예시하는 개념도이다.
HD 표준에서는, 레이어 1 내지 레이어 5의 5개의 레이어가 정의되고, 레이어 1 내지 5에 각각 커서, 그래픽, 서브-픽처, 서브-비디오, 및 메인 비디오가 할당된다. 도 8에 도시된 바와 같이, GPU(120)의 MIX(121)는 전단계(former-step) 처리로서, 레이어 1 내지 5 중에서 레이어 1 내지 4의 4개의 화상들 a1 내지 a4를 중첩시키고, 블렌드 처리 유닛(30)은 후단계(latter-step) 처리로서, GPU(120)로부터 출력된 화상과 레이어 5의 화상 a5를 중첩시킨다. 그에 의해, 오브젝트 화상 a6이 생성된다.
상술한 바와 같이, HD DVD 플레이어는, 제1 이점으로서, HD 표준에서 정의된 레이어 1 내지 5의 5개의 화상 데이터 아이템들의 중첩을 2 단계로 분리함으로써, 적절한 부하 분배(load distribution)를 수행한다. 또한, 레이어 5의 메인 비디오는 고화질(high-definition) 화상들을 포함하고, 각 프레임마다(초당 30 프레임이 있다) 업데이트가 수행되어야 한다. 따라서, 메인 비디오를 다루는 블렌딩 처리 유닛(30)은 초당 30회 중첩을 수행할 필요가 있다. 이와 비교하여, 레이어 1 내지 4의 커서, 그래픽, 서브-픽처, 및 서브-비디오는 메인 비디오의 화질만큼 높은 화질을 가질 필요가 없다. 따라서, GPU(120)의 MIX(121)가, 예를 들면, 초당 10회 중첩을 수행하는 것으로 충분하다. 블렌딩 처리 유닛(30)이 레이어 5의 메인 비디오와 함께 레이어 1 내지 4의 커서, 그래픽, 서브-픽처, 및 서브-비디오의 중첩을 실행한다고 가정할 때, 레이어 1 내지 4에 대해서도 초당 30회 중첩이 수행된다. 즉, 불필요한 중첩이 초당 20회 수행된다. 따라서, HD DVD 플레이어는, 제2 이점으로서, 효율의 증대를 달성한다.
레이어 1 내지 4의 커서, 그래픽, 서브-픽처, 및 서브-비디오는 플레이어 애플리케이션(150)으로부터 GPU(120)에 공급된다. 화상 데이터 아이템들을 GPU(120)에 공급하기 위해, 플레이어 애플리케이션(150)은, 도 8에 도시된 바와 같이, 서브-픽처 디코더(104), 서브-비디오 디코더(105), 그래픽 디코더(엘리먼트 디코더)(106), 커서 드로잉 매니저(cursor drawing manager)(107), 및 표면 관리/타이밍 컨트롤러(surface management/timing controller)(108)를 포함한다.
커서 드로잉 매니저(107)는 내비게이션 제어 유닛(201)의 기능으로서 실현되고, 사용자의 마우스 디바이스(171)의 조작에 응답하여 커서를 이동시키는 커서 드로잉 제어를 실행한다. 한편, 표면 관리/타이밍 컨트롤러(108)는 서브-픽처 디코더(104)에 의해 디코딩된 서브-픽처 데이터의 화상들을 적절한 타이밍에 디스플레이하는 타이밍 제어를 실행한다.
도 8에 도시된 커서 컨트롤은, 마우스 디바이스(171)의 조작에 응답하여 USB 제어기(17)에 의해 생성되는, 커서를 이동시키기 위한 제어 데이터이다. ECMA 스크립트는 점, 선, 및 그림(figure) 등의 드로잉을 지시하는 드로잉 API가 기술되는 스크립트이다. iHD 마크업은 다양한 고급 엘리먼트들(advanced elements)을 적절한 타이밍에 디스플레이하기 위해 마크업 언어로 기술된 텍스트 데이터이다.
또한, GPU(120)는, MIX(121) 외에도, 스케일링 처리 유닛(122), 루마 키(luma key) 처리 유닛(123), 및 3D 그래픽 엔진(124)을 갖고 있다.
스케일링 처리 유닛(122)은 도 7의 설명에서 언급된 스케일링 처리를 실행한다. 루마 키 처리 유닛(123)은 그 휘도 값이 임계값보다 작은 픽셀들의 알파 값을 0으로 설정함으로써 화상 내의 배경(블랙)을 제거하는 루마 키 처리를 실행한다. 3D 그래픽 엔진(124)은, 드로잉 기능을 위한 (커서의 경로로 형성된 화상의) 화상 생성을 포함한, 그래픽 데이터 생성 처리를 실행한다.
도 8에 도시된 바와 같이, HD DVD 플레이어는 레이어 2 내지 4의 화상들 a2 내지 a4에 대한 스케일링 처리를 수행하고, 또한 레이어 4의 화상 a4에 대한 루마 키 처리를 수행한다. 또한, HD DVD 플레이어에서, GPU(120)는 스케일링 처리 및 루마 키 처리를 별도로 실행하지 않지만, (MIX(121)에 의한) 블렌딩 처리와 동시에 실행한다. 플레이어 애플리케이션(150)의 견지에서, 플레이어 애플리케이션(150)은 블렌딩 처리와 함께 스케일링 처리 및 루마 키 처리를 요구한다. GPU(120)가 스케일링 처리 및 루마 키 처리를 별도로 실행한다고 가정할 때, 스케일링 처리 후의 화상들 및 루마 키 처리 후의 화상들을 임시로 저장하는 중간 버퍼를 제공하고, 그 중간 버퍼와 GPU(120) 간에 데이터 전송을 수행할 필요가 있다. 이와 비교하여, HD DVD 플레이어에 따르면, GPU(120)에서, 스케일링 처리 유닛(122)의 출력이 필요할 때마다 루마 키 처리 유닛(123)에 입력되고, 루마 키 처리 유닛(123)의 출력이 필요할 때마다 MIX(121)에 입력된다. 환언하면, HD DVD 플레이어는, 스케일링 처리 유닛(122), 루마 키 처리 유닛(123) 및 MIX(121)가 함께 동작하는 소위 파이프라인 처리를 수행한다. 따라서, HD DVD 플레이어는 중간 버퍼를 필요로 하지 않고, 중간 버퍼와 GPU(120) 간의 데이터 전송을 발생시키지 않는다. 이와 관련해서도, HD DVD 플레이어는 효율 증대를 달성한다.
도 8에 예시된 픽셀 버퍼 매니저(153)는, 3D 그래픽 엔진(124)을 이용한 마우스 조작에 의한 픽처들을 드로잉하고 엘리먼트 디코더(106)에 의한 조작 안내(operation guidance)와 같은 오브젝트들을 드로잉하기 위한 작업 영역으로서 이용되는 픽셀 버퍼의 할당 제어를 수행하는 미들웨어이다. 픽셀 버퍼 매니저(153)는 소프트웨어에 의해 하드웨어인 픽셀 버퍼를 이용하기 위해 준비되어 있는 드라이버와, 그 드라이버에 의한 할당 제어를 더욱 최적화하기 위해 픽셀 버퍼를 이용하는 상위 시스템 사이에 제공된다.
상술한 바와 같이, HD DVD 플레이어에서는, HD 표준에서 정의된 레이어 1 내지 5의 5개의 화상 데이터 아이템들의 중첩이 2 단계로 분리되고, 그에 의해 적절한 부하 분배 및 효율 증대가 달성된다. 또한, 블렌딩 처리와 동시에 스케일링 처리 및 루마 키 처리를 실행함으로써 추가적인 효율 증대가 달성된다.
이 실시예는 레이어 1 내지 5 중에서 레이어 1 내지 4의 화상들 a1 내지 a4 의 중첩이 전단계로서 수행되고, 레이어 5의 화상 a5의 중첩이 후단계로서 수행되는 분리의 예를 보여준다. 그러나, 예를 들어, 레이어 4의 화상 a4의 중첩, 즉, 서브-비디오의 중첩은, 레이어 4의 접속을 동적으로 스위칭함으로써, 전단계와 후단계 중 어느 쪽에서든 수행될 수 있다. 도 9a 및 9b는 GPU(120)의 MIX(121)와 블렌드 처리 유닛(30) 중 어느 한 쪽에 의해 서브-비디오의 중첩을 선택적으로 실행하는 구조의 예를 예시하는 도면들이다.
예를 들어, 서브-비디오가 메인 비디오와 같은 고화질을 갖는 것이 요구되고, 각 프레임마다, 즉, 초당 30회 업데이트될 필요가 있다면, 도 9a의 상태로부터 도 9b의 상태로의 스위칭이 수행될 수 있다. 스위칭을 위한 트리거는 내비게이션 데이터에 포함된 스크립트로서 제공될 수 있다.
또한, 도 9b의 상태를 기본 상태로 설정하고, HD DVD 플레이어가 미리 정해진 기준 값을 초과하는 고부하 상태(heavy-load state)가 될 때 도 9a의 상태로 스위칭을 수행하는 것이 가능하다. 플레이어 애플리케이션(150)은 OS(151)로부터 부하 상태의 정보를 얻을 수 있으므로, 스위칭을 위한 트리거를 얻기가 쉽다.
또한, 이 실시예에서는, 소프트웨어인 GPU(120)가 전단계의 중첩을 수행하고, 하드웨어인 블렌드 처리 유닛(30)이 후단계의 중첩을 수행하는 예가 설명되어 있다. 그러나, 본 발명의 핵심은 소프트웨어 처리와 하드웨어 처리의 분리에 있지 않다. 따라서, 본 발명은 당연지사로 전단계와 후단계 모두 소프트웨어 처리에 의해 수행되는 경우에 적용 가능하다.
본 발명의 특정 실시예들이 설명되었지만, 이들 실시예들은 단지 예로서 제 시되었을 뿐이고, 발명의 범위를 제한하기 위한 것이 아니다. 실제로, 본 명세서에서 기술된 신규한 방법들 및 시스템들은 여러 가지 다른 형태로 구현될 수 있고; 더욱이, 본 명세서에서 기술된 방법들 및 시스템들의 형태에서 다양한 생략, 대체 및 변경이 발명의 사상을 벗어나지 않고 행해질 수 있다. 첨부한 청구항들 및 그의 균등물들은 본 발명의 범위 및 사상 내에 속하는 그러한 형태들 또는 변형들을 포함하도록 의도되었다.
본 발명에 따르면, 부하의 피크를 특정 값 내로 억제하면서, 복수의 화상 데이터 아이템들의 중첩을 실행하는 재생 장치 및 재생 장치를 이용하는 재생 방법을 제공할 수 있다.

Claims (13)

  1. 재생 장치(playback apparatus)로서,
    메인 화상으로서 이용되는 메인 비디오 데이터, 보조 화상으로서 이용되는 서브-비디오(sub-video) 데이터, 커서를 디스플레이하기 위한 커서 데이터, 조작 안내(operation guidance)를 디스플레이하기 위한 그래픽(graphics) 데이터, 및 서브타이틀을 디스플레이하기 위한 서브-픽처(sub-picture) 데이터를 출력하도록 구성된 출력 유닛과;
    상기 서브-비디오 데이터, 상기 서브-픽처 데이터, 상기 커서 데이터 및 상기 그래픽 데이터를 중첩(superimpose)시키도록 구성된 제1 블렌드 처리 유닛(blend processing unit)과;
    상기 제1 블렌드 처리 유닛에 의해 얻어진 중첩된 데이터와 상기 메인 비디오 데이터를 중첩시키도록 구성된 제2 블렌드 처리 유닛
    을 포함하는 재생 장치.
  2. 제1항에 있어서,
    상기 제1 블렌드 처리 유닛에 의해 수행되는 단위 시간당 처리의 횟수는 상기 제2 블렌드 처리 유닛에 의해 수행되는 단위 시간당 처리의 횟수보다 작은 재생 장치.
  3. 제1항에 있어서,
    상기 서브-비디오 데이터의 중첩을 상기 제1 블렌드 처리 유닛으로부터 상기 제2 블렌드 처리 유닛으로 스위칭하도록 구성된 스위치 유닛을 더 포함하는 재생 장치.
  4. 제3항에 있어서,
    상기 서브-비디오 데이터의 상기 보조 화상이 고화질의 화상일 때는 상기 제2 블렌드 처리 유닛이 상기 서브-비디오 데이터의 중첩을 수행하게 하고, 상기 서브-비디오 데이터의 상기 보조 화상이 저화질의 화상일 때는 상기 제1 블렌드 처리 유닛이 상기 서브-비디오 데이터의 중첩을 수행하게 하기 위해 상기 스위치 유닛을 구동 및 제어하도록 구성된 제어 유닛을 더 포함하는 재생 장치.
  5. 제3항에 있어서,
    상기 재생 장치의 부하가 적을(under light load) 때는 상기 제2 블렌드 처리 유닛이 상기 서브-비디오 데이터의 중첩을 수행하게 하고, 상기 재생 장치의 부하가 많을(under heavy load) 때는 상기 제1 블렌드 처리 유닛이 상기 서브-비디오 데이터의 중첩을 수행하게 하기 위해 상기 스위치 유닛을 구동 및 제어하도록 구성된 제어 유닛을 더 포함하는 재생 장치.
  6. 제1항에 있어서,
    상기 제1 블렌드 처리 유닛은 상기 블렌드 처리를 수행함과 동시에 상기 그래픽 데이터를 축소 또는 확대하는 스케일링 처리를 수행하는 재생 장치.
  7. 제1항에 있어서,
    상기 제1 블렌드 처리 유닛은 상기 블렌드 처리를 수행함과 동시에 상기 서브-픽처 데이터를 축소 또는 확대하는 스케일링 처리를 수행하는 재생 장치.
  8. 제1항에 있어서,
    상기 제1 블렌드 처리 유닛은 상기 블렌드 처리를 수행함과 동시에 상기 서브-비디오 데이터를 축소 또는 확대하는 스케일링 처리를 수행하는 재생 장치.
  9. 제8항에 있어서,
    상기 제1 블렌드 처리 유닛은 상기 블렌드 처리를 수행함과 동시에 상기 보조 화상 내의 배경색을 제거하기 위한 상기 서브-비디오 데이터에 대한 루마 키 처리(luma key processing)를 수행하는 재생 장치.
  10. 제1항에 있어서,
    상기 제1 블렌드 처리 유닛은 상기 블렌드 처리를 수행함과 동시에 상기 보조 화상 내의 배경색을 제거하기 위한 상기 서브-비디오 데이터에 대한 루마 키 처리를 수행하는 재생 장치.
  11. 재생 장치로서,
    메인 화상으로서 이용되는 메인 비디오 데이터, 보조 화상으로서 이용되는 서브-비디오 데이터, 커서를 디스플레이하기 위한 커서 데이터, 조작 안내를 디스플레이하기 위한 그래픽 데이터, 및 서브타이틀을 디스플레이하기 위한 서브-픽처 데이터를 출력하도록 구성된 출력 유닛과;
    상기 서브-비디오 데이터, 상기 서브-픽처 데이터, 및 상기 커서 데이터를 중첩시키도록 구성된 제1 블렌드 처리 유닛과;
    상기 제1 블렌드 처리 유닛에 의해 얻어진 중첩된 데이터, 상기 메인 비디오 데이터 및 상기 서브-비디오 데이터를 중첩시키도록 구성된 제2 블렌드 처리 유닛
    을 포함하는 재생 장치.
  12. 제11항에 있어서,
    상기 제1 블렌드 처리 유닛에 의해 수행되는 단위 시간당 처리의 횟수는 상기 제2 블렌드 처리 유닛에 의해 수행되는 단위 시간당 처리의 횟수보다 작은 재생 장치.
  13. 재생 장치를 이용한 재생 방법으로서,
    메인 화상으로서 이용되는 메인 비디오 데이터, 보조 화상으로서 이용되는 서브-비디오 데이터, 커서를 디스플레이하기 위한 커서 데이터, 조작 안내를 디스 플레이하기 위한 그래픽 데이터, 및 서브타이틀을 디스플레이하기 위한 서브-픽처 데이터를 출력하는 단계와;
    상기 서브-비디오 데이터, 상기 서브-픽처 데이터, 상기 커서 데이터 및 상기 그래픽 데이터를 제1 중첩시키는 단계와;
    상기 제1 중첩 단계에 의해 얻어진 중첩된 데이터와 상기 메인 비디오 데이터를 제2 중첩시키는 단계
    를 포함하는 재생 방법.
KR20070009577A 2006-03-22 2007-01-30 재생장치 및 재생장치를 사용하는 재생 방법 KR100865425B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00078219 2006-03-22
JP2006078219A JP4625781B2 (ja) 2006-03-22 2006-03-22 再生装置

Publications (2)

Publication Number Publication Date
KR20070095761A true KR20070095761A (ko) 2007-10-01
KR100865425B1 KR100865425B1 (ko) 2008-10-24

Family

ID=38533531

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20070009577A KR100865425B1 (ko) 2006-03-22 2007-01-30 재생장치 및 재생장치를 사용하는 재생 방법

Country Status (5)

Country Link
US (1) US8385726B2 (ko)
JP (1) JP4625781B2 (ko)
KR (1) KR100865425B1 (ko)
CN (1) CN101043600B (ko)
TW (1) TW200809692A (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543420B2 (en) * 2007-09-19 2013-09-24 Fresenius Medical Care Holdings, Inc. Patient-specific content delivery methods and systems
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
JP4858129B2 (ja) * 2006-12-01 2012-01-18 富士ゼロックス株式会社 画像処理装置と画像形成システムおよびプログラム
US8174620B2 (en) 2007-11-06 2012-05-08 Microsoft Corporation High definition media content processing
JP4346663B2 (ja) 2008-01-18 2009-10-21 株式会社東芝 情報処理装置、及びプログラム
JP5322529B2 (ja) * 2008-07-29 2013-10-23 キヤノン株式会社 表示装置、表示制御方法
US8300056B2 (en) 2008-10-13 2012-10-30 Apple Inc. Seamless display migration
US8698741B1 (en) 2009-01-16 2014-04-15 Fresenius Medical Care Holdings, Inc. Methods and apparatus for medical device cursor control and touchpad-based navigation
US10799117B2 (en) 2009-11-05 2020-10-13 Fresenius Medical Care Holdings, Inc. Patient treatment and monitoring systems and methods with cause inferencing
US8632485B2 (en) * 2009-11-05 2014-01-21 Fresenius Medical Care Holdings, Inc. Patient treatment and monitoring systems and methods
US8368702B2 (en) * 2010-01-06 2013-02-05 Apple Inc. Policy-based switching between graphics-processing units
US8648868B2 (en) 2010-01-06 2014-02-11 Apple Inc. Color correction to facilitate switching between graphics-processing units
US8797334B2 (en) 2010-01-06 2014-08-05 Apple Inc. Facilitating efficient switching between graphics-processing units
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
JP2013025619A (ja) * 2011-07-22 2013-02-04 Olympus Corp 画像表示装置および画像表示方法
TW201308131A (zh) * 2011-08-08 2013-02-16 Ite Tech Inc 減少數位廣播內容游標反應時間的方法與其裝置
CN106060647A (zh) * 2013-05-15 2016-10-26 蔡留凤 采用字幕处理模块的超高清数字电视接收机的工作方法
KR20150033162A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 컴포지터, 이를 포함하는 시스템온칩 및 이의 구동 방법
JP6307716B2 (ja) * 2015-06-11 2018-04-11 株式会社アクセル 画像情報処理方法
CN105898614A (zh) * 2015-08-21 2016-08-24 乐视致新电子科技(天津)有限公司 一种设置屏幕菜单的透明度的方法、装置和芯片
WO2017066736A1 (en) * 2015-10-16 2017-04-20 Tribune Broadcasting Company, Llc Media-production system with social media content interface feature
KR20170083889A (ko) * 2016-01-11 2017-07-19 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
US11256528B2 (en) 2018-10-26 2022-02-22 Nvidia Corporation Individual application window streaming suitable for remote desktop applications

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027212A (en) * 1989-12-06 1991-06-25 Videologic Limited Computer based video/graphics display system
US5890190A (en) * 1992-12-31 1999-03-30 Intel Corporation Frame buffer for storing graphics and video data
JPH06335022A (ja) 1993-05-25 1994-12-02 Mitsubishi Electric Corp 静止画記憶装置
US5535137A (en) 1994-02-14 1996-07-09 Sony Corporation Of Japan Random access audio/video processor with compressed video resampling to allow higher bandwidth throughput
JPH07236136A (ja) * 1994-02-23 1995-09-05 Hitachi Ltd 動画情報の伝送制御方式および表示制御方式
JPH0865512A (ja) 1994-08-22 1996-03-08 Canon Inc 画像処理装置およびその方法
US5809245A (en) * 1995-01-24 1998-09-15 Kabushiki Kaisha Toshiba Multimedia computer system
JP3135808B2 (ja) 1995-01-24 2001-02-19 株式会社東芝 コンピュータシステムおよびこのコンピュータシステムに適用されるカード
US6741617B2 (en) * 1995-04-14 2004-05-25 Koninklijke Philips Electronics N.V. Arrangement for decoding digital video signals
JPH0946722A (ja) 1995-07-28 1997-02-14 Ekushingu:Kk カラースーパーインポーズ装置
US6008860A (en) * 1995-12-29 1999-12-28 Thomson Consumer Electronics, Inc. Television system with provisions for displaying an auxiliary image of variable size
US6311204B1 (en) * 1996-10-11 2001-10-30 C-Cube Semiconductor Ii Inc. Processing system with register-based process sharing
JP3226804B2 (ja) 1996-11-08 2001-11-05 日本電気株式会社 画像・音声再生システム
JP3742167B2 (ja) * 1996-12-18 2006-02-01 株式会社東芝 画像表示制御装置
KR100254612B1 (ko) * 1996-12-28 2000-06-01 구자홍 광디스크 재생장치의 가변전송레이트 버퍼 관리장치 및 그 제어방법
JP3684740B2 (ja) * 1997-01-24 2005-08-17 セイコーエプソン株式会社 Yuv−rgbデジタル変換回路並びにそれを用いた画像表示装置及び電子機器
JPH10320922A (ja) 1997-05-22 1998-12-04 Hitachi Ltd データ処理装置及びディスク状記憶媒体の記憶データ再生装置
JPH1153580A (ja) 1997-07-31 1999-02-26 Sony Corp 3次元画像処理装置及びビデオ合成方法
JP3756647B2 (ja) 1997-12-02 2006-03-15 株式会社東芝 多画面表示装置
JPH11203444A (ja) 1998-01-09 1999-07-30 Mitsubishi Electric Corp 画像合成装置
US6486922B1 (en) * 1998-02-20 2002-11-26 Matsushita Electric Industrial Co., Ltd. Synchronization method of image decoder
JP2000100073A (ja) * 1998-09-28 2000-04-07 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びに提供媒体
US6573905B1 (en) * 1999-11-09 2003-06-03 Broadcom Corporation Video and graphics system with parallel processing of graphics windows
US6414996B1 (en) * 1998-12-08 2002-07-02 Stmicroelectronics, Inc. System, method and apparatus for an instruction driven digital video processor
US7365757B1 (en) * 1998-12-17 2008-04-29 Ati International Srl Method and apparatus for independent video and graphics scaling in a video graphics system
JP3382170B2 (ja) * 1998-12-25 2003-03-04 株式会社東芝 マルチウインドウ画像表示装置
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
JP2000305546A (ja) 1999-04-16 2000-11-02 Nec Corp 半導体メモリおよび画像表示装置
JP2000324419A (ja) 1999-05-14 2000-11-24 Canon Inc 画像処理装置及び方法
JP3380859B2 (ja) 1999-06-02 2003-02-24 松下電器産業株式会社 マルチレイヤ画像合成装置
US6606127B1 (en) * 1999-06-10 2003-08-12 Enseo, Inc. System and method for synchronizing, storing and accurately reproducing video signals
US6912350B1 (en) * 1999-12-08 2005-06-28 Intel Corporation DVD subpicture rendering without loss of color resolution
US7483042B1 (en) * 2000-01-13 2009-01-27 Ati International, Srl Video graphics module capable of blending multiple image layers
DE10001369A1 (de) * 2000-01-14 2001-07-19 Infineon Technologies Ag Verfahren und Schaltungsanordnung zur Grafikdarstellung, insbesondere in einem digitalen Fernsehgerät
US6552750B1 (en) * 2000-03-21 2003-04-22 Tvia, Inc. Apparatus for improving the presentation of graphics data on a television display
EP1330123A4 (en) * 2000-09-29 2006-04-26 Toshiba Kk RECORDING / REPRODUCING DEVICE AND METHOD FOR PROGRAMMING THE RECORDING / REPRODUCTION RECORDING
JP4215423B2 (ja) 2000-10-19 2009-01-28 三洋電機株式会社 画像データ出力装置
TW475122B (en) * 2000-10-24 2002-02-01 Cyberlink Corp Film commentary data service device
US6903753B1 (en) * 2000-10-31 2005-06-07 Microsoft Corporation Compositing images from multiple sources
JP3548521B2 (ja) * 2000-12-05 2004-07-28 Necマイクロシステム株式会社 半透明画像処理装置及び方法
JP2002247498A (ja) * 2001-02-16 2002-08-30 Toshiba Corp 情報再生装置
JP2002297198A (ja) 2001-03-30 2002-10-11 Seiko Epson Corp オーディオ復号装置
JP3540761B2 (ja) 2001-04-02 2004-07-07 株式会社東芝 コンピュータシステムおよび動画再生方法
JP4151234B2 (ja) 2001-04-25 2008-09-17 カシオ計算機株式会社 画像合成処理装置
JP2002335497A (ja) * 2001-05-10 2002-11-22 Toshiba Corp サブピクチャ表示倍率変換方法及び装置
US6828987B2 (en) * 2001-08-07 2004-12-07 Ati Technologies, Inc. Method and apparatus for processing video and graphics data
JP3785983B2 (ja) 2001-10-05 2006-06-14 株式会社日立製作所 ディジタル情報記録装置および情報記録再生装置
JP2003162276A (ja) 2001-11-29 2003-06-06 Matsushita Electric Ind Co Ltd オンスクリーン表示回路
JP2003224862A (ja) 2002-01-29 2003-08-08 Nec Access Technica Ltd グラフィックコントローラ及び表示メモリ容量低減方式
JP4573491B2 (ja) * 2002-02-28 2010-11-04 三洋電機株式会社 画像処理装置および画像処理方法
JP3730586B2 (ja) 2002-03-20 2006-01-05 株式会社リコー 画像処理装置
US6771274B2 (en) * 2002-03-27 2004-08-03 Sony Corporation Graphics and video integration with alpha and video blending
US7330640B2 (en) * 2002-04-15 2008-02-12 Thomson Licensing Display of closed caption and sub-picture information during limited speedup video trick modes
JP2003317395A (ja) * 2002-04-15 2003-11-07 Pioneer Electronic Corp 情報記録装置および情報記録方法
US7539391B2 (en) * 2002-06-27 2009-05-26 Nxp B.V. Method and apparatus for trick-mode support of audio/video/data streams with conditional access
US7463311B2 (en) * 2002-09-09 2008-12-09 General Instrument Corporation Method and system for including non-graphic data in an analog video output signal of a set-top box
MXPA05003234A (es) * 2002-09-26 2005-07-05 Koninkl Philips Electronics Nv Aparato para recibir una senal de informacion digital.
US8150237B2 (en) 2002-11-28 2012-04-03 Sony Corporation Reproducing apparatus, reproducing method, reproducing program, and recording medium
US7580614B2 (en) * 2002-12-09 2009-08-25 Kabushiki Kaisha Toshiba Information playback apparatus having expansion information storage unit and information playback method
JP4261893B2 (ja) * 2002-12-13 2009-04-30 キヤノン株式会社 情報処理装置及び情報処理方法
US7554608B2 (en) * 2003-04-01 2009-06-30 Panasonic Corporation Video composition circuit for performing vertical filtering to α-blended video data and successively input video data
JP4466117B2 (ja) 2003-04-09 2010-05-26 ヤマハ株式会社 画像合成装置
TWI229562B (en) * 2003-04-17 2005-03-11 Mediatek Inc Apparatus and method for signal processing of format conversion and combination of video signals
JP2004328226A (ja) 2003-04-23 2004-11-18 Funai Electric Co Ltd Dvdプレーヤ、及び合成映像再生装置
US7400360B2 (en) * 2003-09-22 2008-07-15 Lsi Corporation Device for simultaneous display of video at two resolutions with different fractions of active regions
KR20050034448A (ko) * 2003-10-09 2005-04-14 엘지전자 주식회사 다중 그래픽 중첩을 위한 온 스크린 디스플레이 장치
US7251322B2 (en) * 2003-10-24 2007-07-31 Microsoft Corporation Systems and methods for echo cancellation with arbitrary playback sampling rates
TWI263925B (en) * 2003-12-16 2006-10-11 Via Tech Inc Graphics card for smoothing the playing of video
US7486337B2 (en) 2003-12-22 2009-02-03 Intel Corporation Controlling the overlay of multiple video signals
US7535478B2 (en) * 2003-12-24 2009-05-19 Intel Corporation Method and apparatus to communicate graphics overlay information to display modules
US8190003B2 (en) * 2004-01-14 2012-05-29 Samsung Electronics Co., Ltd. Storage medium storing interactive graphics stream activated in response to user's command, and reproducing apparatus for reproducing from the same
JP2005341169A (ja) * 2004-05-26 2005-12-08 Funai Electric Co Ltd 光ディスク再生装置
JP2005341132A (ja) * 2004-05-26 2005-12-08 Toshiba Corp 映像データ処理装置及び処理方法
JP2006004486A (ja) * 2004-06-16 2006-01-05 Toshiba Corp 情報記録媒体及び情報再生装置
US20050281342A1 (en) * 2004-06-22 2005-12-22 Broadcom Corporation Slow motion and high speed for digital video
JP2006065365A (ja) 2004-08-24 2006-03-09 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2007065928A (ja) * 2005-08-30 2007-03-15 Toshiba Corp 情報記憶媒体、情報処理方法、情報転送方法、情報再生方法、情報再生装置、情報記録方法、情報記録装置、及びプログラム
EP1667448A1 (en) * 2004-12-02 2006-06-07 Deutsche Thomson-Brandt Gmbh Method and apparatus for encoding and for decoding a main video signal and one or more auxiliary video signals
JP4568120B2 (ja) * 2005-01-04 2010-10-27 株式会社東芝 再生装置
JP4417854B2 (ja) * 2005-01-04 2010-02-17 株式会社東芝 再生装置
JP4519658B2 (ja) * 2005-01-04 2010-08-04 株式会社東芝 再生装置
JP4737991B2 (ja) * 2005-01-04 2011-08-03 株式会社東芝 再生装置
JP2006236411A (ja) * 2005-02-22 2006-09-07 Toshiba Corp 情報記憶媒体、情報記録方法、および情報再生方法
JP4968506B2 (ja) * 2005-03-04 2012-07-04 ソニー株式会社 再生装置、再生方法、およびプログラム
US7903172B2 (en) * 2005-03-29 2011-03-08 Snell Limited System and method for video processing
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
JP2007258873A (ja) * 2006-03-22 2007-10-04 Toshiba Corp 再生装置および再生方法

Also Published As

Publication number Publication date
JP4625781B2 (ja) 2011-02-02
CN101043600B (zh) 2011-07-06
US8385726B2 (en) 2013-02-26
JP2007258872A (ja) 2007-10-04
TW200809692A (en) 2008-02-16
KR100865425B1 (ko) 2008-10-24
CN101043600A (zh) 2007-09-26
US20070223877A1 (en) 2007-09-27

Similar Documents

Publication Publication Date Title
KR100865425B1 (ko) 재생장치 및 재생장치를 사용하는 재생 방법
KR100845066B1 (ko) 정보 재생 장치 및 정보 재생 방법
KR100885578B1 (ko) 정보 처리 장치 및 정보 처리 방법
US7973806B2 (en) Reproducing apparatus capable of reproducing picture data
US20060164437A1 (en) Reproducing apparatus capable of reproducing picture data
US6297797B1 (en) Computer system and closed caption display method
US8204357B2 (en) Reproducing device, reproducing method, reproducing program and recording medium
US8237741B2 (en) Image processing apparatus, image processing method, and image processing program
US20090162036A1 (en) Playback apparatus and playback method
US7936360B2 (en) Reproducing apparatus capable of reproducing picture data
US20070245389A1 (en) Playback apparatus and method of managing buffer of the playback apparatus
US20070223885A1 (en) Playback apparatus
US20060164938A1 (en) Reproducing apparatus capable of reproducing picture data
JP2009081540A (ja) 情報処理装置および合成映像生成方法
JP5159846B2 (ja) 再生装置および再生装置の再生方法
JP5060584B2 (ja) 再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee