KR20020086878A - 그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법및 장치 - Google Patents

그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법및 장치 Download PDF

Info

Publication number
KR20020086878A
KR20020086878A KR1020027008457A KR20027008457A KR20020086878A KR 20020086878 A KR20020086878 A KR 20020086878A KR 1020027008457 A KR1020027008457 A KR 1020027008457A KR 20027008457 A KR20027008457 A KR 20027008457A KR 20020086878 A KR20020086878 A KR 20020086878A
Authority
KR
South Korea
Prior art keywords
video
graphic elements
frames
rendered
format
Prior art date
Application number
KR1020027008457A
Other languages
English (en)
Other versions
KR100800275B1 (ko
Inventor
브라워드길라움
듀란디티에리
플란테로제티에리
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20020086878A publication Critical patent/KR20020086878A/ko
Application granted granted Critical
Publication of KR100800275B1 publication Critical patent/KR100800275B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs

Abstract

본 발명은, 2D 그래픽 요소들의 열화가 발생하지 않도록 보장하면서 보다 작은 포맷의 원시 비디오 객체로부터 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임들을 얻기 위한 방법 및 장치에 관한 것이다. 이 목적을 위하여, 비디오 프레임들 및 2D 그래픽 요소들 상에 병렬의 독립된 프로세스가 수행된다. 제 1 프로세스는 상기 원시 비디오 객체로부터 렌더링된 프레임들을 발생시키는 단계로 구성되며, 여기서 상기 렌더링된 프레임들은 이후에 원하는 출력 비디오 포맷으로 업스케일링된다. 제 2 프로세스는 2D 그래픽 요소들의 열화가 발생하지 않도록 보장하는 드로잉 알고리즘을 이용하여 상기 출력 포맷으로 2D 그래픽 요소들을 직접 렌더링하는 단계로 구성된다. 마지막 단계에서, 렌더링된 2D 그래픽 요소들은 업스케일링된 비디오 프레임들 상에 매핑된다. 2D 그래픽 요소들을 포함하는 비디오 프레임들 상에 업스케일링(upscaling)을 수행하면, 열화된 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임이 초래되는 반해, 본 발명의 방법에 따르면 양호한 해상도의 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임들을 달성할 수 있다.

Description

그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법 및 장치{Method and device for video scene composition including graphic elements}
대화형 텔레비전이나 전자 프로그램 안내(EPG: Electronic Program Guide)와 같은 멀티미디어 응용의 출현으로, 화질이 중요한 요소가 되고 있다. 사실상, 최종 사용자(end user)들은 최대의 시각적 편의를 도모하면서 이와 같은 응용프로그램과 상호작용 및 통신할 수 있도록 비디오 및 그래픽 요소들이 양호한 해상도와 대규모 디스플레이 화상 포맷을 동시에 가지도록 요구하고 있다. 더욱 더, 이와 같은 멀티미디어 응용의 콘텐트는, 추가 정보를 삽입한 원시 비디오 콘텐트로 구성된다. 이와 같은 추가 정보는, 최종 사용자의 요청에 대한 응답에 대응할 수도 있고 상기 원시 비디오 콘텐트의 비디오 프레임들 내에서 텍스트나 기하학적 패턴과 같은 2차원 (2D) 그래픽 요소들의 매핑(mapping)으로 귀결되는 최종 사용자 그래픽퍼스널라이제이션(personalization)에 대응할 수도 있다.
미국특허 제5,877,771호는 디스플레이된 프레임 내에 풍부한 표면 디테일(surface detail)을 제공하기 위한 2D 텍스처 매핑용 방법 및 장치를 기술하고 있다. 이러한 목적을 위해, 원시 비디오의 프레임들 내에 있는 목적지 화소들에 대한 다중-해상도 텍스처 데이터(texture data)가, 텍스처에서의 국부적 변화율에 기초하여 수평 및 수직 스크린 공간 샘플링률로 수퍼샘플링된다. 그래픽 요소들이 텍스처로서 간주되면, 이와 같은 방법은 2D 그래픽 요소들을 비디오 프레임들 상에 매핑하는데 이용될 수 있다.
본 발명은 한 세트의 그래픽 요소들(graphic elements) 및 원시 비디오 객체들(primary video objects)로부터 비디오 장면(video scene)을 합성하는 방법에 관한 것이다.
본 발명은 그래픽 요소들의 시각적 판독 편의를 개선시키기 위한 임의의 비디오 코딩 시스템(video coding system)에 사용될 수 있다.
도 1은 본 발명에 따른 단계들의 시퀀스를 도시한 도면.
도 2는 본 발명의 하드웨어적 구현을 도시한 도면.
도 3은 본 발명의 한 실시예를 도시한 도면.
본 발명의 목적은, 2D 그래픽 요소들 및 비디오 객체들로부터 비디오 장면을 합성하는 방법으로서 비디오 장면 내의 2D 그래픽 요소들에 관해 양호한 품질을 얻을 수 있도록 해주며 개선되고 비용 절감적인 방법을 제공하는 것이다.
사실상, 종래 기술은 많은 제약사항이 있다. 첫 번째로, 종래의 방법은, 최종 출력 비디오 프레임을 위해 보다 큰 포맷이 요구될 경우 원시 비디오 프레임 상에 2D 그래픽 요소를 매핑하는 것은 원시 비디오 프레임들의 업스케일링과 결합되어야 한다는 사실을 고려하지 않고 있다. 따라서, 이러한 상황에서 2D 그래픽 요소의 품질은 에일리어싱(aliasing)으로 인해 열화(degrade)될 수 있다. 에일리어싱은 관찰자가 판독하기 어려운 조악하고 들쭉날쭉한 심벌을 초래한다. 두 번째로, 종래의 방법은 매핑 동작을 위해 상당한 양의 처리 능력을 요구하기 때문에 값비싸다는 것이다.
본 발명에 따른 방법은 종래 방법의 한계로 인한 문제점들에 대해 해결책을 제공해준다. 이 방법은, 2D 그래픽 요소들의 열화가 발생하지 않도록 보장하면서 보다 작은 포맷의 비디오 객체들로부터 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임들을 얻을 수 있도록 해준다. 이러한 목적을 위해, 본 발명에 따른 방법은 하기와 같은 단계들을 포함하는 특징이 있다:
- 제 1 포맷의 렌더링된 비디오 프레임들(rendered video frames)을 제공하기 위해 원시 비디오 객체들을 렌더링하는 단계,
- 제 2 포맷의 업스케일링된 비디오 프레임들(upscaled video frames)을 제공하기 위해 상기 렌더링된 비디오 프레임들을 업스케일링하는 단계,
- 상기 제 2 포맷의 렌더링된 그래픽 요소들을 제공하기 위해 그래픽 요소들을 렌더링하는 단계,
- 비디오 장면을 규정하는 프레임들을 합성하기 위해 상기 렌더링된 그래픽 요소들을 상기 업스케일링된 비디오 프레임들 상에 매핑하는 단계.
이 방법은 비디오 객체들 및 2D 그래픽 요소들에 관련된 2개 세트의 별개의 데이터로 구성된다. 그리하여, 비디오 객체들 및 2D 그래픽 요소들 상에 병렬의 독립된 프로세스가 수행된다. 제 1 프로세스는 비디오 객체 프레임들로부터 프레임들을 합성하는 단계로 구성되는데, 여기서 상기 프레임들은 이후에 원하는 출력 비디오 포맷으로 업스케일링된다. 제 2 프로세스는 2D 그래픽 요소들의 열화가 발생하지 않도록 보장하는 드로잉 알고리즘(drawing algorithm)을 이용하여 2D 그래픽 요소들을 상기 출력 포맷으로 직접 렌더링하는 단계로 구성된다. 마지막 단계에서, 렌더링된 2D 그래픽 요소들은 업스케일링된 비디오 프레임 상에 매핑된다. 2D 그래픽 요소들을 포함하는 비디오 프레임 상에 업스케일링(upscaling)을 수행하면 열화된 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임이 초래되는데 반해, 이 방법은 양호한 해상도를 갖는 2D 그래픽 요소들을 포함하는 업스케일링된 비디오 프레임을 생성하게 된다.
본 발명이, 첨부된 도면과 연계하여 이하에서 기술되고 고려되는 실시예들을 참조하여 보다 상세히 설명될 것이다. 도면에서 동일한 부분 또는 하부-단계는 동일한 참조 번호를 가진다.
본 발명은 한 세트의 비디오 데이터 및 2D 그래픽 요소들로부터의 개선된 비디오 합성 방법에 관한 것이다.
본 발명은 MPEG-4 비디오 표준에 따라 코딩된 비디오 데이터 및 2D 그래픽 요소들로부터 합성되는 비디오 장면(video scene)에 관해 기술된다. 그러나, 당업자는 본 발명의 영역이 이러한 특정 경우만으로 제한되지 않으며 MPEG-2 또는 H.263과 같은 다른 객체-지향형 비디오 표준이나 인코딩되지 않은 비디오 데이터에 따라 코딩된 비디오 데이터에도 역시 적용 가능하다는 것을 이해할 것이다.
도 1은, 2개의 비디오 및 2D 그래픽 요소들로부터 비디오 장면을 합성하는 상황에서 본 발명에 따른 방법의 단계들의 시퀀스를 도시하고 있다. 이 방법은 하기의 단계들을 포함한다:
- MPEG-4 비디오 표준에 따라 코딩된 입력 비디오 객체들(102)을 디코딩하여 디코딩된 비디오 객체들(103)을 제공하기 위한 디코딩 단계(101). 제 1 비디오 객체는, 예를 들어 CIF(Common Intermediate Format) 포맷과 같은 제 1 포맷을 갖는 백그라운드 비디오(background video)에 대응한다. 제 2 비디오 객체는, 예를 들어 SQCIF(Sub Quarter Common Intermediate Format)과 같은 보다 작은 포맷을 갖는 비디오에 대응한다. 이들 입력 비디오 객체들은 별개의 MPEG-4 디코더들에 의해 디코딩된다.
- 디코딩된 비디오(103)로부터 렌더링된 비디오 프레임들(105)을 얻기 위한 비디오 렌더링 단계(104). 이 단계는 어셈블링 파라미터들(assembling parameters)에 관하여 상기 비디오(103)를 어셈블링하는 것으로 구성된다. 예를 들어, 이 단계의 결과로서, SQCIF 비디오 프레임들이 CIF 비디오 프레임들 내에 오버레이될 수 있다. 이와 같은 파라미터들은, 예를 들어, 장면 내에서의 각각의 비디오 객체의 공간적 위치나, SQCIF와 CIF 비디오 프레임들간의 투명도 계수(transparency coefficients)를 기술한다. 이들은 각각의 비디오 객체로부터 직접 추출되거나 BIFS(Binary Format For Scene) 구문에 따라 인코딩된 스트림(106)으로부터 추출되며, 장면 합성을 기술하는데 전용된다. 이 단계는, 예를 들어 마우스나 키보드 신호(107)를 통해, 또는 렌더링되는 장면 내에서의 선택된 비디오 객체의 공간적 위치의 변경과 같은 BIFS 스트림(106) 내부의 BIFS 갱신을 이용한 사용자 상호작용에 응답하여, 어셈블링 파라미터들을 수정하기 위해 MPEG-4 계층의 능력을 고려할 수도 있다.
- 수평 및/또는 수직 축을 따라 업스케일링되어 렌더링된 프레임들(109)을 제공하기 위한 업스케일링 단계(108). 이 목적을 위해, 프레임들(105)의 루미넌스(luminance)와 크로미넌스(chrominance) 화소들이 업스케일링 계수에 따라 수평 및/또는 수직으로 복제된다. 물론, 화소 보간법(pixel interpolation)에 기반한 기법들과 같은 다른 업스케일링 방법이 이용될 수도 있다. 예를 들어, 업스케일링 계수가 2로 설정되면, CIF 포맷으로 된 프레임들(105)의 업스케일링은 CCIR 포맷을 갖는 프레임들(109)이 될 것이다.
- 2D 그래픽 요소들(111)로부터 2D 렌더링된 그래픽 요소들(112)을 얻기 위한 그래픽 렌더링 단계(110). 이 목적을 위해, 업스케일링하지 않고 프레임들(109) 상으로의 직접적인 매핑을 허용하는 포맷으로 상기 그래픽 요소들(111)을 렌더링하는 드로잉 알고리즘이 이용된다. 이러한 방식으로, 2D 그래픽 요소들의 열화가 발생하지 않는다. 2D 그래픽 요소들은 텍스트 및/또는 그래픽 패턴으로 구성될 수 있다. 각각의 요소(111)는 그래픽 렌더링 단계(110)에서 독립된 단위로서 렌더링된다.
- 렌더링된 2D 그래픽 요소들(112)을 렌더링된 프레임들(109) 상에 매핑(113)하여 프레임들(115)을 만드는 단계. 이 단계는, 프레임들(119) 내의 각각의 그래픽 요소(112)의 위치를 고려한다. 이 위치는, 신호(114) 또는 BIFS 스트림(106) 내부의 장면 기술(scene description)에 의해 규정되며 프레임들(109) 내에 규정된 카테시안 기준 시스템(cartesian reference system)에서 수평 및 수직 좌표에 대응한다. 신호(114)는 프리셋(preset)되거나 마우스 또는 키보드로부터 발생하여, 사용자가 상기 기준 시스템에서 2D 그래픽 요소들의 공간적 위치를 선정함에 있어서 2D 그래픽 요소들과 상호 작용할 수 있도록 허용한다. 일단, 주어진 그래픽 요소의 위치가 규정되고 나면, 매핑 동작(113)은 프레임들(109)의 화소들을 상기 그래픽 요소들을 규정하는 화소들로 대체한다. 개선된 실시예에서, 그래픽 요소들과 프레임들(109)간의 투명도는 프레임들(109)의 화소들과 상기 그래픽 요소들을 규정하는 화소들간의 평균(average)으로 얻어질 수 있다.
도 2는 본 발명에 따른 다양한 단계들을 구현하기 위한 하드웨어적 아키텍처(200)를 도시한다. 이 아키텍처는 다양한 처리 하드웨어 유닛들간의 데이터 교환을 보장하기 위해 데이터 버스(201) 주변에 구축된다. 우선, 대용량 저장 장치(203) 내에 저장되는 입력 비디오 객체와 2D 그래픽 요소들 모두를 수신하기 위한 입력 주변장치(202)를 포함한다. 이 비디오 객체는 빠른 액세스 메모리(205) 내에 저장된 디코딩 알고리즘에 속하는 명령들을 실행하는 (도면에서는 CPU라 언급됨) 신호 처리기(204)에 의해 디코딩된다. 일단 디코딩되고 나면, 비디오 객체들은 제 1 비디오 버퍼(206)에 저장된다. 비디오 렌더링 단계는 역시 신호 처리기(204)에 의해 수행된다. 신호 처리기(204)는, 메모리(205)에 저장된 렌더링 알고리즘에 속하는 명령들을 실행하는 한편 구축하고자하는 비디오 장면 내에 각각의 비디오 객체를 위치시키기 위해 마우스(207)의 동작, 키보드(208), 대용량 저장장치(203)에 저장된 BIFS 파일, 또는 입력 주변장치(202)로부터의 BIFS 스트림으로부터 나오는 데이터도 역시 고려한다. 그 다음, 디코딩된 한 세트의 비디오 객체로부터 렌더링된 각각의 프레임은 상기 제 1 버퍼(206)에 저장되며 신호 보조-처리기(209, 도면에서는 ICP라 언급됨)에 의해 업스케일링된다. 이와 같은 작업을 위해 신호 보조-처리기를 이용하면 빠른 처리 및 CPU 점유율의 최소화가 가능한데 이는 이와 같은 장치 내에 업스케일링 하드웨어 기능(upscaling hardware function)이 포함될 수 있기 때문이다. 최종의 업스케일링된 프레임은 상기 버퍼(206)에 저장된다. 이와 나란하게, 2D 그래픽 요소들은 신호 처리기(204)에 의해 렌더링되는데, 신호 처리기(204)는 메모리(205)에 저장된 드로잉 알고리즘에 속하는 명령들을 실행한다. 이 때, 각각의 그래픽 요소는 연속적으로 렌더링되고 버퍼(206)에 포함된 렌더링된 프레임에 연속적으로 매핑된다. 렌더링된 프레임들과 2D 그래픽 요소들간에 투명도가 요구된다면, 버퍼(206)에 저장된 렌더링된 프레임에 속하는 화소들과 상기 렌더링된 2D 그래픽 요소들에 속하는 화소들간의 평균화 동작(averaging operation)이 수행될 수 있도록 렌더링된 그래픽 요소들은 임시 버퍼(210)에 저장되며, 그 결과의 프레임은 버퍼(206)에 저장된다. 2D 그래픽 요소들을 포함하는 최종의 렌더링된 프레임이 이용 가능하면, 버퍼(206)의 콘텐트는 제 2 버퍼(211)로 전송되고, 최종의 렌더링된 프레임이 출력 비디오 주변 장치(212)에 제공되어 디스플레이(213)상에 디스플레이된다. 이 스위칭 메커니즘은, 버퍼(206) 내의 다음 프레임이 시작되는 동안 버퍼(211) 내의 현재 프레임이 디스플레이될 수 있도록 해준다. 이러한 프로세스는 2D 그래픽 요소들을 포함하는 각각의 프레임의 렌더링에대해 반복된다.
도 3은 본 발명에 따른 실시예를 도시한다. 이 실시예는, 비디오 미리보기(preview)나 텍스트 데이터와 같은 TV 채널 프로그램에 관한 다양한 정보를 사용자가 수신할 수 있도록 해주는 전자 프로그램 안내(EPG) 애플리케이션에 대응한다. 이 목적을 위해, 도 1 및 2를 참조하여 기술되는 본 발명에 따른 연속된 단계들이 셋톱 박스 유닛(301)으로 구현된다. 이 유닛은, 예를 들어, 브로드캐스터와 같은 외부(302)로부터 링크(303)를 경유해 원시 데이터를 수신한다. 이 원시 데이터는 본 발명의 다른 단계들에 따라 처리되어, 2D 그래픽 요소들을 포함하는 비디오 프레임으로서 원시 비디오 객체보다 큰 포맷을 갖는 비디오 프레임이 되어, 디스플레이(304) 상에 디스플레이된다. 이 애플리케이션은, 사용자가 스크린을 내비게이트(navigate)하고 채널 공간(306) 및 시간 공간(307)에서 관련된 막대 타깃(310)을 갖는 브라우징 윈도우(308)의 위치에 따라 미리보기를 할 수 있도록 해준다. 브라우징 윈도우(308)는 풀스크린 TV 프로그램(309)의 상부에 놓여 혼합(blend)된다. 그리하여, 사용자는 백그라운드에서 현재의 TV 프로그램을 갖는 동시에 시간(307) 및 채널(306)을 브라우징할 수 있다. 다기능 원격 제어기와 같은 마우스-유형의 포인터 장치(305)에 의해 상호작용 기능이 제공된다. 이 애플리케이션에서, 본 발명은 디스플레이된 프레임들 내에서 텍스트 및 그래픽 요소들(306, 307, 308)의 양호한 가독성을 보장한다.
물론, 본 발명의 영역을 벗어나지 않고도 영화 배우의 소개, 프로그램의 상세 정보와 같은 더 많은 안내 특징을 위하여 다른 그래픽 디자인이 제안될 수 있다.

Claims (10)

  1. 한 세트의 그래픽 요소들과 원시 비디오 객체들로부터 비디오 장면(video scene)을 합성하는 방법에 있어서,
    - 제 1 포맷의 렌더링된 비디오 프레임들을 제공하기 위해 상기 원시 비디오 객체들을 렌더링하는 단계,
    - 제 2 포맷의 업스케일링된 비디오 프레임들을 제공하기 위해 상기 렌더링된 비디오 프레임들을 업스케일링하는 단계,
    - 상기 제 2 포맷의 렌더링된 그래픽 요소들을 제공하기 위해 그래픽 요소들을 렌더링하는 단계와,
    - 상기 비디오 장면을 규정하는 프레임들을 합성하기 위해 상기 렌더링된 그래픽 요소들을 상기 업스케일링된 비디오 프레임들 상에 매핑하는 단계를 포함하는 것을 특징으로 하는 비디오 장면 합성 방법.
  2. 제 1 항에 있어서,
    상기 원시 비디오 객체들은 디코딩된 MPEG-4 비디오 객체들인 것을 특징으로 하는, 비디오 장면 합성 방법.
  3. 제 1 항에 있어서,
    상기 그래픽 요소들은 문자들 및 기하학적 패턴들인 것을 특징으로 하는, 비디오 장면 합성 방법.
  4. 제 1 항에 있어서,
    상기 그래픽 요소들을 렌더링하는 단계는 드로잉 알고리즘(drawing algorithm)을 이용하여 수행되는 것을 특징으로 하는, 비디오 장면 합성 방법.
  5. 제 1 항에 있어서,
    상기 업스케일링 단계는 상기 제 1 포맷을 갖는 렌더링된 프레임들을 규정하는 화소들의 복제를 관련시키는 것을 특징으로 하는, 비디오 장면 합성 방법.
  6. 한 세트의 그래픽 요소들과 원시 비디오 객체들로부터 비디오 장면을 합성하기 위한 셋톱 박스 제품에 있어서,
    - 제 1 포맷의 렌더링된 비디오 프레임들을 제공하기 위해 상기 원시 비디오 객체들에 인가되는 렌더링 수단,
    - 제 2 포맷의 업스케일링된 비디오 프레임들을 제공하기 위해 상기 렌더링된 비디오 프레임들에 인가되는 업스케일링 수단,
    - 상기 제 2 포맷의 렌더링된 그래픽 요소들을 제공하기 위해 상기 그래픽 요소들에 인가되는 렌더링 수단,
    - 상기 렌더링된 그래픽 요소들을 상기 업스케일링된 비디오 프레임들 상에 매핑하여 상기 비디오 장면을 규정하는 프레임들을 결과로서 가져오는 매핑 수단을포함하는 셋톱 박스 제품.
  7. 제 6 항에 있어서,
    상기 렌더링 및 매핑 수단은 신호 처리기에 의한 전용 프로그램 명령들의 실행을 관련시키고, 상기 프로그램 명령들은 상기 신호 처리기 또는 메모리에 로딩되며, 업스케일링 수단은 신호 보조-처리기의 하드웨어 기능들의 실행을 관련시키는 것을 특징으로 하는, 셋톱 박스 제품.
  8. 제 6 항에 있어서, 렌더링 동안에 상기 원시 비디오 객체들의 상대적인 공간적 위치를 수정하기 위한 사용자-상호작용 수단을 포함하는 것을 특징으로 하는 셋톱 박스 제품.
  9. 제 6 항에 있어서,
    입력 MPEG-4 스트림을 디코딩하여 상기 원시 비디오 객체들을 규정하는 MPEG-4 비디오 객체들을 결과로서 가져오는 디코딩 수단을 포함하는 것을 특징으로 하는 셋톱 박스 제품.
  10. 제 6 항에 있어서,
    상기 업스케일링된 비디오 프레임들 상에 매핑되는 상기 그래픽 요소들은 문자들 및 기하학적 패턴들인 것을 특징으로 하는, 셋톱 박스 제품.
KR1020027008457A 2000-10-31 2001-10-19 그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법및 장치 KR100800275B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP00403027.6 2000-10-31
EP00403027 2000-10-31

Publications (2)

Publication Number Publication Date
KR20020086878A true KR20020086878A (ko) 2002-11-20
KR100800275B1 KR100800275B1 (ko) 2008-02-05

Family

ID=8173928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027008457A KR100800275B1 (ko) 2000-10-31 2001-10-19 그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법및 장치

Country Status (6)

Country Link
US (1) US6828979B2 (ko)
EP (1) EP1334620A2 (ko)
JP (1) JP2004513578A (ko)
KR (1) KR100800275B1 (ko)
CN (1) CN1253004C (ko)
WO (1) WO2002037857A2 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4464599B2 (ja) * 2002-05-13 2010-05-19 株式会社マイクロネット 3次元コンピュータ画像放送用テロップ装置およびその方法
FR2840494A1 (fr) * 2002-05-28 2003-12-05 Koninkl Philips Electronics Nv Systeme de controle a distance d'une scene multimedia
FR2851716A1 (fr) * 2003-02-21 2004-08-27 France Telecom Procede pour la gestion de descriptions d'animations graphiques destinees a etre affichees, recepteur et systeme mettant en oeuvre ce procede.
JP2007512550A (ja) * 2003-10-29 2007-05-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ スムースなテレテキストグラフィックをレンダリングするための方法及び装置
KR101445074B1 (ko) * 2007-10-24 2014-09-29 삼성전자주식회사 미디어 플레이어에서 미디어 객체 처리 방법 및 그 장치
KR100980449B1 (ko) * 2007-12-17 2010-09-07 한국전자통신연구원 병렬 전역조명 렌더링 방법 및 시스템
CN101599168B (zh) * 2008-06-04 2011-09-28 鸿富锦精密工业(深圳)有限公司 聚合实体图层转换系统及方法
KR102194635B1 (ko) 2014-01-29 2020-12-23 삼성전자주식회사 디스플레이 컨트롤러 및 이를 포함하는 디스플레이 시스템

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0737937B1 (en) * 1989-02-02 2000-05-03 Dai Nippon Insatsu Kabushiki Kaisha Image processing apparatus
JP3166173B2 (ja) * 1991-07-19 2001-05-14 プリンストン エレクトロニック ビルボード,インコーポレイテッド 選択および挿入された標章を有するテレビ表示
US5659793A (en) * 1994-12-22 1997-08-19 Bell Atlantic Video Services, Inc. Authoring tools for multimedia application development and network delivery
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
US6208350B1 (en) * 1997-11-04 2001-03-27 Philips Electronics North America Corporation Methods and apparatus for processing DVD video
US6275239B1 (en) * 1998-08-20 2001-08-14 Silicon Graphics, Inc. Media coprocessor with graphics video and audio tasks partitioned by time division multiplexing
US6570579B1 (en) * 1998-11-09 2003-05-27 Broadcom Corporation Graphics display system
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
US6526583B1 (en) * 1999-03-05 2003-02-25 Teralogic, Inc. Interactive set-top box having a unified memory architecture
WO2000079799A2 (en) * 1999-06-23 2000-12-28 Sarnoff Corporation Method and apparatus for composing image sequences
US6525746B1 (en) * 1999-08-16 2003-02-25 University Of Washington Interactive video object processing environment having zoom window

Also Published As

Publication number Publication date
WO2002037857A3 (en) 2002-07-18
KR100800275B1 (ko) 2008-02-05
US6828979B2 (en) 2004-12-07
EP1334620A2 (en) 2003-08-13
CN1253004C (zh) 2006-04-19
CN1398487A (zh) 2003-02-19
US20020163501A1 (en) 2002-11-07
JP2004513578A (ja) 2004-04-30
WO2002037857A2 (en) 2002-05-10

Similar Documents

Publication Publication Date Title
US6493036B1 (en) System and method for scaling real time video
US20100066762A1 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics display planes
US7836193B2 (en) Method and apparatus for providing graphical overlays in a multimedia system
US8176500B2 (en) Closing a video stream object
US20020069411A1 (en) Enhanced display of world wide web pages on television
US8111932B2 (en) Digital image decoder with integrated concurrent image prescaler
US7623140B1 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
JP2000217110A (ja) 符号化されたフォ―マットを有するビデオ信号にオンスクリ―ンディスプレイ・デ―タを付与する方法及び装置
KR20010072074A (ko) 비디오 신호의 인코딩
US7006153B2 (en) Image composition method, and image composition apparatus
KR100800275B1 (ko) 그래픽 요소들을 포함하는 비디오 장면 합성을 위한 방법및 장치
US9053752B1 (en) Architecture for multiple graphics planes
CN101448108A (zh) 图像处理装置与相关方法
KR20060135736A (ko) 스크린상에 디스플레이될 영상들의 종횡비의 변경
US7630018B2 (en) On-screen display apparatus and on-screen display generation method
EP1848203B2 (en) Method and system for video image aspect ratio conversion
EP0932977B1 (en) Apparatus and method for generating on-screen-display messages using field doubling
EP1338149B1 (en) Method and device for video scene composition from varied data
AU719563C (en) Apparatus and method for generating on-screen-display messages using field doubling
MXPA99003537A (es) Aparato y metodo para generar mensajes de despliegue en pantalla usando doblaje de linea

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee