KR20090111253A - 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법 - Google Patents

리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법 Download PDF

Info

Publication number
KR20090111253A
KR20090111253A KR1020080083007A KR20080083007A KR20090111253A KR 20090111253 A KR20090111253 A KR 20090111253A KR 1020080083007 A KR1020080083007 A KR 1020080083007A KR 20080083007 A KR20080083007 A KR 20080083007A KR 20090111253 A KR20090111253 A KR 20090111253A
Authority
KR
South Korea
Prior art keywords
terminal
scene
laser
data
stream
Prior art date
Application number
KR1020080083007A
Other languages
English (en)
Inventor
황서영
송재연
이국희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080083007A priority Critical patent/KR20090111253A/ko
Priority to KR1020080099765A priority patent/KR101516020B1/ko
Priority to JP2011506191A priority patent/JP5512657B2/ja
Priority to PCT/KR2009/002078 priority patent/WO2009131359A2/en
Priority to US12/427,306 priority patent/US8707151B2/en
Priority to EP09158349.2A priority patent/EP2114076B1/en
Priority to CN200980113999.8A priority patent/CN102017651B/zh
Publication of KR20090111253A publication Critical patent/KR20090111253A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk

Abstract

본 발명은 리치미디어 서비스를 제공하기 위한 것으로, 특히, Lightweight Application Scene Representation(이하 'LASeR'라 칭함) 서비스에서 다양한 종류의 단말에 LASeR 콘텐츠를 서비스하는 경우, 필요한 장면을 구성하기 위한 장치 및 방법에 관한 것이다.
따라서, 본 발명은 단말이 LASeR 콘텐츠 수신하고, 단말의 성능을 확인하여, 상기 LASeR 콘텐츠에 포함된 정보를 이용하여 단말의 특정 조건 및 성능에 적합한 장면을 구성하는 과정을 포함함을 특징으로 한다.
Figure P1020080083007
LASeR, SAF. 액세스 유닛(AU), 적응형 장면 구성(Adaptive scene component) 정보, MPEG-4, 장면구성

Description

리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법{APPARATUS AND METHOD FOR COMPOSING SCENE USING RICH-MEDIA CONTENTS}
본 발명은 리치미디어 서비스를 수신하는 단말의 디스플레이 기술에 대한 것으로서, 특히 단말의 특정 조건 및 성능을 고려하여 LASeR 콘텐츠 구성 제어를 위한 장치 및 방법에 관한 것이다.
이동통신 시장은 기존 기술들의 재조합 또는 통합을 통해 새로운 서비스의 생산을 지속적으로 요구 받고 있다. 이와 관련하여 오늘날 통신 및 방송 기술의 발달은 핸드폰, PDA(Personal Digital Assistant) 등 휴대 단말기(이하, '단말'이라 칭함)를 통해 여러 가지 미디어가 혼합하여 제공하는 리치 미디어(Rich-media) 서비스 형태로 발전하고 있다.
리치 미디어 서비스를 제공하기 위한 국제 표준 규격으로 Lightweight Application Scene Representation(이하 'LASeR'라 칭함)를 정의하고 있다. LASeR는 LASeR 장면 기술(LASeR scene description), 비디오(video), 오디오(audio), 이미지(image), 폰트(font), 메타데이터(metadata)와 같은 서로 다른 요소를 이용하 여 장면을 구성할 수 있다. 또한 통합포맷(Simple Aggregation Format: SAF) 형태로 LASeR 스트림(Elementary Stream : ES)을 다중화 및 동기화하고 복잡도 요구사항을 최소화하여 메모리 및 전력의 제한이 있는 휴대 단말에서 다양한 멀티미디어의 자유로운 표현과 사용자와의 상호작용을 위해 개발된 기술이다.
현재의 기술의 트랜드에 따라, DVB-CBMS(Convergence of Broadcasting and Mobile Service)나 IPTV와 같이 망의 통합으로, 하나의 망에 여러 종류의 단말이 연결되는 네트워크 모델이 가능하다. 즉, 유선 IPTV에 유무선 통합이 되어 단일 통합 사업자가 망을 운영하는 모델인 경우, 각 단말에 상관없이 동일한 서비스가 제공될 수 있다. 이러한 비즈니스 모델에서, 특히 방송 서비스인 경우, 단일의 방송 스트림이 동시에 다양한 종류의 디스플레이 크기와 다양한 성능 및 특징의 단말로 전송될 수 있다. 그러므로 해당 컨텐츠를 받을 단말의 종류가 다수임에도 불구하고 동일한 멀티미디어 서비스를 제공하는 경우에 LASeR 콘텐츠는 스크린 사이즈가 큰 단말(예를 들면 TV)부터 스크린 사이즈가 작은 휴대 단말까지 하나의 장면구성 서비스가 제공될 것이다. 이때, TV 스크린 사이즈에 최적화된 장면구성을 휴대 단말이 수신할 경우, 수신 단말은 서비스를 위한 가용 자원을 확보하기 어려울 뿐만 아니라, 지나치게 리치한(Rich) 장면을 구성해야 하는 문제점이 있다.
본 발명은 LASeR 서비스에 따른 콘텐츠를 구성하는 장치 및 방법을 제공한다.
또한, 본 발명은 단말의 특정 조건이나 단말의 성능을 고려한 LASeR 장면 구성 장치 및 방법을 제공한다.
본 발명에 따라 서비스될 장면을 구성하는 방법은, 장면 구성 정보의 특성에 관한 정보가 포함된 LASeR 콘텐츠를 송신기에서 생성하여 상기 단말로 전송하는 과정과, 상기 단말이 상기 LASeR 콘텐츠를 수신하고, 상기 단말의 특정 조건이나 특정 이벤트의 발생 및 단말의 성능(capability)을 나타내는 정보를 확인하여 이를 바탕으로, 상기 확인한 단말의 성능과 상기 LASeR 콘텐츠에 포함된 정보를 비교하는 과정과, 상기 단말이 상기 비교 결과에 따라 상기 확인한 단말의 성능에 따른 장면 구성 데이터의 사용 여부를 선택하여, 상기 서비스될 장면을 구성하는 과정을 포함한다.
또한 본 발명에 따라 서비스될 장면을 구성하는 장치는, 장면 구성 정보의 특성에 관한 정보를 포함한 상기 LASeR 콘텐츠를 생성하여 상기 단말로 전송하는 송신기와, 상기 LASeR 콘텐츠를 수신하고, 상기 단말의 특정 조건이나 특정 이벤트의 발생 및 단말의 성능(capability)과 상기 LASeR 콘텐츠에 포함된 정보를 비교하 여 상기 단말이 상기 비교 결과에 따라 상기 확인한 단말의 성능에 따른 장면 구성 데이터의 사용 여부를 선택하여, 상기 서비스될 장면을 구성하는 상기 단말 내의 수신기를 포함한다.
본 발명은 각 단말의 디스플레이 크기, CPU 처리 능력, 메모리나 배터리량 등 적응형 서비스의 제공과 관련하여 단말의 성능과 연관 있는 특정 조건이나 속성, 특정 이벤트에 따라 가용 자원이 부족한 단말에의 부담을 줄이고, 가용 자원이 풍부한 단말에는 보다 리치한(Rich) LASeR 장면 구성 서비스를 제공할 수 있다.
이하 본 발명의 바람직한 실시 예를 도면을 참조하여 설명한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
이하, 본 발명은 LASeR 서비스에서 각 단말의 특정 조건이나 단말의 성능에 적합한 LASeR 데이터를 송수신하는 방법 및 장치를 제공한다. 특히, 본 발명은 LASeR 서비스를 수신하는 단말의 장면 표현 및 구성 기술에 대한 것으로서, 적응형 서비스의 제공과 관련하여 단말의 특성과 연관 있는 특정 조건이나 속성, 특정 이벤트의 발생 및 단말의 성능에 따라, 단말의 성능이나 특징에 적합한 LASeR 콘텐츠를 제공하는 방법 및 장치에 대하여 설명하기로 한다.
도 1은 본 발명이 적용되는 일반적인 LASeR 콘텐츠를 수신한 단말의 동작을 도시한 도면이다.
도 1을 참조하면, 100 단계에서 단말은 LASeR 서비스 콘텐츠를 수신하고, 110 단계에서 수신된 LASeR 콘텐츠를 복호화(Decoding)한다. 단말은 120 단계에서는 LASeR 명령어들을 확인하여, 명령어에 따라 실행한다. 이후 단말은 130 단계에서 LASeR 콘텐츠의 모든 이벤트들을 처리하고, 140 단계에서 상기 장면 구성 명령어를 수행하여 장면을 디스플레이한다. 여기서, 상기 LASeR 데이터를 수신한 단말 동작은 'ISO/IEC 14496-20 : MPEG-4 LASeR' 표준 문서의 실행 모델(표준 문서 6.4절 Execution Model)을 따른다.
도 2는 본 발명의 제 1실시 예에 따른 LASeR 콘텐츠를 수신한 단말의 동작을 도시한 도면이다.
여기서, 도 2는 LASeR 데이터 스트림이 기본적으로 필요한 요소 외에 복잡하거나 많은 장면 구성 요소를 담고 있거나, 기본 장면에 부가되는 데이터인 경우이다. 또한 본 발명에서 설명하는 LASeR 데이터 스트림은 각 단말의 특성에 따른 구성 요소를 담고 있는 데이터 스트림도 포함한다. 상기 특성은 콘텐츠를 수신하는 단말의 특징 및 성능을 포함한다. 특히, 도 2는 LASeR 데이터 스트림이 가용 자원이 풍부한 단말을 위한 혹은 단말의 성능에 적응 가능한 장면 구성 데이터인 경우, 즉, adaptive scene component임을 나타내는 정보를 포함하는 경우, 장면을 구성하는 단말의 동작을 도시한다.
도 2를 참조하면, 200 단계에서 단말은 LASeR 스트림을 수신하고, 210 단계 에서 수신한 LASeR 스트림을 복호화한다.
220 단계에서 단말은 상기 복호화된 LASeR 스트림이 헤더(Header)를 가지고 있는지를 확인한다. 이때, LASeR 스트림이 헤더(Header)를 가지고 있으면, 230 단계에서 헤더 정보를 확인한다.
250 단계에서 단말은 확인한 헤더 정보에서 'AdaptiveSceneIndicator' 필드의 값이 'FALSE'이면, 상기 수신한 데이터 스트림을 화면에 디스플레이 한다.
한편, 상기 확인한 'AdaptiveSceneIndicator' 필드의 값이 'TRUE' 이면, 단말은 260 단계로 진행하여 단말의 성능을 확인한다. 260 단계에서 단말의 성능이 'adaptive scene component'를 서비스 하기에 충분하지 않으면, 단말은 265 단계로 진행하여 LASeR 스트림을 폐기하도록 설정하여 이후 복호화될 LASeR 스트림을 복호화하지 않고 폐기하여 해당 데이터 스트림을 화면에 디스플레이하는 등의 LASeR 서비스를 제공하지 않도록 한다.
만약, LASeR 폐기 대상이 되는 LASeR 스트림이 이미 복호화 되었을 경우에도 단말은 바로 데이터를 메모리에서 삭제하는 등의 폐기 과정을 수행한다.
한편, 260 단계에서 단말의 성능이 'adaptive scene component'를 서비스하기에 충분하면, 단말은 290 단계로 진행하여 LASeR 스트림을 폐기하지 않도록 설정한 후 280 단계에서 해당 데이터 스트림을 화면에 디스플레이 등의 LASeR 서비스를 제공한다.
또한, 상기 220 단계에서 복호화된 LASeR 스트림이 헤더(Header)를 가지고 있지 않으면, 단말은 270 단계에서 단말의 LASeR 스트림의 폐기 여부에 대한 설정 정보를 확인한다. 상기 폐기에 대한 설정정보가 설정되어 있으면, 단말은 275 단계로 진행하여, 단말의 LASeR 스트림을 더 이상 처리하지 않고, 즉, 메모리에 구성하거나 렌더링하지 않고 폐기한다. 반면에, 상기 폐기에 대한 설정정보가 설정되어 있지 않으면, 단말은 280 단계로 진행하여 화면에 디스플레이한다.
상기 제 1 실시 예에서 단말의 스트림을 수신하여(200), 복호화하고(210), 헤더(Header)를 확인하여(230), 헤더의 'AdaptiveSceneIndicator' 필드의 값을 바탕으로(250), 화면에 수신된 스트림을 디스플레이(280)하는 일련의 과정과, 'AdaptiveSceneIndicator' 필드의 값을 바탕으로(250), 이후 다음의 헤더(Header)를 수신하기 전까지, 해당 스트림을 처리하지 않는 일련의 과정을 제외한 나머지 과정들은 단말에 따라 순서가 바뀔 수도 있고, 생략될 수도 있다. 또한 'AdaptiveSceneIndicator' 및 본 발명에서 새로이 정의하는 필드 및 속성을 이용하여, 본 발명과 동일한 서비스를 제공할 수 있다면, 이는 단말의 수행절차에 수정이나 변경이 있다 하여도 본 발명에 속하는 것임은 자명하다.
하기의 <표 1a>, <표 1b> 및 <표 2>는 본 발명에 따라 LASeR 헤더(LASeR Header)에 상기 수신한 LASeR 스트림이 'Adaptive scene component'임을 알려주는 필드를 새로이 정의한 예이다.
여기서, <표 1a>, <표 1b>의 'AdaptiveSceneIndicator' 속성을 'true' 혹은 'false'의 불린(Boolean) 값으로 표현하였으나, 이는 <표 2>와 같이, 1,2,3,4등의 레벨(level) 혹은 다른 방법으로도 표현 가능하다. 상기 속성의 값은 <표 1a>, <표 1b> 및 <표 2>의 방법에 국한되지 않은 방법으로 표현할 수 있음은 물론이다. 다만 불린(Boolean)이 아닌 다른 값으로 표현할 경우, 해당 속성의 특정 값은, 반드시 'adaptive scene component'가 아닌 'base scene component'임을 표현할 수 있어야 한다. 예를 들어, ' AdaptiveSceneIndicator' 의 속성 값을 정수 값으로 표현할 경우, '0'은 'base scene component'를 의미할 경우, 수신한 LASeR 스트림 헤더의 상기 필드의 속성 값이 '0'이면, 'AdaptiveSceneIndicator = "False"'와 같은 의미를 가지므로, 화면에 디스플레이 해야 한다.
다음은 또한 본 발명에서 설명하는 단말의 특성에 적응 가능한 LASeR 데이터 스트림의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려주기 위한 방법을 설명한다.
<표 1a> 및 <표 1b>은 'LASeR 데이터의 적응(adaptation)의 기준(criteria)을 나타내기 위한 'AdaptationType' 속성의 구조를 기술한 스키마(schema)의 구문(syntax)을 정의한 예이다.
Figure 112008060428765-PAT00001
상기 <표 1a>와 같이 'AdaptationType' 속성의 값은 하나 이상의 다양한 방법을 이용하여 표현할 수 있다.
Figure 112008060428765-PAT00002
또한, 'AdaptationType' 속성의 값은 속성의 값을 하나의 표현 방법으로 제한하도록 기술할 수도 있다. 상기 예제에서는 'AdaptationType' 속성의 값 을 'unsignedInt'로 기술하였으나, 이는 'string', 'boolean', 'anyURI', 'hexbinary', 'base64Binary', 'mormalizedString', 'NMTOKENS', 'ID', 'IDREF', 'Interger', 'PositiveInteger', '열거형(enumeration)' 등의 다양한 데이터 타입으로 지정할 수 있다.
다음 <표 2>는 'AdaptationType'의 속성 값 즉, 단말의 성능에 적응 가능한 LASeR 데이터 스트림의 적응(adaptation)의 기준(criteria)을 나타낸 것이다. 'AdaptationType'의 속성 값은 <표 1a> 및 <표 1b>에서 설명한 바와 같이, 속성 값의 타입에 따라, <표 2>와 같이 표현할 수도 있고, 문자열로 표현할 수도 있으며, 단말 및 서비스 내/외부의 정보를 참조할 수도 있다. 'AdaptationType'은 특정 조건이나 단말의 상태나 상황 변화에 관련된 다양한 factor들이 추가될 수 있다.
Figure 112008060428765-PAT00003
다음의 <표 3>은 'LASeR 데이터의 적응(adaptation)의 기준(criteria)의 값을 표현하는 'AdaptationTypeValue' 속성의 구조를 기술한 스키마(schema)의 구문(syntax)을 정의한 예이다. 'LASeR 데이터의 적응(adaptation)의 기준(criteria)의 값이라는 것은, 예를 들어 디스플레이 사이즈가 적응의 기준이 된다고 했을 때, 해당 장면 세그먼트는 'DisplaySize'가 'LARGE'로 분류되는 단말들을 위한 장면 정보를 담고 있을 경우, 'AdaptationTypeValue="LARGE"' 로 표현할 수 있는 값을 뜻한다.
Figure 112008060428765-PAT00004
'AdaptationTypeValue' 속성의 값은 <표 1a>와 같이 하나 이상의 다양한 방법을 이용하여 표현할 수 있다. 즉, 각 'AdaptationType'에 따라 'AdaptationTypeVale'의 기술 방법이 다르다면 각 'AdaptationType'에 따른 각각의 'AdaptationTypeVale'를 정의하여 기술할 수도 있다. 또한, 'AdaptationTypeValue' 속성의 값은 상기 <표 3>에서는 'unsignedInt'로 기술하였으나, 이는 'string', 'boolean', 'anyURI', 'hexbinary', 'base64Binary', 'normalizedString', 'NMTOKENS', 'ID', 'IDREF', 'Interger', 'PositiveInteger', '열거형(enumeration) 등의 다양한 데이터 타입으로 지정할 수 있다.
다음의 <표 4a> 및 <표 4b>은 본 발명의 'AdapatationSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'의 구조를 기술한 스키마(schema)의 구문(syntax)을 정의한 예이다.
Figure 112008060428765-PAT00005
<표 4b>는 'AdapatationType'과 'AdaptationTypeValue'를 하나의 필드에 함께 표현한 실시 예이다. 하나의 필드에 함께 표현할 경우, 예를 들어 <LASeRHeader....................AdapatationType_Value="DisplaySize LARGE"/>등과 같이 표현할 수 있다.
Figure 112008060428765-PAT00006
본 발명의 'AdaptiveSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'을 사용하여 <표 5a> 및 <표 5b>와 같이 표현할 수 있다.
Figure 112008060428765-PAT00007
상기 <표 5a>의 예는 디스플레이 사이즈(<표 2>를 참조하면, 0X01은 디스플레이 사이즈를 나타내는 값임을 알 수 있다.)가 LARGE로 분류되는 단말들을 위한 데이터임을 나타낸다. 이때, 디스플레이 사이즈가 'LARGE'로 분류되지 않는 단말들은 상기 <표 5a>의 LASeR Header를 Header로 가지는 데이터를 디코딩이나 렌더링하지 않고 폐기할 수 있다. 상기 예제에서는 디스플레이 사이즈를 SMALL, LARGE와 같은 심볼릭(symbolic)한 값으로 설정하였으나, 'AdaptationTypeValue'는 디스플레이 사이즈를 표현하는 어떤 값으로도 설정 가능하다.
Figure 112008060428765-PAT00008
상기 <표 5b>의 예는 <표 5a>의 예와 동일한 의미를 가지며, 동일한 동작을 수행하는 정보를 다른 방법으로 표현한 것으로, 'AdaptationType' 필드의 속성 값으로 사용될 수 있는 값들, 예를 들어 'DisplaySize', 'CPU status', 'Memory status', 'Battery Size' 등을 새로운 속성으로 'AdaptationType'을 대신하는 새로운 속성 필드로 정의하고, 'AdaptationTypeValue'의 값을 해당 속성 필드의 값으로 하여 표현한 것으로, <표 5a>의 예와 동일한 동작을 수행한다.
상기 실시 예에서, 'AdaptiveSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'는 각기 독립적으로 혹은 복합적으로 사용될 수 있으며, 이들 속성 및 필드의 표현에 있어 변형이나 수정이 있다 하더라도, 본 발명에서 설명하는 적응형 데이터 표현을 위한 필터링을 수행하기 위한 수단으로 사용되는 경우, 이는 본 발명의 범주에 속하는 것임은 자명하다고 할 것이다.
다음은 본 발명의 또 다른 실시 예로써, LASeR 명령어 단위로 구분되는 장면의 세그먼트(scene segment) 단위로 Adaptation 정보가 다를 경우, 즉, 세그먼트 단위로 Adaptation 정보가 제공되는 경우를 위하여, adaptive scene component임을 나타내는 정보 즉, 본 발명의 'AdaptiveSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'을 표현하는 방법을 설명한다. 다음의 <표 6>의 예제를 보면, NewScene, Insert등의 LASeR 명령어로 구분되는 장면 각각이 각기 하나의 장면 세그먼트가 된다. 그러므로, 하기 <표 6>의 예제는 4개의 장면 세그먼트로 이루어진 컨텐츠이다.
Figure 112008060428765-PAT00009
다음의 <표 7>은 세그먼트 단위로 Adaptation 정보가 제공되는 경우를 위하여, 본 발명의 'AdaptiveSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'을 LASeR 명령어의 새로운 속성으로 정의하여 표현하는 방법을 나타낸 것이다.
Figure 112008060428765-PAT00010
상기 <표 7>을 참조하면, "Dictionary"를 아이디 속성 값으로 가지는 엘리먼트에 새로운 장면구성 요소인 'polyline'을 삽입하기 위한 'Insert' 명령어의 장면 세그먼트는 디스플레이 사이즈 MEDIUM으로 분류되는 단말들을 위한 데이터임을 나타낸다. 그리고, "Shape4"를 아이디 속성 값으로 가지는 엘리먼트에 새로운 속성인 'points'을 삽입하기 위한 'Insert' 명령어의 장면 세그먼트는 디스플레이 사이즈 LARGE로 분류되는 단말들을 위한 데이터임을 나타낸다. 상기 <표 7>과 같은 데이터를 수신한 단말은 적응(adaptation)의 기준(criteria) 및 그에 대한 값에 따른 단말 자신과의 특성 및 조건에 따라, 해당 장면 세그먼트를 렌더링하여 보여주거나, 다음 장면 세그먼트를 수신할 때까지 디코딩하거나 렌더링하지 않고 폐기하는 등의 필터링을 수행한다. 다음의 <표 8>은 LASeR 명령어 앞에 새로운 시그널링 필드를 추가하여, 세그먼트 단위로 Adaptation 정보가 제공되는 경우를 위하여, 본 발명의 'AdaptiveSceneIndicator', 'AdapatationType', 'AdaptationTypeValue'을 표현하는 방법을 나타낸 것이다.
Figure 112008060428765-PAT00011
상기 <표 8>에서 새로이 추가한 'Adaptation' 필드는 장면 세그먼트의 헤더와 같은 개념으로 생각할 수 있다. 상기 예제와 같이, 본 발명에서 설명하는 단말의 성능에 적응 가능한 LASeR 데이터 스트림의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려주기 위한 필드 및 속성은 Adaptation 관련 정보를 제공하는 데이터의 단위에 따라 그 위치를 달리할 수 있다. 예를 들어, LASeR File 단위로 Adaptation 정보를 제공할 경우, LASeR Header에 위치할 수 있고, 장면 세그먼트 단위로 Adaptation 정보를 제공할 경우, <표 7>과 같이 세그먼트의 단위가 되는 LASeR 명령어의 속성으로 표현될 수도 있으며, <표 8>과 같이 세그먼트를 위한 새로운 헤더 역할을 수행할 수 있는 필드를 추가하여 표현할 수도 있으며, 장면 구성 요소 내의 새로운 요소나 장면 구성 요소 각각을 위한 속성으로도 표현될 수 있다. 그리하여, LASeR 데이터 스트림의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려주기 위한 필드 및 속성을 수신한 단말은 자신이 처리할 수 없는 데이터를 수신하였을 경우, 해당 필드 및 속성과 관련된 데이터를 디코딩하지 않고 폐기하거나, 이미 디코딩된 데이터라 할지라도 렌더링하지 않고 메모리에서 삭제하는 등의 폐기 과정을 수행하여 데이터를 필터링한다.
LASeR 콘텐츠는 여러 개의 논리적인 미디어 스트림을 하나의 물리적인 스트림으로 다중화하여 서비스할 수 있다. 이때, 각 스트림은 액세스 유닛(Access Unit, 이하 'AU'라 칭함) 단위로 처리될 수 있다. 이를 위한 포맷이 상기 통합포맷(SAF)으로, LASeR 스트림(Elementary Stream : ES)을 다중화 및 동기화하기 위해 개발된 기술이다. 상기 AU는 LASeR 콘텐츠(혹은 스트림)를 다중화하여 서비스하는 경우, 같은 시간에 처리되어야 하는 데이터의 기본 단위이다.
도 3은 여러 개의 논리적인 스트림을 하나의 물리적 스트림으로 다중화하여 서비스하는 LASeR 스트림을 수신한 단말의 동작을 도시한 도면이다.
도 3을 참조하면, 300 단계에서 단말은 LASeR 스트림을 수신한다. 310 단계에서 단말은 상기 수신된 스트림의 각 AU의 헤더(Header)를 확인한다. 320 단계에서 단말은 장면을 구성하는 데이터들을 복호화(Decoding)한다. 330 단계에서는 단말은 상기 데이터들을 장면 구성 시간에 맞추어 디스플레이한다.
도 4는 본 발명의 제 2 실시 예에 따라 여러 개의 논리적인 스트림을 하나의 물리적 스트림으로 다중화하여 서비스하는 LASeR 스트림을 수신한 단말의 동작을 도시한 도면이다.
여기서, 도 4는 LASeR 스트림이 기본적으로 필요한 요소 외에 복잡하거나 많은 장면 구성 요소를 담고 있거나, 기본 장면에 부가되는 데이터인 경우, 혹은 가용 자원이 풍부한 단말을 위한 장면 구성 데이터인 경우, 즉, adaptive scene component임을 나타내는 정보를 이용하여 장면을 구성하는 단말의 동작을 도시한다. 또한 본 발명에서 설명하는 LASeR 데이터 스트림은 각 단말의 특성에 따른 구성 요소를 담고 있는 데이터 스트림도 포함한다. 여러 개의 논리적인 스트림을 하나의 물리적 스트림으로 다중화하여 서비스하는 종래의 LASeR 스트림의 경우, 헤더정보를 담고 있는 AU와 실제 장면을 구성하는 데이터를 담고 있는 AU는 별개로 구성된다.
도4를 참조하면, 400 단계에서 단말은 LASeR 스트림을 수신하고, 410 단계에서 수신한 LASeR 스트림의 AU 헤더를 확인한다. 425 단계에서 단말은 수신한 AU가 헤더정보를 담고 있는 AU인지 확인한다.
425 단계에서 수신한 AU가 헤더정보를 담고 있는 AU이면, 단말은 430단계에서 AU의 설정정보를 확인한다. 상기 설정정보는 LASeR 스트림의 헤더 정보를 포함한다.
445 단계에서 단말은 'AdaptiveSceneIndicator' 필드의 값을 확인한다. 만약 상기 'AdaptiveSceneIndicator' 필드의 값이 FALSE이면, 단말은 440 단계로 진행하여 LASeR 스트림을 폐기하지 않도록 설정하고, 이후 수신될, 상기 수신한 헤더정보의 실제 데이터 즉, 수신되는 실제 장면을 구성하기 위한 데이터를 담고 있는 AU를 복호화한다. 이때, 통합포맷의 각 AU들은 각 AU의 특징 및 역할에 따라 각자 ISO/IEC 14496-20에 정해진 동작을 수행한다.
한편, 445 단계에서 'AdaptiveSceneIndicator' 필드의 값이 TRUE이면, 단말은 450 단계로 진행하여 단말의 성능을 확인하도록 한다. 여기서, 단말의 성능이 'adaptive scene component'를 서비스하기에 충분하지 않으면, 단말은 460 단계로 진행하여 단말이 이후 수신하는, 상기 수신한 Header정보의 실제 데이터 즉, 수신되는 실제 장면을 구성하기 위한 데이터를 담고 있는 AU를 더 이상 처리하지 않고, 즉, 복호화 및 메모리에 구성하거나, 렌더링하지 않고 폐기한다. 한편, 단말의 성능이 'adaptive scene component'를 서비스하기에 충분하면, 단말은 440 단계로 진행하여 LASeR 스트림을 폐기하지 않는다.
한편, 상기 425 단계에서 수신한 AU가 헤더정보를 담고 있는 AU가 아니면, 단말은 이후 헤더정보를 담고 있는 새로운 AU가 수신되기 전까지, 상기 도 4에서 설명한 헤더 정보를 담고 있는 AU의 실제 장면을 구성할 데이터를 담고 있는 AU에 대하여 465 단계로 진행하여 폐기 여부를 확인한다.
465 단계에서 단말은 수신된 AU가 폐기할 데이터가 아니면 설정된 정보를 확인하여, 480 단계로 진행한다. 480 단계에서 단말은 수신된 데이터를 복호화하고, 490 단계에서 복호화한 데이터를 화면에 디스플레이한다. 한편, 상기 수신된 AU가 폐기할 데이터이면, 단말은 470 단계로 진행하여 복호화 및 메모리에 구성하거나, 렌더링하지 않고 수신된 LASeR 스트림을 폐기한다.
상기 제 2 실시 예에서 단말의 스트림을 수신하여(400), AU의 헤더를 확인하고(410), 설정정보를 확인하여(430), 'AdaptiveSceneIndicator' 필드의 값을 바탕으로(445), 이후 단말이 수신하는 헤더 정보를 담고 있는 AU의 실제 장면을 구성할 데이터를 담고 있는 AU를 복호화하여(480) 화면에 디스플레이하거나(490), 복호화 및 이후의 모든 과정을 거치지 않고 폐기하는 일련의 과정을 제외한 나머지 과정들은 단말에 따라 순서가 바뀔 수도 있고, 생략될 수도 있다. 또한 'AdaptiveSceneIndicator' 및 본 발명에서 새로이 정의하는 필드 및 속성을 이용하여, 본 발명과 동일한 서비스를 제공할 수 있다면, 이는 단말의 수행 절차에 수정이나 변경이 있다 하여도 본 발명에 속하는 것임은 자명하다.
제 2 실시 예에서 설명한 바와 같이, LASeR 데이터를 여러 개의 논리적인 스트림을 하나의 물리적 스트림으로 다중화하여 제공하는 경우, LASeR 헤더를 헤더 타입의 데이터를 전송하기 위한 통합포맷(SAF)의 AU로 전송할 수 있다. 이때, 'AdaptiveSceneIndicator' 및 본 발명에서 새로이 정의하는 필드 및 속성을 <표 9>와 같이 표현할 수 있다.
Figure 112008060428765-PAT00012
다음의 <표 10b>는 본 발명의 또 다른 실시 예로, <표 10a>와 같이 현재 통합포맷(SAF)의 패킷 헤더(Packet Header)의 presenceOfDTS field는 0으로 presetting되어 사용되지 않으므로, 해당 field의 1bit를 본 발명에서 설명하는 AdaptiveSceneFlag를 위하여 할당하는 방법을 나타낸 것이다. 본 실시 예에서 <표 10b>의 'AdaptiveSceneFlag'가 참인 통합포맷(SAF) 패킷을 수신한 단말은 AU를 확인하기 전에 패킷 헤더 확인을 통해서 데이터 스트림이 각 단말의 특성에 따른 구성 요소를 담고 있는 적응형 데이터 서비스를 위한 데이터를 포함하고 있음을 알 수 있다.
Figure 112008060428765-PAT00013
Figure 112008060428765-PAT00014
다음은 본 발명의 또 다른 실시 예로써, 통합포맷(SAF)의 새로운 AU 타입으로 단말의 특성에 적응 가능한 LASeR 데이터 스트림의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려주기 위한 'SAF_AdaptiveScene_Unit'을 정의한 것이다. 'SAF_Adaptive_Unit' 은 이후 수신될 통합포맷(SAF) AU의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려줄 수 있다. <표 11>은 'SAF_AdaptiveScene_Unit'을 통합포맷(SAF)의 새로운 타입으로 명시한 것이다. 'Stop_AdaptiveScene_Unit'은 앞서 수신한 'SAF_AdaptiveScene_Unit'의 적응(adaptation)의 기준(criteria) 및 그에 대한 값에 따른 데이터를 담고 있는 통합포맷(SAF) AU가 더 이상 수신되지 않음을 나타낸다.
Figure 112008060428765-PAT00015
상기 'SAF_AdaptiveScene_Unit'은 하기의 <표 12a> 내지 <표 12d>와 같이 표현될 수 있다.
Figure 112008060428765-PAT00016
Figure 112008060428765-PAT00017
Figure 112008060428765-PAT00018
Figure 112008060428765-PAT00019
상기 <표 12a> 내지 <표 12d>에서 'adaptiveSceneIndicatorFlag' 필드는 해당 필드에 의해 표현될 수 있는 이후 수신될 통합포맷(SAF) AU 데이터 스트림이 'Adaptive scene component'임을 알려준다. 'adaptiveSceneIndicatorFlag'는 <표 12b> 내지 <표 12d>에서와 같이 필드 값에 따라 이후 표시할 값의 표현 여부를 결정할 수 있다. 'adaptiveSceneIndicatorFlag'는 'SAF_AdaptiveScene_Unit'의 존재 자체가 해당 필드값이 '참'임을 나타낸다고 할 경우, 사용하지 않을 수 있다. 'AdaptationType' 필드는 데이터 스트림의 적응(adaptation)의 기준(criteria)을 나타낸다. 'AdaptationType'의 속성 값은 속성 값의 타입에 따라, 제 1실시 예에서 설명한 바와 같이 다양한 방법으로 표현할 수도 있으며, 그에 따라 할당된 비트(bit) 값은 달라질 수 있다. 또한 'AdaptationType'을 표현하는 다양한 방법 중 참조하여 표현하는 방법이 사용될 경우, 'url' 타입을 위한 새로운 필드 및 'urlLengh'등이 새로이 추가될 수 있다. 'AdaptationTypeValue'는 데이터 스트림의 적응(adaptation)의 기준(criteria)의 값을 표현하는 필드이다. 상기 예제에서 'numOfAdaptationType' 필드는 데이터 스트림에 적용 가능한 적응(adaptation)의 기준(criteria)이 둘 이상일 경우를 위한 것이다. 'adaptationTypeValueLength' 필드는 AdaptationTypeValue의 데이터 노드를 나타내기 위한 길이 정보로 이는 경우에 따라 사용할 수도 있고, 사용하지 않을 수도 있으며, 이러한 데이터 노드를 나타내기 위한 길이 정보를 제공하는 필드는 정보의 표현 방법에 따라 'AdaptationType'을 위한 데이터 노드의 길이 정보를 제공하는 필드 등이 추가될 수도 있다.
다음은 본 발명의 또 다른 실시 예로써, 통합포맷(SAF)의 새로운 AU 타입으로 단말의 특성에 적응 가능한 데이터 스트림을 담을 수 있는 통합포맷(SAF)의 AU, 'AdaptiveSceneAU', 'AdaptiveSceneCacheUnit', 'AdaptiveSceneFFU', 'AdaptiveSceneFU'을 정의한 것이다. 'AdaptiveSceneAU'은 단말의 특성에 적응 가능한 데이터 스트림을 담을 수 있는 AU의 타입을 의미하고, 'AdaptiveSceneCacheUnit'은 단말의 특성에 적응 가능한 캐쉬 데이터를 담을 수 있는 AU 타입을 의미한다. 단말의 특성에 적응 가능한 데이터 스트림의 크기가 AU의 크기보다 클 경우, 데이터를 분할(Fragmentation)하여 제공할 수 있다. 이때, 분할된 데이터의 맨 처음 AU는 'AdaptiveSceneFFU', 나머지 데이터 조각은 'AdaptiveSceneFU'에 담을 수 있다. 하기 <표 13>은 'SAF_AdaptiveScene_Unit'을 통합포맷(SAF)의 새로운 타입으로 명시한 것이다.
Figure 112008060428765-PAT00020
상기 'AdaptiveSceneAU'은 하기의 <표 14a> 및 <표 14b>와 같이 표현될 수 있다. 'AdaptiveSceneAU'은 <표 14b>와 같이 자신이 담고 있는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 표현할 수 있다. 'AdaptiveSceneAU'을 비롯하여 'AdaptiveSceneCacheUnit', 'AdaptiveSceneFFU', 'AdaptiveSceneFU'에서도 자신이 담고 있는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 표현하는 방법은 <표 12a> 내지 <표 12d>의 실시 예에서 설명한 것과 같이 표현할 수 있다.
Figure 112008060428765-PAT00021
Figure 112008060428765-PAT00022
상기 'AdaptiveSceneCacheUnit'은 하기의 <표 15a> 및 <표 15b>와 같이 표현될 수 있다. 'AdaptiveSceneCacheUnit'은 <표 15b>와 같이 자신이 담고 있는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 표현할 수 있다.
Figure 112008060428765-PAT00023
Figure 112008060428765-PAT00024
상기 'AdaptiveSceneFFU'은 하기의 <표 16a> 및 <표 16b>와 같이 표현될 수 있다. 'AdaptiveSceneFFU'은 <표 16b>와 같이 자신이 담고 있는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 표현할 수 있다.
Figure 112008060428765-PAT00025
Figure 112008060428765-PAT00026
상기 'AdaptiveSceneFU'은 하기의 <표 17a> 및 <표 17b>와 같이 표현될 수 있다. 'AdaptiveSceneFU'은 <표 17b>와 같이 자신이 담고 있는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 표현할 수 있다. 'AdaptiveSceneFU'의 경우, 'AdaptiveSceneFFU'에 적용되는 데이터의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 따르도록 할 수도 있다.
Figure 112008060428765-PAT00027
Figure 112008060428765-PAT00028
도 5는 본 발명의 실시 예에 따라 LASeR 콘텐츠를 서비스하는 예를 설명한 도면으로, 본 발명의 각 실시 예에 따라 구체적인 동작의 차이는 있을 수 있음은 자명하다.
참조번호 500은 헤더를 담고 있는 AU이다. 참조번호 500 및 530의 AU는 본 발명의 각 실시 예에 따라, 헤더 타입 뿐만 아니라, 'SAF_AdaptiveScene_Unit'등 데이터 스트림의 적응(adaptation)의 기준(criteria) 및 그에 대한 값을 알려주기 위한 필드 및 AU가 될 수 있다. 상기 헤더의 참조번호 510과 같이 'AdaptiveSceneIndicator'가 'TRUE'로 설정되어 있으면, 단말은 자신의 현재 상태를 확인한다. 여기서, 단말은 가용 가능한 자원을 확인하거나, 또는 CPU 처리 능력, 메모리나 배터리 등과 같은 조건 및 이벤트 상황을 고려한다. 단말의 현재 상태가 adaptive scene component를 처리하기에 충분하면, 단말은 이후 수신되는 참조번호 520와 같은 데이터를 복호화하여, 디스플레이한다. 이때, 본 발명의 실시 예에 따라 참조번호 520 데이터의 범위는 다음의 적응(adaptation) 데이터의 여부 적응 기준(criteria) 및 그에 대한 값에 대한 필드를 가지는 데이터나 헤더를 수신할 때까지일 수도 있고, 해당 데이터에 해당하는 적응(adaptation)의 기준(criteria) 및 그에 대한 값이 더 이상 유효하지 않음을 시그널링하는 'stop_AdaptiveScene_Unit'을 수신하였을 경우 참조번호 520의 데이터가 모두 수신되었음을 나타낼 수도 있다.
한편, 그 후 참조번호 530과 같이 헤더를 포함하고 있는 AU를 수신한 단말은, 참조번호 540과 같이 헤더 정보를 확인하여, AdaptiveSceneIndicator 가 TRUE인지를 확인한다. 그 후, 단말이 adaptive scene component를 처리하기에 충분하지 않으면, 이후 수신되는 장면구성의 실제 데이터를 담고 있는 참조번호 550의 AU들을 모두 복호화하지 않고 폐기한다. 본 발명의 각 실시 예에 따라 이미 복호화 과정을 거친 데이터라 할지라도 본 발명에서 설명하는 적응(adaptation)의 기준(criteria) 및 그에 대한 값에 따른 필터링 메커니즘에 따라 구성 메모리에서 삭제하는 등의 데이터 폐기를 수행한다.
상기 본 발명의 실시 예에서의 방법에 따라 LASeR 콘텐츠를 서비스하고 있는 도중, 단말의 성능이 변화할 경우에도, 특정 조건이나 단말의 성능을 고려하여 보다 유연하게 장면을 구성할 수 있다. 본 발명에서 정의한 요소나 속성들이 가지는 의미가 동일한 경우 상기 요소 및 속성이나 속성 값들의 이름이나 타입은 다른 것으로 사용될 수 있음은 물론이다. 또한 본 발명의 각 실시 예에서 설명하는 필드나 속성 등은 모두 각기 독립적으로 또는 복합적으로 사용될 수 있음은 물론이다.
도 6은 본 발명의 실시 예에 따른 송신기를 나타낸 블록도이다.
도 6을 참조하면, 콘텐츠 생성부(600)는 본 발명의 실시 예들에서 설명한 특정 조건이나 단말의 특징 및 성능을 나타내거나 확인할 수 있는 장면 구성 요소 및 속성 들을 포함하는 장면 구성 요소들을 생성할 수 있다. 또한, 장면 구성 요소 작성시, 이벤트의 사용이나 이벤트 발생에 따른 동작에 대한 내용도 생성할 수 있다. 콘텐츠 생성부(600)는 생성된 LASeR 콘텐츠를 인코더(610)로 전달한다. 인코더(610)는 LASeR 콘텐츠를 부호화하여 다중화부(620)로 전달한다. 다중화부(620)는 상기 부호화한 LASeR 콘텐츠를 여러 논리적 스트림들과 함께 하나의 물리적 스트림으로 다중화한다.
콘텐츠 송신부(630)는 다중화된 스트림을 수신기로 전송한다. 여기서, 상기 부호화된 LASeR 콘텐츠는 다중화 과정을 거치지 않고 전송 가능하다. 이는 본 발명의 제 1 실시 예에서와 같이 생략될 수 있다.
도 7은 본 발명의 실시 예에 따른 수신기의 구조를 나타낸 블록도이다.
도 7을 참조하면, 역다중화부(700)는 수신된 스트림을 각각의 논리 스트림으로 구분한다. 여기서 다중화를 수행하지 않은 스트림의 경우, 상기 역다중화 과정은 생략될 수 있다.
디코더(710)는 역다중화된 스트림을 디코딩하여 렌더러(720)로 전달한다. 렌더러(720)는 디코딩된 데이터를 수신하여, 본 발명의 실시 예에 따른 특정 조건이나 단말의 특징 및 성능을 나타내거나 확인할 수 있는 장면 구성 요소 및 속성 들을 포함하는 장면 구성 요소들을 바탕으로 해당 장면을 렌더링하여 출력한다. 디스플레이부(730)는 단말의 화면에서 각 장면을 디스플레이한다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명이 적용되는 LASeR 데이터 스트림을 수신한 단말의 동작을 도시한 흐름도,
도 2는 본 발명의 제 1 실시 예에 따라 LASeR 데이터 스트림을 수신한 단말의 동작을 도시한 흐름도,
도 3은 본 발명이 적용되는 LASeR 서비스에서 데이터 스트림을 다중화하여 서비스하는 경우, LASeR 데이터 스트림을 수신한 단말의 동작을 도시한 흐름도,
도 4는 본 발명의 제2 실시 예에 따라 LASeR 데이터 스트림을 수신한 단말의 동작을 도시한 흐름도,
도 5는 본 발명에 따른 LASeR 콘텐츠를 서비스하는 동작을 도시한 도면,
도 6은 본 발명에 따른 송신기의 구조를 나타낸 블록도,
도 7은 본 발명에 따른 수신기의 구조를 나타낸 블록도.

Claims (2)

  1. 리치미디어 콘텐츠의 장면 구성을 위한 방법에 있어서,
    송신기가 장면 구성 정보의 특성에 관한 정보를 포함하는 리치 미디어 콘텐츠를 생성하여 단말로 전송하는 과정과,
    상기 단말이 상기 리치 미디어 콘텐츠를 수신하는 과정과,
    상기 단말이 상기 리치 미디어 콘텐츠의 헤더에 포함되어 있는 상기 단말의 특정 조건이나 특정 이벤트의 발생 및 단말의 성능(capability)을 나타내는 정보를 확인하는 과정과,
    상기 자신의 단말 성능과 상기 리치 미디어 콘텐츠에 포함되어 있는 상기 정보를 비교하는 과정과,
    상기 단말의 성능에 따른 장면 구성 데이터의 사용 여부를 선택하여, 서비스될 장면을 구성하는 과정을 포함함을 특징으로 하는 리치미디어 콘텐츠의 장면 구성 방법.
  2. 리치미디어 콘텐츠의 장면 구성을 위한 장치에 있어서,
    장면 구성 정보의 특성에 관한 정보를 포함한 리치 미디어 콘텐츠를 생성하여 단말로 전송하는 송신기와,
    상기 리치 미디어 콘텐츠를 수신한 후, 상기 단말의 특정 조건이나 특정 이 벤트의 발생 및 단말의 성능(capability)과 상기 리치 미디어 콘텐츠에 포함된 정보를 비교하며, 상기 단말의 성능에 따른 장면 구성 데이터의 사용 여부를 선택한 후, 서비스될 장면을 구성하는 수신기를 포함함을 특징으로 모바일 환경에서 리치미디어 콘텐츠 장면 구성 장치.
KR1020080083007A 2008-04-21 2008-08-25 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법 KR20090111253A (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020080083007A KR20090111253A (ko) 2008-04-21 2008-08-25 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법
KR1020080099765A KR101516020B1 (ko) 2008-04-21 2008-10-10 리치미디어 콘텐츠의 장면 구성장치 및 방법
JP2011506191A JP5512657B2 (ja) 2008-04-21 2009-04-21 リッチメディアサービスのための端末のユーザインターフェース装置及び方法
PCT/KR2009/002078 WO2009131359A2 (en) 2008-04-21 2009-04-21 Apparatus and method for composing scenes using rich media contents
US12/427,306 US8707151B2 (en) 2008-04-21 2009-04-21 Apparatus and method for composing scenes using Rich Media contents
EP09158349.2A EP2114076B1 (en) 2008-04-21 2009-04-21 Apparatus and method for composing scenes using rich media contents
CN200980113999.8A CN102017651B (zh) 2008-04-21 2009-04-21 使用富媒体内容组成场景的装置和方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020080036891 2008-04-21
KR1020080040315 2008-04-30
KR1020080083007A KR20090111253A (ko) 2008-04-21 2008-08-25 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20090111253A true KR20090111253A (ko) 2009-10-26

Family

ID=41539035

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080083007A KR20090111253A (ko) 2008-04-21 2008-08-25 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20090111253A (ko)

Similar Documents

Publication Publication Date Title
JP5512657B2 (ja) リッチメディアサービスのための端末のユーザインターフェース装置及び方法
US9591361B2 (en) Streaming of multimedia data from multiple sources
KR102506963B1 (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
CN105900440B (zh) 接收设备、接收方法、发送设备以及发送方法
EP1647968A1 (en) Medium data display device, medium data display method, and medium data display program
AU2007287316A1 (en) Method and device for assembling forward error correction frames in multimedia streaming
CN101127904B (zh) 与不可伸缩解码器兼容的可伸缩视频编码/解码方法、系统
JP6406416B2 (ja) 送信装置及び送信方法
US10873495B2 (en) Apparatus and method for transmitting or receiving broadcast signal
KR20170102249A (ko) 수신 장치, 수신 방법, 송신 장치, 및, 송신 방법
JP6646661B2 (ja) メディア・データの送受信の方法及び装置
US11523154B2 (en) Transmission device, transmission method, reception device, and reception method
KR101227499B1 (ko) 디지털 방송 신호 수신 방법 및 장치
US11310094B2 (en) Apparatus and method for transmitting or receiving broadcast signal
KR20090111253A (ko) 리치미디어 콘텐츠의 장면 구성을 위한 장치 및 방법
CN103313093A (zh) 进行分布式视频点播的方法及索引系统
KR101516020B1 (ko) 리치미디어 콘텐츠의 장면 구성장치 및 방법
KR101710452B1 (ko) 멀티미디어 전송 시스템에서 서비스 발견 정보를 송수신하는 방법 및 장치와 이를 위한 파일 구조
KR101894889B1 (ko) VoD서비스제공장치 및 그 동작 방법
JP6510091B1 (ja) 放送信号送受信装置
KR20090078044A (ko) 방송 수신기의 방송 신호 처리 방법