KR20080027750A - 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치및 그 방법 - Google Patents

장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치및 그 방법 Download PDF

Info

Publication number
KR20080027750A
KR20080027750A KR1020070096871A KR20070096871A KR20080027750A KR 20080027750 A KR20080027750 A KR 20080027750A KR 1020070096871 A KR1020070096871 A KR 1020070096871A KR 20070096871 A KR20070096871 A KR 20070096871A KR 20080027750 A KR20080027750 A KR 20080027750A
Authority
KR
South Korea
Prior art keywords
scene
digital item
digital
information
expression
Prior art date
Application number
KR1020070096871A
Other languages
English (en)
Other versions
KR101298674B1 (ko
Inventor
정예선
강정원
정원식
차지훈
문경애
홍진우
임영권
Original Assignee
한국전자통신연구원
주식회사 넷앤티비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 주식회사 넷앤티비 filed Critical 한국전자통신연구원
Publication of KR20080027750A publication Critical patent/KR20080027750A/ko
Application granted granted Critical
Publication of KR101298674B1 publication Critical patent/KR101298674B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8355Generation of protective data, e.g. certificates involving usage data, e.g. number of copies or viewings allowed
    • H04N21/83555Generation of protective data, e.g. certificates involving usage data, e.g. number of copies or viewings allowed using a structured language for describing usage rules of the content, e.g. REL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85403Content authoring by describing the content as an MPEG-21 Digital Item

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야
장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치 및 그 방법에 관한 것임.
2. 발명이 해결하고자 하는 기술적 과제
MPEG-21 디지털 아이템의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현하는 디지털 아이템 기술 및 처리 장치 및 그 방법을 제공함.
3. 발명의 해결방법의 요지
MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 장치에 있어서, 상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 방법 엔진(Digital Item Method Engine, DIME) 수단 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 수단을 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장 면 표현 수단을 실행시킬 수 있는 호출 정보를 포함하는 디지털 아이템 처리 장치를 제공함.
4. 발명의 중요한 용도
디지털 아이템의 시공간적 관계와 상호 작용이 가능한 장면표현에 이용됨.
MPEG-21, 디지털 아이템, 장면표현

Description

장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치 및 그 방법{APPARATUS AND METHOD FOR DIGITAL ITEM DESCRIPTION AND PROCESS USING SCENE REPRESENTATION LANGUAGE}
본 발명은 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치 및 그 방법에 관한 것으로, 보다 상세하게는, MPEG-21 디지털 아이템의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현하는 디지털 아이템 기술 및 처리 장치 및 그 방법에 관한 것이다.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-015-02, 과제명: 지상파 DMB 대화형 멀티미디어 서비스 기술개발].
MPEG-21(Moving Picture Experts Group 21)은 디지털 멀티미디어 컨텐츠의 생성, 거래, 전달, 관리, 소비 과정에서 여러 계층의 멀티미디어 자원을 이용하기 위한 멀티미디어 프레임워크 표준 규격이다.
MPEG-21의 목표는 다양한 네트워크 및 장치에서 멀티미디어 리소스의 투명하고(transparent) 증대된 이용을 가능하게 하는 것이다. MPEG-21 표준은 독립적으로(stand-alone) 이용될 수 있는 몇가지 독립적 부분을 포함한다. 그 중 중요한 부분으로서 디지털 아이템 선언(Digital Item Declaration, DID), 디지털 아이템 확인(Digital Item Identification, DII), 지적재산권 관리 및 보호(Intellectual Property Management and Protection, IPMP), 권리 표현 언어(Right Expression Language, REL), 권리 데이터 사전(Right Data Dictionary, RDD), 디지털 아이템 적응(Digital Item Adaptation, DIA), 및 디지털 아이템 처리(Digital Item Processing, DIP)가 있다.
MPEG-21 프레임워크의 기본 처리 단위는 디지털 아이템(Digital Item, DI)이다. DI는 리소스를 인식자, 메타데이터, 라이센스 및 상호 작용을 가능하게 하는 방법과 함께 패키징한다.
DI에 관한 중요한 개념은 정적(static) 선언 정보 및 처리 정보의 분리이다. 예를 들어, HTML 기반의 웹 페이지는 단순히 구조, 리소스 및 메타데이터 정보만을 포함하며, 스크립트 언어(JAVA, ECMA 등)가 처리 정보를 포함한다. 이러한 개념은 여러 사용자가 동일한 DID에 대하여 각기 다른 표현을 얻을 수 있다는 장점이 있다. 즉 사용자는 정보가 어떻게 처리되어야 하는지에 대해 지시할 필요가 없다.
DI 선언을 위해, DID는 통일되고 유연한 개념 및 상호 작용 가능한 스키마를 제공한다. DI는 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)에 의해 선언된다.
DIDL은 XML(eXtensible Markup Language) 기반의 언어와 상호 호환되는 DI를 생성하기 위해 이용된다. 따라서, DIDL에 의해 선언된 DI는 멀티미디어 컨텐츠를 생성, 공급, 거래, 인증, 소유, 관리, 보호 및 사용하는 과정에서 텍스트 형태로 표현된다.
도 1은 종래 MPEG-21에 따라 DI가 DIDL로써 표현된 예시적인 DID 구문이고, 도 2는 도 1의 DIDL 구조가 블럭으로 표현된 개념도이다.
도 1, 2에 도시된 바와 같이, 예시된 DID에서는 2개의 아이템(101, 103)이 선언되어 있다. 첫번째 아이템(101)은 2개의 선택 옵션(300Mbps, 900Mbps)를 가지며, 두번째 아이템(103)은 2개의 컴포넌트(111, 113)를 갖는다. 첫번째 컴포넌트(111)는 메인 비디오 1개(main.wmv)를 포함하고, 두번째 컴포넌트(113)는 각각 300Mbps 및 900Mbps의 조건을 갖는 보조 비디오 2개(300_video.wmv 및 900_video.wmv)를 포함한다.
DIP는 DI에 포함된 정보의 규격화 된 처리를 위한 메커니즘을 제공하며, DIDL에 의해 선언된 DI를 처리하기 위한 프로그램 언어 및 라이브러리의 표준을 정의한다. MPEG-21 DIP 규격은 DI 저작자가 자기 DI에 대한 의도된 처리를 기술할 수 있도록 한다.
DIP의 주요 아이템은 디지털 아이템 방법(Digital Item Method, DIM)이다. DIM은 MPEG-21 사용자 및 DI의 의도된 상호 작용을 DID 수준에서 표현(express)하는 툴로서, 디지털 아이템 기본실행 함수(Digital Item Base Operation, DIBO) 및 DIDL로 표현된 코드를 포함한다.
도 3은 종래의 MPEG-21 기반 DI 처리 시스템의 개략적 구성도이다.
도 3에 도시된 바와 같이, 종래의 MPEG-21 기반 DI 처리 시스템은 DI 입력 수단(301), DI 처리 수단(303) 및 DI 출력 수단(305)로 구성되며, DI 처리 수단(303)은 DI 처리 엔진부(307), DI 표현부(309) 및 DI 기본 실행부(311)로 구성된다.
DI 처리엔진부(307)에는 다양한 DI 처리 엔진이 탑재될 수 있는데, 예시적인 DI 처리 엔진은 DID 엔진, REL 엔진, IPMP 엔진, DIA 엔진이다.
DI 표현부(309)는 DIM 엔진(DIME)일 수 있으며, DI 기본 실행부(311)는 DIBO일 수 있다.
복수의 DIM(Digital Item Method)을 포함하는 DI는 DI 입력 수단(301)를 통해 입력되고, DI 처리 엔진부(307)를 통해 파싱되어 DI 표현부(309)로 입력된다.
여기서, DIM은 DI에 포함된 정보를 처리하기 위하여 DI 표현부(309)에 의해 수행되는 처리 동작이 정의된 정보로서, DI에 포함되는 아이템의 처리, 식별 방법 등의 정보를 갖는다.
DI 처리 엔진부(307)로부터 DI를 수신한 DI 표현부(309)는 DI에 포함된 DIM을 해석한다. DI 표현부(309)는 해석된 DIM 및 DI 기본 실행부(311)에 포함된 DI 기본 실행 함수를 이용하여, DI 처리 엔진부(307)에 포함된 다양한 DI 처리 엔진과 상호작용한다. 이로써, DI에 포함된 각 아이템이 수행되어 DI 출력 수단(305)으로 출력된다.
한편, 미디어 데이터의 시공간적(spatio-temporal) 관계를 정의하며 멀티미디어 컨텐츠 장면을 표현할 수 있는 장면표현언어로서SMIL(Synchronized Multimedia Integration Language), SVG(Scalable Vector Graphics), XMT(eXtensible MPEG-4 Texsual Format), LASeR(Lightweight Applications Scene Represenation)가 있다.
MPEG-4 part 20은 자원이 제한된 모바일 디바이스로 리치 미디어 서비스를 표현(represent)하고 제공하기 위한 표준으로서, LASeR 및 SAF(Simple Aggregation Format)을 정의한다.
LASeR는 리치 미디어 서비스 컨텐츠의 인코딩을 위한 바이너리 포맷이고, SAF는 LASeR 장면 기술 및 미디어 스트림을 단일 스트림으로 멀티플렉싱하기 위한 바이너리 포맷이다.
LASeR 표준은 자원 제한된 장치에서 리치 미디어 서비스를 제공하기 위한 것이기 때문에, LASeR 규격은 그래픽, 이미지, 텍스트 및 오디오-비주얼 객체의 시공간적 표현, 상호 작용 및 애니메이션을 위한 메커니즘을 정의한다.
미디어 데이터의 시공간적 관계가 정의된 장면 표현에 있어서, 예를 들어 LASeR와 같은 장면표현언어로 구현된 미디어 데이터는 다양한 시공간적 장면표현이 가능하다.
그러나, 다양한 미디어 리소스들을 통합하여 하나의 멀티미디어 컨텐츠로 구성할 경우, MPEG-21 프레임워크는 장면의 시간적, 공간적 배치 정보를 포함하는 장면표현언어를 지원하지 않기 때문에, 시공간적 관계가 정의된 장면표현이 불가능하다.
현재의 MPEG-21 표준에 따르면, 장면표현 정보는 DI에 포함되지 않고, DIP는 DI 처리만을 정의할 뿐 장면표현을 정의하고 있지 않기 때문에, 마치 HTML 페이지가 각 단말 장치에서 서로 다르게 보이는 것과 마찬가지로, DI를 소비하는 단말 장치마다 컴포넌트의 서로 다른 시각적 구성을 갖게 된다. 즉, 현재의 MPEG-21 프레임워크는 사용자에게 DI를 일관된 방식으로 제공할 수 없다는 문제점이 있다.
도 4는 시공간적인 관계가 정의된 장면표현에 따라 출력되는 화면으로서, 예를 들어, DI의 저작자는 메인 비디오(401) 및 보조 비디오(403)를 포함하는 컨텐츠로서 당해 2개 비디오의 공간적 정렬을 최적화하기 위해 보조 비디오(403)가 장면의 좌측 하단에 위치하는 컨텐츠를 생성하기 원한다. 또한 당해 저작자는 컨텍스트의 시간적 조화를 위해 메인 비디오(401)의 재생 시점으로부터 일정 시간 경과된 이후에 보조 비디오(403)가 재생 시작되도록 컨텐츠를 생성하기 원한다.
그러나, 현재 MPEG-21 표준의 DID 규격 및 DIP 규격만으로는 컴포넌트의 시 공간적 구성이 정의될 수 없다. 즉, 현재 현재 MPEG-21 표준의 DIP 규격에서 DIP와 관련된 DIBO는alert(), execute(), getExternalData(), getObjectMap(), getObjects(), getValues(), play(), print(), release(), runDIM() 및 wait()이 있으나, DID로부터 장면표현 정보를 추출할 수 있는 함수는 없다.
도 5는 도 2의 DIDL 구조에 대응하는 장면표현언어 구조의 일실시예로서 LASeR 구조를 나타내는 개념도이다.
현재 MPEG-21 표준에 따르면, DI는 DIDL로 표현되며, DIDL을 구성하는 주요 요소는 Container, Item, Descriptor, Component, Resource, Condition, choice 및 selection이다. 이중에서 그룹화 역할을 수행하는 Container, Item 및 Component는 LASeR의 <g> 요소에 대응될 수 있다. DIDL의 Resource 요소는 개별적인 식별 항목을 정의하며 각 Resource 요소는 항목의 데이터 타입 및 URI(Uniform Resource Identifier)를 특정하기 위해 mimeType 속성 및 ref 속성을 포함한다. 각 Resource는 오디오, 비디오, 텍스트 또는 이미지로 식별되기 때문에 각각은 LASeR의 <audio>, <video>, <text> 및 <image> 요소에 대응될 수 있다. Resource의 ref 속성은 LASeR의 xlink:href에 대응될 수 있다. 또한, LASeR에는 처리 조건 또는 상호 작용 방법을 위한 요소로서 <conditional>, <listener>, <switch>, 및 <set>이 있는데, <switch>는 DIDL의 Condition, choice 및 selection에 대응된다. LASeR의 <desc>는 DIDL의 Descriptor에 대응된다.
도 5는 도 2의 DIDL 구조에 대응하는 2개의 LASeR 구조를 도시하고 있다. 즉, DIDL 구조에서 두번째 컴포넌트(113)에 포함되며 각각 300Mbps 및 900Mbps의 조건을 갖는 보조 비디오가 300Mbps 또는 900Mbps로 표현될지 여부가 시스템에 의해 결정되는 LASeR 구조(501) 및 사용자의 선택에 의해 결정되는 LASeR 구조(503)가 도시되어 있으며, LASeR 구조(501, 503)에 포함된 각각의 요소와 DIDL 구조의 각 요소간의 대응 관계가 화살표로 표시되어 있다.
도 5에 도시된 바와 같이, 하나의 DIDL 구조는 복수개의 LASeR 구조 (501, 503)로 나타날 수 있다. 따라서, 동일한 DIDL 구조임에도 불구하고,단말의 환경 등에 따라 장면이 다르게 표현될 수 있으며, 장면표현이 DI 저작자가 의도한대로 표현되지 않을 수 있다.
따라서 DIDL에 장면표현 정보를 포함하여, 일정한 DI 소비 환경을 제공할 수 있는 방법이 요구된다.
도 6 및 도 7은 각각 도 5의 LASeR 구조를 표현하는 예시적인 구문으로서, 도 6은 보조 비디오가 300Mbps 또는 900Mbps로 표현될지 여부가 시스템에 의해 결정되는 LASeR 구조(501), 도 7은 보조 비디오가 300Mbps 또는 900Mbps로 표현될지 여부가 사용자의 선택에 의해 결정되는 LASeR 구조(503)를 표현하는 구문이다.
도 6에 도시된 구문은, 메인 비디오 및 보조 비디오의 시작점을 정의하고, 보조 비디오의 비트레이트(300M, 900M)를 정의한다.
도 7에 도시된 구문은 메인 비디오 및 보조 비디오의 시작점을 정의하고, 보조 비디오의 비트레이트(300M, 900M) 및 각 비트레이트에 따른 화면 크기를 정의한 다.
도 8 및 도 9는 도 7에 도시된 구문에 따라 출력되는 LASeR 장면을 나타내는 도면으로서, 도 8은 메인 비디오(801)가 출력되는 도중에 나타나는 선택 메뉴(803)로서 사용자가 보조 비디오의 비트레이트를 선택할 수 있는 장면이고, 도 9는 선택된 보조 비디오(901)가 메인 비디오와 동시에 출력되는 장면이다.
이상에서 설명된 바와 같이, 현재 MPEG-21 표준의 DIDL 구조의 요소는 미디어 요소의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현할 수 있는 장면표현언어 구조의 요소와 부분적으로 대응하지만, 현재 MPEG-21 표준에 따르면 장면표현 정보가 DI에 포함되지 않고, DIP는 DI 처리만을 정의할 뿐 장면표현을 정의하고 있지 않기 때문에 현재의 MPEG-21 프레임워크는 사용자에게 DI를 일관되고 명확한 방식으로 미디어 요소의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현할 수 없다는 문제점이 있다.
이러한 문제점은 기본적으로 현재MPEG-21 표준의 성격과 장면표현언어의 성격이 일치하지 않는다는 점에 기인한다. 예를 들어, LASeR는 본질적으로 미디어의 시공간적 관계를 특정할 수 있는 리치 미디어 장면을 표현하기 위한 언어인 반면, 현재 MPEG-21 표준의 DI는 정적 선언 정보만을 위한 것으로서 DI의 장면표현을 정의하고 있지 않다.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로서, MPEG-21 디지털 아이템의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현하는 디지털 아이템 기술 및 처리 장치 및 그 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명은, MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 장치에 있어서, 상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 방법 엔진(Digital Item Method Engine, DIME) 수단 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 수단을 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장면 표현 수단을 실행시킬 수 있는 호출 정보를 포함하는 디지털 아이템 처리 장치를 제공한다.
또한, 상기 목적을 달성하기 위한 본 발명은, 디지털 아이템을 처리하는 장 치에 있어서, 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 수단 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 수단을 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장면 표현 수단을 실행시킬 수 있는 호출 정보를 포함하는 디지털 아이템 처리 장치를 제공한다.
또한, 상기 목적을 달성하기 위한 본 발명은 MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 방법에 있어서, 디지털 아이템 방법 엔진(Digital Item Method Engine, DIME)에 의해 상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 단계 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 단계를 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 단계에서 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 장면 표현 단계가 수행되도록 하는 호출 정보를 포함하는 디지털 아이템 처리 방법을 제공한다.
또한, 상기 목적을 달성하기 위한 본 발명은 디지털 아이템을 처리하는 방법 에 있어서, 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 단계 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 단계를 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 단계에서 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 장면 표현 단계가 수행되도록 하는 호출 정보를 포함하는 디지털 아이템 처리 방법을 제공한다.
본 발명에 따르면, 장면표현언어를 이용한 디지털 아이템 기술및 처리 장치 및 그 방법을 제공함으로써, MPEG-21 디지털 아이템의 다양한 미디어 리소스들이 통합하여 하나의 멀티미디어 컨텐츠로 구성될 경우, MPEG-21 디지털 아이템의 시공간적 관계가 정의되며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면이 표현될 수 있다.
상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.
본 발명의 일실시예에 따르면, MPEG-21의 DID에 예를 들어 LASeR와 같이 미디어 요소의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현할 수 있는 장면표현언어(예를 들어, LASeR)를 이용한 장면표현 정보가 포함되며, DIP의 DIBO에 이하에서 설명될 장면표현언어 호출 함수가 포함된다. 이러한 구성에 의해, MPEG-21 DI가 장면표현언어(예를 들어, LASeR)를 이용하여 일정하게 소비될 수 있다.
도 10은 본 발명의 일실시예에 따른 DIDL 구조를 나타내는 도면으로서, DIDL 구조에서 장면표현언어의 위치를 나타내는 구조도이다.
도 10에 도시된 바와 같이, DIDL은 DI을 표현하는 Item 노드를 포함하며, 상기 Item 노드는Descriptor, Component, Condition, Choice 등 DI을 설명하고 정의하는 노드를 포함한다. 이러한 DIDL 구조는 MPEG-21 표준에 정의된 사항으로서 DIDL 구조의 설명이 필요한 경우에 MPEG-21 표준은 본 명세서의 일부를 구성할 수 있다.
DIDL 구조에서 Descriptor 노드의 하위 노드인 Statement 요소는 플레인 텍스트 및 XML과 같이 다양한 형태의 머신 판독 가능한 포맷을 포함하는 임의의 데이터 포맷을 포함할 수 있다.
본 발명의 일실시예에 따르면, 현재 DIDL 규격의 변화 없이, LASeR, XMT 등의 장면표현 정보가 Statement 요소에 포함된다.
도 11 및 도 12는 본 발명의 일실시예에 따른 DIDL의 예시적 구문이다.
도 11 및 도 12에 도시된 예에서, DIDL은 4개의 아이템(1101, 1103, 1105, 1107)으로 구성되며, 3번째 아이템(1105)은 2개의 컴포넌트 정보(1115, 1125)로 구성된다.
3번째 아이템(1105)은 각각 Main_Video 및 Auxiliary_Video를 식별자로 갖는 2 개의 컴포넌트(1115, 1125) 각각의 형식과 리소스를 정의한다.
1번째 아이템(1101)은 Statement 노드의 하위 노드로서 LASeR 장면표현 정보(1111)를 포함하고 있다. 도 11에 도시된 예에서 LASeR 장면표현 정보(1111)는 2개의 컴포넌트 정보(1115, 1125)에서 정의되는 2개의 미디어 요소(Main_Video, Auxiliary_Video)에 대한 공간적 장면을 표현한다.
구체적으로, 도 11 및 도 12에 도시된 예에서 LASeR 장면표현 정보(1111)에 따르면 미디어 요소 Main_Video를 나타내는 MV_main은 화면의 기준점(origin of display)으로부터 (0, 0)만큼 이동된 위치에서 표현되며, MV_aux는 화면의 기준점으로부터 (10, 170)만큼 이동된 위치에서 표현된다. 즉, Main_Video는 기준점에서부터 표현되고, Auxiliary_Video는 기준점으로부터 우측으로 10 픽셀, 아래로 170 픽셀 이동된 위치에서부터 표현된다.
또한, 순서상으로 MV_main이 선행하고 MV_aux가 후행하도록 기술되어 있으므로, MV_main이 먼저 표현되고, MV_aux가 나중에 표현됨으로써, 상대적으로 크기가 큰 MV_main이 상대적으로 작은 크기의 MV_aux를 가리지 않도록 한다.
본 발명의 일실시예에 따르면, DI 저작자는 자기가 원하는 DI의 다양한 미디어 리소스들이 시공간적 관계가 정의되며 상호 작용이 가능한 형태로 장면이 표현 되도록 장면표현 정보(1111)에 기술함으로써, MPEG-21 DI의 다양한 미디어 리소스들이 통합하여 하나의 멀티미디어 컨텐츠로서 시공간적 관계가 정의되며 상호 작용이 가능한 형태로 장면을 표현할 수 있게 된다.
도 11 및 도 12에 도시된 DIDL 구문의 2번째 아이템(1103)은 300Mbps과 900Mbps 중 어느 하나를 선택할 수 있도록 정의한다. Auxiliary_Video(1125)는 2번째 아이템(1103)으로부터 제공되는 선택에 따라 300Mbps의 video_1 또는 900Mbps의 video_2의 콤포넌트가 결정되고, 상기 결정에 따라 리소스(300_video.wmv, 900_video.wmv)가 제공된다.
도 11 및 도 12에 도시된 DIDL 구문의 4번째 아이템(1107)은 DIM을 정의하는 아이템으로서, LASeR 장면표현 정보(1111)를 호출하는 presentation 함수를 정의하고 있다.
이하에서는 도 11 및 도 12에서 예시된 presentation 함수에 대해 설명된다.
표 1은 본 발명의 일실시예에 따라 장면표현언어를 이용한 장면표현 정보, 예를 들어, 도 11의 LASeR 장면표현 정보(1111)를 호출하는 함수로서, 예를 들어 도 11의 4번째 아이템(1107)에 포함되는 presentation 함수를 나타낸다.
Figure 112007068987100-PAT00001
[표 1]에 나타난 바와 같이, 본 발명의 일실시예에 따라 DIDL 구문에 포함된 장면표현 정보, 예를 들어 도 11 및 도 12의 LASeR 장면표현 정보(1111)는 DID의 DIBO를 이용하여 구성 장면이 표현된다. 즉, DIP의 DIBO로서 정의된 [표 1]의 presentation() 함수가 호출되어 DID로부터 장면표현 정보(1111)가 해석되어 표현된다.
presentation() 함수에 의해 호출된 장면표현 정보(1111)는 당해 장면표현언어에 따라 장면을 표현하는 장면표현 엔진에 의해 DI의 다양한 미디어 리소스들이 시공간적 관계가 정의되며 상호 작용이 가능한 형태로 표현된다.
presentation() 함수의 매개변수는 장면표현 정보(1111)의 루트 요소를 나타내는 문서객체모델(Document Object Model, DOM) 요소 객체이다. 도 11 및 도 12를 예로 들면, 매개변수는 장면표현 정보(1111)의 <lsr:NewScene> 요소를 의미한다.
따라서, 도 11 및 도 12의 4번째 아이템(1107)에 포함되는 [DIP.preserntation(lsr)]에 의해 장면표현 정보(1111)가 호출되어 장면 구성 정보로 이용된다.
presentation() 함수의 반환 값(return value)은, 호출된 장면표현 정보(1111)에 기초하여 장면표현 엔진이 장면 표현을 성공하면 true, 실패하면 false의 불값(boolean value)을 갖는다.
예외적으로, presentation() 함수의 매개변수가 장면표현 정보(1111)의 루트 요소가 아닌 경우 및 장면 표현 과정에서 에러가 발생하는 경우에는 에러 코드를 반환할 수 있는데, 예를 들어, DIP 에러 코드로서, presentation() 함수의 매개변수가 장면표현 정보(1111)의 루트 요소가 아닌 경우에는 INVALID_PARAMETER, 장면 표현 과정에서 에러가 발생하는 경우에는 PRESENT_FAILED를 반환할 수 있다.
도 13은 본 발명의 일실시예에 따른 MPEG-21 기반 DI 처리 시스템의 구성도이다.
도 13의 시스템과 도 3의 종래 시스템의 차이점은 다음과 같다.
[1] 본 발명의 일실시예에 따르면, DI 입력 수단(301)으로 입력되는 DI를 표현하는 DIDL 구문에 장면표현 정보 및 호출 함수가 포함된다.
[2] 본 발명의 일실시예에 따르면, 장면표현 정보(1111) 에 따라 장면을 표현하는 장면표현 엔진(1301)이 DI 처리 엔진부(307)에 추가된다. 장면표현 엔진(1301)은 DIDL에 포함된 장면표현언어(예를 들어, LASeR)를 해석 및 처리하는 어플리케이션으로서, 본 발명의 일실시예에 따른 장면 표현 기본 실행부(1303)에 의해 구동된다.
[3] 본 발명의 일실시예에 따르면, 상기 호출 함수 presentation()가 정의됨으로써, 장면 표현 기본 실행부(1303)가 DI 기본 실행부(311)에 추가된다.
이러한 구성에 따르면, DI 입력 수단(301)으로 입력되는 DI를 표현하는 DIDL 구문에 포함된 장면표현 정보가 호출 함수에 의해 호출되어 장면 표현 기본 실행부(1303)를 통해 실행되는 장면표현 엔진(1301)이 MPEG-21 DI의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현함으로써 DI 출력 수단(305)으로 된다. 이로써 MPEG-21 DI가 일관된 방식으로 시공간적 관계를 가지며 상호 작용이 가능한 형태로 사용자에게 제공될 수 있다.
도 13에 도시된 바와 같이, 복수의 DIM을 포함하는 DI는 DI 입력 수단(301)를 통해 입력되고, DI 처리 엔진부(307)를 통해 파싱되어 DI 표현부(309)로 입력된다.
다음, DI 표현부(309)는 DI를 표현하는 DIDL에 포함되는 장면표현 정보를 호출하는 함수를 포함하는 아이템, 예를 들어, 도 11의 function MV_play()(1117)에 기초하여 DI 기본 실행부(311)에 포함되는 DIBO를 통해 DI 처리 엔진부(307)의 DI 처리 엔진을 실행시킴으로써 DI를 처리한다.
여기서, DI 표현부(309)는 DI를 표현하는 DIDL에 포함되는 장면표현 정보를 호출하는 함수에 기초하여 장면 표현 기본 실행부(1303)를 통해 장면표현 엔진(1301)을 실행시킴으로써 DIDL에 포함되는 장면표현 정보에 따라 DI의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현한다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
도 1은 종래 MPEG-21에 따라 DI가 DIDL로써 표현된 예시적인 DID 구문.
도 2는 도 1의 DIDL 구조가 블럭으로 표현된 개념도.
도 3은 종래의 MPEG-21 기반 DI 처리 시스템의 개략적 구성도.
도 4는 시공간적인 관계가 정의된 장면표현에 따라 출력되는 화면.
도 5는 도 2의 DIDL 구조에 대응하는 장면표현 구조의 일실시예로서 LASeR 구조를 나타내는 개념도.
도 6은 도 5의 LASeR 구조를 표현하는 예시적인 구문.
도 7은 도 5의 LASeR 구조를 표현하는 예시적인 구문.
도 8은 도 7에 도시된 구문에 따라 출력되는 LASeR 장면을 나타내는 도면.
도 9는 도 7에 도시된 구문에 따라 출력되는 LASeR 장면을 나타내는 도면.
도 10은 본 발명의 일실시예에 따른 DIDL 구조를 나타내는 도면.
도 11은 본 발명의 일실시예에 따른 DIDL의 예시적 구문.
도 12는 본 발명의 일실시예에 따른 DIDL의 예시적 구문.
도 13은 본 발명의 일실시예에 따른 MPEG-21 기반 DI 처리 시스템의 구성도.

Claims (17)

  1. MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 장치에 있어서,
    상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 방법 엔진(Digital Item Method Engine, DIME) 수단 및
    시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을표현하는 장면 표현 수단
    을 포함하되,
    상기 디지털 아이템은
    상기 장면의 표현 정보가 포함된 장면표현 정보 및
    상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장면 표현 수단을 실행시킬 수 있는 호출 정보
    를 포함하는 디지털 아이템 처리 장치.
  2. 제1항에 있어서,
    상기 장면 표현 수단은
    상기 장면표현 정보에 기초하여 상기 장면을 표현하는 장면 표현 엔진부 및
    상기 호출 정보에 기초한 상기 디지털 아이템 표현 수단의 제어에 따라 상기 장면 표현부를 실행시키는 디지털 아이템 기본 실행 함수(Digital Item Base Operation, DIBO)부
    를 포함하는 디지털 아이템 처리 장치.
  3. 제1항에 있어서,
    상기 장면표현 정보는
    SMIL(Synchronized Multimedia Integration Language), SVG(Scalable Vector Graphics), XMT(eXtensible MPEG-4 Texsual Format) 및 LASeR(Lightweight Applications Scene Represenation) 중 어느 하나의 언어로 표현되는
    디지털 아이템 처리 장치.
  4. 제1항에 있어서,
    상기 장면표현 정보는
    DIDL에서 Descriptor 노드의 하위 노드인 Statement 요소에 포함되는
    디지털 아이템 처리 장치.
  5. 디지털 아이템을 처리하는 장치에 있어서,
    디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 수단 및
    시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 수단
    을 포함하되,
    상기 디지털 아이템은
    상기 장면의 표현 정보가 포함된 장면표현 정보 및
    상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장면 표현 수단을 실행시킬 수 있는 호출 정보
    를 포함하는 디지털 아이템 처리 장치.
  6. 제5항에 있어서,
    상기 장면 표현 수단은
    상기 장면표현 정보에 기초하여 상기 장면을 표현하는 장면 표현 엔진부 및
    상기 호출 정보에 기초한 상기 디지털 아이템 표현 수단의 제어에 따라 상기 장면 표현부를 실행시키는 장면 표현 기본 실행부
    를 포함하는 디지털 아이템 처리 장치.
  7. 제6항에 있어서,
    상기 디지털 아이템은
    MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는
    디지털 아이템 처리 장치.
  8. 제7항에 있어서,
    상기 장면표현 정보는
    SMIL(Synchronized Multimedia Integration Language), SVG(Scalable Vector Graphics), XMT(eXtensible MPEG-4 Texsual Format) 및 LASeR(Lightweight Applications Scene Represenation) 중 어느 하나의 언어로 표현되는
    디지털 아이템 처리 장치.
  9. 제8항에 있어서,
    상기 디지털 아이템 표현 수단은
    MPEG-21 표준의 디지털 아이템 방법엔진(Digital Item Method Engine, DIME)인
    디지털 아이템 처리 장치.
  10. 제9항에 있어서,
    상기 장면 표현 기본 실행부는
    MPEG-21 표준의 디지털 아이템 기본 실행 함수(Digital Item Base Operation, DIBO)인
    디지털 아이템 처리 장치.
  11. MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 방법에 있어서,
    디지털 아이템 방법 엔진(Digital Item Method Engine, DIME)에 의해 상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 단계 및
    시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 단계
    를 포함하되,
    상기 디지털 아이템은
    상기 장면의 표현 정보가 포함된 장면표현 정보 및
    상기 장면 표현 단계에서 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 장면 표현 단계가 수행되도록 하는 호출 정보
    를 포함하는 디지털 아이템 처리 방법.
  12. 제11항에 있어서,
    상기 장면표현 정보는
    SMIL(Synchronized Multimedia Integration Language), SVG(Scalable Vector Graphics), XMT(eXtensible MPEG-4 Texsual Format) 및 LASeR(Lightweight Applications Scene Represenation) 중 어느 하나의 언어로 표현되는
    디지털 아이템 처리 방법.
  13. 제11항에 있어서,
    상기 장면표현 정보는
    DIDL에서 Descriptor 노드의 하위 노드인 Statement 요소에 포함되는
    디지털 아이템 처리 방법.
  14. 디지털 아이템을 처리하는 방법에 있어서,
    디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 표현 단계 및
    시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 단계
    를 포함하되,
    상기 디지털 아이템은
    상기 장면의 표현 정보가 포함된 장면표현 정보 및
    상기 장면 표현 단계에서 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 장면 표현 단계가 수행되도록 하는 호출 정보
    를 포함하는 디지털 아이템 처리 방법.
  15. 제14항에 있어서,
    상기 디지털 아이템은
    MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로표현되는
    디지털 아이템 처리 방법.
  16. 제15항에 있어서,
    상기 장면표현 정보는
    SMIL(Synchronized Multimedia Integration Language), SVG(Scalable Vector Graphics), XMT(eXtensible MPEG-4 Texsual Format) 및 LASeR(Lightweight Applications Scene Represenation) 중 어느 하나의 언어로 표현되는
    디지털 아이템 처리 방법.
  17. 제16항에 있어서,
    상기 디지털 아이템 표현 단계는
    MPEG-21 표준의 디지털 아이템 방법엔진(Digital Item Method Engine, DIME)에 의해수행되는
    디지털 아이템 처리 방법.
KR1020070096871A 2006-09-25 2007-09-21 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치및 그 방법 KR101298674B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060092906 2006-09-25
KR1020060092906 2006-09-25

Publications (2)

Publication Number Publication Date
KR20080027750A true KR20080027750A (ko) 2008-03-28
KR101298674B1 KR101298674B1 (ko) 2013-08-21

Family

ID=39230371

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070096871A KR101298674B1 (ko) 2006-09-25 2007-09-21 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치및 그 방법

Country Status (5)

Country Link
US (1) US20100002763A1 (ko)
EP (1) EP2071837A4 (ko)
KR (1) KR101298674B1 (ko)
CN (1) CN101554049B (ko)
WO (1) WO2008038991A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013115624A1 (ko) * 2012-02-02 2013-08-08 삼성전자 주식회사 멀티미디어 통신 시스템에서 장면 구성 정보 송/수신 장치 및 방법
KR20180109782A (ko) * 2018-09-21 2018-10-08 삼성전자주식회사 멀티미디어 통신 시스템에서 장면 구성 정보 송수신 장치 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102069538B1 (ko) * 2012-07-12 2020-03-23 삼성전자주식회사 멀티미디어 요소의 배치를 위한 마크업을 구성하는 방법
US9621616B2 (en) 2013-09-16 2017-04-11 Sony Corporation Method of smooth transition between advertisement stream and main stream

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3679820A (en) * 1970-01-19 1972-07-25 Western Electric Co Measuring system
US20050075998A1 (en) * 2002-02-08 2005-04-07 Zhongyang Huang Process of ipmp scheme description for digital item
AU2003210008A1 (en) * 2002-03-05 2003-09-16 Matsushita Electric Industrial Co., Ltd. Method for implementing mpeg-21 ipmp
EP1495620A1 (en) * 2002-07-12 2005-01-12 Matsushita Electric Industrial Co., Ltd. Digital item adaptation negotiation mechanism
JP3987025B2 (ja) * 2002-12-12 2007-10-03 シャープ株式会社 マルチメディアデータ処理装置およびマルチメディアデータ処理プログラム
AU2003274732A1 (en) * 2003-10-14 2005-04-27 Matsushita Electric Industrial Co., Ltd. Mpeg-21 digital content protection system
KR20050103374A (ko) * 2004-04-26 2005-10-31 경희대학교 산학협력단 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및그에 사용되는 단말기
EP1594287B1 (en) * 2004-04-12 2008-06-25 Industry Academic Cooperation Foundation Kyunghee University Method, apparatus and medium for providing multimedia service considering terminal capability
KR20060040197A (ko) * 2004-11-04 2006-05-10 한국전자통신연구원 Mpeg-21 멀티미디어 프레임워크내에서의 컨텐츠전달방법에 대한 언어 표현 방법
JP2008527903A (ja) * 2005-01-17 2008-07-24 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Ipmpツールの更新のための言語表現方法及びデータ構造、これを用いたipmpツールの更新方法、並びにこれを適用した使用者端末

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013115624A1 (ko) * 2012-02-02 2013-08-08 삼성전자 주식회사 멀티미디어 통신 시스템에서 장면 구성 정보 송/수신 장치 및 방법
KR20130089477A (ko) * 2012-02-02 2013-08-12 삼성전자주식회사 멀티미디어 통신 시스템에서 장면 구성 정보 송수신 장치 및 방법
US9794648B2 (en) 2012-02-02 2017-10-17 Samsung Electronics Co., Ltd. Apparatus and method for transceiving scene composition information in multimedia communication system
US10368143B2 (en) 2012-02-02 2019-07-30 Samsung Electronics Co., Ltd. Apparatus and method for transceiving scene composition information in multimedia communication system
US10390107B2 (en) 2012-02-02 2019-08-20 Samsung Electronics Co., Ltd. Apparatus and method for transceiving scene composition information in multimedia communication system
KR20180109782A (ko) * 2018-09-21 2018-10-08 삼성전자주식회사 멀티미디어 통신 시스템에서 장면 구성 정보 송수신 장치 및 방법

Also Published As

Publication number Publication date
CN101554049A (zh) 2009-10-07
US20100002763A1 (en) 2010-01-07
EP2071837A1 (en) 2009-06-17
KR101298674B1 (ko) 2013-08-21
WO2008038991A1 (en) 2008-04-03
EP2071837A4 (en) 2010-12-15
CN101554049B (zh) 2011-10-26

Similar Documents

Publication Publication Date Title
Lugmayr et al. Digital interactive TV and metadata
US8271554B2 (en) Encoding method and apparatus and decoding method and apparatus
US8330798B2 (en) Apparatus and method for providing stereoscopic three-dimensional image/video contents on terminal based on lightweight application scene representation
Avaro et al. MPEG-4 systems: overview
KR101298674B1 (ko) 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치및 그 방법
US20100095228A1 (en) Apparatus and method for providing user interface based on structured rich media data
KR20100008741A (ko) 리치미디어 서비스를 제공하는 방법 및 장치
Goularte et al. Structuring interactive TV documents
Jansen et al. A model for editing operations on active temporal multimedia documents
Soares et al. Multiple exhibition devices in DTV systems
EP2342633B1 (en) Device and method for updating structured information
Cesar et al. Multimedia adaptation in ubiquitous environments: benefits of structured multimedia documents
Rogge et al. Timing issues in multimedia formats: review of the principles and comparison of existing formats
Goularte et al. Context-aware support in structured documents for interactive-TV
Van Assche et al. Multi-channel publishing of interactive multimedia presentations
US20240022786A1 (en) Signaling for Picture In Picture In Media Container File and In Streaming Manifest
Pellan et al. Adaptation of scalable multimedia documents
Hori et al. Japanese datacasting coding scheme BML
Lee Provisioning of adaptive rich media services in consideration of terminal capabilities in IPTV environments
Kim et al. Interactive contents authoring system based on XMT and BIFS
Cheong et al. Development of an interactive contents authoring system for MPEG-4
WO2009045051A2 (en) Method for providing initial behavior of multimedia application format content and system therefor
Lim et al. MPEG Multimedia Scene Representation
Chiao et al. A template-based MHP authoring tool
Puri et al. MPEG-4 playback of multimedia objects searchable by their description

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee