KR20080019255A - 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍 - Google Patents

상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍 Download PDF

Info

Publication number
KR20080019255A
KR20080019255A KR1020077030790A KR20077030790A KR20080019255A KR 20080019255 A KR20080019255 A KR 20080019255A KR 1020077030790 A KR1020077030790 A KR 1020077030790A KR 20077030790 A KR20077030790 A KR 20077030790A KR 20080019255 A KR20080019255 A KR 20080019255A
Authority
KR
South Korea
Prior art keywords
application
presentation
state
media
content
Prior art date
Application number
KR1020077030790A
Other languages
English (en)
Other versions
KR101354739B1 (ko
Inventor
앤드류 윌리암 쥬스베리
션 헤이즈
올리비에 꼴레
제임스 씨. 핑거
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20080019255A publication Critical patent/KR20080019255A/ko
Application granted granted Critical
Publication of KR101354739B1 publication Critical patent/KR101354739B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

선언형 언어 애플리케이션 명령어를 사용하여, 대화형 멀티미디어 프레젠테이션의 대화형 콘텐트의 재생과 관련된 동작은 특정 미디어 개체의 상태 변경에 기초하여 트리거된다. 소정의 애플리케이션 명령어는 미디어 개체의 특성을 지정하는 반면, 그외 다른 애플리케이션 명령어는 특성의 상태 변경에 기초하여 대화형 콘텐트의 재생과 관련된 동작(예를 들어, 미디어 개체가 렌더링 가능할 때, 이벤트 발생, 스크립트 실행 또는 변수의 변경)을 지정한다. 상태 변경은 애플리케이션 명령어, 미디어 개체 및/또는 특성과 관련된 노드를 포함하는 문서 개체 모델과 같은 애플리케이션의 구조적 표현을 쿼리함으로써 검출된다. 상태 변경이 검출될 때, 하나 이상의 지정된 동작은 트리거됨으로써 상태 변경에 선언적으로 응답한다. 예시적인 예에서, 상태 변경은 포그라운드(foreground), 포커스된(focused), 포인터(pointer), 동작된(actioned), 인에이블된(enabled) 및 값(value)을 포함하는 특성을 사용하여 추적된다.
선언형 언어 애플리케이션, 상호작용 멀티미디어 프리젠테이션, 미디어 개체

Description

상호작용 멀티미디어 프리젠테이션을 위한 상태 기초 타이밍{STATE-BASED TIMING FOR INTERACTIVE MULTIMEDIA PRESENTATIONS}
관련 출원의 진술
본 출원은 본 명세서에 참고로 반영되는, 2005년 7월 1일자로 출원된 가출원 번호 60/695,944의 이익을 청구한다.
멀티미디어 재생기는 사용자들에 의한 소비를 위해 비디오, 오디오 또는 데이터 콘텐츠의 조합을 렌더링("멀티미디어 프리젠테이션")하는 장치이다. DVD 재생기와 같은 멀티미디어 재생기는 일반적으로 비디오 콘텐츠의 재생 동안, 있다고 해도 많은 사용자 상호작용성을 제공하지 못하며, 비디오 콘텐츠 재생은 일반적으로 재생 속도 조정과 다른 사용자 입력을 수신하기 위해 중단된다. 예를 들어, DVD 재생기의 사용자는 일반적으로 그가 오디오 논평, 배우 일대기 또는 게임과 같은 특징들을 선택하고 수신하는 것을 가능하게 하는 옵션을 포함하는 메뉴로 복귀하기 위해서는 그가 재생하고 있는 영화를 중지해야 한다.
상호작용 멀티미디어 재생기는 상호작용 콘텐츠의 조합을 전통적인 비디오, 오디오 또는 데이터 콘텐츠와 동시에 렌더링("상호작용 멀티미디어 프리젠테이션")하는 장치이다(이러한 장치는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의 조 합을 포함할 수 있다). 임의 유형의 장치가 상호작용 멀티미디어 재생기일 수 있지만, 광학 미디어 재생기(예를 들어, DVD 재생기), 컴퓨터 및 기타 전자 장치와 같은 장치들은 상업적으로 가치 있는 상호작용 멀티미디어 프리젠테이션의 생성 및 그에 대한 소비자 수요를 가능하게 하도록 특히 잘 배치되는데, 이는 이들이 비교적 값싼 대용량의 휴대형 데이터 저장 장치에 대한 액세스를 제공하기 때문이다.
상호작용 콘텐츠는 일반적으로 단독으로 또는 다른 비디오, 오디오 또는 데이터 콘텐츠와 동시에 프리젠테이션 가능한 임의의 사용자 선택가능 가시 또는 가청 개체이다. 가시 개체의 한 유형은 비디오 콘텐츠 내에서 소정의 사물들-예를 들어, 영화에서 나타나는 사람, 차 또는 빌딩-을 식별 및/또는 추적하는 데 사용될 수 있는 원과 같은 그래픽 개체이다. 가청 개체의 한 유형은 사용자가 리모컨 또는 마우스와 같은 장치를 이용하여 원과 같은 가시 개체를 선택하였음을 지시하기 위해 재생되는 클릭 사운드이다. 상호작용 콘텐츠의 다른 예는 메뉴, 캡션 및 애니메이션을 포함하지만 이에 제한되는 것은 아니다.
상호작용 멀티미디어 재생기 및 상호작용 멀티미디어 프리젠테이션에서의 투자를 촉진하기 위해서는, 상호작용 멀티미디어 프리젠테이션의 상호작용 콘텐츠 컴포넌트와 이러한 프리젠테이션의 전통적인 비디오, 오디오 또는 데이터 콘텐츠 컴포넌트의 정확한 동기화를 보증하는 것이 바람직하다. 정확한 동기화는 일반적으로 비디오, 오디오 또는 데이터 콘텐츠 컴포넌트의 예측가능하고 결함 없는 재생을 우선 순위화한다. 예를 들어, 영화에서 차 주위에 원이 프리젠테이션될 때, 영화는 일반적으로 원이 그려지는 것을 기다리기 위해 일시 중지되어서는 안 되며, 원 은 차가 이동할 때 차를 따라가야 한다.
본 발명은 특정 상호작용 멀티미디어 프리젠테이션 시스템들 또는 그의 양태들의 단점들 중 임의의 것 또는 모두를 해결하는 구현들로 제한되지 않는다는 것을 이해할 것이다.
<발명의 개요>
일반적으로, 상호작용 멀티미디어 프리젠테이션은 비디오 콘텐츠 컴포넌트 및 상호작용 콘텐츠 컴포넌트를 포함한다. 비디오 콘텐츠 컴포넌트는 예시적인 목적으로 영화로서 지칭되지만, 실제로는 비디오, 오디오, 데이터 또는 이들의 임의 조합일 수도 있다.
타이밍 신호에 기초한 레이트로 상호작용 컨텐츠 관리자가 렌더링하도록 구성되는 프리젠테이션의 상호작용 컨텐츠 컴포넌트는 하나 이상의 애플리케이션의 형태를 한다. 애플리케이션은 선언형(declarative form) 또는 스크립트형(script form)의 명령어들을 포함한다. 선언형의 일 유형은 "XML(extensible markup language)" 데이터 구조들을 포함한다. 종종은 비디오 컨텐츠 컴포넌트와 동시에, 미디어 개체의 프리젠테이션을 조직화, 포맷팅, 및 동기화하기 위한 애플리케이션 명령어들이 사용자에게 제공된다.
여기에 기술된 제조의 방법들, 시스템들, 장치들, 및 제품들은 선언형의 애플리케이션 명령어들을 사용하여 상호작용 멀티미디어 프리센테이션의 상호작용 컨텐츠 컴포넌트 재생과 연관된 동작들을 트리거한다. 특히, 어떤 애플리케이션 명령어들은 프리젠테이션의 재생 동안 상태들을 변경시킬 수 있는(예를 들면, 사용자 입력에 기초하여) 특정의 미디어 개체의 특성을 지정한다. 다른 애플리케이션 명령어들은 특징의 상태 변화에 기초한 상호작용 컨텐츠 컴포넌트 재생과 연관된 하나 이상의 동작들(예를 들면, 하나 이상의 미디어 개체들이 언제 렌더링 가능한 지, 이벤트 생성, 스크립트 실행, 또는 변수 값들에서의 변화)을 지정한다. 상태 변화는, 애플리케이션 명령어들, 미디어 개체, 및/또는 특성과 연관된 노드들을 포함하는 애플리케이션의 구조적 표현(structured representation)을 질의함으로써 검출된다. 상태 변화가 검출되는 경우, 상호작용 컨텐츠 컴포넌트 재생과 연관된 지정된 동작들이 트리거된다.
전술된 바와 같이 이용 가능한 애플리케이션 명령어들의 예들은 마크업 요소들 및 속성들을 포함한다. 미디어 개체들의 특성들은 미디어 개체들과 연관된 컨텐츠 요소의 스타일 또는 비스타일 속성에 의해 지정될 수 있다. 일부 유용한 속성들은 하나 이상의 XML 스키마들에 의하여 정의된다. 예를 들면, DVD 포럼에 의하여 보급된 하나 이상의 XML 스키마들은 상호 작용 고선명 DVD 영화의 재생 동안 수신된 사용자 입력에 기초하여 값들을 변화시키는 속성들(포어그라운드(foreground), 포커스된(focused), 포인터, 동작된(actioned), 인에이블된, 및 값 속성들을 포함함)을 설명한다. 상호작용 컨텐츠 재생과 연관된 동작들은 타이밍 요소들 내에서 지정될 수 있다. 이 방식에서 사용 가능한 일부 타이밍 요소들은 DVD 포럼에 의하여 보급된 XML 스키마로 설명된다. 다른 타이밍 요소들은, "W3C(World Wide Web Consortium)"에 의하여 공개되는 "SMIL(Synchronized Multimedia Integration Language)"를 위한 XML 스키마들에 의하여 정의된다. XPATH 질의들이 이용되어 "DOMs(document object models)"와 같은 애플리케이션들의 구조적 표현을 질의하여 속성들의 값들 및 그 값들의 변화들을 검출할 수 있다.
본 개요는 개념들의 선택을 간단한 형태로 소개하기 위해 제공된다. 개념들은 상세한 설명 부분에서 더 설명된다. 본 요약에서 설명되는 것들과 다른 요소들 또는 단계들도 가능하며, 어떠한 요소 또는 단계도 반드시 필요한 것은 아니다. 본 요약은 본 발명의 중요 특징 또는 기본 특징을 식별하는 것을 의도하지도 않고, 본 발명의 범위를 결정하는 것에 대한 도움으로서 이용하려는 의도도 없다.
도 1은 상호작용 멀티미디어 프리젠테이션 시스템의 간략화된 기능 블록도.
도 2는 도 1에 도시된 재생 리스트로부터 확인할 수 있는 예시적인 프리젠테이션 타임라인의 그래프.
도 3은 도 1에 도시된 상호작용 멀티미디어 프리젠테이션과 연관된 애플리케이션의 간략화된 기능 블록도.
도 4는 도 1의 타이밍 신호 관리 블록을 보다 상세히 나타내는 간략화된 기능 블록도.
도 5는 도 4에 도시된 소정의 시간 기준들의 값들에 대한 예시적인 사건들의 영향을 연속 타이밍 신호와 관련하여 나타내는 개략도.
도 6은 상호작용 멀티미디어 프리젠테이션을 재생하도록 도 3에 도시된 애플리케이션 명령어들을 사용하기 위한 방법의 흐름도.
도 7은 도 6에 도시된 방법의 양태들과 연계하여 사용 가능한 문서 개체 모 델을 도시하는 도면.
도 8은 도 1에 도시된 상호작용 멀티미디어 프리젠테이션 시스템의 양태들과 관련하여 사용가능한 범용 컴퓨팅 장치의 간략화된 기능 블록도.
도 9는 도 1에 도시된 상호작용 멀티미디어 프리젠테이션 시스템이 구현 또는 사용될 수 있는 운영 환경의 예시적인 구성의 간략화된 기능 블록도.
도 10은 도 1에 도시된 상호작용 멀티미디어 프리젠테이션 시스템이 구현 또는 사용될 수 있는 클라이언트-서버 아키텍처의 간략화된 기능도.
유사한 번호가 유사한 컴포넌트를 지시하는 도면들을 참조하면, 도 1은 상호작용 멀티미디어 프리젠테이션 시스템("프리젠테이션 시스템")(100)의 간략화된 기능 블록도이다. 프리젠테이션 시스템(100)은 오디오/비디오 콘텐츠("AVC") 관리자(102), 상호작용 콘텐츠("IC") 관리자(104), 프리젠테이션 관리자(106), 타이밍 신호 관리 블록(108) 및 믹서/렌더러(110)를 포함한다. 일반적으로, 설계 선택은 프리젠테이션 시스템(100)의 특정 기능들이 어떻게 구현되는지를 지시한다. 이러한 기능들은 하드웨어, 소프트웨어, 또는 펌웨어, 또는 이들의 조합을 이용하여 구현될 수 있다.
동작에 있어서, 프리젠테이션 시스템(100)은 상호작용 멀티미디어 프리젠테이션 콘텐츠("프리젠테이션 콘텐츠")(120)를 처리한다. 프리젠테이션 콘텐츠(120)는 비디오 콘텐츠 컴포넌트("비디오 컴포넌트")(122) 및 상호작용 콘텐츠 컴포넌트("IC 컴포넌트")(124)를 포함한다. 비디오 컴포넌트(122) 및 IC 컴포넌트(124)는 일반적으로 AVC 관리자(102) 및 IC 관리자(104)에 의해 개별 데이터 스트림으로서 각각 처리되지만, 반드시 그럴 필요는 없다.
프리젠테이션 시스템(100)은 또한 프리젠테이션 콘텐츠(120)의 사용자(도시되지 않음)에 대한 재생 프리젠테이션(127)으로서의 프리젠테이션을 돕는다. 재생 프리젠테이션(127)은 믹서/렌더러(110)에 의해 생성되고 표시 장치 또는 스피커(도시되지 않음)와 같은 장치를 통해 사용자에 의해 수신될 수 있는 프리젠테이션 콘텐츠(120)와 연관된 가시 및/또는 가청 정보를 나타낸다. 설명의 목적으로, 프리젠테이션 콘텐츠(120) 및 재생 프리젠테이션(127)은 임의 포맷의 고선명 DVD 영화 콘텐츠를 나타내는 것으로 가정한다. 그러나 프리젠테이션 콘텐츠(120) 및 재생 프리젠테이션(127)은 현재 공지되었거나 나중에 개발될 임의 유형의 상호작용 멀티미디어 프리젠테이션일 수 있다는 것을 이해할 것이다.
비디오 컴포넌트(122)는 프리젠테이션 콘텐츠(120)의 전통적인 비디오, 오디오 또는 데이터 컴포넌트를 나타낸다. 예를 들어, 영화는 일반적으로 하나 이상의 버전(예를 들어, 성인용 버전 및 청소년용 버전); 하나 이상의 챕터(도시되지 않음)와 각각 연관된 하나 이상의 타이틀(131)(타이틀은 프리젠테이션 관리자(106)와 관련하여 후술함); 하나 이상의 오디오 트랙(예를 들어, 영화는 서브 타이틀이 있거나 없이 하나 이상의 언어로 재생될 수 있다); 및 감독의 논평, 추가 장면, 예고편 등과 같은 여분의 특징들을 갖는다. 타이틀과 챕터 간의 차이는 순전히 논리적인 차이라는 것을 이해할 것이다. 예를 들어, 단일의 인식 미디어 세그먼트는 단일 타이틀/챕터의 일부이거나, 다수의 타이틀/챕터로 구성될 수 있다. 적용가능한 논리적 차이의 결정은 콘텐츠 저작 소스에 의존한다. 비디오 컴포넌트(122)가 영화로서 지칭되지만, 비디오 컴포넌트(122)는 실제로는 비디오, 오디오, 데이터 또는 이들의 임의 조합일 수도 있다는 것을 또한 이해할 것이다.
비디오 컴포넌트(122)를 형성하는 비디오, 오디오 또는 데이터의 샘플 그룹들은 클립들(123)로서 지칭된다(클립들(123)은 비디오 컴포넌트(122), AVC 관리자(102), 및 재생목록(128) 내에 도시됨). AVC 관리자(102)를 참조하여, 클립들(123)과 연관된 정보가 하나 이상의 미디어 소스들(160)로부터 수신되고 디코더 블럭들(161)에서 디코드된다. 미디어 소스는 비디오, 오디오 또는 데이터가 도출되거나 취득되는 임의의 장치, 위치 또는 데이터이다. 미디어 소스의 예는 네트워크, 하드 드라이브, 광학 미디어, 교대(alternate) 물리 디스크, 및 특정 비디오, 오디오 또는 데이터의 저장 위치를 참조하는 데이터 구조를 포함하지만 이에 제한되는 것은 아니다.
디코더 블록(161)은 미디어 소스(160)로부터 수신된 정보로부터 렌더링 가능한 비디오, 오디오 또는 데이터 콘텐츠를 검색하는 데 사용되는 임의의 장치, 기술 또는 단계를 나타낸다. 디코더 블록(161)은 예를 들어, 인코더/디코더 쌍, 디멀티플렉서 또는 해독기를 포함할 수 있다. 디코더와 미디어 소스 간의 일대일 관계가 도시되어 있지만, 하나의 디코더가 다수의 미디어 소스를 서비스할 수 있고, 그 역도 가능하다는 것을 이해할 것이다.
오디오/비디오 콘텐츠 데이터("A/V 데이터")(132)는 AVC 관리자(102)에 의한 렌더링을 위해 준비되어 믹서/렌더러(110)로 전송된 비디오 컴포넌트(122)와 연관된 데이터이다. A/V 데이터(132)의 프레임들은 일반적으로 각각의 활성 클립(123)에 대해 클립의 일부의 렌더링을 포함한다. 특정 프레임에서 렌더링된 클립의 정확한 부분 또는 양은 클립의 비디오, 오디오 또는 데이터 콘텐츠의 특성, 또는 클립을 인코딩 또는 디코딩하는 데 사용된 포맷, 기술 또는 레이트와 같은 여러 인자에 기초할 수 있다.
다시 프리젠테이션 컨텐츠(120)를 참조하여, IC 컴포넌트(124)는 가시 또는 가청 개체들을 프리젠테이션하기 위한 임의의 명령어들(애플리케이션들(155)로 도시되며, 후술함)과 함께 비디오 컴포넌트(122)와 동시에 옵션으로 프리젠테이션될 수 있는 사용자 선택가능 가시 또는 가청 개체들인 미디어 개체들(125)을 포함한다. 미디어 개체들(125)은 정적이거나 애니메이트될 수 있다. 미디어 개체의 예는 특히 비디오 샘플 또는 클립, 오디오 샘플 또는 클립, 텍스트 및 이들의 조합을 포함한다.
미디어 개체(125)는 하나 이상의 소스(도시되지 않음)로부터 유래된다. 소스는 미디어 개체가 도출되거나 취득되는 임의의 장치, 위치 또는 데이터이다. 미디어 개체(125)에 대한 소스의 예는 네트워크, 하드 드라이브, 광학 미디어, 교체 물리 디스크, 및 특정 미디어 개체의 저장 위치를 참조하는 데이터 구조를 포함하지만 이에 제한되는 것은 아니다. 미디어 개체(125)의 포맷의 예는 휴대형 네트워크 그래픽("PNG"), 연합 사진 전문가 그룹("JPEG"), 동영상 전문가 그룹("MPEG"), 다중 이미지 네트워크 그래픽("MNG"), 오디오 비디오 인터리브("AVI"), 확장형 마크업 언어("XML"), 하이퍼텍스트 마크업 언어("HTML"), 및 확장형 HTML("XHTML"), "XSL(extensible stylesheet language)", 및 WAV를 포함하지만 이에 제한되는 것은 아니다.
애플리케이션(155)은 프리젠테이션 시스템(100)이 사용자에게 미디어 개체(125)를 프리젠테이션하는 메카니즘을 제공한다. 애플리케이션(155)은 데이터에 대한 소정의 동작들을 전자적으로 제어하는 임의의 신호 처리 방법 또는 저장 명령어(들)를 나타낸다. 설명의 목적으로, IC 컴포넌트(124)는 3개의 애플리케이션(155)을 포함하는 것으로 가정하는데, 이는 도 2 및 3을 참조하여 후술한다. 제1 애플리케이션은 영화에 앞서 저작권 경고를 프리젠테이션하며, 제2 애플리케이션은 영화의 시각 양태들과 동시에, 다수의 사용자 선택가능 항목을 가진 메뉴를 제공하는 소정의 미디어 개체들을 프리젠테이션하며, 제3 애플리케이션은 영화에 나타나는 하나 이상의 항목(예를 들어, 사람, 차, 빌딩 또는 제품)을 식별 및/또는 추적하는 데 사용될 수 있는 그래픽 오버레이들(원 등)을 제공하는 하나 이상의 미디어 개체를 프리젠테이션한다.
상호작용 콘텐츠 데이터("IC 데이터")(134)는 IC 관리자(104)에 의한 렌더링을 위해 준비되어 믹서/렌더러(110)에 전송된 IC 컴포넌트(124)와 연관된 데이터이다. 각각의 애플리케이션은 애플리케이션의 렌더링과 연관된 하나 이상의 작업 항목(도시되지 않음)을 유지하는 관련 큐(도시되지 않음)를 갖는다.
AVC 관리자(104) 및 IC 관리자(102) 양자와의 통신을 위해 구성된 프리젠테이션 관리자(106)는 프리젠테이션 콘텐츠(120)의 처리 및 재생 프리젠테이션(127)의 사용자에 대한 프리젠테이션을 돕는다. 프리젠테이션 관리자(106)는 재생 리스트(128)에 대한 액세스를 갖는다. 재생 리스트(128)는 특히 사용자에게 프리젠테이션 가능한 클립들(123) 및 애플리케이션들(155)(미디어 개체들(125)을 포함함)의 시간 배열 시퀀스를 포함한다. 클립들(123) 및 애플리케이션들(155)/미디어 개체들(125)은 하나 이상의 타이틀(131)을 구성하도록 배열될 수 있다. 예시적인 목적으로, 하나의 타이틀(131)이 본 명세서에서 설명된다. 재생 리스트(128)는 확장형 마크업 언어("XML") 문서 또는 다른 데이터 구조를 이용하여 구현될 수 있다.
프리젠테이션 관리자(106)는 재생 리스트(128)를 이용하여 타이틀(131)에 대한 프리젠테이션 타임라인(130)을 확인한다. 개념적으로, 프리젠테이션 타임라인(130)은 특정 클립들(123) 및 애플리케이션들(155)이 사용자에게 프리젠테이션될 수 있는 타이틀(131) 내의 시간들을 나타낸다. 클립들(123) 및 애플리케이션들(155)의 프리젠테이션 사이의 예시적인 관계를 나타내는 샘플 프리젠테이션 타임라인(130)이 도 2와 관련하여 도시되고 설명된다. 소정의 환경에서, 재생 리스트(128) 및/또는 프리젠테이션 타임라인(130)을 이용하여 비디오 콘텐츠 타임라인("비디오 타임라인")(142) 및 상호작용 콘텐츠 타임라인("IC 타임라인")(144)을 확인하는 것도 유용하다.
프리젠테이션 관리자(106)는 프리젠테이션 타임라인(130)에 대한 정보를 포함하지만 이에 제한되지 않는 정보를 AVC 관리자(102) 및 IC 관리자(104)에 제공한다. 프리젠테이션 관리자(106)로부터의 입력에 기초하여, AVC 관리자(102)는 렌더링을 위해 A/V 데이터(132)를 준비하고, IC 관리자(104)는 렌더링을 위해 IC 데이터(134)를 준비한다.
타이밍 신호 관리 블록(108)은 AVC 관리자(102) 및 IC 관리자(104) 각각에 의한 A/V 데이터(132) 및 IC 데이터(134)의 준비 및 생성을 위한 타이밍을 제어하는 데 사용되는 다양한 타이밍 신호(158)를 생성한다. 구체적으로, 타이밍 신호들(158)은 A/V 데이터(132) 및 IC 데이터(134)의 프레임 레벨 동기화를 달성하는 데 사용된다. 타이밍 신호 관리 블록(108) 및 타이밍 신호들(158)에 대한 상세는 도 4와 관련하여 더 후술한다.
믹서/렌더러는 비디오 평면(도시되지 않음)에 A/V 데이터(132)를 렌더링하고, 그래픽 평면(도시되지 않음)에 IC 데이터(134)를 렌더링한다. 그래픽 평면은 반드시는 아니고 일반적으로 사용자에 대한 재생 프리젠테이션(127)을 생성하기 위해 비디오 평면 상에 오버레이된다.
도 1과 계속 관련하여, 도 2는 재생 리스트(128) 내의 타이틀(131)에 대한 샘플 프리젠테이션 타임라인(130)의 그래프이다. 시간이 수평축(220)에 도시된다. 비디오 컴포넌트(122)(클립들(123)이 도시됨) 및 IC 컴포넌트(124)(미디어 개체들(125)을 프리젠테이션하는 애플리케이션들(155)이 도시됨)에 대한 정보가 수직축(225)에 도시된다. 비디오 컴포넌트(122)에 관하여, 2개의 클립(123), 즉 제1 비디오 클립("비디오 클립 1")(230) 및 제2 비디오 클립("비디오 클립 2")(250)이 도시되어 있다.
도 1과 관련하여 전술한 바와 같이, IC 컴포넌트(124)에 관하여, 제1 애플리케이션은 저작권 경고(260)를 포함하는 하나 이상의 미디어 개체(예를 들어, 이미지 및/또는 텍스트)의 프리젠테이션을 담당하는 것으로 가정한다. 제2 애플리케이션은 메뉴(280)의 사용자 선택가능 항목들(예를 들어, 관련 텍스트 또는 그래픽을 갖춘 버튼들)을 제공하는 소정의 미디어 개체들의 프리젠테이션을 담당한다. 제3 애플리케이션은 그래픽 오버레이(290)를 제공하는 하나 이상의 미디어 개체의 프리젠테이션을 담당한다. 도시된 바와 같이, 메뉴(280)는 비디오 클립 1(230) 및 비디오 클립 2(250)와 동시에 표시되며, 그래픽 오버레이(290)는 비디오 클립 1(230) 및 메뉴(280)와 동시에 표시될 수 있다.
타이틀(131)이 사용자에게 프리젠테이션될 수 있는 수평축(220)을 따른 특정 시간 양은 타이틀(131)의 재생 지속 기간(292)으로서 지칭된다. 재생 지속 기간(292) 내의 특정 시간들은 타이틀 시간들로서 지칭된다. 4개의 타이틀 시간("TT"), 즉 TT1(293), TT2(294), TT3(295) 및 TT4(296)가 프리젠테이션 타임라인(130) 상에 도시되어 있다. 타이틀은 한번 재생되거나 두 번 이상(예를 들어, 루핑(looping) 방식으로) 재생될 수 있으므로, 재생 지속 기간(292)은 타이틀(131)의 1회 반복에 기초하여 결정된다. 재생 지속 기간(292)은 소정의 재생 속도(예를 들어, 정상 또는 1x 재생 속도), 소정의 프레임 레이트, 또는 소정의 타이밍 신호 상태를 포함하지만 이에 제한되지 않는 임의의 원하는 기준과 관련하여 결정될 수 있다. 재생 속도, 프레임 레이트, 및 타이밍 신호는 도 4와 관련하여 더 후술한다.
표시 기술, 및 각 타이틀에 대한 클립들 및 미디어 개체들 사이의 재생 시퀀스 및 타이밍 관계에 관한 특정 규칙과 같은 구현 고유 인자들은 타이틀의 재생 지속 기간 및 그 안의 타이틀 시간들의 정확한 값들에 영향을 미칠 수 있다는 것을 이해할 것이다. 재생 지속 기간 및 타이틀 시간이라는 용어는 그러한 모든 구현 고유 상세를 포함하는 것을 의도한다.
IC 컴포넌트(124)와 연관된 콘텐츠가 프리젠테이션될 수 있는 타이틀 시간들이 일반적으로 미리 결정되지만, 사용자가 그러한 콘텐츠와 상호작용할 때 취해지는 동작들(actions)은 단지 재생 프리젠테이션(127)이 재생되는 동안 사용자 입력에 기초하여 결정될 수 있다는 것을 이해할 것이다. 예를 들어, 사용자는 재생 프리젠테이션(127)의 재생 동안 소정의 애플리케이션들, 미디어 개체들 및/또는 이와 관련된 추가 콘텐츠를 선택, 활성화 또는 비활성화할 수 있다.
재생 지속 기간(292) 내의 다른 시간들 및/또는 지속 기간들도 본 명세서에서 정의되고 설명된다. 비디오 프리젠테이션 간격들(240)은 비디오 컴포넌트(122)와 연관된 특정 콘텐츠가 재생될 수 있는 재생 지속 기간(292)의 시작 및 종료 시간들에 의해 정의된다. 예를 들어, 비디오 클립 1(230)은 타이틀 시간들 TT2(294)와 TT4(296) 사이의 프리젠테이션 간격(240)을 가지며, 비디오 클립 2(250)는 타이틀 시간들 TT3(295)과 TT4(296) 사이의 프리젠테이션 간격(240)을 갖는다. 애플리케이션 프리젠테이션 간격들, 애플리케이션 재생 지속 기간들, 페이지 프리젠테이션 간격들 및 페이지 지속 기간들도 정의되며, 도 3과 관련하여 후술한다.
도 1 및 2와 계속 관련하여, 도 3은 단일 애플리케이션(155)의 기능 블록도이다. 애플리케이션(155)은 일반적으로 미디어 개체들(260, 280, 290)의 프리젠테이션을 담당하는 애플리케이션들을 나타낸다(도 2에 도시). 애플리케이션(155)은 컨텐츠 명령어들(302), 타이밍 명령어들(306), 스크립트 명령어들(308), 스타일 명령어들(310), 미디어 개체 명령어들(312), 및 이벤트 명령어들(360)을 포함하는, 명령어들(304)(더 후술함)을 포함한다. 애플리케이션(155)은 그와 연관된 제로(zero) 또는 그 이상의 자원 패키지 데이터 구조(340)(더 후술함), 애플리케이션 재생 지속 기간(320), 및 하나 이상의 애플리케이션 프리젠테이션 간격(321)을 갖는다.
애플리케이션 재생 지속 기간(320)은 애플리케이션(155)과 연관된 미디어 개체들(125)이 재생 애플리케이션(127)의 수신자에게 프리젠테이션될 수 있고 그리고/또는 그에 의해 선택될 수 있는 재생 지속 기간(292)의 양(일부 또는 전부)과 관련된 특정 시간 양이다. 예를 들어, 도 2의 컨텍스트에서, 저작권 경고(260)를 담당하는 애플리케이션(155)은 TT1(293)과 TT2(294) 사이의 시간 양으로 이루어지는 애플리케이션 재생 지속 기간을 갖는다. 메뉴(280)를 담당하는 애플리케이션은 TT2(294)와 TT4(296) 사이의 시간 양으로 이루어지는 애플리케이션 재생 지속 기간을 갖는다. 그래픽 오버레이(290)를 담당하는 애플리케이션은 TT2(294)와 TT3(295) 사이의 시간 양으로 이루어지는 애플리케이션 재생 지속 기간을 갖는다.
특정 애플리케이션과 연관된 애플리케이션 재생 지속 기간(320)이 프리젠테이션 타임라인 상에 개념화될 때 얻어지는 시작 및 종료 타이틀 시간들에 의해 간격들은 애플리케이션 프리젠테이션 간격들(321)로 지칭된다. 예를 들어, 도 2를 참조하면, 저작권 경고(260)를 담당하는 애플리케이션은 TT1(293)에서 시작하고 TT2(294)에서 종료하는 애플리케이션 프리젠테이션 간격을 가지며, 메뉴(280)를 담당하는 애플리케이션은 TT2(294)에서 시작하고 TT4(296)에서 종료하는 애플리케이션 프리젠테이션 간격을 가지며, 그래픽 오버레이(290)를 담당하는 애플리케이션은 TT2(294)에서 시작하고 TT3(295)에서 종료하는 애플리케이션 프리젠테이션 간격을 갖는다.
도 3을 다시 참조하면, 몇몇 경우에, 애플리케이션(155)은 둘 이상의 페이지를 가질 수 있다. 페이지는 특정 애플리케이션 재생 지속 기간(320) 및/또는 애플리케이션 프리젠테이션 간격(321) 내에 동시에 프리젠테이션될 수 있는 하나 이상의 미디어 개체의 논리적 그룹핑이다. 초기 페이지(330) 및 후속 페이지들(335)이 도시된다. 각각의 페이지는 또한 그 자신의 페이지 지속 기간을 갖는다. 페이지 지속 기간은 특정 페이지와 연관된 미디어 개체들이 사용자에게 프리젠테이션될 수 있는(그리고/또는 그에 의해 선택될 수 있는) 애플리케이션 재생 지속 기간(330)의 양(일부 또는 전부)과 관련된 특정 시간 양이다. 도시된 바와 같이, 초기 페이지(330)는 페이지 지속 시간(332)를 갖고, 후속 페이지(들)(335)는 페이지 지속 시간(337)을 갖는다.
특정 페이지와 연관된 미디어 개체들은 동시에, 연속적으로, 또는 이들의 조합에 의해 프리젠테이션될 수 있다. 도시된 바와 같이, 초기 페이지(330)는 연관된 초기 미디어 개체(들)(331)를 갖고, 후속 페이지들(335)은 연관된 미디어 개체(들)(336)를 갖는다. 특정 페이지와 연관된 페이지 재생 지속 기간이 프리젠테이션 타임라인 상에 개념화될 때 얻어지는 시작 및 종료 타이틀 시간들에 의해 정의되는 간격들은 페이지 프리젠테이션 간격들(343)로 지칭된다. 페이지 프리젠테이션 간격들(343)은 애플리케이션 프리젠테이션 간격들(321)의 하위 간격들이며, 그 안에 특정 미디어 개체들(331, 336)이 프리젠테이션될 수 있다. 특정 미디어 개체 프리젠테이션 간격들(345)이 또한 페이지 프리젠테이션 간격들(343) 내에 정의될 수 있다.
주어진 타이틀과 연관된 애플리케이션들 및 페이지들, 및 각 애플리케이션 또는 페이지와 연관된 미디어 개체들의 수는 일반적으로 설계 선택의 문제인 논리적 차이이다. 예를 들면, 특정의 초기 페이지의 지정은 반드시 필요한 것이 아니고, 애플리케이션의 두 페이지 이상이 동시에 제시될 수 있거나, 또는 페이지 없이(또는 아무것도 없는 초기 페이지) 애플리케이션이 시작될 수 있다. 애플리케이션의 페이지들은 애플리케이션 및 스크립트를 그대로 두고 로딩 및 언로딩될 수 있다. 애플리케이션의 실행 동안 메모리에 로딩되는 애플리케이션과 연관된 자원들의 수 또는 양을 관리(예를 들어, 제한)하는 것이 바람직할 때 다수의 페이지가 사용될 수 있다. 애플리케이션을 위한 자원들은 애플리케이션에 의해 사용되는 미디어 개체들은 물론, 미디어 개체들을 렌더링하기 위한 명령어들(304)을 포함한다. 예를 들어, 다수의 페이지를 가진 애플리케이션이 프리젠테이션 가능할 때, 애플리케이션의 현재 프리젠테이션 가능 페이지와 연관된 자원들만을 메모리에 로딩하는 것만이 가능할 수 있다.
자원 패키지 데이터 구조(340)는 애플리케이션의 실행에 앞서 애플리케이션 자원들을 메모리에 로딩하는 것을 돕는 데 사용된다(옵션으로는, 애플리케이션 실행전). 자원 패키지 데이터 구조(340)는 당해 애플리케이션을 위한 자원들이 위치하는 메모리 위치를 참조한다. 자원 패키지 데이터 구조(340)는 애플리케이션이 참조하는 자원들과 함께 또는 별개로 임의의 원하는 위치에 저장될 수 있다. 예를 들어, 자원 패키지 데이터 구조(340)는 고선명 DVD와 같은 광학 미디어 상에 비디오 컴포넌트(122)로부터 분리된 영역에 배치될 수 있다. 대안으로, 자원 패키지 데이터 구조(340)는 비디오 컴포넌트(122) 안에 내장될 수 있다. 다른 대안으로, 자원 패키지 데이터 구조는 원격 배치될 수 있다. 원격 위치의 일례는 네트워킹된 서버이다. 애플리케이션 실행을 위한, 그리고 애플리케이션들 사이의 자원들의 전이의 처리와 관련된 주제들은 본 명세서에서 상세히 설명되지 않는다.
애플리케이션(155) 자체를 다시 참조하면, 명령어들(304)은 실행시 사용자 입력에 기초하여 애플리케이션(155)과 연관된 미디어 개체들(125)의 렌더링과 관련된 태스크들을 수행한다. 사용자 입력(또는 그 결과)의 일 유형은 사용자 이벤트이다. 사용자 이벤트는 IC 컴포넌트(124)와 관련된 재생 프리젠테이션(127)의 수신자에 의해 개시되는 동작 또는 사건이다. 사용자 이벤트는 반드시는 아니지만 일반적으로 비동기적이다. 사용자 이벤트의 예는 메뉴(280) 내의 버튼의 선택 또는 그래픽 오버레이(290)와 연관된 원의 선택과 같은 재생 프리젠테이션(127) 내의 미디어 개체들과의 사용자 상호작용을 포함하지만 이에 제한되는 것은 아니다. 이러한 상호작용은 키보드, 리모컨, 마우스, 스타일러스 또는 음성 명령어를 포함하는, 현재 공지되었거나 나중에 개발될 임의 유형의 사용자 입력 장치를 이용하여 이루어질 수 있다. 애플리케이션(155)은, 시스템 이벤트, 문서 개체 모델 이벤트, 또는 다른 유형의 이벤트들과 같은, 사용자 이벤트와 다른 이벤트에 응답할 수 있다는 것을 이해할 것이다.
일 구현에서, 명령어들(304)은 컴퓨터 판독가능 매체에 인코딩된 컴퓨터 실행가능 명령어들이다(도 8 및 9와 관련하여 더 후술함). 본 명세서에서 설명되는 예들에서, 명령어들(304)은 스크립트(308) 또는 마크업 요소들(302, 306, 310, 312, 360)을 이용하여 구현된다. 스크립트 또는 마크업 요소들이 단독으로 사용될 수 있지만, 일반적으로 스크립트 및 마크업 요소들의 조합은 고선명 DVD 영화에 대한 상호작용 능력들의 포괄적인 세트의 생성을 가능하게 한다.
스크립트(308)는 명령어 프로그래밍 언어와 같은 비선언 프로그래밍 언어로 작성된 명령어들(304)을 포함한다. 명령어 프로그래밍 언어는 프로세서에 의해 수행될 명령어들의 시퀀스와 관련하여 연산을 기술한다. 스크립트(308)가 사용되는 대부분의 경우에, 스크립트는 사용자 이벤트에 응답하는 데 사용된다. 그러나 스크립트(308)는 마크업 요소들 단독으로는 쉽게 또는 효율적으로 구현되지 못하는 문제들의 처리와 같은 다른 컨텍스트들에서 유용하다. 이러한 컨텍스트들의 예는 시스템 이벤트, 상태 관리, 및 자원 관리(예를 들어, 캐시된 또는 영구 저장된 자원들의 액세스)를 포함한다. 일 구현에서, 스크립트(308)는 ECMA-262 사양에서 ECMA 인터내셔널에 의해 정의된 바와 같은 ECMAScript이다. ECMA-262에 속하는 일반적인 스크립팅 프로그래밍 언어는 JavaScript 및 JScript를 포함한다. 몇몇 상황에서는, ECMA-327과 같은 ECMAScript 262의 서브세트를 이용하여 스크립트(308)를 구현하는 것이 바람직할 수 있다.
마크업 요소들(302, 306, 310, 312, 360)은 확장형 마크업 언어("XML")와 같은 선언 프로그래밍 언어로 작성된 명령어들(304)을 나타낸다. XML에서, 요소들은 XML 문서 내에 시작 태그 및 종료 태그를 이용하여 정의되는 정보의 논리적 단위이다. XML 문서는 분석 또는 비분석 데이터를 포함하는 엔트리(컨테이너라고도 함)라고 하는 저장 단위들로 이루어지는 데이터 개체이다. 분석 데이터는 문자들로 구성되는데, 문자들의 일부는 문자 데이터를 구성하고, 다른 일부는 마크업을 구성한다. 마크업은 문서의 저장 레이아웃 및 논리적 구조의 기술을 인코딩한다. XML 문서에는 하나의 루트 요소가 존재하는데, 그의 어떠한 부분도 임의의 다른 요소의 콘텐츠에 나타나지 않는다. 모든 다른 요소에 대해, 시작 태그 및 종료 태그는 서로 중첩된 다른 요소들의 콘텐츠 내에 존재한다.
XML 스키마는 XML 문서들의 클래스의 신택스(들)의 정의이다. 몇몇 XML 스키마는 월드 와이드 웹 콘소시엄("W3C")에 의해 정의된다. 다른 XML 스키마들은 고선면 비디오, 및 다른 사용들에 대한 DVD 사양에 따라 XML 문서에서 사용하기 위해 DVD 포럼에 의해 발표되었다. 고선명 DVD 영화를 위한 다른 스키마는 물론, 다른 상호작용 멀티미디어 프리젠테이션을 위한 스키마도 가능하다는 것을 이해할 것이다.
하이 레벨에서, XML 스키마는 (1) 요소 명칭을 요소 유형과 연관시키는 글로벌 요소 선언, 및 (2) 해당 유형의 요소들에 대한 속성, 부요소 및 문자 데이터를 정의하는 유형 정의를 포함한다. 요소의 속성은 명칭/값 쌍을 이용하여 요소의 특정 특성을 지정하는데, 하나의 속성은 단일 요소 특성을 지정한다.
사용자 이벤트 요소들(360)을 포함할 수 있는 콘텐츠 요소들(302)은 애플리케이션(155)에 의해 사용자에게 프리젠테이션될 수 있는 특정 미디어 개체 요소들(312)을 식별하는 데 사용된다. 미디어 개체 요소들(312)은 또한 일반적으로 특정 미디어 개체들(125)을 정의하는 데이터가 배치되는 위치들을 지정한다. 이러한 위치들은 예를 들어 광학 미디어, 또는 인터넷, 사설 관리 네트워크 또는 월드 와이드 웹과 같은 유선 또는 무선, 공용 또는 사설 네트워크 상의 위치들을 포함하는 로컬 또는 원격 저장 장치 내의 위치들일 수 있다. 미디어 개체 요소들(312)에 의해 지정되는 위치들은 또한 자원 패키지 데이터 구조(340)에 대한 참조와 같은 위치들에 대한 참조들일 수 있다. 이러한 방식으로, 미디어 개체들(125)의 위치들은 간접적으로 지정될 수 있다.
타이밍 요소들(306)은 특정 콘텐츠 요소들(302)이 특정 애플리케이션(155)에 의해 사용자에게 프리젠테이션될 수 있는 시간들 또는 시간 간격들을 지정하는 데 사용된다. 타이밍 요소들의 예는 XML 문서의 시간 컨테이너 내의 동등(par), 타이밍 또는 이하(seq) 요소들을 포함한다. 몇몇 시간 요소들은 "SMIL(Synchronized Multimedia Integration Language)"에 대하여 W3C에 의하여 발표된 표준들에 의하여 정의된다. 다른 타이밍 요소들은 DVD 포럼에 의하여 공개된 표준들(예를 들면, 고선명 비디오를 위한 DVD 사양들)에 의하여 정의된다. 상기 표준들은 모든 목적으로 여기에 참고로 포함된다. 선언 언어 문서들로 사용하기 위한 다른 타이밍 모델들과 연관된 상이한 타이밍 요소들도 가능하다.
스타일 요소들(310)은 일반적으로 특정 애플리케이션에 의해 사용자에게 프리젠테이션될 수 있는 특정 콘텐츠 요소들(302)의 외관을 지정하는 데 사용된다. 어떤 스타일 요소들은 하나 이상의 공개된 사양들(specification)에서 W3C 및/또는 DVD 포럼에 의하여 정의된다. W3C에 의하여 공개된 사양들의 예들은 XSL과 관련된 사양들 및 "CSS(cascading style sheets)"와 관련된 사양들을 포함한다.
이벤트 요소들(360)은, 사용자 이벤트들, 시스템 이벤트들, 문서 개체 모델 이벤트들, 또는 다른 이벤트들(예를 들면, 고선명 DVD 영화들과 연관된 애플리케이션들에서 사용하기 위한 하나 이상의 XML 스카마들에 의하여 지정되거나, 또는 함께 사용된 이벤트들)과 같은 이벤트들을 정의하거나 그에 응답하는 데 이용되는 컨텐츠 요소들(302), 타이밍 요소들(306) 또는 스타일 요소들(310)을 나타낸다. 그러한 이벤트 태그들은 W3C에 의하여 지정된 이벤트 태그들로부터 도출되거나 그와 유사할 수 있거나, W3C에 의해 지정된 이벤트 태그들과 상이할 수 있다.
마크업 요소들(302, 306, 310, 360)은 관련된 미디어 개체 요소들(312)/미디어 개체들(125)의 소정의 특성들을 지정하는 데 사용할 수 있는 속성들을 갖는다. 일 구현에서, 이들 속성/특성은 하나 이상의 클럭 또는 타이밍 신호의 값을 나타낸다(도 4와 관련하여 더 후술함). 시간들 또는 시간 간격들을 나타내는 특성들을 갖는 마크업 요소들의 속성들의 사용은 사용자가 재생 프리젠테이션(127)을 수신하면서 IC 컴포넌트(124)와 비디오 컴포넌트(122) 간의 동기화를 달성하는 한 가지 방법이다. 다른 구현(이하에서 도 6과 관련하여 후술함)에서, 이 속성들(attributes/properties)의 구조적 표현은 주기적으로 질의되며, 특히 그 내부의 특정한 값들 또는 변화들은 재생된 프리젠테이션(127) 내의 IC 컴포넌트(124) 재생과 연관된 하나 이상의 동작들을 트리거하는 데 이용될 수 있다.
마크업 요소들을 포함하는 샘플 XML 문서가 아래에 설명된다(스크립트(308)는 도시되지 않는다). 샘플 XML 문서는 "id"라고 하는 미디어 개체 요소(312)를 참조하는 콘텐츠 요소(302) 상에 크롭(crop) 애니메이션을 수행하기 위한 스타일(310) 및 타이밍(306) 요소들을 포함한다. "id" 미디어 개체 요소와 연관된 미디어 개체(125)를 정의하는 데이터의 위치는 도시되지 않는다. 이하의 샘플 XML 문서는 예시적인 목적으로 제공되는 것이며, 구문적으로 법률적이지 않을 수 있다는 것이 이해될 것이다.
샘플 XML 문서는 "root"라고 하는 루트 요소에서 시작된다. 루트 요소에 이어서, 여러 명칭 공간 "xmlns" 필드가 월드 와이드 웹 상의 위치들을 참조하는데, 이들 위치에서는 샘플 XML 문서 및 그 안의 컨테이너들에 대한 신택스를 정의하는 다양한 스키마가 발견될 수 있다. 예를 들어, 고선명 DVD 영화에 사용하기 위한 XML 문서의 컨텍스트에서, 명칭 공간 필드들은 DVD 포럼과 연관된 웹 사이트들을 참조할 수 있다.
"id"로서 지칭되는 하나의 콘텐츠 요소(302)는 "body"로 라벨링된 태그들에 의해 기술되는 컨테이너 내에 정의된다. 콘텐츠 요소 "id"와 연관된 스타일 요소들(310)(본 예에서 라벨 "styling" 아래의 요소들)은 "head"로 라벨링된 태그들에 의해 기술되는 컨테이너 내에 정의된다. 타이밍 요소들(306)(라벨 "timing" 아래의 요소들)도 "head"로 라벨링된 태그들에 의해 기술되는 컨테이너 내에 정의된다.
Figure 112007094469339-PCT00001
Figure 112007094469339-PCT00002
Figure 112007094469339-PCT00003
Figure 112007094469339-PCT00004
Figure 112007094469339-PCT00005
Figure 112007094469339-PCT00006
도 1-3과 계속 관련하여, 도 4는 타이밍 신호 관리 블록(108)의 다양한 컴포넌트 및 타이밍 신호들(158)을 보다 상세히 나타내는 간략화된 기능 블록도이다.
타이밍 신호 관리 블록(108)은 프리젠테이션 시스템(100) 내의 특정 시간들 또는 지속 기간들을 결정하는 데 사용되는 클럭들 및/또는 타이밍 신호들의 처리를 담당한다. 도시된 바와 같이, 클럭 소스(402)에 의해 연속 타이밍 신호(401)가 소정의 레이트로 생성된다. 클럭 소스(402)는 범용 컴퓨터 또는 특수 목적 전자 장치와 같은 처리 시스템과 연관된 클럭일 수 있다. 클럭 소스(402)에 의해 생성되는 타이밍 신호(401)는 일반적으로 실제 세계의 클럭과 같이 연속적으로 변하는데, 실제 시간의 1초 내에, 클럭 소스(402)는 소정의 레이트로 타이밍 신호들(401)의 1초 가치를 생성한다. 타이밍 신호(401)는 IC 프레임 레이트 계산기(404), A/V 프레임 레이트 계산기(406), 시간 기준 계산기(408) 및 시간 기준 계산기(490)에 입력된다.
IC 프레임 레이트 계산기(404)는 타이밍 신호(401)에 기초하여 타이밍 신호(405)를 생성한다. 타이밍 신호(405)는 "IC 프레임 레이트"를 지칭하는데, 이는 IC 데이터(134)의 프레임들이 IC 관리자(104)에 의해 생성되는 레이트를 나타낸다. IC 프레임 레이트의 하나의 예시적인 값은 초당 30 프레임이다. IC 프레임 레이트 계산기(404)는 타이밍 신호(405)를 생성하기 위해 타이밍 신호(401)의 레이트를 감소 또는 증가시킬 수 있다.
IC 데이터(134)의 프레임들은 일반적으로 각각의 유효 애플리케이션(155) 및/또는 그의 페이지에 대해, 관련 사용자 이벤트에 따라 유효 애플리케이션 및/또는 페이지와 연관된 각각의 미디어 개체(125)의 렌더링을 포함한다. 예시적인 목적으로, 유효 애플리케이션은 프리젠테이션 타임라인(130)에 기초하여 재생 지속 기간(292)의 현재 타이틀 시간이 속하는 애플리케이션 프리젠테이션 간격(321)을 갖는 애플리케이션이다. 애플리케이션은 둘 이상의 애플리케이션 프리젠테이션 간격을 가질 수 있다는 것을 이해할 것이다. 또한, 본 명세서에서는 사용자 입력 또는 자원 가용성에 기초하여 애플리케이션의 상태에 대해 특정 차이가 만들어지지 않음을 이해할 것이다.
A/V 프레임 레이트 계산기(406)는 또한 타이밍 신호(401)에 기초하여 타이밍 신호-타이밍 신호 407-를 생성한다. 타이밍 신호(407)는 "A/V 프레임 레이트"로 지칭되는데, 이는 AVC 관리자(102)에 의해 A/V 데이터(132)의 프레임들이 생성되는 레이트를 나타낸다. A/V 프레임 레이트는 IC 프레임 레이트(405)와 동일하거나 다를 수 있다. A/V 프레임 레이트의 하나의 예시적인 값은 초당 24 프레임이다. A/V 프레임 레이트 계산기(406)는 타이밍 신호(407)를 생성하기 위해 타이밍 신호(401)의 레이트를 감소 또는 증가시킬 수 있다.
클럭 소스(470)는 미디어 소스(들)(161)로부터 클립들(123)과 연관된 정보가 생성되는 레이트를 지배하는 타이밍 신호(471)를 생성한다. 클럭 소스(470)는 클럭(402)과 동일한 클럭이거나, 클럭 소스(402)와 동일한 클럭에 기초할 수 있다. 대안으로, 클럭들(470, 402)은 전혀 다를 수 있고, 그리고/또는 상이한 소스를 가질 수 있다. 클럭 소스(470)는 재생 속도 입력(480)에 기초하여 타이밍 신호(471)의 레이트를 조정한다. 재생 속도 입력(480)은 재생 프리젠테이션(127)의 재생 속도에 영향을 주는 수신된 사용자 입력을 나타낸다. 재생 속도는 예를 들어 사용자가 영화의 한 부분에서 다른 부분으로 점프할 때("트릭 재생"이라고 함), 또는 사용자가 영화를 일시 중지, 저속 진행, 고속 진행 또는 저속 역행, 또는 고속 역행시킬 때 영향을 받는다. 트릭 재생은 메뉴(280)(도 2에 도시)로부터 선택을 행함으로써, 또는 다른 방식으로 달성될 수 있다.
시간 기준(452)은 활성 클립들(123)과 연관된 특정 프리젠테이션 간격들(240) 내에 경과된 시간의 양을 나타낸다. 본 명세서에서 설명의 목적으로, 활성 클립은 프리젠테이션 타임라인(130)에 기초하여 재생 지속 기간(292)의 현재 타이틀 시간이 속하는 프리젠테이션 간격(240)을 갖는 클립이다. 시간 기준(452)은 "경과 클립 재생 시간"으로 지칭된다. 시간 기준 계산기(454)는 시간 기준(452)을 수신하고 미디어 시간 기준(455)을 생성한다. 미디어 시간 기준(455)은 하나 이상의 시간 기준(452)에 기초하여 경과된 재생 지속 기간(292)의 전체 양을 나타낸다. 일반적으로, 둘 이상의 클립이 동시에 재생되고 있을 때, 하나의 시간 기준(452)만이 미디어 시간 기준(455)을 생성하는 데 사용된다. 미디어 시간 기준(455)을 결정하는 데 사용되는 특정 클립, 및 어떻게 미디어 시간 기준(455)이 다수의 클립에 기초하여 결정되는지는 구현 선호의 문제이다.
시간 기준 계산기(408)는 타이밍 신호(401), 미디어 시간 기준(455) 및 재생 속도 입력(480)을 수신하고, 타이틀 시간 기준(409)을 생성한다. 타이틀 시간 기준(409)은 시간 기준 계산기(408)에 대한 입력들 중 하나 이상에 기초하여 재생 지속 기간(292) 내에 경과된 시간의 전체 양을 나타낸다.
시간 기준 계산기(490)는 타이밍 신호(401) 및 타이틀 시간 기준(409)을 수신하고, 애플리케이션 시간 기준(들)(492) 및 페이지 시간 기준(들)(494)을 생성한다. 단일 애플리케이션 시간 기준(492)은 연속 타이밍 신호(401)와 관련하여 특정 애플리케이션 재생 지속 기간(320)(도 3과 관련하여 도시되고 설명됨)의 경과 시간의 양을 나타낸다. 애플리케이션 시간 기준(492)은 현재 타이틀 시간이 특정 애플리케이션의 애플리케이션 프리젠테이션 간격(321)에 속함을 타이틀 시간 기준(409)이 지시할 때 결정된다. 애플리케이션 시간 기준(492)은 애플리케이션 프리젠테이션 간격(321)의 종료시에 리셋된다(예를 들어, 비활성으로 되거나 다시 시작된다). 애플리케이션 시간 기준(492)은 또한 다른 상황에서, 예를 들어 사용자 이벤트에 응답하여, 또는 트릭 재생이 일어날 때 리셋될 수 있다.
페이지 시간 기준(494)은 연속 타이밍 신호(401)와 관련하여 단일 페이지 재생 지속 기간(332, 337)(이 또한 도 3과 관련하여 도시되고 설명됨)의 경과 시간의 양을 나타낸다. 애플리케이션의 특정 페이지에 대한 페이지 시간 기준(494)은 현재 타이틀 시간이 적용가능한 페이지 프리젠테이션 간격(343)에 속함을 타이틀 시간 기준(409)이 지시할 때 결정된다. 페이지 프리젠테이션 간격은 애플리케이션 프리젠테이션 간격(321)의 하위 간격이다. 페이지 시간 기준(494)은 적용가능한 페이지 프리젠테이션 간격(343)의 종료시에 리셋될 수 있다. 페이지 시간 기준(494)은 또한 다른 상황에서, 예를 들어 사용자 이벤트에 응답하여 또는 트릭 재생이 발생할 때 리셋될 수 있다. 애플리케이션 프리젠테이션 간격(321) 및/또는 페이지 프리젠테이션 간격(343)의 하위 간격일 수 있는 미디어 개체 프리젠테이션 간격(345)도 정의될 수 있다는 것을 이해할 것이다.
표 1은 프리젠테이션 시스템(100)에 의한 재생 프리젠테이션(127)의 재생 동안의 예시적인 사건들, 이러한 사건들의 애플리케이션 시간 기준(492), 페이지 시간 기준(494), 타이틀 시간 기준(409) 및 미디어 시간 기준(455)에 대한 영향들을 나타낸다.
사건 애플리케이션 시간 492 페이지 시간 494 타이틀 시간 409 미디어 시간 455
영화 시작 애플리케이션이 유효하지 않거나 유효할 때까지 비활성 적용가능 페이지가 유효하지 않거나 유효할 때까지 비활성 시작(예를 들어, 0에서) 시작(예를 들어, 0에서)
다음 클립 시작 애플리케이션이 유효하지 않거나 유효할 때까지 비활성 적용가능 페이지가 유효하지 않거나 유효할 때까지 비활성 이전 타이틀 시간 및 경과 클립 재생 시간에 기초하여 결정 리셋/재시작
다음 타이틀 시작 애플리케이션이 유효하지 않거나 유효할 때까지 비활성 적용가능 페이지가 유효하지 않거나 유효할 때까지 비활성 리셋/재시작 리셋/재시작
애플리케이션이 유효화됨 시작 적용가능 페이지가 유효할 때 시작 계속/영향 없음 계속/영향 없음
트릭 재생 적용가능 애플리케이션이 점프된 타이틀 시간에 유효한 경우에 리셋/재시작; 그렇지 않은 경우에는 비활성화됨 적용가능 페이지가 점프된 타이틀 시간에 유효한 경우에 리셋/재시작; 그렇지 않은 경우에는 비활성화됨 점프된 위치에 기초하여, 프리젠테이션 타임라인 상의 경과 재생 지속 기간에 대응하는 시간으로 진행 또는 후퇴 타이틀 내의 점프된 위치의 활성 클립(들)의 경과 클립 재생 시간(들)에 대응하는 시간으로 진행 또는 후퇴
재생 속도N배 변경 계속/영향 없음 계속/영향 없음 N배 빠르게 경과 N배 빠르게 경과
영화 일시 중지 계속/영향 없음 계속/영향 없음 일시 중지 일시 중지
영화 재개 계속/영향 없음 계속/영향 없음 재개 재개
도 5는 애플리케이션 시간 기준(492), 페이지 시간 기준(494), 타이틀 시간 기준(409) 및 미디어 시간 기준(455)에 대한 재생 프리젠테이션(127)의 재생 동안의 소정 사건들(502)의 영향을 보다 상세히 나타내는 개략도이다. 사건들(502) 및 그이 영향들은 타이밍 신호(401)와 같은 연속 타이밍 신호의 값들과 관련하여 도시된다. 달리 지시되지 않는 한, 고선명 DVD 영화의 특정 타이틀이 정상 속도로 재생되고 있으며, 연속 프리젠테이션 가능한 3개의 페이지를 갖는 단일 애플리케이션이 사용자 상호작용성을 제공한다.
영화는 타이밍 신호가 0의 값을 가질 때 재생을 시작한다. 타이밍 신호가 10의 값을 가질 때, 애플리케이션은 유효화되고 활성화된다. 애플리케이션 시간(492)은 물론, 애플리케이션의 페이지 1과 연관된 페이지 시간(494)도 0의 값을 나타낸다. 페이지 2 및 3은 비활성 상태이다. 타이틀 시간(409) 및 미디어 시간(455) 양자는 10의 값을 갖는다.
애플리케이션의 페이지 2는 타이밍 신호 값 15에서 로딩된다. 애플리케이션 시간 및 페이지 1 시간은 5의 값을 갖는 반면, 타이틀 시간 및 미디어 시간은 15의 값을 갖는다.
애플리케이션의 페이지 2는 타이밍 신호가 20의 값을 가질 때 로딩된다. 애플리케이션 시간은 10의 값을 갖고, 페이지 2 시간은 5의 값을 가지며, 페이지 1 시간은 비활성이다. 타이틀 시간 및 미디어 시간은 20의 값을 갖는다.
영화는 타이밍 신호 값 22에서 일시 중지된다. 애플리케이션 시간은 12의 값을 갖고, 페이지 3 시간은 2의 값을 가지며, 페이지 1 및 2는 비활성이다. 타이틀 시간 및 미디어 시간은 22의 값을 갖는다. 영화는 타이밍 신호 값 24에서 재개한다. 이어서, 애플리케이션 시간은 14의 값을 갖고, 페이지 3 시간은 4의 값을 가지며, 타이틀 시간 및 미디어 시간은 22의 값을 갖는다.
타이밍 신호 값 27에서, 새로운 클립이 시작된다. 애플리케이션 시간은 17의 값을 가지며, 페이지 3 시간은 7의 값을 갖고, 타이틀 시간은 25의 값을 가지며, 미디어 시간은 0으로 리셋된다.
사용자가 타이밍 신호 값 32에서 애플리케이션을 비활성화한다. 애플리케이션 시간은 22의 값을 갖고, 페이지 시간은 12의 값을 가지며, 타이틀 시간은 30의 값을 갖고, 미디어 시간은 5의 값을 갖는다.
타이밍 신호 값 39에서, 사용자는 동일 클립의 다른 부분으로 역방향 점프한다. 애플리케이션은 점프한 위치에서 유효한 것으로 가정되며, 그 직후 다시 활성화된다. 애플리케이션 시간은 0의 값을 가지며, 페이지 1 시간은 0의 값을 갖고, 다른 페이지들은 비활성이고, 타이틀 시간은 27의 값을 갖고, 미디어 시간은 2의 값을 갖는다.
타이밍 신호 값 46에서, 사용자는 영화의 재생 속도를 정상 속도의 2배로 고속 진행하도록 변경한다. 고속 진행은 타이밍 신호 값 53까지 계속된다. 도시된 바와 같이, 애플리케이션 및 페이지 시간들은 영화의 재생 속도의 변화에 영향을 받지 않고 연속 타이밍 신호와 함께 일정한 페이스로 계속 변경되는 반면, 타이틀 및 미디어 시간들은 영화의 재생 속도에 비례하여 변경된다. 애플리케이션의 특정 페이지가 언제 로딩되는지는 타이틀 시간(409) 및/또는 미디어 시간(455)과 연관된다는 점에 유의해야 한다(도 3과 관련하여 애플리케이션 프리젠테이션 간격(321) 및 페이지 프리젠테이션 간격(343)의 설명을 참조한다).
타이밍 신호 값 48에서, 새로운 타이틀이 시작되며, 타이틀 시간(409) 및 미디어 시간(455)은 0의 값으로 리셋된다. 초기 타이틀과 관련하여, 이것은 타이틀 시간이 62의 값을 갖고 미디어 시간이 36의 값을 가질 때 발생한다. 애플리케이션 시간(492) 및 페이지 시간(494)의 리셋(도시되지 않음)은 타이틀 시간(409) 및 미디어 시간(455)의 리셋에 이어진다.
다양한 타임라인, 클럭 소스, 타이밍 신호 및 타이밍 신호 참조에 대한 액세스를 갖는 것은 재생 프리젠테이션(127) 내의 IC 데이터(124) 및 A/V 데이터(132)의 프레임 레벨 동기화를 달성하고 사용자 상호작용성의 주기들 동안 그러한 프레임 레벨 동기화를 유지할 수 있는 프리젠테이션 시스템(100)의 능력을 향상시킨다.
도 1-4와 계속 관련하여, 도 6은 프리젠테이션 콘텐츠(120)/재생 프리젠테이션(127)의 IC 컴포넌트(124) 및 비디오 컴포넌트(122)와 같은 상호작용 멀티미디어 프리젠테이션의 상호작용 및 비디오 컴포넌트들을 동기식으로 프리젠테이션할 수 있는 프리젠테이션 시스템(100)과 같은 상호작용 멀티미디어 프리젠테이션 시스템의 능력을 향상시키는 하나의 방법의 흐름도이다. 방법은 선언형의 애플리케이션 명령어들을 이용하여, IC 컴포넌트(124) 재생과 연관된 특정 동작들을 조건에 따라 트리거하는 단계를 포함한다. 상기 동작들은 상호작용 멀티미디어 프리젠테이션의 재생 동안 하나 이상의 미디어 개체들의 하나 이상의 특성들의 상태들에 기초하여(예를 들면, 사용자 입력에 기초) 트리거된다.
이 방법은 블록(600)에서 시작되고, 블록(602)으로 진행되어, 선언형 언어 명령어를 갖는 애플리케이션이 액세스된다. 애플리케이션의 제1 명령어는 하나 이상의 미디어 개체들의 하나 이상의 특성들을 지정한다. 상호작용 멀티미디어 프리젠테이션의 재생 동안에, 특성은 다수의 상태들을 가질 수 있다. 제2 명령어는 특성(들)의 상태 변화(들)에 기초하여 프리젠테이션의 상호작용 컨텐츠 재생과 연관된 하나 이상의 동작들을 지정한다.
블록(604)에서, 애플리케이션의 구조적 표현은 상태 변경을 검출하기 위해 주기적으로 질의된다. 관련 상태 변경이 검출될 때, 판정 블록(606)에서 판정된 바와 같이, 제2 명령어에 의해 지정된 동작은 블록(608)에서 트리거되고, 블록(604)에서의 주기적 질의가 계속된다. 관련 상태 변경이 판정 블록(606)에서 검출되지 않으면, 블록(604)에서의 주기적 질의가 계속된다.
블록(602)을 참조하여, 하나 이상의 미디어 개체들의 하나 이상의 특성들을 지정하는 제1 명령어는 프리젠테이션 시스템(100)과 관련하여 설명된다. 컨텐츠 요소들(302), 스타일 요소들(310), 미디어 개체 요소들(312), 또는 이벤트 요소들(360)과 같은 애플리케이션 명령어(304)(도 3에 도시됨) 및 그 속성은 재생된 프리젠테이션(127)의 재생 동안에 추정될 수 있는 특정 미디어 개체(125) 및 관련된 특성 상태(예를 들어, 속성의 값)를 지정하는 일을 한다. 고선명 DVD 영화 애플리케이션에서 나오는 마크업 요소와 함께 사용하기 위한 소정의 특성은 DVD 포럼에 의해 공표된 하나 이상의 XML 스키마에 의해 정의된다. 그러한 속성들의 예들은 스타일 속성들, 및 포어그라운드, 포커스된, 포인터, 동작된, 인에이블된, 및 값들의 속성들(여기에서는 "표시 속성들"로 지칭됨)을 포함한다.
소정의 스타일 속성들 및 표시 속성들은 사용자 이벤트와 관련하여 정의될 수 있다. 스타일 속성 또는 표시 속성의 값에 영향을 미칠 수 있는 사용자 이벤트의 한 가지 유형은 제스처 이벤트이다. 제스처 이벤트는 재생된 프리젠테이션(127) 내의 미디어 개체의 프리젠테이션에 영향을 미치는 (키보드, 원격 제어 또는 마우스와 같은 장치로부터의 입력과 같은) 임의의 사용자-개시 동작이다. 일반적인 특성 상태 및 속성의 값, 및 특별한 스타일 또는 표시 속성의 값은 대안적인 또는 이진 상태를 추정할 수 있다. 그러한 대안적인 또는 이진 상태의 예는 참 또는 거짓, 온 또는 오프, 0 또는 1 등을 포함한다. 대안적으로, 특성 상태 및 특성의 값은 문자열 값 또는 숫자 값과 같은 일반적인 값을 추정할 수 있다. 다른 대안에서, 특성 상태 및 특성의 값은 미리 정해진 컬러 집합 내의 특정 컬러를 나타내는 값과 같이, 미리 정해진 집합 내의 값을 추정할 수 있다.
다시 블록(602)과 관련하여, 상호작용 컨텐츠 재생과 연관된 하나 이상의 동작들을 지정하는 제2 명령어들이 또한, 프리젠테이션 시스템(100)과 관련하여 설명된다. (도 3에 도시된) 애플리케이션 명령어(304) 내에서, 특성 상태의 변경에 기초하여 트리거될 수 있는 IC 컴포넌트(124)의 재생과 관련된 하나 이상의 동작이 지정된다. 그러한 동작의 예는 콘텐츠 렌더링, 이벤트 발생, 스크립트 실행, 변수 값의 변경 및 기타 동작을 포함한다. 애플리케이션 또는 그 페이지 내에서, 다수의 타이밍 요소가 사용될 수 있고, 타이밍 요소는 동일한 또는 상이한 클록에 동기될 수 있다. 예를 들어, 타이밍 신호(401 및 471)는 타이밍 요소가 동기되는 클록을 설정하기 위해 직접적으로 또는 간접적으로 관련될 수 있다. 예를 들어, 타이밍 신호(401)는 클록 소스(402), IC 프레임 속도 계산기(404), A/V 프레임 속도 계산기(406), 애플리케이션 시간(492) 또는 페이지 시간(494)을 통해 간접적으로 관련될 수 있다. 이와 마찬가지로, 타이밍 신호(471)는 예를 들어, 클록 소스(470), 경과된 클립 재생 시간(들)(452), 시간 기준 계산기(454), 미디어 시간 기준(455), 시간 기준 계산기(408) 또는 타이틀 시간 기준(409)을 통해 간접적으로 관련될 수 있다. 또한, 클록, 타이밍 신호, 시간 기준 계산기 및/또는 시간 기준에 대한 논리적 참조를 수반하는 표현은 또한 타이밍 요소의 동기를 지정하기 위해 사용될 수 있다. 예를 들어, "AND", "OR" 및 "NOT"과 같은 부울 피연산자는 다른 피연산자 또는 그 유형과 함께, 그러한 표현 또는 조건을 정의하기 위해 사용될 수 있다.
다시 도 6의 플로우차트와 관련하여, 블럭(604), 판정 블록(606) 및 블럭(608)에 나타낸 단계는 프리젠테이션 시스템(100)과 관련하여 설명된다. 프리젠테이션 컨텐츠(120)/재생된 프리젠테이션(127)의 재생 동안에, (각각의 컨텐츠 요소(302), 타이밍 요소(306), 스타일 요소(310), 미디어 개체 요소(312), 이벤트 요소(360) 및/또는 특성(및 선택적으로는 속성의 속성)과 같은) 특정 애플리케이션(155)과 관련된 선언형 언어 명령어의 상태는 애플리케이션의 구조적 표현 내에 유지된다. 그러한 구조적 표현의 한 예는 "DOM(document object model)"이다. DOM의 구조 및 기능은 W3C에 의해 발표된 하나 이상의 사양에 의해 설명된다.
도 7은 DOM(700)이다. DOM(700)은 루트 노드, 요소 노드(704), 속성 노드(706) 및 텍스트 노드(708)인 문서 노드(702)를 포함하는 몇 가지 유형의 노드의 나무형 계층이다. 종종, 타이밍 데이터 구조는 DOM 내의 컨텐츠 데이터 구조로부터 분리된다. DOM(700)의 구조는 단지 예시적으로 제시된 것이다. 임의의 요소는 속성 또는 속성 자체를 포함하는 텍스트를 가질 수 있다는 것을 이해할 것이다.
DOM(700)(또는 그 부분들)은 (스타일 속성 또는 표시 속성과 같은) 속성 노드가 특정 값을 가질 때를 판정하기 위해 XPATH 질의 또는 다른 유형의 질의(예를 들어, XQUERY)를 사용하여 주기적으로 질의될 수 있다. 한 구현에서, XPATH 질의는 속성 노드가 값을 변경할 때를 판정한다. 상술된 바와 같이, 속성은 이진 값, 숫자 값, 문자열 값, 또는 다른 유형의 값을 가질 수 있다. 속성 노드들(각각 DOM(700) 내에 노드(704 및 706)로 나타냄)은 상호작용 멀티미디어 프리젠테이션이 재생될 때 및/또는 사용자 이벤트와 같은 이벤트에 응답하여, 특정 값으로 변한다. 한 구현에서, XPATH 질의는 질의된 값에 기초하여 참 또는 거짓으로 변한다. 이러한 방식으로, 특정 미디어 개체에 대한 실제 시간 간격이 형성될 수 있고, XPATH는 컨텐츠 데이터 구조 내의 정보를 조회 및/또는 모니터하기 위해 타이밍 구조 내에서 유리하게 사용될 수 있다. 질의는 하나 이상의 속성 노드 상에서 동시에 실행될 수 있고, 속성에 대한 논리적 참조를 수반하는 표현 또는 조건은 또한 질의를 정의하기 위해 사용될 수 있다. 예를 들어, "AND", "OR" 및 "NOT"과 같은 부울 피연산자는 다른 피연산자 또는 그 유형과 함께, 그러한 표현 또는 조건을 정의하기 위해 사용될 수 있다. 몇몇 경우에, 소정의 주기적인 질의를 스킵하는 것이 가능할 수도 있다. 예를 들어, 질의 결과 및/또는 다른 정보의 분석에 기초하여, 질의 결과가 변하지 않을 기간이 식별될 수 있고, 쿼링은 그들 기간 동안에 스킵되었다.
XPATH 질의는 타이밍 신호(401) 또는 타이밍 신호(471)에서와 같은 타이밍 신호에 기초한 속도로 DOM 상에서 실행될 수 있다. 타이밍 신호(401 및 471)는 DOM이 질의되는 시간을 설정하기 위해 직접적으로 또는 간접적으로 관련될 수 있다는 것을 이해할 것이다. 예를 들어, 타이밍 신호(401)는 클록 소스(402), IC 프레임 속도 계산기(404), A/V 프레임 속도 계산기(406), 애플리케이션 시간(492) 또는 페이지 시간(494)을 통해 간접적으로 관련될 수 있다. 이와 마찬가지로, 타이밍 신호(471)는 예를 들어, 클록 소스(407), 경과된 클립 재생 시간(들)(452), 시간 기준 계산기(454), 미디어 시간 기준(455), 시간 기준 계산기(408) 또는 타이틀 시간 기준(409)을 통해 간접적으로 관련될 수 있다. 또한, 클록, 타이밍 신호, 시간 기준 계산기 및/또는 시간 기준에 대한 논리적 참조를 수반하는 표현은 또한 질의가 DOM 상에서 실행되는 때를 정의하기 위해 사용될 수 있다. 예를 들어, "AND", "OR" 및 "NOT"과 같은 부울 피연산자는 다른 피연산자 또는 그 유형과 함께, 그러한 표현 또는 조건을 정의하기 위해 사용될 수 있다.
특정 동작이 DOM의 질의를 통해 검출된 상태 변경에 의해 트리거될 때, 적절한 컨텐츠가 액세스되고, 동작에 관련된 명령어가 실행된다. 예를 들어, 외부 이벤트 처리기는 일반적으로 이벤트-관련 컨텐츠를 액세스하고, 이벤트에 관련된 명령어의 실행을 준비한다. 트리거된 동작에 관련된 명령어의 실행으로부터 비롯된 작업 항목(도시되지 않음)은 질의(들)(도시되지 않음) 내에 배치되고, IC 프레임 속도(405)에 의해 제공된 속도와 같은 미리 결정된 속도로 실행된다. 작업 항목의 성능으로부터 비롯된 IC 데이터(134)(예를 들어, 사용자 입력에 따른 특정 미디어 개체의 렌더링)는 믹서/렌더러(110)에 전송된다. 믹서/렌더러(110)는 사용자를 위한 재생된 프리젠테이션(127)의 상호작용 부분을 생성하기 위해 그래픽 평면 내에 IC 데이터(134)를 렌더링한다.
그러므로, 애플리케이션은 미디어 개체의 특정 특성의 상태를 지정하는 소정의 선언형 언어 명령어, 및 특성의 상태 변경에 기초하여 상호작용 멀티미디어 프리젠테이션의 상호작용 컨텐츠의 재생과 관련된 (미디어 개체의 렌더링, 이벤트 발생, 변수 변경, 및 기타 동작과 같은) 동작을 지정하는 다른 선언형 언어 명령어를 제공한다. 상호작용 컨텐츠의 재생과 관련된 동작은 상태 변경을 검출하기 위해 애플리케이션의 구조적 표현을 주기적으로 질의함으로써 조건부로 트리거될 수 있다. XPATH 기능은 그러한 상태 변경을 검출하기 위한 DOM의 질의에 아주 적합하다.
도 6의 방법이 재생된 프리젠테이션(127) 내의 IC 데이터(134)/IC 컴포넌트(124)의 특정 미디어 개체(125)를 제시하기 위해 프리젠테이션 시스템(100) 내에서 사용할 수 있는 방식의 한 예가 제공된다. 설명을 위해, 재생된 프리젠테이션(127)은 고선명 DVD 영화이고, 미디어 개체는 버튼 그래픽이며, 대화성은 영화의 최소한 몇몇 부분과 동시에, (도 2에 도시된) 메뉴(280) 내의 사용자 선택가능 항목으로서 버튼 그래픽을 제시하는 애플리케이션(155)에 의해 제공된다고 하자. 애플리케이션은 "포커스된(focused)"으로 호칭된 속성을 갖는 "마이버튼(Mybutton)"으로 호칭된 컨텐츠 요소를 포함한다. 포커스된 속성은 사용자의 제스처 이벤트에 기초하여 포커스된 그리고 포커스되지 않은 상태들을 취할 수 있다. 포커스된 상태가 참이 되도록 하는 제스처 이벤트의 한 예는 사용자가 특정 버튼의 "핫스폿(hotspot)" 영역을 조작하는 경우(예를 들면, 사용자는 커서의 팁을 핫스폿으로 이동시킴)이다. 포커스된 상태가 거짓이 되도록 하는 제스처 이벤트의 한 예는 사용자가 메뉴(280)로부터 상이한 항목을 선택하는 경우이다.
특정 제스처 이벤트에 기초하여 참 또는 거짓일 수 있는 "포커스된"이라고 하는 속성을 갖고 있는 컨텐츠 요소, 예를 들어 "MyButton"과 관련된 미디어 개체의 렌더링을 조건부로 트리거하기 위해 사용할 수 있는 선언형 언어 명령어를 나타낸 의사 코드는 아래와 같이 표시된다:
Figure 112007094469339-PCT00007
"파(par)" 타이밍 요소는 "Mybutton" 요소와 관련된 미디어 개체를 렌더링하는 동작을 설명한다는 것을 알 수 있다. 동작은 Mybutton 요소의 포커스된 속성을 나타내는 DOM 노드의 질의가 참으로 될 때 트리거되고(즉, 미디어 개체가 렌더링되고), 동작은 Mybutton 요소의 포커스된 속성을 나타내는 DOM 노드의 질의가 거짓으로 될 때 정지된다(즉, 미디어 개체가 렌더링되지 않는다). 이 예에서, 렌더링가능한 미디어 개체는 상태의 수를 추정하도록 구성된 특성을 갖는 것과 동일한 미디어 개체이지만, 렌더링가능한 미디어 개체(들)은 서로 다를 수 있다.
도 6에 도시된 프로세스(들)은 도 8과 관련하여 후술되는 프로세서(802)와 같은 하나 이상의 범용, 다용도, 또는 단일 용도 프로세서로 구현될 수 있다. 구체적으로 나타내지 않는 한, 여기에 설명된 방법은 특정 순서 또는 시퀀스에 제한되지 않는다. 또한, 설명된 방법 또는 그 요소의 몇몇은 동시에 발생하거나 실행될 수 있다.
도 8은 프리젠테이션 시스템(100)의 다양한 기능 컴포넌트를 구현하거나, 그에 의해 액세스되거나, 그 안에 포함될 수 있는 소정의 기능 컴포넌트들을 나타내는 범용 컴퓨팅 장치(800)의 블록도이다. 컴퓨팅 장치(800)의 하나 이상의 컴포넌트는 IC 관리자(104), 프리젠테이션 관리자(106) 및 AVC 관리자(102)를 구현하거나, 그에 의해 액세스되거나, 그 안에 포함될 수 있다. 예를 들어, 도 8의 하나 이상의 컴포넌트는 다양한 방식으로 프리젠테이션 시스템(100)의 기능들을 구현하기 위해(전체 또는 부분적으로) 함께 또는 개별적으로 패키지될 수 있다.
프로세서(802)는 컴퓨터 판독가능 매체(804) 및 컴퓨터 프로그램(806)에 응답한다. 실제 또는 가상 프로세서일 수 있는 프로세서(802)는 컴퓨터 실행가능 명령어들을 실행함으로써 전자 장치의 기능들을 제어한다. 프로세서(802)는 어셈블리, 컴파일 또는 기계 레벨에서 명령어들을 실행하여 특정 프로세스를 수행할 수 있다. 이러한 명령어들은 소스 코드 또는 임의의 다른 공지 컴퓨터 프로그램 설계 도구를 이용하여 생성될 수 있다.
컴퓨터 판독가능 매체(804)는 프로세서(802)에 의해 실행가능한 명령어들과 같은 컴퓨터 판독가능 데이터를 기록, 저장 또는 전송할 수 있는 현재 공지되었거나 나중에 개발될 임의 형태의 임의 수 및 조합의 로컬 또는 원격 장치들을 나타낸다. 구체적으로, 컴퓨터 판독가능 매체(804)는 반도체 메모리(예를 들어, 판독 전용 메모리("ROM"), 임의 유형의 프로그래머블 ROM("PROM"), 랜덤 액세스 메모리("RAM"), 또는 플래시 메모리 등); 자기 저장 장치(플로피 디스크 드라이브, 하드 디스크 드라이브, 자기 드럼, 자기 테이프, 또는 광자기 디스크 등); 광학 저장 장치(임의 유형의 컴팩트 디스크 또는 디지털 다기능 디스크 등); 버블 메모리; 캐시 메모리; 코어 메모리; 홀로그래픽 메모리; 메모리 스틱; 종이 테이프, 펀치 카드; 또는 이들의 임의 조합이거나 이들을 포함할 수 있다. 컴퓨터 판독가능 매체(804)는 또한 전송 매체 및 관련 데이터를 포함할 수 있다. 전송 매체/데이터의 예는 피변조 반송파 신호에 의해 반송되는 패킷화되거나 패킷화되지 않은 데이터와 같은 임의 형태의 유선 또는 무선 전송으로 구현되는 데이터를 포함하지만 이에 제한되는 것은 아니다.
컴퓨터 프로그램(806)은 데이터에 대한 소정의 동작들을 전자적으로 제어하는 임의의 신호 처리 방법들 또는 저장 명령어들을 나타낸다. 일반적으로, 컴퓨터 프로그램(806)은 컴포넌트 기반 소프트웨어 개발을 위한 공지 관례에 따라 소프트웨어 컴포넌트로서 구현되고 컴퓨터 판독가능 매체(컴퓨터 판독가능 매체(804) 등) 내에 인코딩되는 컴퓨터 실행가능 명령어들이다. 컴퓨터 프로그램은 다양한 방식으로 조합 또는 분산될 수 있다.
프리젠테이션 시스템(100)의 컨텍스트에서 설명된 기능들/컴포넌트들은 컴퓨터 프로그램의 임의의 특정 실시예에 의한 구현으로 제한되지 않는다. 오히려, 기능들은 데이터를 전송 또는 변환하는 프로세스들이며, 일반적으로 프리젠테이션 시스템(100)의 기능 요소들의 임의 조합에 위치하거나 그에 의해 액세스되는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의 조합에 의해 구현되거나 실행될 수 있다.
도 8과 계속 관련하여, 도 9는 프리젠테이션 시스템(100)의 모두 또는 일부가 구현 또는 사용될 수 있는 운영 환경(900)의 예시적인 구성의 블록도이다. 운영 환경(900)은 일반적으로 광범위한 범용 또는 특수 목적 컴퓨팅 환경을 나타낸다. 운영 환경(900)은 적절한 운영 환경의 일례에 불과하며, 본 명세서에서 설명되는 시스템(들) 및 방법들의 용도 또는 기능성의 범위에 관해 어떤 제한을 암시하고자 하는 것이 아니다. 예를 들어, 운영 환경(900)은 퍼스널 컴퓨터, 워크스테이션, 서버, 휴대형 장치, 랩톱, 타블렛과 같은 일 유형의 컴퓨터, 또는 광학 미디어 재생기 또는 현재 공지되었거나 나중에 개발될 다른 유형의 미디어 재생기와 같은 임의의 다른 유형의 전자 장치, 또는 이들의 임의 양태일 수 있다. 운영 환경(900)은 또한 예를 들어 분산 컴퓨팅 네트워크 또는 웹 서비스일 수 있다. 운영 환경의 특정 예는 고선명 DVD 영화의 재생을 돕는 DVD 재생기 또는 관련 운영 체제와 같은 환경이다.
도시된 바와 같이, 운영 환경(900)은 프로세서(802), 컴퓨터 판독가능 매체(804), 및 컴퓨터 프로그램(806)을 포함하는 컴퓨팅 장치(800)의 컴포넌트들을 포함하거나 액세스한다. 저장 장치(904)는 광 디스크 드라이브(906)에 의해 처리되는 광 디스크와 같이 운영 환경(900)과 특별히 연관된 추가 또는 상이한 컴퓨터 판독가능 매체를 포함한다. 공지되었고 널리 이용가능한 요소들인 하나 이상의 내부 버스(920)가 운영 환경(900) 또는 그의 요소들에 대해 데이터, 어드레스, 제어 신호 및 다른 정보를 전송하는 데 사용될 수 있다.
입력 인터페이스(들)(908)는 컴퓨팅 환경(900)에 입력을 제공한다. 입력은 사용자 인터페이스와 같은 임의 유형의 현재 공지되었거나 나중에 개발될 인터페이스를 이용하여 수집될 수 있다. 사용자 인터페이스는 리모컨과 같은 터치 입력 장치, 표시 장치, 마우스, 펜, 스타일러스, 트랙볼, 키보드, 마이크, 스캐닝 장치, 및 데이터 입력에 사용되는 모든 유형의 장치일 수 있다.
출력 인터페이스(들)(910)는 컴퓨팅 환경(900)으로부터 출력을 제공한다. 출력 인터페이스(910)의 예는 표시 장치, 프린터, 스피커, 드라이브(광 디스크 드라이브(906) 및 기타 디스크 드라이브 등) 등을 포함한다.
외부 통신 인터페이스(들)(912)는 채널 신호, 데이터 신호와 같은 통신 매체 또는 컴퓨터 판독가능 매체를 통해 다른 엔티티에 대해 정보를 송수신할 수 있는 컴퓨팅 환경(900)의 능력을 향상시키기 위해 이용될 수 있다. 외부 통신 인터페이스(912)는 관련 네트워크 지원 장치 및/또는 소프트웨어 또는 인터페이스와 함께, 케이블 모뎀, 데이터 단말 장비, 미디어 재생기, 데이터 저장 장치, 개인 휴대 단말과 같은 요소들, 또는 임의의 다른 장치 또는 컴포넌트/이들의 조합이거나 이들의 포함할 수 있다.
도 10은 프리젠테이션 시스템(100) 또는 운영 환경(900)이 사용될 수 있는 클라이언트-서버 아키텍처(1000)의 간략화된 기능 블록도이다. 프리젠테이션 시스템(100) 및/또는 운영 환경(900)의 하나 이상의 양태가 아키텍처(1000)의 클라이언트측(1002) 또는 아키텍처(1000)의 서버측(1004) 상에 나타날 수 있다. 도시된 바와 같이, 통신 프레임워크(1003)(임의 유형, 예를 들어 유선 또는 무선 유형의 임의의 공용 또는 사설 네트워크일 수 있다)는 클라이언트측(1002)과 서버측(1004) 간의 통신을 돕는다.
클라이언트측(1002) 상에서, 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의 조합으로 구현될 수 있는 하나 이상의 클라이언트(1006)는 클라이언트 데이터 스토어(1008)에 응답한다. 클라이언트 데이터 스토어(1008)는 클라이언트(1006)에 국한된 정보를 저장하는 데 사용되는 컴퓨터 판독가능 매체(804)일 수 있다. 서버측(1004) 상에서, 하나 이상의 서버(1010)는 서버 데이터 스토어(1012)에 응답한다. 클라이언트 데이터 스토어(1008)와 같이, 서버 데이터 스토어(1012)는 서버(1010)에 국한된 정보를 저장하는 데 사용되는 컴퓨터 판독가능 매체(804)일 수 있다.
상호작용 콘텐츠를 오디오/비디오 콘텐츠와 동시에 사용자에게 프리젠테이션하는 데 사용되는 상호작용 멀티미디어 프리젠테이션 시스템의 다양한 양태가 설명되었다. 상호작용 멀티미디어 프리젠테이션은 일반적으로 재생 지속 기간, 가변 재생 속도, 비디오 컴포넌트, 및 IC 컴포넌트를 갖는 것으로 설명되었다. 그러나 전술한 모든 컴포넌트가 사용될 필요는 없으며, 컴포넌트들은 사용시에 동시에 존재할 필요도 없음을 이해할 것이다. 프리젠테이션 시스템(100)의 컨텍스트에서 컴퓨터 프로그램인 것으로 설명된 기능들/컴포넌트들은 컴퓨터 프로그램의 임의의 특정 실시예들에 의한 구현으로 제한되지 않는다. 오히려, 기능들은 데이터를 전송 또는 변환하는 프로세스들이며, 일반적으로 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의 조합으로 구현 또는 실행될 수 있다.
본 명세서에서 본 발명은 구조적 특징 및/또는 방법적 동작에 고유한 언어로 설명되었지만, 청구범위에 정의된 발명은 전술한 특정 특징 또는 동작으로 제한될 필요가 없다는 것을 또한 이해해야 한다. 오히려, 전술한 특정 특징 또는 동작은 청구범위를 구현하는 예시적인 형태로서 개시된다.
또한, 하나의 요소가 다른 요소에 응답하는 것으로 지시될 때, 요소들은 직접 또는 간접적으로 결합될 수 있다는 것을 이해할 것이다. 본 명세서에 묘사된 접속들은 요소들 사이의 결합 또는 통신 인터페이스를 달성하기 위해 실제로 논리 또는 물리적일 수 있다. 접속들은 특히 소프트웨어 프로세스들 사이의 프로세스간 통신, 또는 네트워킹된 컴퓨터들 사이의 기계간 통신으로서 구현될 수 있다.
"예시적인"이라는 단어는 본 명세서에서 사례, 보기 또는 예시로서 기능하는 것을 의미하기 위해 사용된다. 본 명세서에서 "예시적인" 것으로 설명되는 임의의 구현 또는 양태는 다른 구현 또는 양태보다 바람직하거나 이로운 것으로서 구성될 필요는 없다.
첨부된 청구범위의 사상 및 범위를 벗어나지 않고, 전술한 특정 실시예들과 다른 실시예들이 발명될 수 있다는 것을 이해할 것이므로, 본 발명의 범위는 아래의 청구범위에 의해 결정됨을 의도한다.

Claims (20)

  1. 하나 이상의 미디어 개체들을 참조하는 선언형 마크업 언어 문서의 구조적 표현에서의 상태 변화를 식별하기 위한 방법으로서,
    상기 표현 내의 한 노드에 액세스하기 위하여 질의를 실행하는 단계;
    상기 질의에 기초하여, 상기 노드가 미리 정해진 값을 갖는지 여부를 결정하는 단계; 및
    상기 결정에 기초하여, 질의 결과를 설정하는 단계
    를 포함하며,
    상호작용 멀티미디어 프리젠테이션의 상호작용 컨텐츠 컴포넌트 재생과 연관된 동작을 트리거하는 데 상기 질의 결과가 이용되는, 하나 이상의 미디어 개체들을 참조하는 선언형 마크업 언어 문서의 구조적 표현에서의 상태 변화를 식별하기 위한 방법.
  2. 제1항에 있어서, 상기 구조적 표현은 XML 문서로부터 생성된 "DOM(document object model)"인 방법.
  3. 제2항에 있어서, 상기 노드는 상기 XML 문서와 연관된 컨텐츠 데이터를 나타내는 방법.
  4. 제1항에 있어서, 상기 노드가 미리 정해진 값을 갖는지 여부를 결정하는 단계는 상기 노드의 값이 변경되었는지 여부를 결정하는 단계를 포함하는 방법.
  5. 제1항에 있어서, 상기 질의는 XPATH 질의를 포함하는 방법.
  6. 상호작용 멀티미디어 프리젠테이션과 연관된 상호작용 컨텐츠 재생을 위한 방법으로서,
    상기 상호작용 컨텐츠를 재생하기 위한 명령어들을 갖는 애플리케이션을 액세스하는 단계 - 상기 명령어들은,
    선언형을 갖고 미디어 개체의 특성을 지정하는 제1 명령어 - 상기 특성은 상기 상호작용 멀티미디어 프리젠테이션의 재생 동안 제1 상태 및 제2 상태 중 하나를 취하도록 구성됨 - , 및
    선언형을 갖고 상기 제1 상태로부터 상기 제2 상태로의 상기 특성의 상태 변화에 기초한 상기 상호작용 컨텐츠 재생과 연관된 동작을 지정하는 제2 명령어을 포함함 - ;
    상기 특성의 상태 변화를 검출하기 위하여 상기 애플리케이션의 구조적 표현의 주기적 질의를 준비하는 단계;
    상기 상태 변화의 검출에 기초하여, 상기 상호작용 컨텐츠 재생과 연관된 동작을 준비하는 단계
    를 포함하는 상호작용 멀티미디어 프리젠테이션과 연관된 상호작용 컨텐츠 재생을 위한 방법.
  7. 제6항에 있어서, 상기 상호작용 컨텐츠는 미디어 개체를 포함하며, 상기 제2 명령어는 상기 특성의 상태 변화에 기초하여 상기 미디어 개체가 언제 렌더링 가능한 지를 지정하고, 상기 상태 변화의 검출은 상기 미디어 개체의 렌더링을 트리거하는 방법.
  8. 제6항에 있어서, 상기 제1 명령어는 XML 컨텐츠 요소와 연관된 속성을 포함하는 방법.
  9. 제8항에 있어서, 상기 속성은 스타일 속성 및 비스타일 속성 중 하나를 포함하는 방법.
  10. 제8항에 있어서, 상기 제1 상태 및 상기 제2 상태는 상기 속성의 값들을 포함하는 방법.
  11. 제10항에 있어서, 상기 속성의 값들은 이진 값들, 숫자 값들, 문자열 값들, 및 미리 정해진 값들의 세트들로 이루어지는 그룹으로부터 선택되는 방법.
  12. 제6항에 있어서, 상기 제2 명령어는 XML 타이밍 요소를 포함하는 방법.
  13. 제6항에 있어서, 상기 제2 명령어는 상기 상태 변화에 기초하여 이벤트 생성을 지정하는 방법.
  14. 제6항에 있어서, 상기 제2 명령어는 상기 상태 변화에 기초하여 변수 값 변화를 지정하는 방법.
  15. 제6항에 있어서, 상기 제2 명령어는 상기 상태 변화에 기초하여 스크립트 명령어들의 실행을 지정하는 방법.
  16. 제6항에 있어서, 상기 애플리케이션의 구조적 표현은 상기 제1 명령어에 대응하는 제1 노드 및 상기 제2 명령어에 대응하는 제2 노드를 갖는 방법.
  17. 제16항에 있어서, 상기 구조적 표현의 주기적인 질의를 준비하는 단계는 XPATH 질의를 이용하여 상기 제1 노드 및 제2 노드 중 하나를 조사하는 단계를 포함하는 방법.
  18. 제6항에 있어서, 상기 주기적 질의는 가변 레이트에서 수행되는 방법.
  19. 제6항에 있어서, 상기 구조적 표현은 "DOM(document object model)"을 포함 하는 방법.
  20. 제6항의 단계들을 수행하기 위한 컴퓨터 실행 가능 명령어들로 인코딩된 컴퓨터 판독 가능 매체.
KR1020077030790A 2005-07-01 2006-06-22 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍 KR101354739B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US69594405P 2005-07-01 2005-07-01
US60/695,944 2005-07-01
US11/405,737 US20070006079A1 (en) 2005-07-01 2006-04-18 State-based timing for interactive multimedia presentations
US11/405,737 2006-04-18
PCT/US2006/024225 WO2007005301A2 (en) 2005-07-01 2006-06-22 State-based timing for interactive multimedia presentations

Publications (2)

Publication Number Publication Date
KR20080019255A true KR20080019255A (ko) 2008-03-03
KR101354739B1 KR101354739B1 (ko) 2014-01-22

Family

ID=37591306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077030790A KR101354739B1 (ko) 2005-07-01 2006-06-22 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍

Country Status (5)

Country Link
US (1) US20070006079A1 (ko)
EP (1) EP1908072A4 (ko)
JP (1) JP4959696B2 (ko)
KR (1) KR101354739B1 (ko)
WO (1) WO2007005301A2 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8799757B2 (en) * 2005-07-01 2014-08-05 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US7721308B2 (en) 2005-07-01 2010-05-18 Microsoft Corproation Synchronization aspects of interactive multimedia presentation management
US8305398B2 (en) 2005-07-01 2012-11-06 Microsoft Corporation Rendering and compositing multiple applications in an interactive media environment
US8020084B2 (en) 2005-07-01 2011-09-13 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US8656268B2 (en) 2005-07-01 2014-02-18 Microsoft Corporation Queueing events in an interactive media environment
US7941522B2 (en) * 2005-07-01 2011-05-10 Microsoft Corporation Application security in an interactive media environment
US8108787B2 (en) * 2005-07-01 2012-01-31 Microsoft Corporation Distributing input events to multiple applications in an interactive media environment
US7814412B2 (en) * 2007-01-05 2010-10-12 Microsoft Corporation Incrementally updating and formatting HD-DVD markup
US20080165281A1 (en) * 2007-01-05 2008-07-10 Microsoft Corporation Optimizing Execution of HD-DVD Timing Markup
NL2000992C2 (nl) 2007-11-09 2009-05-12 Nunhems Bv Nieuwe komkommerplanten met compacte groeiwijze.
US8230039B2 (en) * 2008-04-16 2012-07-24 Adobe Systems, Incorporated Systems and methods for accelerated playback of rich internet applications
USRE47059E1 (en) 2010-07-24 2018-09-25 Joel Nevins Computer-implemented methods and computer program products for integrating and synchronizing multimedia content, including content displayed via interactive televisions, smartphones, electronic book readers, holographic imagery projectors, and other computerized devices
US8739019B1 (en) 2011-07-01 2014-05-27 Joel Nevins Computer-implemented methods and computer program products for integrating and synchronizing multimedia content, including content displayed via interactive televisions, smartphones, electronic book readers, holographic imagery projectors, and other computerized devices
US8982132B2 (en) * 2011-02-28 2015-03-17 Adobe Systems Incorporated Value templates in animation timelines
USD775183S1 (en) 2014-01-03 2016-12-27 Yahoo! Inc. Display screen with transitional graphical user interface for a content digest
US9971756B2 (en) 2014-01-03 2018-05-15 Oath Inc. Systems and methods for delivering task-oriented content
US10503357B2 (en) * 2014-04-03 2019-12-10 Oath Inc. Systems and methods for delivering task-oriented content using a desktop widget
US9558180B2 (en) 2014-01-03 2017-01-31 Yahoo! Inc. Systems and methods for quote extraction
US9742836B2 (en) 2014-01-03 2017-08-22 Yahoo Holdings, Inc. Systems and methods for content delivery
US9940099B2 (en) 2014-01-03 2018-04-10 Oath Inc. Systems and methods for content processing
US10127210B1 (en) * 2015-09-25 2018-11-13 Amazon Technologies, Inc. Content rendering
US20170344523A1 (en) * 2016-05-25 2017-11-30 Samsung Electronics Co., Ltd Method and apparatus for presentation customization and interactivity
US11978448B2 (en) * 2019-02-26 2024-05-07 Lg Electronics Inc. Display device and method of operating the same
CN113163246A (zh) * 2020-01-22 2021-07-23 阿里巴巴集团控股有限公司 处理方法、处理装置及电子设备

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2512250B2 (ja) * 1991-09-13 1996-07-03 松下電器産業株式会社 動画表示ワ―クステ―ション
US5394547A (en) * 1991-12-24 1995-02-28 International Business Machines Corporation Data processing system and method having selectable scheduler
US5574934A (en) * 1993-11-24 1996-11-12 Intel Corporation Preemptive priority-based transmission of signals using virtual channels
JP2701724B2 (ja) * 1993-12-28 1998-01-21 日本電気株式会社 シナリオ編集装置
USRE44685E1 (en) * 1994-04-28 2013-12-31 Opentv, Inc. Apparatus for transmitting and receiving executable applications as for a multimedia system, and method and system to order an item using a distributed computing system
US6122433A (en) * 1994-10-20 2000-09-19 Thomson Licensing S.A. HDTV trick play stream derivation for VCR
US5717468A (en) * 1994-12-02 1998-02-10 International Business Machines Corporation System and method for dynamically recording and displaying comments for a video movie
JP3701051B2 (ja) * 1995-07-04 2005-09-28 パイオニア株式会社 情報記録装置及び情報再生装置
US5659539A (en) * 1995-07-14 1997-08-19 Oracle Corporation Method and apparatus for frame accurate access of digital audio-visual information
JP3471526B2 (ja) * 1995-07-28 2003-12-02 松下電器産業株式会社 情報提供装置
US5631694A (en) * 1996-02-01 1997-05-20 Ibm Corporation Maximum factor selection policy for batching VOD requests
US6240555B1 (en) * 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US5877763A (en) * 1996-11-20 1999-03-02 International Business Machines Corporation Data processing system and method for viewing objects on a user interface
US6069633A (en) * 1997-09-18 2000-05-30 Netscape Communications Corporation Sprite engine
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6665835B1 (en) * 1997-12-23 2003-12-16 Verizon Laboratories, Inc. Real time media journaler with a timing event coordinator
US6385596B1 (en) * 1998-02-06 2002-05-07 Liquid Audio, Inc. Secure online music distribution system
US6426778B1 (en) * 1998-04-03 2002-07-30 Avid Technology, Inc. System and method for providing interactive components in motion video
EP1034656A2 (en) * 1998-06-11 2000-09-13 Koninklijke Philips Electronics N.V. Trick play signal generation for a digital video recorder
US6212595B1 (en) * 1998-07-29 2001-04-03 International Business Machines Corporation Computer program product for fencing a member of a group of processes in a distributed processing environment
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
US6715126B1 (en) * 1998-09-16 2004-03-30 International Business Machines Corporation Efficient streaming of synchronized web content from multiple sources
GB2344453B (en) * 1998-12-01 2002-12-11 Eidos Technologies Ltd Multimedia editing and composition system having temporal display
US6637031B1 (en) * 1998-12-04 2003-10-21 Microsoft Corporation Multimedia presentation latency minimization
US6430570B1 (en) * 1999-03-01 2002-08-06 Hewlett-Packard Company Java application manager for embedded device
US6369830B1 (en) * 1999-05-10 2002-04-09 Apple Computer, Inc. Rendering translucent layers in a display system
US6629150B1 (en) * 1999-06-18 2003-09-30 Intel Corporation Platform and method for creating and using a digital container
US6772413B2 (en) * 1999-12-21 2004-08-03 Datapower Technology, Inc. Method and apparatus of data exchange using runtime code generator and translator
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
AU2773301A (en) * 2000-01-06 2001-07-16 Hd Media, Inc. System and method for distributing and controlling the output of media in publicspaces
US20020157103A1 (en) * 2000-01-07 2002-10-24 Deyang Song Method for digital media playback in a broadcast network
US7725812B1 (en) * 2000-03-31 2010-05-25 Avid Technology, Inc. Authoring system for combining temporal and nontemporal digital media
US6505153B1 (en) * 2000-05-22 2003-01-07 Compaq Information Technologies Group, L.P. Efficient method for producing off-line closed captions
US7131143B1 (en) * 2000-06-21 2006-10-31 Microsoft Corporation Evaluating initially untrusted evidence in an evidence-based security policy manager
US7669238B2 (en) * 2000-06-21 2010-02-23 Microsoft Corporation Evidence-based application security
KR100424481B1 (ko) * 2000-06-24 2004-03-22 엘지전자 주식회사 디지털 방송 부가서비스 정보의 기록 재생장치 및 방법과그에 따른 기록매체
US8495679B2 (en) * 2000-06-30 2013-07-23 Thomson Licensing Method and apparatus for delivery of television programs and targeted de-coupled advertising
US7350204B2 (en) * 2000-07-24 2008-03-25 Microsoft Corporation Policies for secure software execution
EP1312206A1 (en) * 2000-08-16 2003-05-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
US6785729B1 (en) * 2000-08-25 2004-08-31 International Business Machines Corporation System and method for authorizing a network user as entitled to access a computing node wherein authenticated certificate received from the user is mapped into the user identification and the user is presented with the opprtunity to logon to the computing node only after the verification is successful
US6967725B2 (en) * 2000-10-13 2005-11-22 Lucent Technologies Inc. System and method for optical scanning
US20020099738A1 (en) * 2000-11-22 2002-07-25 Grant Hugh Alexander Automated web access for back-end enterprise systems
US6792426B2 (en) * 2001-01-10 2004-09-14 International Business Machines Corporation Generic servlet for browsing EJB entity beans
US6500188B2 (en) * 2001-01-29 2002-12-31 Ethicon Endo-Surgery, Inc. Ultrasonic surgical instrument with finger actuator
US20020188616A1 (en) * 2001-06-07 2002-12-12 Chinnici Roberto R. Database access bridge system and process
WO2003005190A1 (en) * 2001-07-06 2003-01-16 E-Genie Australia Pty Limited Method and system for computer software application execution
US6565153B2 (en) * 2001-07-31 2003-05-20 Johnson Controls Technology Corporation Upper back support for a seat
EP1286349A1 (en) * 2001-08-21 2003-02-26 Canal+ Technologies Société Anonyme File and content management
US6920613B2 (en) * 2001-08-27 2005-07-19 Xerox Corporation Video/text bi-directional linkage for software fault clearance applications
JP3852568B2 (ja) * 2001-09-11 2006-11-29 ソニー株式会社 マルチメディアプレゼンテーション作成装置および方法
US7356763B2 (en) * 2001-09-13 2008-04-08 Hewlett-Packard Development Company, L.P. Real-time slide presentation multimedia data object and system and method of recording and browsing a multimedia data object
US20040205479A1 (en) * 2001-10-30 2004-10-14 Seaman Mark D. System and method for creating a multimedia presentation
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US6925499B1 (en) * 2001-12-19 2005-08-02 Info Value Computing, Inc. Video distribution system using disk load balancing by file copying
US20030142137A1 (en) * 2002-01-28 2003-07-31 International Business Machines Corporation Selectively adjusting the order of windows in response to a scroll wheel rotation
AU2003206150A1 (en) * 2002-02-07 2003-09-02 Samsung Electronics Co., Ltd Information storage medium containing display mode information, and reproducing apparatus and method therefor
TWI247295B (en) * 2002-03-09 2006-01-11 Samsung Electronics Co Ltd Reproducing method and apparatus for interactive mode using markup documents
US20030182364A1 (en) * 2002-03-14 2003-09-25 Openwave Systems Inc. Method and apparatus for requesting and performing batched operations for web services
US7127700B2 (en) * 2002-03-14 2006-10-24 Openwave Systems Inc. Method and apparatus for developing web services using standard logical interfaces to support multiple markup languages
US7496845B2 (en) * 2002-03-15 2009-02-24 Microsoft Corporation Interactive presentation viewing system employing multi-media components
US7080043B2 (en) * 2002-03-26 2006-07-18 Microsoft Corporation Content revocation and license modification in a digital rights management (DRM) system on a computing device
US20030204602A1 (en) * 2002-04-26 2003-10-30 Hudson Michael D. Mediated multi-source peer content delivery network architecture
US7496599B2 (en) * 2002-04-30 2009-02-24 Microsoft Corporation System and method for viewing relational data using a hierarchical schema
US6928619B2 (en) * 2002-05-10 2005-08-09 Microsoft Corporation Method and apparatus for managing input focus and z-order
US20040034622A1 (en) * 2002-08-13 2004-02-19 Espinoza Danny Javier Applications software and method for authoring and communicating multimedia content in a multimedia object communication and handling platform
US7290057B2 (en) * 2002-08-20 2007-10-30 Microsoft Corporation Media streaming of web content data
US7038581B2 (en) * 2002-08-21 2006-05-02 Thomson Licensing S.A. Method for adjusting parameters for the presentation of multimedia objects
US20040039909A1 (en) * 2002-08-22 2004-02-26 David Cheng Flexible authentication with multiple levels and factors
US20040107179A1 (en) * 2002-08-22 2004-06-03 Mdt, Inc. Method and system for controlling software execution in an event-driven operating system environment
US7519616B2 (en) * 2002-10-07 2009-04-14 Microsoft Corporation Time references for multimedia objects
US7840856B2 (en) * 2002-11-07 2010-11-23 International Business Machines Corporation Object introspection for first failure data capture
US7328076B2 (en) * 2002-11-15 2008-02-05 Texas Instruments Incorporated Generalized envelope matching technique for fast time-scale modification
KR20040045101A (ko) * 2002-11-22 2004-06-01 삼성전자주식회사 마크업 화면에 매립된 오브젝트 화면의 입력 아이템을포커싱하는 방법 및 그 정보저장매체
KR100484181B1 (ko) * 2002-12-02 2005-04-20 삼성전자주식회사 멀티미디어 문서 저작 장치 및 방법
JP2007524875A (ja) * 2003-01-10 2007-08-30 ネクサウェブ テクノロジーズ インコーポレイテッド ネットワーク・ベースの処理のためのシステムおよび方法
US7302057B2 (en) * 2003-01-31 2007-11-27 Realnetworks, Inc. Method and process for transmitting video content
US7735104B2 (en) * 2003-03-20 2010-06-08 The Directv Group, Inc. System and method for navigation of indexed video content
US7620301B2 (en) * 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
US6906643B2 (en) * 2003-04-30 2005-06-14 Hewlett-Packard Development Company, L.P. Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
JP2004357275A (ja) * 2003-05-07 2004-12-16 Nec Corp 映像記録装置、記録媒体、映像記録方法及びプログラム
US20040244003A1 (en) * 2003-05-30 2004-12-02 Vidiator Enterprises Inc. Apparatus and method for task scheduling for media processing
US7739715B2 (en) * 2003-06-24 2010-06-15 Microsoft Corporation Variable play speed control for media streams
GB2403697B (en) * 2003-07-09 2006-05-24 Peter Gordon Martin Cycle saddle suspension assembly
US7511718B2 (en) * 2003-10-23 2009-03-31 Microsoft Corporation Media integration layer
US8065616B2 (en) * 2003-10-27 2011-11-22 Nokia Corporation Multimedia presentation editor for a small-display communication terminal or computing device
US7882034B2 (en) * 2003-11-21 2011-02-01 Realnetworks, Inc. Digital rights management for content rendering on playback devices
US7681114B2 (en) * 2003-11-21 2010-03-16 Bridgeborn, Llc Method of authoring, deploying and using interactive, data-driven two or more dimensional content
BRPI0407057A (pt) * 2003-11-28 2006-01-17 Sony Corp Aparelho de reprodução, método de reprodução, programa de reprodução, e, meio de gravação
US20050149729A1 (en) * 2003-12-24 2005-07-07 Zimmer Vincent J. Method to support XML-based security and key management services in a pre-boot execution environment
JP4166707B2 (ja) * 2004-01-20 2008-10-15 パイオニア株式会社 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム
US7801303B2 (en) * 2004-03-01 2010-09-21 The Directv Group, Inc. Video on demand in a broadcast network
JP2005318472A (ja) * 2004-04-30 2005-11-10 Toshiba Corp 動画像のメタデータ
US7509497B2 (en) * 2004-06-23 2009-03-24 Microsoft Corporation System and method for providing security to an application
US8201191B2 (en) * 2004-06-30 2012-06-12 Time Warner Cable Inc. Apparatus and methods for implementation of network software interfaces
US20060041522A1 (en) * 2004-08-18 2006-02-23 Xerox Corporation. Abstract document management systems and methods
JP4039417B2 (ja) * 2004-10-15 2008-01-30 株式会社日立製作所 記録再生装置
US7593980B2 (en) * 2004-11-30 2009-09-22 Cisco Technology, Inc. Application server system and method
US20060123451A1 (en) * 2004-12-07 2006-06-08 Showtime Networks Inc. Enhanced content in an on-demand environment

Also Published As

Publication number Publication date
JP2009500912A (ja) 2009-01-08
EP1908072A4 (en) 2010-12-22
WO2007005301A3 (en) 2007-05-31
JP4959696B2 (ja) 2012-06-27
WO2007005301A2 (en) 2007-01-11
KR101354739B1 (ko) 2014-01-22
EP1908072A2 (en) 2008-04-09
US20070006079A1 (en) 2007-01-04

Similar Documents

Publication Publication Date Title
KR101354739B1 (ko) 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍
KR101231323B1 (ko) 대화형 멀티미디어 환경에서의 상태 변경에 대한 선언적응답
US8799757B2 (en) Synchronization aspects of interactive multimedia presentation management
KR101183383B1 (ko) 상호작용 멀티미디어 프리젠테이션 관리의 동기화 양태
JP4959695B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
US20070006065A1 (en) Conditional event timing for interactive multimedia presentations
JP2008545335A5 (ko)
JP5619838B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
JP2009500909A5 (ko)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161220

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee