KR20070026118A - 정보 저장 매체를 사용하는 정보 재생 시스템 - Google Patents

정보 저장 매체를 사용하는 정보 재생 시스템 Download PDF

Info

Publication number
KR20070026118A
KR20070026118A KR1020060082635A KR20060082635A KR20070026118A KR 20070026118 A KR20070026118 A KR 20070026118A KR 1020060082635 A KR1020060082635 A KR 1020060082635A KR 20060082635 A KR20060082635 A KR 20060082635A KR 20070026118 A KR20070026118 A KR 20070026118A
Authority
KR
South Korea
Prior art keywords
information
video
advanced
file
content
Prior art date
Application number
KR1020060082635A
Other languages
English (en)
Inventor
히데오 안도
하루히코 도야마
다케로 고바야시
야스후미 쓰마가리
Original Assignee
가부시끼가이샤 도시바
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 도시바 filed Critical 가부시끼가이샤 도시바
Publication of KR20070026118A publication Critical patent/KR20070026118A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/007Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/10675Data buffering arrangements, e.g. recording or playback buffers aspects of buffer control
    • G11B2020/10722Data buffering arrangements, e.g. recording or playback buffers aspects of buffer control wherein the size of the buffer is variable, e.g. by adding additional memory cells for coping with input streams that have high bit rates
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2579HD-DVDs [high definition DVDs]; AODs [advanced optical discs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

일 실시예에 따르면, 데이터 처리 방법이 제공된다. 본 방법은 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계(S15), 상기 관리 정보에 기초하여 결정된 타이밍에서 어떤 저장 장소로부터 컨텐츠를 획득하는 단계(S16), 및 상기 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계(S17)를 포함한다.
정보 재생 시스템, 데이터 처리 방법, 정보 저장 매체

Description

정보 저장 매체를 사용하는 정보 재생 시스템{INFORMATION PLAYBACK SYSTEM USING INFORMATION STORAGE MEDIUM}
도 1은 본 발명의 실시예에 따른 시스템의 예시적인 구성을 나타낸 도면.
도 2a, 도 2b 및 도 2c는 기존의 DVD-비디오 표준에 대한 사용자 등으로부터의 요구 및 관련된 기존의 DVD-비디오 표준이 확장되는 경우에 제기되는 문제점, 및 본 발명의 실시예의 해결 방법의 결과로서 얻어지는 새로운 효과를 나타낸 테이블을 나타낸 도면.
도 3a 및 도 3b는 정보 기록 및 재생 장치에 의한 비디오 컨텐츠 재생 방법의 예를 나타낸 예시적인 도면.
도 4는 표준 컨텐츠의 예시적인 데이터 구조를 나타낸 예시적인 도면.
도 5는 정보 저장 매체의 여러 가지 카테고리를 나타낸 예시적인 도면.
도 6은 고급 컨텐츠의 재생시 및 표준 컨텐츠의 재생시에 있어서의 천이 관계를 나타낸 예시적인 도면.
도 7은 정보 저장 매체가 탑재되어 있는 경우 정보 재생 장치에 의한 매체 식별 처리 방법을 나타낸 예시적인 플로우차트
도 8은 오디오 전용의 정보 재생 장치에 있어서의 시동 시퀀스를 나타낸 예시적인 플로우차트.
도 9는 두 가지 유형의 컨텐츠에의 서로 다른 액세스 방법을 나타낸 예시적인 도면.
도 10은 여러 가지 객체 간의 관계를 설명하는 예시적인 도면.
도 11은 여러 가지 객체 스트림이 정보 저장 매체 상에 기록되어 있는 경우의 파일 구성을 나타낸 예시적인 도면.
도 12는 고급 컨텐츠의 데이터 구조를 나타낸 예시적인 도면.
도 13a 및 도 13b는 도 12에 도시된 구조에 관한 기술적 특징 및 효과를 설명하는 예시적인 도면.
도 14는 고급 컨텐츠 재생 유닛의 내부 구조를 나타낸 예시적인 블록도.
도 15a 및 도 15b는 정보 기록 및 재생 장치에 의한 비디오 컨텐츠 재생 방법의 예를 나타내는 예시적인 도면.
도 16은 도 15b의 (c)에 있어서의 메인 타이틀, 광고용의 다른 화면 및 도움말 아이콘이 동시에 표시되어 있는 때의 α 점에서의 예시적인 표시 화면을 나타낸 도면.
도 17은 재생 목록 내의 정보의 개요를 나타낸 예시적인 도면.
도 18은 여러 가지 프리젠테이션 클립 엘리먼트와 표시 및 사용될 대응하는 객체의 객체 이름 간의 관계를 나타낸 예시적인 도면.
도 19는 파일 저장 장소를 지정하는 방법을 나타낸 예시적인 도면.
도 20은 파일에의 경로 지정 기술 방법을 나타낸 예시적인 도면.
도 21은 재생 목록 파일 내의 데이터 구조를 나타낸 정보를 나타낸 예시적인 도면.
도 22는 XML 태그와 재생 목록 태그 내의 각자의 속성 정보의 상세한 내용을 나타낸 예시적인 도면.
도 23a 및 도 23b는 재생 목록 내의 타이틀 정보의 상세를 나타낸 예시적인 도면.
도 24a 및 도 24b는 타이틀 속성 정보, 객체 매핑 정보, 재생 정보의 상세를 나타낸 예시적인 도면.
도 25는 고급 컨텐츠 재생 유닛 내에서의 데이터 흐름을 나타낸 예시적인 도면.
도 26은 데이터 액세스 관리자 내의 구조를 나타낸 예시적인 도면.
도 27은 데이터 캐쉬 내의 구조를 나타낸 예시적인 도면.
도 28은 내비게이션 관리자 내의 구조를 나타낸 예시적인 도면.
도 29는 고급 컨텐츠 플레이어의 상태 천이를 나타낸 예시적인 도면.
도 30은 프리젠테이션 엔진 내의 구조를 나타낸 예시적인 도면.
도 31은 고급 애플리케이션 프리젠테이션 엔진 내의 구조를 나타낸 예시적인 도면.
도 32는 프리젠테이션 엔진에 있어서의 그래픽 프로세스 모델을 나타낸 예시적인 도면.
도 33은 고급 자막 플레이어 내의 구조를 나타낸 예시적인 도면.
도 34는 폰트 렌더링 시스템 내의 구조를 나타낸 예시적인 도면.
도 35는 2차 비디오 플레이어 내의 구조를 나타낸 예시적인 도면.
도 36은 1차 비디오 플레이어 내의 구조를 나타낸 예시적인 도면.
도 37은 디코더 엔진 내의 구조를 나타낸 예시적인 도면.
도 38은 AV 렌더러 내의 구조를 나타낸 예시적인 도면.
도 39는 표시 프레임 상의 각자의 프레임 레이어를 나타낸 예시적인 도면.
도 40은 그래픽 플레인 내의 표시 모델을 나타낸 예시적인 도면.
도 41은 비디오 합성 모델을 나타낸 예시적인 도면.
도 42는 오디오 믹싱 모델을 나타낸 예시적인 도면.
도 43은 네트워크 서버 및 영속적 저장 메모리부터의 데이터 공급 모델을 나타낸 예시적인 도면.
도 44는 사용자 입력 처리 모델을 나타낸 예시적인 도면.
도 45는 사용자 입력 이벤트의 리스트를 나타낸 예시적인 도면.
도 46은 플레이어 파라미터의 리스트를 나타낸 예시적인 도면.
도 47은 프로파일 파라미터의 리스트를 나타낸 예시적인 도면.
도 48은 프리젠테이션 파라미터의 리스트를 나타낸 예시적인 도면.
도 49는 레이아웃 파라미터의 리스트를 나타낸 예시적인 도면.
도 50은 고급 컨텐츠에 대한 기동 시의 시퀀스를 나타낸 예시적인 도면.
도 51은 고급 컨텐츠 재생 시의 업데이트 시퀀스를 나타낸 예시적인 도면.
도 52는 고급 컨텐츠 및 표준 컨텐츠 둘 다의 재생 시의 시퀀스를 나타낸 예시적인 도면.
도 53은 재생 목록의 객체 매핑 정보 내에서의 여러 가지 종류의 시간 정보 사이의 관계를 나타낸 예시적인 도면.
도 54a 및 도 54b는 1차 오디오 비디오 클립 엘리먼트 태그 및 2차 비디오 클립 엘리먼트 태그 내의 데이터의 구조를 나타낸 예시적인 도면.
도 55a 및 도 55b는 대체 오디오 비디오 클립 엘리먼트 태그 및 대체 오디오 클립 엘리먼트 태그 내의 데이터 구조를 나타낸 예시적인 도면.
도 56a 및 도 56b는 고급 자막 세그먼트 엘리먼트 태그 및 애플리케이션 엘리먼트 태그 내의 데이터 구조를 나타낸 예시적인 도면.
도 57은 애플리케이션 블록의 속성 정보 및 언어 속성 정보의 설정예를 나타낸 예시적인 도면.
도 58은 여러 가지 종류의 애플리케이션 활성화 정보 및 고급 애플리케이션의 유효성 판별의 관계를 나타낸 예시적인 도면.
도 59a, 도 59b 및 도 59c는 비디오 엘리먼트, 오디오 엘리먼트, 자막 엘리먼트 및 서브 오디오 엘리먼트 내의 데이터 구조를 나타낸 예시적인 도면.
도 60은 트랙 유형 및 트랙 번호 할당 엘리먼트 간의 관계를 나타낸 예시적인 도면.
도 61a, 도 61b 및 도 61c는 트랙 번호 할당 정보의 기술예를 나타낸 예시적인 도면.
도 62a, 도 62b 및 도 62c는 트랙 내비게이션 정보 내의 각각의 엘리먼트 중에 기술되는 정보 내용 및 기술예를 나타낸 예시적인 도면.
도 63a, 도 63b 및 도 63c는 애플리케이션 리소스 엘리먼트 및 네트워크 소스 엘리먼트 내의 데이터 구조를 나타낸 예시적인 도면.
도 64a 및 도 64b는 리소스 관리 모델에 있어서의 파일 캐쉬 내의 데이터 저장 상태의 천이를 나타낸 예시적인 도면.
도 65a, 도 65b, 도 65c 및 도 65d는 리소스 정보에 기초하는 고급 애플리케이션의 로딩/실행 처리 방법을 나타낸 예시적인 도면.
도 66a, 도 66b 및 도 66c는 리소스 정보 내의 데이터 구조를 나타낸 예시적인 도면.
도 67은 네트워크 소스 엘리먼트를 이용한 네트워크 환경에 최적인 네트워크 소스 추출 모델을 나타낸 예시적인 도면.
도 68은 네트워크 소스 엘리먼트를 이용한 최적의 네트워크 소스 추출 방법을 나타낸 예시적인 도면.
도 69a 및 도 69b는 재생 목록 애플리케이션 엘리먼트 내의 데이터 구조를 나타낸 예시적인 도면.
도 70은 재생 목록 애플리케이션 리소스, 타이틀 리소스, 애플리케이션 리소스 사이의 관계를 나타낸 예시적인 도면.
도 71은 도 70의 구조의 예시적인 설명도.
도 72는 도 70의 예에 기초하는 표시 화면 γ, δ 및 ε의 구체적인 예를 나타낸 예시적인 도면.
도 73a 및 도 73b는 첫 번째 재생 타이틀 및 재생 목록 애플리케이션 리소스 간의 관계를 나타낸 도면.
도 74a 및 도 74b는 첫 번째 재생 타이틀 엘리먼트 내의 데이터 구조를 나타낸 예시적인 도면.
도 75a 및 도 75b는 스케쥴링된 제어 정보 내의 데이터 구조를 나타낸 예시적인 도면.
도 76a 및 도 76b는 이벤트 엘리먼트의 사용예를 나타낸 예시적인 도면.
도 77a 및 도 77b는 이벤트 엘리먼트의 사용예를 나타낸 예시적인 도면.
도 78은 도 77a 및 도 77b의 예에 기초하는 타이틀 타임라인과 동기하여 고급 자막을 표시하는 방법을 나타낸 예시적인 도면.
도 79a 및 도 79b는 미디어 속성 정보 내의 데이터 구조를 나타낸 도면.
도 80은 재생 목록 내에 존재하는 구조 정보 내의 데이터 구조를 나타낸 예시적인 도면.
도 81은 매니페스트 파일 내의 데이터 구조를 나타낸 예시적인 도면.
도 82는 재생 목록 내에 ID 정보를 갖는 엘리먼트에 관한 예시적인 설명도.
도 83은 각각의 재생/표시 객체의 저장 장소를 중심으로 한 재생 목록 내의 기술예를 나타낸 예시적인 도면.
도 84는 각각의 재생/표시 객체의 표시 화면을 중심으로 한 관리 정보의 기술예를 나타낸 예시적인 도면.
<도면의 주요 부분에 대한 부호의 설명>
1: 정보 기록 및 재생 장치
2: 정보 기록 및 재생부
3: 영속적 저장장치 드라이브
4: 녹화 및 재생 처리부
5: 메인 CPU
6: 하드 디스크 장치
7-1, 7-2, 7-3: 무선 LAN 제어부
8: 네트워크 제어기
9: 데이터 관리자
본 발명의 일 실시예는 광 디스크 등의 정보 저장 매체를 사용하는 정보 재생 시스템에 관한 것이다.
최근, 고화질 및 고기능을 갖는 DVD-비디오 디스크 및 이들 디스크를 재생하는 비디오 플레이어가 널리 보급되었고, 이러한 다중 채널 오디오 데이터를 재생하는 데 사용되는 주변 장치 등도 선택의 폭이 넓어졌다. 따라서, 컨텐츠 사용자에 있어서는, 사용자로 하여금 고화질 및 고음질을 갖는 영화, 애니메이션 등을 자유롭게 즐길 수 있게 해주는 홈 씨어터를 개인적으로 구현하는 환경이 이용가능하다.
또한, 네트워크를 이용하여 네트워크상의 서버로부터 화상 정보를 획득하고 이를 사용자 측의 장치로 재생/표시하는 것이 용이하게 행해지게 되었다. 예컨대, 일본 특허 제3673166호(도 2 내지 도 5, 도 11 내지 도 14, 기타 등등)에는, 인터넷의 웹 사이트를 통해 광고를 받고자 하는 사용자의 장치에 정보를 공급하고, 사용자의 장치에서 정보를 표시하는 것이 개시되어 있다.
그렇지만, 상기 문헌에 기술되어 있는 바와 같이 인터넷상의 기존의 웹 사이트는 대체로 "정적인 화면"이다. 애니메이션 또는 어떤 동화상이 웹 사이트에 표시될 수 있더라도, 애니메이션 또는 동화상의 표시 개시/표시 종료의 타이밍 또는 동화상/애니메이션의 전환 타이밍이 복잡하게 프로그래밍된 다채로운 표현을 실현하기가 어렵다.
또한, 동화상이 웹 사이트상에 표현될 수 있더라도, 사용자의 네트워크 환경(네트워크 처리용량 값)에 따라서는 표시되는 동화상이 도중에서 끊기는 (재생이 정지하는) 경우가 많다.
본 발명의 목적은 영상 기타 등등과 관련하여 개선된 표현 및 편의를 달성하는 정보 재생 방법, 기타 등등을 제공하는 데 있다.
일반적으로, 본 발명의 일 실시예에 따르면, 데이터 처리 방법이 제공된다. 본 방법은 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계(S15), 상기 관리 정보에 기초하여 결정된 타이밍에서 어떤 저장 장소로부터 컨텐츠를 획득하는 단계(S16), 및 상기 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계(S17)를 포함한다.
이제부터, 본 발명의 여러 가지 특징을 구현하는 일반적인 구성에 대해 도면을 참조하여 기술한다. 도면 및 관련 설명은 본 발명의 범위를 제한하려는 것이 아니라 본 발명의 실시예들을 설명하기 위해 제공된 것이다.
<시스템 구성>
도 1은 본 발명의 일 실시예에 따른 시스템의 구성을 나타낸 도면이다.
본 시스템은, 퍼스널 컴퓨터(PC). 레코더 또는 플레이어로서 구현되는 정보기록 및 재생 장치(또는 정보 재생 장치)(1), 및 정보 기록 재생 장치(1)에 대하여 착탈가능한 광 디스크로서 구현되는 정보 저장 매체(DISC)를 포함한다. 본 시스템은 또한, 정보 저장 매체(DISC)에 저장된 정보, 영속적 저장 장치(PRSTR)에 저장된 정보, 및 라우터(11)를 경유하여 네트워크 서버(NTSRV)로부터 얻어진 정보 등을 표시하는 디스플레이(13)를 포함한다. 본 시스템은 또한 정보 기록 및 재생 장치(1)에 대하여 입력 조작을 하는 데 사용되는 키보드(14), 및 네트워크를 통하여 정보를 제공하는 네트워크 서버(NTSRV)를 포함한다. 본 시스템은 또한 광케이블(12)을 통하여 네트워크 서버(NTSRV)로부터 제공되는 정보를 무선 데이터(17)의 형태로 정보 기록 및 재생 장치(1)로 전송하는 라우터(11)를 포함한다. 본 시스템은 또한 정보 기록 및 재생 장치(1)로부터 무선 데이터로서 전송되는 화상 정보를 표시하는 와이드 화면 TV 모니터(15), 및 정보 기록 및 재생 장치(1)로부터 무선 데이터로서 전송되는 오디오 정보를 출력하는 스피커(16-1, 16-2)를 포함하고 있다.
정보 기록 및 재생 장치(1)는, 정보 저장 매체(DISC)로의 정보의 기록/그로부터의 정보의 재생을 하는 정보 기록 및 재생 유닛(2), 및 고정형 저장 장치(플래 쉬 메모리 등), 착탈가능 저장 장치[SD(Secure Digital) 카드, USB(Universal Serial Bus) 메모리, 휴대형 하드 디스크 드라이브(HDD) 등]을 포함하는 영속적 저장 장치(PRSTR)를 구동하는 영속적 저장장치 드라이브(3)를 포함한다. 장치(1)는 또한 하드 디스크 장치(6)로의 정보의 기록 및 그로부터의 정보의 재생을 하는 기록 재생 프로세서(4), 및 정보 기록 및 재생 장치(1) 전체를 제어하는 메인 CPU(Central Processing Unit)(5)를 포함한다. 장치(1)는 또한 정보를 저장하기 위한 하드 디스크를 갖는 하드 디스크 장치(6), 무선 LAN(Loca1 Area Network)에 기초하는 무선 통신을 하는 무선 LAN 제어기(7-1), (후술하는) 표준 컨텐츠(STDCT)를 재생하는 표준 컨텐츠 재생 유닛(STDPL), 및 (후술하는) 고급 컨텐츠(ADVCT)의 재생을 하는 고급 컨텐츠 재생 유닛(ADVPL)을 포함한다.
라우터(11)는 무선 LAN에 기초하여 정보 기록 및 재생 장치(1)와의 무선통신을 행하는 무선 LAN 제어부(7-2), 네트워크 서버(NTSRV)와의 사이의 광 통신을 제어하는 네트워크 제어기(8), 및 데이터 전송 처리를 제어하는 데이터 관리자(9)를 포함한다.
와이드 화면 TV 모니터(15)는 무선 LAN에 기초하여 정보 기록 및 재생 장치(1)와의 무선 통신을 행하는 무선 LAN 제어기(7-3)와, 무선 LAN 제어기(7-3)에 의해 수신되는 정보에 기초하여 비디오 정보를 생성하는 비디오 프로세서(24), 및 비디오 프로세서(24)에 의해 생성된 비디오 정보를 와이드 화면 TV 모니터(15) 상에 표시하는 비디오 표시 유닛(21)을 포함하고 있다.
도 1에 도시된 시스템의 상세한 기능 및 동작에 관하여는 나중에 설명한다는 것에 유의한다.
<본 실시예의 요점>
1. 고급 컨텐츠 재생 유닛(ADVPL)은 데이터 액세스 관리자(DAMNG), 내비게이션 관리자(NVMNG), 데이터 캐쉬(DTCCH), 프리젠테이션 엔진(PRSEN), 및 AV 렌더러(AVRND)(도 14 참조)를 포함한다.
2. 내비게이션 관리자(NVMNG)는 재생 목록 관리자(PLMNG), 파서(PARSER) 및 고급 애플리케이션 관리자(ADAMNG)(도 28 참조)를 포함한다.
3. 사용자에게 표시될 프레임은 메인 비디오 플레인(main video plane)(MNVDPL), 서브 비디오 플레인(sub video plane)(SBVDPL), 및 그래픽 플레인(GRPHPL)(도 39 참조)를 합성함으로써 얻어진다.
기존의 DVD-비디오에 기초한 차세대 표준에의 사용자 요구, 관련된 기존의 DVD-비디오 표준이 확장되는 경우에 제기되는 문제점, 및 본 발명의 실시예의 해결방안과 이러한 해결 방안의 결과 얻어지는 새로운 효과에 관해서 도 2를 이용하여 이하에 기술된다. 현세대 DVD-비디오 표준에 대해 사용자가 요구하는 요구 기능은 크게 나눠 이하의 3가지 요구 기능이 있다.
1. 유연하고 다양한 표현력(기존의 퍼스널 컴퓨터의 화면 표시에 가까운 표현력을 확보한다)
2. 네트워크 동작(network action)
3. 비디오 관련 정보의 가공 용이성 및 가공 후 정보의 전송 용이성
첫 번째로 열거된 "1. 유연하고 다양한 표현력"의 요구 기능이 기존의 DVD- 비디오 표준의 작은 변경만으로 행해져야만 하는 경우, 사용자 요구가 너무나 다양하기 때문에, 이하의 문제가 제기된다. 즉, 이러한 요구는 맞춤식과 같은 기존의 DVD-비디오 표준 내의 데이터 구조의 작은 변경만으로서는 만족할 수 없다. 이 문제를 해결하기 위한 기술적 연구 내용으로서, 본 실시예는 범용성을 갖은 PC 세계에서의 표현 형식을 채용함과 동시에 새롭게 타임라인의 개념을 도입한다. 그 결과, 본 실시예에 따르면, 이하의 새로운 효과가 달성할 수 있다.
1] 사용자 행위에 응답하여 유연하고 인상적인 반응을 행한다.
1.1) 버튼 선택 또는 실행 지시를 한 때에 애니메이션 및 이미지의 변화로 응답한다.
1.2) 버튼 선택 또는 실행 지시를 한 때에 음성 응답을 한다.
1.3) 사용자의 실행 지시에 응답하여 일부러 지연된 타이밍에서 실행 조작을 시작한다.
1.4) (PC와 같은) 도움말에 대해 음성 대답을 제공한다.
1.5) 메뉴 등의 사용 방법 가이드를 청각적 및 시각적으로 출력한다.
2] 비디오 정보 자체 및 그 재생 방법에 한 유연한 전환 처리를 가능하게 해준다.
2.1) 오디오 정보의 전환 표시
2.2) 자막 정보(텔롭(elope), 자막, 정지 화상 아이콘 등)의 전환 표시
2.3) 사용자 기호에 따라 자막의 확대 표시를 가능하게 해준다.
2.4) 사용자가 자막에 표시를 하고 자막 실행 명령을 낼 수 있게 해준다
2.5) 영화 감독이 코멘트를 하고 있는 동안, 그 코멘트에 동기하여 특정 비디오 부분에 표시를 한다.
3〕 재생 동안 비디오 정보에 중첩될 독립적인 정보를 동시에 표시한다.
3.1) 멀티-윈도우에 의한 복수의 비디오 정보를 동시에 표시한다.
3.2) 멀티-윈도우의 각각의 윈도우 크기를 자유롭게 전환할 수 있게 해준다.
3.3) 사전의 오디오 메시지 및 사용자에 의한 기록 후 오디오 메시지를 동시에 표시한다.
3.4) 비디오 정보 상에 중첩될 스크롤하는 텍스트를 동시에 표시한다.
3.5) (선택 버튼 등의) 그래픽 메뉴 및 도형을 유연한 형태로 동시에 표시한다.
4〕보고 싶은 비디오 위치에의 용이한 검색을 가능하게 해준다
4.I) 풀-다운 메뉴를 사용하여 보고 싶은 위치의 키워드(텍스트)검색을 행한다.
상기 "2. 네트워크를 통한 여러 가지 액션에 대한 유연한 반응의 실현"에 대해서는, 기존의 DVD-비디오 표준으로 규정된 데이터 구조와 네트워크 호환 화면 간의 괴리가 지나치게 크다. 이 문제점을 해결하기 위한 기술적 연구 내용으로서, 본 실시예는 네트워크의 화면 표현에 실적이 있는 웹의 홈 페이지 표시 형식(XML과 스크립트)를 데이터의 관리 구조의 기본 부분으로서 채용하고, 비디오 재생 관리 형식을 그것에 맞도록 조정한다. 그 결과, 본 발명의 실시예에 따르면, 이하의 새로운 효과가 달성될 수 있다.
5〕네트워크를 사용하여 디스크 상의 정보의 갱신 기능을 제공한다.
5.1) 객체 정보 및 디스크내 관리 정보의 자동갱신
5.2) 메뉴의 사용 방법 가이드를 네트워크 다운로드 한다
5.3) 사용자에의 정보의 자동 갱신 통지
5.4) 갱신 정보 표시 가부의 사용자에의 통지
5.5) 사용자에 의한 매뉴얼 갱신 기능
6〕실시간 온라인 처리
6.1) 비디오 재생 시에 네트워크를 통해 다운로드된 오디오 정보로의 전환 또는 믹싱 처리 (영화 감독의 음성에 의한 해설 표시 등)
6.2) 네트워크 쇼핑
6.3) 대화형 실시간 비디오 변화
7〕네트워크를 통한 다른 사용자와의 실시간 정보 공유
7.1) 떨어진 곳에 있는 다른 사용자에 대하여도 특정 화면을 동시에 표시한다.
7.2) 떨어진 곳에 있는 다른 사용자와 대전 게임 또는 대화형 게임을 한다.
7.3) 비디오 재생 동안 채팅에 참가한다.
7.4) 비디오 재생과 동시에 팬 클럽으로 메시지를 전송하거나 그로부터 메시지를 수신한다.
상기 "3. 비디오 관련 정보의 가공 용이성 및 가공 후 정보의 전송 용이성 "이 기존의 DVD-비디오 표준의 작은 변경으로 구현되는 경우, 복잡한 편집 처리에 유연하고 용이하게 대처될 수 없다. 복잡한 편집 처리에 유연하고 용이하게 대처하기 위해서는, 새로운 관리 데이터 구조가 필요하다. 이 문제점을 해결하기 위한 기술적 연구 내용으로서, 본 실시예는 XML을 채용하고 후술하는 타임라인의 개념을 도입한다. 그 결과, 본 발명의 실시예에 따르면, 이하의 새로운 효과가 달성될 수 있다.
8〕 사용자로 하여금 재생 목록을 선택 및 작성하고 이를 전송할 수 있게 해준다.
8.1) 사용자로 하여금 재생 목록을 선택하거나 작성할 수 있게 해준다.
8.2) 사용자에 의해 선택되거나 작성된 재생 목록을 친구에게 전송할 수 있게 해준다
8.3) 사용자에 의해 선택되거나 작성된 재생 목록을 특정 디스크 상에서만 재생할 수 있게 해준다
8.4) 사용자로 하여금 비디오 정보의 하이라이트 장면의 집합체도 역시 선택할 수 있게 해준다
8.5) 비디오 정보 내의 마음에 드는 프레임을 캡처하는 스크랩북을 웹상에 게시한다.
8.6) 사용자에 의해 선택된 멀티-앵글(multi-angle) 또는 멀티-씬(multi-scene)을 저장 및 재생한다
9〕사용자로 하여금 비디오 정보에 관계된 특정 정보를 첨부하고 그 결과를 네트워크를 통해 전송할 수 있게 해준다
9.1) 사용자로 하여금 비디오 정보에 관한 코멘트를 부가하고, 이를 네트워크상의 다른 사용자와 공유할 수 있게 해준다
9.2) 비디오 정보 내의 캐릭터의 얼굴에 입력 화상을 붙여넣기한다
9.3) 사용자 정보 또는 비디오 정보를 볼 때의 경험 정보를 영상 정보 상에 붙여넣기한다
9.4) 시청 제한에서 사용자 정보를 이용하여 표시되는 비디오 정보에 대한 자동 제한을 부과한다
10〕재생 로그 정보를 자동으로 저장한다
10.1) 재시작(resume)(재생 일시 정지)정보의 자동 저장 기능을 제공한다.
10.2) 전회까지의 게임 진행의 도중 정보를 자동으로 저장한다
10.3) 전회의 재생 환경(복수 사용자와의 대전 게임 환경 등)을 자동으로 저장한다
도 3a 및 도 3b를 참조하여, 본 실시예에 있어서의 데이터 처리 방법 또는 데이 터 전송 방법 및 프로그램 구조에 관한 기본 개념에 대한 설명을 한다. 도 3에서의 우측의 가로 실선은 본 실시예에 따른 정보 기록 및 재생 장치(1) 내에서의 컨텐츠의 데이터 전송(67)을 나타내고, 가로 점선은 도 28에 도시된 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터 고급 컨텐츠 재생 유닛(ADVPL) 내의 각 부분으로 전송되는 명령(68)을 의미한다. 도 1에 도시된 정보 기록 및 재생 장치(1) 내에는 고급 컨텐츠 재생 유닛(ADVPL)이 존재한다. 고급 컨텐츠 재생 유닛(ADVPL) 내의 구조는 도 14에 나타낸 구성을 갖는다. 도 3a 및 도 3b의 우측 의 세로 열에 나타낸 영속적 저장 장치(PRSTR)는 도 14의 영속적 저장 장치(PRSTR)에 대응하며, 도 3a 및 도 3b의 세로 열에 나타낸 네트워크 서버(NTSRV)는 도 14의 네트워크 서버(NTSRV)에 대응한다. 또한, 도 3a 및 도 3b의 세로 열에 나타낸 정보 저장 매체(DISC)는 도 14에 도시된 정보 저장 매체(DISC)에 대응한다. 또한, 도 3a 및 도 3b의 우측의 세로 열에 나타낸 프리젠테이션 엔진(PRSEN)은 도 14에 나타낸 프리젠테이션 엔진(PRSEN)을 의미하며, 컨텐츠의 재생 처리에 이용된다. 또한, 도 3a 및 도 3b의 우측의 세로 열에 나타낸 데이터 캐쉬(DTCCH)는 도 14의 데이터 캐쉬(DTCCH)에 대응하며, 고급 컨텐츠(ADVCT)는 필요에 따라 각각의 고급 컨텐츠의 저장 장소로부터 데이터 캐쉬(DTCCH) 내에 일시 저장된다. 도 28은 도 14에 도시된 내비게이션 관리자(NVMNG)의 내부 구조를 나타낸 것이다. 내비게이션관리자(NVMNG) 내에는 재생 목록 관리자(PLMNG)가 존재하고, 재생 목록 관리자(PLMNG)는 본 실시예에 있어서의 컨텐츠의 재생/표시 순서를 나타내는 관리 정보가 기술된 재생 목록(PLLST) 내의 내용을 해석한다. 도 3a 및 도 3b의 우측의 세로 선으로 나타내어진 내비게이션 관리자(NVMNG)로부터 발행되는 명령은 주로 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터 발행된다. 도 14에 도시된 데이터 액세스 관리자(DAMNG)의 내부 구조는 도 26에 나타낸 바와 같이 네트워크 관리자(NTMNG), 영속적 저장 장치 관리자(PRMNG), 디스크 관리자(DKMNG)로 구성되어 있다. 데이터 액세스 관리자(DAMNG) 내의 네트워크 관리자(NTMNG)는 각각의 네트워크 서버(NTSRV)와의 통신 처리를 수행하며, 네트워크 서버(NTSRV)로부터의 컨텐츠의 데이터 전송(67)의 처리의 중개를 한다. 실제로, 데이터가 네트워크 서버(NTSRV)로부터 데이터 캐쉬(DTCCH)로 전송되는 때에는, 명령(68)이 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터 네트워크 관리자(NTMNG)로 전송되고, 이 명령(68)에 기초하여 네트워크 관리자(NTMNG)는 대응하는 네트워크 서버(NTSRV)부터의 컨텐츠의 데이터 전송(67)의 처리를 수행한다. 도 26에 도시된 네트워크 관리자(NTMNG)는 도 3a 및 도 3b의 우측의 세로 열에 도시된 네트워크 관리자(NTMNG)를 나타낸다. 또한, 도 26에 도시하는 영속적 저장 장치 관리자(PRMNG)는 도 3a 및 도 3b의 우측의 세로 열에 도시된 영속적 저장 장치 관리자(PRMNG)를 나타낸다. 도 26에 나타낸 바와 같이, 데이터 액세스 관리자(DAMNG) 내의 영속적 저장 장치 관리자(PRMNG)는 영속적 저장 장치(PRSTR)에 대한 처리를 실행하며, 영속적 저장 장치(PRSTR)로부터 필요한 데이터의 전송 처리를 수행한다. 영속적 저장 장치 관리자(PRMNG)에 대하여도 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터 명령(68)이 발행된다. 도 3a 및 도 3b의 우측에서, 각각의 세로 열에 가로 선(또는 점선)이 명기되어 있는 경우에는, 각각의 세로 열에 나타낸 부분을 경유하여 컨텐츠의 데이터 전송(67) 또는 명령(68)의 전송이 실행된다. 또한, 각각의 세로 열의 뒤에 선이 그려져 있는 경우에는, 각각의 세로 열에 나타낸 부분을 경유하지 않고서 컨텐츠의 데이터 전송(67) 또는 명령(68)의 전송이 실행된다. 도 3a 및 도 3b의 우측의 각각의 가로 선에 의해 표시된 컨텐츠의 데이터 전송(67)에 동기하여 도 3a 및 도 3b의 좌측에 도시된 각각의 처리 단계가 기술되어 있다.
도 3a 및 도 3b의 좌측에 도시된 플로우차트에 있어서의 단계(S11)로부터 단 계(S14)까지의 흐름은 컨텐츠의 데이터 전송을 수행한 결과 얻어진 컨텐츠의 저장 장소의 변경에 따라 재생 목록(PLLST)의 내용이 변경되고 저장되는 것을 나타낸다. 또한, 도 3a 및 도 3b의 좌측에 나타낸 플로우차트 내의 단계(S15)로부터 단계(S17)까지의 흐름은 본 실시에에서의 데이터 처리 방법, 데이터 전송 방법, 또는 프로그램 구조에 관한 기본 개념의 핵심 부분을 나타낸 것이다. 즉, 이는 재생 목록(PLLST)에 기초하여 표시되어야만 하는 컨텐츠의 데이터를 데이터 캐쉬(DTCCH) 내에 사전에 저장하고, 필요한 타이밍에서 데이터 캐쉬(DTCCH)부터의 데이터를 사용자에게 표시하는 흐름을 나타낸 것이다. 도 3a 및 도 3b에서, 사용자에 대한 재생/표시 순서를 나타내는 관리 정보인 재생 목록(PLLST)의 파일은 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV), 또는 정보 저장 매체(DISC) 내에 존재한다. 이제부터, 도 3a 및 도 3b의 좌측에 나타낸 플로우차트의 내용을 상세히 설명한다. 단계(S11)에서, α 선으로 나타낸 바와 같이, 영속적 저장 장치(PRSTR)에 저장되어 있는 재생 목록(PLLST)은 영속적 저장 장치 관리자(PRMNG)를 경유하여 재생 목록 관리자(PLMNG)로 전송된다. 또한, β 선으로 나타낸 바와 같이, 네트워크 서버(NTSRV)에 저장되어 있는 재생 목록 관리자(PLMNG) 파일은 네트워크 서버(NTSRV)로부터 네트워크 관리자(NTMNG)를 통하여 재생 목록 관리자(PLMNG)로 전송된다. 게다가, 정보 저장 매체(DISC)에 저장되어 있는 재생 목록 관리자(PLMNG)는 정보 저장 매체(DISC)로부터 도시되어 있지 않은 디스크 관리자(DKMNG)를 경유하여 재생 목록 관리자(PLMNG)로 전송된다. 단계(S11)에 도시된 데이터 처리 방법 또는 데이터 전송 방법은 도 50의 단계(S44)로부터 단계(S46)까지의 처리 또는 도 51에 도시 된 단계(S61)에서의 처리와 일치한다. 즉, 복수의 저장 매체와 유사한 복수의 재생 목록(PLLST)이 존재하는 경우에는, 도 50의 단계(S46) 또는 도 51의 단계(S61)에 나타낸 바와 같이, 재생 목록(PLLST)에 설정되어 있는 번호 중에서 가장 높은 번호가 설정되는 재생 목록 파일(PLLST)이 최신의 파일로서 이용된다. 이어서, 네트워크 다운로드 처리에 시간이 걸리는 특정의 컨텐츠(예를 들어, 2차 비디오 세트(SCDVS)의 컨텐츠)가 단계(S11)에서 선택된 최신의 재생 목록(PLLST)의 정보에 기초하여 네트워크 서버(NTSRV)로부터 영속적 저장 장치(PRSTR)로 전송된다(단계 S12). 이때, 재생 목록 관리자(PLMNG)로부터 네트워크 관리자(NTMNG) 및 영속적 저장 장치 관리자(PRMNG)로 명령(68)이 사전에 전송되고(δ 선), 이 명령(68)에 기초하여 네트워크 관리자(NTMNG)는 대응하는 네트워크 서버(NTSRV)로부터 컨텐츠의 데이터를 가져오는 처리를 실행하고, 이 데이터를 영속적 저장 장치 관리자(PRMNG)를 통해 지정된 영속적 저장 장치(PRSTR)로 전송한다(ε 선). 본 실시예에서, 단계(S12)에서, 2차 비디오 세트(SCDVS)의 데이터를 전송하는 경우에, 2차 고화질 비디오 객체 데이터(S-EOBVOB)와 동시에 2차 비디오 세트의 타임 맵(TMAP)도 전송되어야만 한다. 또한, 고급 애플리케이션(ADAPL)의 데이터를 전송하는 경우에, 고급 엘리먼트인 정지 화상(IMAGE), 효과 오디오(EFTAD), 폰트(FONT) 등도 고급 내비게이션(ADVNV)(매니페스트(MNFST), 마크업(MRKUP), 스크립트(SCRPT))와 함께 전송한다. 게다가, 고급 자막(ADSBT)의 데이터를 전송하는 경우는, 고급 엘리먼트(ADVEL)인 고급 자막의 폰트(FONT)도 고급 내비게이션(ADVNV)인 고급 자막의 매니페스트(MNFSTS) 및 고급 자막의 마크업(MRKUPS)과 함께 전송된다(도 12, 도 25 및 도 11 참조). 그 다음 단계(단계 S13)에서, 재생 목록(PLLST) 저장 장소 정보(src 속성 정보)는 단계(S12)에 나타낸 데이터 전송에 의해 발생한 컨텐츠(소스 데이터)의 저장 장소의 변경에 따라 단계(S12)에서의 실행 이전의 네트워크 서버(NTSRV)로부터 영속적 저장 장치(PRSTR)로 변경된다. 이때, 네트워크 서버(NTSRV)로부터 영속적 저장 장치(PRSTR)로의 변경 이전에 정보 저장 매체(DISC), 네트워크 서버(NTSRV) 및 영속적 저장 장치(PRSTR) 내에 저장되어 있는 재생 목록(PLLIST)의 설정 번호보다 큰 번호가 저장될 재생 목록 파일(PLLST)에 설정되어야만 한다. 또한, 컨텐츠 제공자가 네트워크 서버(NTSRV) 내에 저장되어 있는 재생 목록(PLLST)을 변경할 가능성이 있다. 이러한 경우에는, 네트워크 서버(NTSRV) 상에 이미 설정되어 있는 번호보다도 "1"만큼 큰 값이 재생 목록 파일(PLLST)에 설정된다. 따라서, 네트워크 서버(NTSRV) 내의 갱신된 재생 목록(PLLIST)이 이때 저장될 재생 목록(PLLST)과 구분될 수 있도록, 설정된 번호와 중복하지 않는 충분히 큰 번호가 현재 갱신되는 재생 목록(PLLST)에 설정되어야만 하며, 이어서 재생 목록(PLLST)은 영속적 저장 장치(PRSTR)에 저장되어야만 한다. 본 실시예에 있어서의 데이터 처리 방법, 데이터 전송 방법, 또는 프로그램 구조에 관한 기본 개념의 핵심 부분은 단계(S15)로부터 단계(S17)로 나타낸 바와 같이 크게 3 단계로 구성되어 있다. 즉, 첫 번째 단계(단계 S15)에서, 사용자에 대한 재생/표시 순서를 나타내는 관리 정보(프로그램)인 재생 목록(PLLST)이 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)에 의해 판독된다. 도 3a 및 도 3b에 도시된 실시예에서, 갱신된 재생 목록 파일(PLLST)이 영속적 저장 장치(PRSTR) 내에 저장되어 있기 때문에(단계 S14), η선으로 나타낸 바와 같이 재생 목록 관리자(PLMNG)가 영속적 저장 장치(PRSTR)로부터 최신의 재생 목록(PLLST)을 판독한다. 본 실시예에 따른 데이터 처리 방법 또는 데이터 전송 방법에서, 단계(S16)에 나타낸 바와 같이 관리 정보인 재생 목록(PLLST)(프로그램)의 기술 내용에 따라, 미리 정해진 타이밍(LoadingBegin 속성 정보/PRLOAD 또는 preload 속성 정보/PRLOAD)에서, 미리 정해진 저장 장소(src 속성 정보)부터 필요한 컨텐츠인 재생/표시 객체, 인덱스 정보, 내비게이션 데이터, 리소스 데이터 또는 소스 데이터 등이 전송된다. 본 실시예는 필요한 컨텐츠(리소스)가 사전에 데이터 캐쉬(DTCCH)로 전송되는 것에 특징이 있다. 미리 정해진 타이밍에서 지정된 저장 장소로부터 필요한 컨텐츠 전부를 데이터 캐쉬(DTCCH) 내에 저장하는 것은 사용자에의 재생/표시를 중단시키지 않고서 복수의 재생 객체의 동시 재생/표시를 가능하게 해준다. 전송되어야 할 컨텐츠(리소스)의 저장 장소 또는 파일 이름(데이터 이름)을 검색하는 방법은 대응하는 컨텐츠의 종류에 따라 다르고, 이 방법은 이하의 순서에 따라 수행된다.
* 2차 비디오 세트(SCDVS)에 관해서는, 재생 목록(PLLST) 그리고 2차 비디오 세트의 타임 맵(STMAP)의 순서로 검색이 행해진다.
본 실시예에서, 2차 고화질 비디오 객체(S-EVOB) 파일 이름은 2차 비디오 세트의 타임 맵(STMAP) 내에 기술되어 있고, 2차 고화질 비디오 객체 데이터(S-EVOB)는 2차 비디오 세트의 타임 맵(STMAP)의 정보로부터 검색될 수 있다.
* 고급 자막(ADSBT) 또는 고급 애플리케이션(ADAPL)(재생 목록 관련 고급 애 플리케이션(PLAPL), 또는 타이틀 관련 고급 애플리케이션(TTAPL)을 포함함)에 관해서는, 애플리케이션 리소스 엘리먼트(APRELE), 타이틀 리소스 엘리먼트, 또는 애플리케이션 리소스 엘리먼트(APRELE) 내의 src 속성 정보(소스 속성 정보)를 참조한다(도 54a 및 도 54b, 도 55a 및 도 55b, 도 63a 내지 도 63c, 도 66a 내지 도 66c, 도 67, 도 69a 및 도 69b, 도 70 및 도 71 참조).
즉, 리소스(컨텐츠)의 저장 장소가 재생 목록(PLLIST) 내의 영속적 저장 장치(PRSTR)로서 지정되는 경우, 대응하는 영속적 저장 장치(PRSTR)로부터 영속적 저장 장치 관리자(PRMNG)를 경유하여 대응하는 리소스(컨텐츠)가 데이터 캐쉬(DTCCH)로 전송된다(λ 선). 또한, 정보 저장 매체(DISC) 내에 저장된 정보는 κ 선으로 나타낸 바와 같이 정보 저장 매체(DISC)로부터 데이터 캐쉬(DTCCH)로 전송된다. 게다가, 재생 목록(PLLST)에 지정된 리소스(컨텐츠)가 네트워크 서버(NTSRV)에 저장되어 있는 것으로 기술되어 있는 경우, μ 선에 나타낸 바와 같이 대응하는 네트워크 서버(NTSRV)로부터 네트워크 관리자(NTMNG)를 경유하여 데이터 캐쉬(DTCCH)로 전송된다. 이 경우, 컨텐츠(리소스)의 데이터 전송(67)에 앞서서, 재생 목록 관리자(PLMNG)로부터 영속적 저장 장치 관리자(PRMNG), 네트워크 관리자(NTMNG) 및 도시하지 않는 디스크 관리자(DKMNG)로, 데이터 전송 요청의 명령(68)이 발행된다(θ 선). 마지막 단계에서, 단계(S17)에 나타낸 바와 같이, 관리 정보(재생 목록/프로그램)의 정보 내용에 기초하여, 관리 정보 내에 지정된 타이밍(titleTimeBegin/TTSTTM 또는 titleTimeEnd/TTEDTM)에서, 화면 내의 지정된 장소에 복수의 재생/표시 객체가 동시에 표시된다(도 11, 도 12 및 도 25 참조). 이 때, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터 데이터 캐쉬(DTCCH)로 명령(68)(υ 선)이 전송되고, 또한 ξ선으로 나타낸 바와 같이 재생 목록 관리자(PLMNG)로부터 프리젠테이션 엔진(PRSEN)으로 사전 준비의 명령(68)이 전송된다. 이것에 기초하여, 데이터 캐쉬(DTCCH) 내에 사전에 저장되어 있던 컨텐츠(리소스)의 정보가 프리젠테이션 엔진(PRSEN) 쪽으로 전송되고, 재생/표시 객체가 사용자에게 표시된다(o 선). 또한, 상기한 처리와 동시에, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)의 일부는 데이터 캐쉬(DTCCH)를 사용하지 않고 정보 저장 매체(DISC)로부터 프리젠테이션 엔진(PRSEN)으로 직접 전송될 수 있다. 이 데이터 전송은 도 3a 및 도 3b에 있어서의 ρ 선에 대응한다. 또한, 2차 비디오 세트(SCDVS)의 일부는 데이터 캐쉬(DTCCH)를 사용하지 않고 영속적 저장 장치 관리자(PRMNG)로부터 프리젠테이션 엔진(PRSEN)(그 안의 2차 비디오 플레이어(SCDVP))으로 직접 전송될 수 있다. 이 데이터 전송은 도 3a 및 도 3b의 π 선에 대응하고, 데이터 전송(67)에 앞서서, 데이터 전송의 지시 명령(68)이 재생 목록 관리자(PLMNG)로부터 영속적 저장 장치 관리자(PRMNG)로 발행된다(υ 선). 이와 같이 하여, 데이터 전송이 수행되고, 복수의 재생/표시 객체가 동시에 재생될 수 있다. 재생/표시 타이밍 제어 정보가 관리 정보(재생 목록(PLLST)/프로그램)에 제공될 때, 동화상(고화질 비디오 객체 데이터(EVOB))를 포함하는 복수의 재생/표시 객체(고급 애플리케이션(ADAPL) 또는 고급 자막(ADSBT)을 포함함)가 중단되는 일 없이 동시에 재생/표시될 수 있다. 도 3a 및 도 3b에는 주로 데이터 처리 방법 및 데이터 전송 방법이 기술되어 있지만, 본 실시예는 이것으로 한정되지 않으며, 본 실시예의 특징의 범위는 필요한 가능한 타이밍 또는 리소스의 저장 장소를 기술하고 데이터 처리 방법 또는 데이터 전송 방법을 실현할 수 있는 프로그램 기술 내용을 포함한다.
도 2에 나타낸 3가지 요구를 만족시키기 위해, 본 실시예는 PC 세계에서의 표현 형식에 대응하게 XML, 스크립트 및 타임라인의 개념을 도입한다. 그렇지만, 단지 이러한 데이터 구조를 채용하는 것만으로는, 기존의 DVD-비디오 표준과의 호환성이 손상된다. 또한, 도 2를 사용하여 기술된 사용자 요구 등을 만족시키기 위해는, 네트워크 접속이 필요하고, 매우 저렴한 정보 재생 장치를 사용자에게 제공하는 것이 어렵게 된다. 따라서, 본 실시예는 도 2를 사용하여 기술된 사용자 요구 등을 만족시키는 고급 컨텐츠(ADVCT), 및 도 2를 사용하여 기술된 사용자의 요구 등을 만족시킬 수는 없지만 기존의 DVD-비디오 표준과의 호환성을 확보하면서 매우 저렴한(인터넷 접속을 전제로 하지 않음) 정보 재생 장치로 재생될 수 있는 표준 컨텐츠(STDCT)를 사용할 수 있는 구성을 채택하고 있다. 이 점이 본 실시예의 큰 기술적 특징이다.
표준 컨텐츠(STDCT)의 데이터 구조 및 고급 컨텐츠(ADVCT)의 데이터 구조에 대해 나중에 보다 상세히 기술한다는 것에 유의한다.
도 15a 및 도 15b는 정보 기록 및 재생 장치(1)에 의한 비디오 컨텐츠 재생 방법의 예를 나타낸 것이다.
이 경우의 한 예가 도 15a(a)에 도시되어 있으며, 여기서 메인 타이틀(31)은 상세한 내비게이션의 설명을 제공하는 데 사용되는 비디오 정보(42) 이후에 텔레비 전 방송 비디오 정보와 같이 표시되고, 제품 또는 서비스 기타 등등에 대한 광고(44)는 메인 타이틀(31)에 삽입되기 위해 표시되며, 영화의 예고편(41)은 메인 타이틀(31)의 표시의 종료 이후에 표시된다.
이 경우의 예가 도 15b(b)에 도시되어 있으며, 여기서 메인 타이틀(31)은 상세한 내비게이션의 설명을 제공하는 데 사용되는 비디오 정보(42) 이후에 텔레비전 방송 비디오 정보와 같이 표시되고, 텔롭(텔롭)의 형태의 광고(43)가 메인 타이틀(31) 상에 중첩되기 위해 표시되며, 영화의 예고편(41)은 메인 타이틀(31)의 표시의 종료 이후에 표시된다.
이 경우의 예가 도 15b(c)에 도시되어 있으며, 여기서 영화의 예고편(41)은 상세한 내비게이션의 설명을 제공하는 데 사용되는 비디오 정보(42) 이후에 표시되고, 이어서 메인 타이틀(31)이 표시되며, 광고용의 독립적인 화면(32)이 메인 타이틀(31)의 표시 동안에 메인 타이틀(31)과 다른 표시 영역 상에 표시되고, 도움말 아이콘(33)이 예고편(41) 및 메인 타이틀(31)의 표시 동안에 메인 타이틀(31)과 다른 표시 영역 상에 표시된다.
메인 타이틀, 광고, 예고편, 텔롭 광고, 기타 등등을 표시하는 데 어떤 종류의 정보가 사용되는지에 대해 나중에 보다 상세히 기술한다는 것에 유의한다.
<표시 화면의 예>
도 16은 메인 타이틀(31), 광고용의 독립적인 화면(32) 및 도움말 아이콘(33)이 도 15b(c)에 동시에 표시되어 있는 경우의 α 점에서의 표시 화면의 예를 나타낸 것이다.
이 표시 화면의 예에서, 메인 타이틀(31)은 좌측 상부 영역 상에 메인 화상의 동화상으로서 표시되고, 광고용의 독립적인 화면(32)은 우측 상부 영역 상의 서브-픽처의 동화상으로서 표시되며, 도움말 아이콘(33)은 아래쪽 영역 상의 정지 화상으로서 표시된다. 또한, 정지 버튼(34), 재생 버튼(35), FR(fast-rewinding, 고속 되감기) 버튼(36), 일시 정지 버튼(37), FF(fast-forwarding, 고속 감기) 버튼(38), 기타 등등도 역시 정지 화상(그래픽)으로서 표시된다. 게다가, 커서(도시 생략) 기타 등등이 표시된다.
표시 화면상에 각각의 개개의 동화상 또는 정지 화상을 표시하는 데 어느 종류의 정보가 사용되는지에 대해 나중에 보다 상세히 설명한다는 것에 유의한다.
<컨텐츠 종류(Content Type)>
본 실시예는 2가지 유형의 컨텐츠를 정의하며, 하나는 표준 콘덴츠(STDCT)이고, 다른 하나는 고급 컨텐츠(ADVCT)이다. 표준 컨텐츠는 디스크 상의 내비게이션 데이터 및 비디오 객체 데이터로 이루어져 있다. 반면에, 고급 컨텐츠는 재생 목록, 매니페스트, 마크업 및 스크립트 파일 등의 고급 내비게이션 및 1차/2차 비디오 세트 및 고급 엘리먼트(이미지, 오디오, 텍스트 기타 등등) 등의 고급 데이터로 이루어져 있다. 적어도 하나의 재생 목록 파일 및 1차 비디오 세트가 고급 컨텐츠를 갖는 디스크 상에 위치하게 되고, 기타의 데이터는 디스크 상에 있고 또한 서버로부터 전달될 수도 있다.
더욱 이해하기 쉬운 설명이 이하에 제공될 것이다.
본 실시예는 2가지 서로 다른 유형의 컨텐츠, 즉 표준 컨텐츠(STDCT) 및 고 급 컨텐츠(ADVCT)를 정의한다. 이 점은 본 실시예에서의 큰 기술적 특징이다.
본 실시예의 표준 콘덴츠(STDCT)는 비디오 정보 자체를 기록하고 있는 고화질 비디오 객체(EVOB) 및 그 고화질 비디오 객체 데이터의 관리 정보를 기록하고 있는 내비게이션 데이터(IFO)를 포함한다. 표준 컨텐츠(STDCT)는 기존의 DVD-비디오의 데이터 구조를 순수히 확장하여 얻어진 데이터 구조를 가지고 있다.
이와 반대로, 고급 컨텐츠(ADVCT)는 후술하는 여러 가지 종류의 정보를 기록하는 데이터 구조를 갖는다.
도 4는 표준 컨텐츠(STDCT)의 데이터 구조를 나타낸 것이다. 도 12, 도 13a 및 도 13b는 고급 컨텐츠의 데이터 구조 및 효과 기타 등등의 설명을 나타낸 것이다. 도 10은 본 실시예에서의 여러 가지 객체 간의 관계를 나타낸 것이다. 이들 도면은 이하의 설명에서 필요에 따라 참조될 것이다.
<표준 컨텐츠>
표준 컨텐츠는 특히 고해상도 비디오, 고음질 오디오 및 어떤 새로운 기능을 위해 DVD-비디오 규격에 정의된 컨텐츠의 확장에 불과하다. 표준 컨텐츠는 기본적으로 도 4에 나타낸 바와 같이 하나의 VMG 공간 및 하나 이상의 VTS 공간("표준 VTS" 또는 단지 "VTS"라고 함)으로 이루어져 있다. 기존의 DVD-비디오 규격에 비해, 이 실시예는 새로운 기능을 제공한다. 예를 들어,
Figure 112006062570134-PAT00001
코덱/해상도 등의 비디오 스트림의 확장
Figure 112006062570134-PAT00002
코덱/주파수/채널 수 등의 오디오 스트림의 확장
Figure 112006062570134-PAT00003
서브-픽처 스트림/하이라이트 정보 스트림의 확장
Figure 112006062570134-PAT00004
내비게이션 명령의 확장
Figure 112006062570134-PAT00005
FP_DOM/VMGM_DOM/VTSM_DOM에 대한 어떤 제약의 제거
Figure 112006062570134-PAT00006
영역들 간의 천이에 대한 어떤 제약의 제거
Figure 112006062570134-PAT00007
복귀 시퀀스 등의 도임
보다 알기 쉬운 설명이 이하에 제공될 것이다.
표준 컨텐츠(STDCT)의 데이터 구조가 도 4를 사용하여 이하에서 기술된다.
표준 컨텐츠(STDCT)는 메뉴 프레임을 나타내는 비디오 관리자(VMG), 및 비디오 데이터를 기록하고 있는 표준 비디오 타이틀 세트(SVTS)를 포함한다.
메뉴 프레임을 기록하는 비디오 관리자(VMG)는 비디오 정보 자체를 기록하고 있는 고화질 비디오 객체 데이터(EVOB), 및 그 EVOB의 관리 데이터를 기록하고 있는 내비게이션 데이터(IFO)를 포함한다. 표준 비디오 타이틀 세트(SVTS)는 비디오 정보 자체를 기록하고 있는 고화질 비디오 객체(EVOB), 및 그 EVOB의 관리 데이터를 기록하고 있는 내비게이션 데이터(IF0)를 포함한다.
표준 컨텐츠(STDCT)는 종래의 DVD-비디오에 의해 규정되어 있는 컨텐츠의 확장 구조를 나타낸다. 특히, 종래의 DVD-비디오와 비교하여 비디오 데이터의 해상도 및 오디오 데이터의 음질을 향상시키는 새로운 기능이 추가되어 있다. 도 4에 나타낸 바와 같이, 표준 컨텐츠(STDCT)는 1개의 비디오 관리자(VMG) 공간 및 하나 이상의 비디오 타이틀 세트(VTS) 영역으로 이루어지고 있다. 이 비디오 타이틀 세트(VTS)가 기록되어 있는 영역을 표준 비디오 타이틀 세트(SVTS) 또는 VTS라고 부른다.
기존의 DVD-비디오 규격과 비교하여, 본 실시예는 이하의 새로운 기능을 제공한다.
Figure 112006062570134-PAT00008
비디오 정보에 대한 고해상도 및 높은 압축 효율을 보증하는 새로운 압축방식이 채용된다.
Figure 112006062570134-PAT00009
오디오 정보의 채널 수가 증가되고 높은 샘플 주파수가 지원된다. 고음질 및 높은 압축 효율을 보증하는 오디오 정보 압축 방법이 채용된다.
Figure 112006062570134-PAT00010
서브-픽처 정보가 확장되고, 하이라이트 정보에 대한 새로운 스트림이 정의된다.
Figure 112006062570134-PAT00011
내비게이션 명령이 확장된다.
Figure 112006062570134-PAT00012
기동 시에 처리를 실행하는 제1 재생 영역, 메뉴 화상을 관리하는 비디오 관리자 영역, 및 비디오 정보의 재생 시에 처리를 실행하는 비디오 타이틀 세트 영역에 종래에 포함되어 있는 몇 개의 제한이 제거되고, 따라서 더욱 유연한 표현을 가능하게 해준다.
Figure 112006062570134-PAT00013
영역들 사이의 천이에 대한 몇 개의 제한이 제거되고, 따라서 더욱 유연한 표현 환경을 정의한다.
Figure 112006062570134-PAT00014
재생을 일시중지할 때의 처리를 나타내는 새로운 재시작 시퀀스 기능이 추가되고, 일시 정지 후의 사용자의 편의성이 향상된다.
<표준 VTS>
표준 VTS는 기본적으로 표준 컨텐츠에서 사용되지만, 이 VTS는 타임 맵(TMAP)을 통해 고급 컨텐츠에서 이용될 수 있다. EVOB는 표준 컨텐츠에 대한 몇 개의 특정한 정보를 가지고 있으며, 하이라이트 정보(HLI) 및 프리젠테이션 제어 정보(PCI) 등의 정보는 고급 컨텐츠(ADVCT)에서는 무시된다.
보다 알기 쉬운 설명이 이하에 제공될 것이다.
본 실시예에서 표준 비디오 타이틀 세트(SVTS)는 기본적으로 상기한 표준 컨텐츠(STDCT)에 대해 사용된다. 그렇지만, 이 표준 비디오 타이틀 세트(STVS)는 타임 맵(TMAP)을 통해 고급 컨텐츠(ADVCT)에서 이용될 수 있다(후술함).
표준 비디오 타이틀 세트(SVTS)에서 사용되는 객체 데이터인 고화질 비디오 객체(EVOB)는 표준 컨텐츠(STDCT)에 대한 몇 가지 특정의 정보를 포함할 수 있다. 몇 가지 특정의 정보는 예를 들어 표준 컨텐츠(STDCT)에서는 사용되지만 본 실시예에서 고급 컨텐츠(ADVCT)에서는 무시되는 하이라이트 정보(HLI) 및 프리젠테이션 제어 정보(PCI)를 포함한다.
<HDDVD_TS 디렉토리>
"HDDVD_TS" 디렉토리는 루트 디렉토리 바로 아래에 존재하게 된다. 1차 비디오 세트와 관련된 모든 파일(즉, VMG, 표준 비디오 세트(들) 및 고급 VTS)은 이 디렉토리 아래에 존재하게 된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 4에 도시하는 표준 컨텐츠(STDCT)를 정보 저장 매체(DISC) 내에 기록할 때의 디렉토리 구조에 관해서 이하에서 설명한다. 본 실시예에서는, 표준 컨텐츠(STDCT) 및 후술하는 고급 컨텐츠(ADVCT)는 함께 HDDVD_TS 디렉토리 내에 기록된다. HDDVD_TS 디렉토리는 정보 저장 매체(DISC)의 루트 디렉토리 바로 아래에 존 재한다. 예컨대, 비디오 관리자(VMG) 및 표준 비디오 타이틀 세트(SVTS) 등의 후술하는 1차 비디오 세트(PRMVS)에 관계된 모든 파일은 이 디렉토리 아래에 존재한다.
<비디오 관리자(VMG)>
비디오 관리자 정보(VMGI), 제1 재생 프로그램 체인 메뉴에 대한 고급 비디오 객체(FP_PGCM_EVOB) 및 백업을 위한 비디오 관리자 정보(VMGI_BUP)가 HDDVD_TS 디렉토리 아래에 성분 파일로서 제각기 기록된다. 비디오 관리자 메뉴에 대한 고화질 비디오 객체 세트(VMGM_EVOBS)는 HDDVD_TS 디렉토리 아래에 최대 98개의 파일로 분할된다. VMGM_EVOBS의 이들 파일들의 경우, 모든 파일은 연속하여 할당된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 4에 도시된 비디오 관리자(VMG)의 내용에 관해 이하에서 설명한다. 비디오 관리자(VMG)는 기본적으로 종래의 DVD-비디오의 메뉴 프레임 정보 및 제어 정보를 포함한다. 상기 설명한 HDDVD_TS 디렉토리 아래에, 비디오 관리자 정보(WMGI), 정보 저장 매체(DISC)의 삽입 직후의 최초로 표시되는 메뉴(FP_PGCM_EVOB)에 관계된 고화질 비디오 객체(EVOB), 비디오 관리자(VMG)의 내비게이션 데이터(IFO)의 백업 데이터인 비디오 관리자 정보(VMGI_BUP) 등이 성분 파일로서 따로따로 기록된다.
HDDVD_TS 디렉토리 아래에, 비디오 관리자 메뉴에 관계된 고화질 비디오 객체 세트(VMGM_EV0BS)는 1 GB 이상의 크기를 가지며, 이들의 데이터는 최대 98개의 파일로 분할되어 기록된다.
본 실시예에 있어서의 판독 전용의 정보 저장 매체에서, 재생 시의 편리성을 위해 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)의 모든 파일은 연속하여 할당된다. 이와 같이, 비디오 관리자 메뉴에 관계된 고화질 비디오 객체세트(VMGM_EVOBS)의 정보가 한 곳에 모두 기록되어 있기 때문에, 데이터 액세스 편의성, 데이터 수집 편의성, 및 표시 속도의 고속화가 보장될 수 있다.
<표준 비디오 타이틀 세트(표준 VTS)>
비디오 타이틀 세트 정보(VTSI) 및 백업용 비디오 타이틀 세트 정보(VTSI_BUP)는 HDDVD_TS 디렉토리 아래에 성분 파일로서 제각기 기록된다. 비디오 타이틀 세트 메뉴용의 고화질 비디오 객체 세트(VTSM_EVOBS) 및 타이틀용의 고화질 비디오 객체 세트(VTSTT_EVOBS)는 최대 99개의 파일로 분할될 수 있다. 이들 파일은 HDDVD_TS 디렉토리 아래에 성분 파일이 된다. VTSM_EVOBS 및 VTSTT_EVOBS의 이들 파일에 대해, 모든 파일은 연속하여 할당된다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에 있어서, 비디오 타이틀 세트 정보(VTSI)와 비디오 타이틀 세트정보의 백업 데이터(VTSI-BUP)는 각각 성분 파일로서 HDDVD_TS 디렉토리 아래에 기록된다. 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS) 및 각각의 타이틀의 고화질 비디오 객체 세트(VTSTT-EVOBS)의 크기는 1 GB를 초과할 수 있다. 그렇지만, 이들의 데이터는 최대 99개의 파일로 분할되어 기록되어야만 한다. 그 결과, 각각의 파일 크기는 1 GB 이하로 설정될 수 있다. 이들 파일은 HDDVD_TS 디렉토리 아래의 독립적인 성분 파일이 된다. 비디오 타이틀 세트 메뉴 의 고화질 비디오 객체 세트(VTSM_EVOBS) 및 각각의 타이틀의 고화질 비디오 객체 세트(VTSTT_EVOBS)의 모든 파일은 각각 연속적으로 할당된다. 그 결과, 데이터가 한 곳에 기록되기 때문에, 데이터 액세스 편의성, 고속화, 및 데이터 처리 관리 용이성이 달성될 수 있고, 사용자에 대한 이들 정보가 고속으로 표시될 수 있다.
<표준 비디오 타이틀 세트(VTS)의 구조>
VTS는 타이틀의 집합체이다. 각각의 VTS는 비디오 타이틀 세트 정보(VTSI), VTS 메뉴에 대한 고화질 비디오 객체 세트(VTSM_EVOBS), VTS 내의 타이틀에 대한 고화질 비디오 객체 세트(VTSTT_EVOBS) 및 백업 제어 데이터(VTSI_P)라고 하는 제어 데이터로 이루어져 있다.
이하의 규칙이 비디오 타이틀 세트(VTS)에 적용된다.
1) 제어 데이터(VTSI) 및 제어 데이터의 백업(VTSI_BUP) 각각은 단일의 파일로 되어야 한다.
2) VTS 메뉴에 대한 EVOBS(VTSM_EVOBS) 및 VST 내의 타이틀에 대한 EVOBS(VTSTT_EVOBS) 각각은 각각 최대 99개의 파일로 분할될 수 있어야 한다.
3) VTSI, VTSM_EVOBS(존재하는 경우), VTSTT_EVOBS 및 VTSI_BUP는 이 순서로 할당되어야 한다.
4) VTSI 및 VTSI_BUP는 동일한 ECC 블록 내에 기록되지 않아야 한다.
5) VTSM_EVOBS를 구성하는 파일들은 연속하여 할당되어야 한다. 또한, VTSTT_EVOBS를 구성하는 파일들도 연속하여 할당되어야 한다.
6) VTSI_BUP의 내용은 VTSI와 정확하게 완전히 동일하다. 따라서, VTSI_BUP 내의 상대 어드레스 정보가 VTSI_BUP 외부를 지칭하는 경우, 상대 어드레스는 VTSI의 상대 어드레스로서 취해져야 한다.
7) VTS 번호는 볼륨 내의 VTS에 할당된 연속적인 번호이다. VTS 번호는 '1' 내지 '511'까지이며, VTS가 디스크 상에 저장되는 순서로(각각의 VTS의 VTSI의 처음에서 가장 작은 LBN부터) 할당되어야 한다.
8) 각각의 VTS에서, VTSI, VTSM_EVOBS(존재하는 경우), VTSTT_EVOBS 및 VTSI_BUP 간의 경계에 갭이 존재할 수 있어야 한다.
9) 각각의 VTSM_EVOBS(존재하는 경우)에서, 각각의 EVOB는 연속적으로 할당되어야 한다.
10) 각각의 VTSTT_EVOBS에서, 각각의 EVOB는 연속적으로 할당되어야 한다.
11) VTSI 및 VTSI_BUP는 연속적인 LSN으로 이루어진 논리적으로 연속한 영역에 각각 기록되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
비디오 타이틀 세트(VTS)는 일련의 비디오 타이틀의 집합체이다. 이 비디오 타이틀 세트는 비디오 타이틀 세트와 관계된 제어 정보인 비디오 타이틀 세트 정보(VTSI), 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS), 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSTT_EVOBS), 및 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)를 포함한다.
이 실시예에서, 이하의 규칙이 비디오 타이틀 세트(VTS)에 적용된다.
1) 제어 정보를 기록하고 있는 비디오 타이틀 세트 정보(VTSI) 및 비디오 타 이틀 세트 정보의 백업 데이터(VTSI-BUP) 각각은 1 GB 이하의 1개의 파일 내에 기록되어야 한다.
2) 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS) 및 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSTT_EVOBS)는 정보 저장 매체(DISC)마다 각각이 1 GB 이하의 크기를 갖는 최대 99개의 파일로 분할되어 기록되어야 한다.
3) 비디오 타이틀 세트 정보(VTSI), 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS), 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSTT_EVOBS) 및 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)가 이 순서로 할당되어야 한다.
4) 비디오 타이틀 세트 정보(VTSI) 및 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)는 1개의 ECC 블록 내에 함께 기록되지 않아야 한다. 즉, 비디오 타이틀 세트 정보(VTSI) 및 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)는 연속하여 기록되지만, 이들의 경계 위치가 단일의 ECC 블록 내의 중심에 할당되는 것이 금지된다. 즉, 이들 데이터의 경계 부분이 단일의 ECC 블록 내에 할당되어 있을 때, 그 ECC 블록이 어떤 결함으로 인해 재생될 수 없는 경우, 양쪽의 정보가 재생될 수 없다. 따라서, 비디오 타이틀 세트 정보의 그 다음 백업 데이터(VTSI_BUP)의 선두를 그 다음 ECC 블록의 선두 위치에 할당하기 위해 패딩 정보가 비디오 타이틀 세트 정보(VTSI)의 종료 위치에서 ECC 블록 내의 나머지 영역에 기록되고, 따라서 양쪽 데이터가 단일의 ECC 블록에 기록되는 것을 피하게 된다. 이 점이 본 실시예에서의 큰 기술적 특징이다. 이 구조에서, 데이터 재생의 신뢰성이 대폭 향상될 수 있을 뿐만 아니라 데이터 재생 시의 재생 처리가 용이하게 될 수 있다.
5) 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS)를 구성하는 복수의 파일이 정보 저장 매체(DISC) 상에 연속적으로 기록되어야 한다. 또한, 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSTT_EVOBS)를 구성하는 복수의 파일은 연속하여 기록되어야 한다. 파일들이 연속하여 할당되기 때문에, 각각의 정보가 재생 시의 광학 헤드의 한 번의 연속적인 재생 동작에 의해 한번에 재생될 수 있다(광학 헤드의 점프 처리의 필요성이 없어진다). 이와 같이 하여, 데이터 재생 시의 여러 가지 정보의 용이한 처리가 보장될 수 있고, 데이터 재생으로부터 표시하기까지의 시간이 단축될 수 있다.
6) 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)의 내용은 비디오 타이틀 세트 정보(VTSI)와 정확히 완전하게 동일해야 한다. 따라서, 관리 정보인 비디오 타이틀 세트 정보(VTSI)가 에러로 인해 재생될 수 없는 경우, 비디오 정보는 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP)를 재생함으로써 안정되게 재생될 수 있다.
7) 비디오 타이틀 세트(VTS) 번호는 볼륨 공간에 기록된 비디오 타이틀 세트(VTS)에 할당된 연속적인 번호이다. 각자의 비디오 타이틀 세트(VTS)의 번호는 번호 1에서 511까지이며, 정보 저장 매체(DISC) 상에 기록된 비디오 타이틀 세트(VTS)의 할당 위치를 나타내는 논리적 공간에서의 어드레스인 논리 블록 번 호(LBN)의 오름차순으로 할당된다.
8) 각각의 비디오 타이틀 세트(VTS)에서, 비디오 타이틀 세트 정보(VTSI), 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVOBS), 비디오 타이틀 세트(VTS) 내의 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSTT_EVOBS), 및 비디오 타이틀 세트 정보의 백업 데이터(VTSI_BUP) 중 이웃하는 것들 사이의 경계 영역에 갭이 존재할 수 있다. 보다 구체적으로는, 상기한 4가지 유형의 정보는 서로 다른 ECC 블록에 할당되고, 따라서 재생 시의 데이터의 높은 신뢰성 및 재생 처리의 용이성, 및 처리의 고속화를 보장한다. 이 때문에, 본 실시예는 다음과 같이 설계된다. 즉, 각각의 정보의 마지막 데이터의 기록 위치가 1개의 ECC 블록의 중간에서 끝나는 경우, 패딩 정보는 나머지 영역에 기록되고, 따라서 그 다음 정보의 선두 위치가 그 다음 ECC 블록의 선두 위치와 일치하게 된다. ECC 블록 내의 패딩 정보의 부분은 본 실시예에서 갭이라고 한다.
9) 각각의 비디오 타이틀 세트 메뉴의 고화질 비디오 객체 세트(VTSM_EVBOS)에서, 고화질 비디오 객체(EVOB)는 정보 저장 매체(DISC) 상에 연속하여 할당되어야 한다. 따라서, 재생 처리의 편의성이 향상될 수 있다.
10) 비디오 타이틀 세트(VTS) 내의 각각의 타이틀의 고화질 비디오 객체 세트(비디오 정보 자체)(VTSM_EVBOS)에서, 각자의 고화질 비디오 객체는 정보 저장 매체(DISC) 상에서 연속하여 할당되어야 한다. 이와 같이 하여, 정보 재생의 편의성이 보장될 수 있고, 재생까지 걸리는 시간이 단축될 수 있다.
11) 비디오 타이틀 세트 정보(VTSI) 및 비디오 타이틀 세트 정보의 백업 데 이터(VTSI_BUP)는 정보 저장 매체(DISC) 상의 어드레스 위치를 나타내는 일련의 논리 블록 번호(LSN)에 의해 정의되는 논리적으로 연속한 영역에 각각 기록되어야 한다. 이와 같이 하여, 정보는 (점프 처리 없이) 단일의 연속적인 재생에 의해 판독될 수 있으며, 따라서 재생 처리의 편의성 및 처리의 고속화를 보장할 수 있다.
<비디오 관리자(VMG)의 구조>
VMG는 "HD DVD-비디오 존"에 존재하는 표준 비디오 타이틀 세트에 대한 컨텐츠의 테이블이다. VMG는 비디오 관리자 정보(VMGI)라고 하는 제어 정보, 제1 재생 PGC 메뉴에 대한 고화질 비디오 객체(FP_PGCM_EVOB), VGM 메뉴에 대한 고화질 비디오 객체 세트(VMGM_EVOBS), 및 제어 데이터의 백업(VMGI_BUP)으로 이루어져 있다. 제어 데이터는 타이틀을 재생하는 데 필요한 정적 정보이고 사용자 조작을 지원하기 위한 정보를 제공한다. FP_PGCM_EVOB는 메뉴 언어를 선택하는 데 사용되는 고화질 비디오 객체(EVOB)이다. VMGM_EVOBS는 볼륨 액세스를 지원하는 메뉴에 사용되는 고화질 비디오 객체(EVOB)의 집합체이다.
이하의 규칙은 비디오 관리자(VMG)에 적용된다.
1) 제어 데이터(VMGI) 및 제어 데이터의 백업(VMGI_BUP) 각각은 단일의 파일로 되어야 한다.
2) FP PGC 메뉴에 대한 EVOB(FP_PGCM_EVOB)는 단일의 파일로 되어야 한다. VMG 메뉴에 대한 EVOBS(VMGM_EVOBS)는 최대 98개의 파일로 분할될 수 있다.
3) VMGI, FP_PGCM_EVOB(존재하는 경우), VMGM_EVOBS(존재하는 경우) 및 VMGI_BUP는 이 순서로 할당되어야 한다.
4) VMGI 및 VMGI_BUP는 동일한 ECC 블록 내에 기록되어서는 안 된다.
5) VMGM_EVOBS를 구성하는 파일들은 연속하여 할당되어야 한다.
6) VMGI_BUP의 내용은 VMGI와 정확하게 완전히 동일해야 한다. 따라서, VMGI_BUP 내의 상대 어드레스 정보가 VMGI_BUP의 외부를 지칭하는 경우, 이 상대 어드레스는 VMGI의 상대 어드레스로서 취해져야 한다.
7) VMGI, FP_PGCM_EVOB(존재하는 경우), VMGM_EVOBS(존재하는 경우) 및 VMGI_BUP 간의 경계에 갭이 있을 수 있다.
8) VMGM_EVOBS(존재하는 경우)에서, 각각의 EVOB는 연속하여 할당되어야 한다.
9) VMGI 및 VMGI_BUP는 연속적인 LSN으로 이루어진 논리적으로 연속한 영역에 각각 기록되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
비디오 관리자(VMG)는 표준 비디오 타이틀 세트(SVTS)에 대한 컨텐츠의 테이블이고 후술하는 HDDVD-비디오 존에 기록되어 있다. 비디오 관리자(VMG)의 구성 요소는 비디오 관리자 정보(VMGI)인 제어 정보, 정보 저장 매체(DISC)의 삽입 직후에 처음으로 표시될 메뉴(FP_PGCM_EVOB), 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVBOS), 및 비디오 관리자 정보(VMGI)인 제어 정보의 백업 데이터(VMGI_BUP)이다. 비디오 관리자 정보(VMGI)인 제어 정보는 각각의 타이틀을 재생하는 데 필요한 정보, 및 사용자의 조작을 지원하기 위한 정보를 기록하고 있다. 정보 저장 매체(DISC)의 삽입 직후에 맨 먼저 표시되는 메뉴(FP_PGCM_EVOB)는 메뉴 에 표시되는 언어를 선택하는 데 사용된다. 즉, 정보 저장 매체(DISC)의 삽입 직후에 사용자 자신이 최적의 메뉴 언어를 선택하며, 따라서 최상의 이해가능한 언어를 사용하여 여러 가지 메뉴 프레임을 표시한다. 비디오 관리자 메뉴와 관계된 고화질 비디오 객체 세트(VMGM_EVOBS)는 볼륨 액세스를 지원하는 메뉴에서 사용되는 고화질 비디오 객체(EVOB)의 집합체이다. 즉, 사용자에 의해 선택되는 언어로 표시되는 메뉴 프레임(개개의 언어 각각에 대한 독립적인 정보로서 제공되는 프레임)의 정보가 고화질 비디오 객체 세트로서 기록된다.
이 실시예에서, 이하의 규칙이 비디오 관리자(VMG)에 적용되어야 한다.
1) 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGI_BUP) 각각은 각각이 1 GB 이하의 파일 크기를 갖도록 정보 저장 매체(DISC)에 기록되어야 한다.
2) 정보 저장 매체(DISC)의 삽입 직후에 최초로 표시되는 메뉴(FP_PGCM_EVOB)의 고화질 비디오 객체(EVOG)는 각각이 1GB 이하의 파일 크기를 갖도록 정보 저장 매체(DISC)에 분할되어 기록되어야 한다. 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)는 각각이 1GB 이하의 파일 크기를 갖도록 분할되어 기록되고, 정보 저장 매체(DISC)마다 기록된 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)의 파일의 수는 98개 이하로 설정된다. 하나의 파일의 데이터 크기가 1GB 이하로 설정되기 때문에, 버퍼 메모리가 용이하게 관리될 수 있고, 데이터 접근성이 향상된다.
3) 비디오 관리자 정보(VMGI), 정보 저장 매체(DISC)의 삽입 직후에 최초로 표시되는 메뉴(FP_PGCM_EVOB), 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS), 및 비디오 관리자 정보의 백업 파일(VMGI_BUP)은 정보 저장 매체(DISC) 상에 이 순서로 할당되어야 한다.
4) 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGI_BUP)은 단일의 ECC 블록 내에 기록되어서는 안 된다.
비디오 관리자 정보(VGMI), 정보 저장 매체(DISC)의 삽입 직후에 최초로 표시되는 메뉴(FP_PGCM_EVOB), 및 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOB)는 선택적이기 때문에, 이들이 정보 저장 매체(DISC) 상에 기록되지 않는 경우가 있다. 이러한 경우에, 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGI_BUP)이 차례로 연속하여 할당될 수 있다. 이것은 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGI_BUP)의 경계 위치가 1개의 ECC 블록의 중심에 할당되지 않음을 의미한다. 기본적으로, 정보는 각각의 ECC 블록에 대한 정보 저장 매체로부터 재생된다. 이 때문에, 양쪽의 정보의 경계 위치가 단일의 ECC 블록 내에 기록되어 있는 경우, 재생 정보의 데이터 처리의 편의성이 손상될 뿐만 아니라, 경계 부분을 저장하는 ECC 블록에서 에러가 발생하여 재생을 할 수 없게 되는 경우, 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGI_BUP) 둘 모두 재생될 수 없는 경우가 있다. 따라서, 양쪽 정보의 경계 부분이 ECC 블록의 경계 부분에 할당될 때, 재생 시의 처리의 우위성이 보장된다. 이들 ECC 블록 중 하나가 많은 에러를 포함하여 재생될 수 없을 때에도, 정보가 복원될 수 있고 또 나머지 데이터를 사용하여 재생될 수 있다. 따라서, 양쪽 정보의 경계를 이웃하는 ECC 블록 간의 경계로 설정함으로써, 비디오 관리자 정보(VMGI)의 재생 신뢰성이 향상될 수 있다.
5) 메뉴 정보를 나타내는 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)를 구성하는 파일은 연속하여 할당되어야 한다. 전술한 바와 같이, 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)의 데이터 크기는 1 GB를 초과할 수 있다. 본 실시예에서, 각각이 1 GB 이하의 파일 크기를 갖도록 복수의 파일 내에 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)의 데이터를 분할하여 기록하도록 규정되어 있다. 이 분할된 파일은 정보 저장 매체(DISC) 상에 연속하여 기록되어야 한다. 이와 같이 하여, 한 번의 연속 재생에 의해 비디오 관리자 메뉴의 모든 고화질 비디오 객체 세트가 가져와질 수 있고, 따라서 재생 제어의 높은 신뢰성 및 사용자에 대한 표시 처리의 고속화를 보장해준다.
6) 비디오 관리자 정보의 백업 파일(VMGI_BUP)의 내용은 비디오 관리자 정보(VMGI)의 내용과 정확하게 완전히 동일해야 한다.
7) 비디오 관리자 정보(VMGI), 정보 저장 매체(DISC) 삽입 직후에 최초로 표시되는 메뉴(FP_PGCM_EVOB), 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS), 및 비디오 관리자 정보의 백업 파일(VMGI_BUP) 중 이웃하는 것들 사이의 경계 위치에 갭이 존재할 수 있다. 4)에 설명한 바와 같이, 각각의 데이터의 정보가 각각의 ECC 블록에 대해 함께 기록되는 경우, 마지막 데이터의 위치는 ECC 블록의 경계 위치와 차이를 가질 수 있으며, 나머지 영역이 ECC 블록 내에 형 성될 수 있다. 이 나머지 영역을 갭이라고 한다. 이와 같이, 갭 영역의 존재가 허용되기 때문에, 각각의 정보가 각자의 ECC 블록에 대해 기록될 수 있다. 그 결과, 상기한 바와 같이, 재생 시의 편의성 및 데이터 재생시의 신뢰성이 보장될 수 있다.
8) 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS) 내의 각각의 고화질 비디오 객체(EVOB)는 연속하여 할당되어야 한다. 상기한 바와 같이, 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)는 1 GB를 초과하는 크기를 가질 수 있으며, 1 GB 이하의 파일로 분할하여 기록될 수 있다. 이것은 분할된 파일들이 정보 저장 매체(DISC) 상에 기록됨을 의미한다. 그 결과, 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVOBS)는 한 번의 재생 동작으로 함께 판독될 수 있으며, 따라서 재생 처리의 편의성을 보장하고 사용자에 대한 표시에 요구되는 시간을 단축시킬 수 있다.
9) 정보 저장 매체(DISC)의 삽입 직후에 최초로 표시되는 메뉴(FP_PGCM_EVOB) 및 비디오 관리자 메뉴의 고화질 비디오 객체 세트(VMGM_EVBOS)가 존재하지 않는 경우, 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGM_BUP)은 연속적인 논리 섹터 번호로 정의된 연속한 영역에 각각 기록되어야 한다. 이와 같이, 비디오 관리자 정보(VMGI) 및 비디오 관리자 정보의 백업 파일(VMGM_BUP)의 재생 편의성이 향상될 수 있다.
<표준 컨텐츠 내의 고화질 비디오 객체 세트(EVBOS)의 구조>
EVOBS는 비디오, 오디오, 서브-픽처, 기타 등등으로 이루어진 고화질 비디오 객체의 집합체이다.
이하의 규칙이 EVOBS에 적용된다.
1) EVOBS에서, EVOB는 연속 블록 또는 인터리빙된 블록에 기록된다.
2) EVOBS는 하나 이상의 EVOB로 이루어져 있다. EVOB_ID는 EVOBS 내의 가장 작은 LSN을 갖는 EVOB에서부터, 1부터 시작하여 오름차순으로 할당된다.
3) EVOB는 하나 이상의 셀로 이루어져 있다. C_ID 번호는 EVOB 내의 가장 작은 LSN을 갖는 셀에서부터, 1부터 시작하여 오름차순으로 할당된다.
4) EVOBS 내의 셀은 EVOB_ID 번호 및 C_ID 번호에 의해 식별될 수 있다.
5) EVOB는 논리 섹터 번호에서 연속적으로(갭이 없이) 오름차순으로 할당되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
고화질 비디오 객체 세트(EVBOS)는 비디오, 오디오, 서브-픽처, 기타 등등으로 이루어진 고화질 비디오 객체(EVOB)의 집합체이다. 이 실시예에서, 이하의 규칙이 고화질 비디오 객체 세트(EVBOS)에 적용된다.
1) 고화질 비디오 객체 세트(EVBOS)에서, 고화질 비디오 객체(EVOB)는 연속 블록 또는 인터리빙된 블록에 기록된다.
2) 고화질 비디오 객체 세트(EVBOS)는 하나 이상의 고화질 비디오 객체(EVOB)로 이루어져 있다.
3) 각자의 고화질 비디오 객체(EVOB)에 할당된 ID 번호(EVOB_ID)는 정보 저장 매체(DISC) 상의 고화질 비디오 객체(EVOB)의 기록 어드레스를 나타내는 논리 섹터 번호(LSN)의 오름 차순으로 할당된다. 첫 번째 번호는 "1"이고, 차례로 증분된다.
하나의 고화질 비디오 객체(EVOB)는 하나 이상의 셀로 이루어져 있다. 각자의 셀에 대해 설정된 ID 번호(C_ID)로서, 정보 저장 매체(DISC) 상의 각각의 셀의 기록 어드레스를 나타내는 논리 섹터 번호(LSN)의 오름 차순으로 최소값 "1"을 갖도록 차례로 증분되는 숫자가 설정된다.
4) 고화질 비디오 객체 세트(EVBOS) 내의 개별적인 셀은 고화질 비디오 객체(EVOB)에 할당된 ID 번호(EVOB_ID) 및 각자의 셀에 대해 설정된 ID 번호(C_ID)에 의해 개별적으로 식별될 수 있다.
<정보 저장 매체의 카테고리>
본 실시예에서, 정보 저장 매체(DISC) 상에 기록될 비디오 정보 및 그의 관리 정보로서, 2가지 서로 다른 유형의 컨텐츠, 즉 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT)가 설정된다. 고급 컨텐츠(ADVCT)를 제공함으로써, 유연하고 다양한 표현, 네트워크 액션의 비디오 관련 정보의 가공 용이성, 및 가공 후 정보의 전송 용이성을 보장하고자 하는 사용자의 요구가 만족될 수 있다. 이와 동시에 표준 컨텐츠(STDCT)를 제공함으로써, 종래의 DVD-비디오와의 데이터 호환성이 보장될 수 있고, 네트워크 접속을 전제로 하지 않는 저렴한 정보 재생 장치라도 본 실시예의 비디오 정보를 재생할 수 있다. 이 점에 본 실시예에서의 큰 기술적 특징이다.
도 5에 도시한 바와 같이, 3가지 서로 다른 카테고리에 대응하는 정보 저장 매체(DISC)는 각자의 컨텐츠를 기록하는 정보 저장 매체(DISC)로서 정의된다. 즉, 도 5(a)에 도시된 바와 같이, 카테고리 1에 부합하는 정보 저장 매체(DISC) 내에 기록되는 데이터로서 표준 컨텐츠(STDCT)의 정보만을 기록하는 매체가 정의된다. 카테고리 1에 부합하는 정보 저장 매체(DISC)는 네트워크 접속을 전제로 하지 않는 저렴한 정보 재생 장치 및 네트워크 접속을 전제로 하는 고급 정보 재생 장치 둘 다에 의해 재생될 수 있다.
도 5(b)에 도시한 바와 같이, 카테고리 2에 부합하는 정보 저장 매체(DISC)에 기록되는 데이터로서 고급 컨텐츠(ADVCT)만을 기록하는 정보 저장 매체(DISC)가 정의된다. 카테고리 2에 부합하는 정보 저장 매체(DISC)는 네트워크 접속을 전제로 하는 고급 정보 재생 장치에 의해서만 재생될 수 있다. 게다가, 도 5(c)에 도시된 바와 같이, 동일한 비디오 정보를 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT)의 양쪽의 포맷으로 기록하는 카테고리 3에 부합하는 정보 저장 매체(DISC)가 정의된다. 이 점이 본 실시예의 큰 기술적 특징이다. 카테고리 3에 부합하는 정보 저장 매체(DISC)를 사용하면, 네트워크 접속 기능을 갖는 고급 정보 재생 장치가 고급 컨텐츠(ADVCT)를 재생할 수 있고, 네트워크 접속을 전제로 하지 않는 저렴한 정보 재생 장치는 표준 컨텐츠(STDCT)를 재생할 수 있다. 따라서, 모든 모델에 최적인 컨텐츠가 사용자에게 표시(제공)될 수 있다.
<카테고리 1 디스크>
이 디스크는 하나의 VMG 및 하나 이상의 표준 VTS로 이루어진 표준 컨텐츠만을 포함한다. 이 디스크는 재생 목록, 고급 VTS, 기타 등등의 고급 컨텐츠를 포함하지 않는다. 구조의 예에 관해서는, 도 5(a)를 참조하기 바란다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 5(a)에 도시된 카테고리 1에 부합하는 정보 저장 매체(DISC)는 메뉴 프레임을 형성하는 하나의 비디오 관리자(VMG) 및 비디오 정보를 관리하는 하나 이상의 표준 비디오 타이틀 세트(SVTS)를 기록한다. 고급 컨텐츠(ADVCT)의 정보는 이 정보 저장 매체(DISC) 상에 기록되지 않는다.
<카테고리 2 디스크>
이 디스크는 재생 목록, 1차 비디오 세트(고급 VTS만), 2차 비디오 세트 및 고급 자막으로 이루어진 고급 컨텐츠만을 포함한다. 이 디스크는 VMG 또는 표준 VTS 등의 표준 컨텐츠를 포함하지 않는다. 구조의 예에 대해서는, 도 5(b)를 참조하기 바란다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 5(b)에 도시된 카테고리 2에 부합하는 정보 저장 매체(DISC)는 고급 컨텐츠(ADVCT)만을 기록하며 어떤 표준 컨텐츠(STDCT)도 기록하지 않는다.
<카테고리 3 디스크>
이 디스크는 재생 목록, 1차 비디오 세트 내의 고급 VTS, 2차 비디오 세트, 고급 애플리케이션 및 고급 자막으로 이루어진 고급 컨텐츠, 및 1차 비디오 세트 내의 하나 이상의 표준 VTS로 이루어진 표준 컨텐츠 둘 다를 포함한다. 즉, FP_DOM 이나 VMGM_DOM 어느 것도 이 1차 비디오 세트 내에 존재해서는 안 된다. FP_DOM 및 VMGM_DOM이 디스크 상에 존재할 수 있지만, FP_DOM 또는 VMGM_DOM으로 천이시키는 어떤 내비게이션 명령은 플레이어에 의해 무시될 것이다. 구조의 예에 대해서는, 도 5(c)를 참조하기 바란다. 이 디스크가 표준 컨텐츠를 포함하고 있지만, 기본적으로 이 디스크는 카테고리 2에 대한 규칙을 따른다. 표준 컨텐츠는 어떤 기능이 제거된 고급 컨텐츠라고도 할 수 있다. 게다가, 이 디스크의 재생에 있어서, 고급 컨텐츠 재생 상태 및 표준 컨텐츠 재생 상태 등의 여러 종류의 상태가 있으며, 이들 상태 간의 천이가 허용된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 5(C)에 도시된 카테고리 3에 부합하는 정보 저장 매체(DISC)는 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT)를 기록한다. 카테고리 3에 부합하는 정보 저장 매체(DISC)에서, 1차 비디오 세트(PRMVS)(후술함)가 정의된다. 1차 비디오 세트(PRMVS)에서, 정보 저장 매체(DISC)의 삽입 직후에 표시되는 프레임에 대응하는 첫 번째 재생 도메인(FP_DOM)이나 메뉴를 표시하는 비디오 관리자 메뉴 도메인(VMGM_DOM) 어느 것도 1차 비디오 세트(PRMVS)에 정의되어 있지 않다. 그렇지만, 첫 번째 재생 도메인(FP_DOM) 및 비디오 관리자 메뉴 도메인(VMGM_DOM)이 카테고리 3에 부합하는 정보 저장 매체(DISC) 내에서 1차 비디오 세트(PRMVS) 이외의 영역에 존재할 수 있다. 게다가, 정보 재생 장치는 첫 번째 재생 도메인(FP_DOM) 또는 비디오 관리자 메뉴 도메인(VMGM_DOM)으로 천이하라는 내비게이션 명령을 무시할 것이다. 정보 저장 매체(DISC)의 삽입 직후에 표시되는 프레임에 대응하는 첫 번째 재생 도메인(FP_DOM) 및 비디오 관리자 메뉴 도메인(VMGM_DOM)은 기본적으로 표준 컨텐츠(STDCT)에서의 메뉴 조작에 필요하다. 그렇지만, 본 실시예에서, 도 9 또는 도 6에 도시된 바와 같이, 메뉴 처리는 고급 컨텐츠(ADVCT)에서 실행되 어, 필요에 따라 표준 컨텐츠(STDCT) 내의 비디오 정보를 기록하는 표준 비디오 타이틀 세트(SVTS)를 참조한다. 이와 같이, 정보 저장 매체(DISC)의 삽입 직후에 표시되는 메뉴의 첫 번째 재생 도메인(FP_DOM) 및 비디오 관리자 도메인(VMGM_DOM)으로의 점프를 금지함으로써, 고급 컨텐츠(ADVCT)에 대한 메뉴 처리가 항상 보장될 수 있고, 따라서 사용자의 혼란을 피할 수 있다. 카테고리 3에 부합하는 정보 저장 매체(DISC)가 표준 컨텐츠(STDCT)를 포함하고 있지만, 기본적으로 이 정보 저장 매체(DISC)는 도 5(B)에 도시된 카테고리 2에 부합하는 정보 저장 매체(DISC)에 대한 규칙을 따른다.
<1차 비디오 세트>
고급 컨텐츠 내의 1차 비디오 세트는 고급 VTS 공간, 표준 VTS 공간 및 VMG로 이루어져 있다. 기본적으로, 고급 VTS는 고급 콘텐트에서만 사용되고, 표준 VTS는 고급 VTS에서 사용될 수 있지만 이 VTS는 주로 표준 컨텐츠에 대해 사용된다. 고급 컨텐츠에서, VMG는 1차 비디오 세트 내에 존재할 수 있지만, VMGM_DOM 또는 FP_DOM으로의 천이는 허용되지 않는다. 1차 비디오 세트에 대한 데이터는 디스크 상에서 HDDVD_TS 디렉토리 아래에 위치한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 5(c)에 도시된 1차 비디오 세트(PRMVS)의 내용에 관해서 이하에서 기술된다. 고급 컨텐츠(ADVCT) 내의 1차 비디오 세트(PRMVS)는 고급 비디오 타이틀 세트(ADVTS), 표준 비디오 타이틀 세트(SVTS), 및 비디오 관리자(VMG)를 포함한다. 그렇지만, 고급 비디오 타이틀 세트(ADVTS)는 고급 컨텐츠(ADVCT)에서만 사용되고, 표준 비디오 타이틀 세트(SVTS)는 고급 컨텐츠(ADVCT)에서 사용될 수 있다. 고급 컨텐츠(ADVCT)에, 1차 비디오 세트(PRMVS) 내의 비디오 관리자(VMG)가 존재할 수 있다. 그렇지만, 고급 컨텐츠(ADVCT)의 사용 동안에, 상기한 비디오 관리자 도메인(VMGM_DOM) 및 첫 번째 재생 도메인(FP_DOM)으로의 천이가 금지된다. 정보 저장 매체(DISC)의 삽입 직후에 표시되는 프레임에 대응하는 첫 번째 재생 도메인(FP_DOM) 및 비디오 관리자 도메인(VMGM_DOM)은 기본적으로 표준 컨텐츠(STDCT)에서의 메뉴 조작에 필요하다. 그렇지만, 본 실시예에서, 도 9 또는 도 6에 도시된 바와 같이, 고급 컨텐츠(ADVCT)에서 메뉴 처리가 실행되어, 필요에 따라 표준 컨텐츠(STDCT) 내의 비디오 정보를 기록하는 표준 비디오 타이틀 세트(SVTS)를 참조한다. 이와 같이, 정보 저장 매체(DISC)의 삽입 직후에 표시되는 메뉴의 첫 번째 재생 도메인(FP_DOM) 및 비디오 관리자 도메인(VMGM_DOM)으로의 천이를 금지함으로써, 고급 컨텐츠(ADVCT)에 대한 메뉴 처리가 항상 보장될 수 있고, 따라서 사용자의 혼란을 효과적으로 피할 수 있다. 1차 비디오 세트(PRMVS)는 카테고리 3에 부합하는 정보 저장 매체(DISC) 내에 기록되어 있다. 1차 비디오 세트(PRMVS)는 기록될 데이터 구조로서 상기한 HDDVD_TS 디렉토리에 할당된다. 그렇지만, 본 실시예는 이것에 한정되지 않으며, 1차 비디오 세트(PRMVS)는 영속적 저장 장치에 기록될 수도 있다.
적어도 1차 비디오 세트(PRMVS) 및 적어도 하나의 재생 목록(PLLST)(나중에 상세히 기술함)은 카테고리 2 또는 2에 부합하는 정보 저장 매체(DISC)에 기록되어야 한다. 도 6 및 도 7에 기술된 고급 컨텐츠(ADVCT)와 관계된 다른 정보는 정보 저장 매체(DISC) 상에 위치해야 하지만 네트워크를 통해 서버로부터 전달될 수 있다.
<볼륨 공간의 구조>
HD DVD-비디오 디스크의 볼륨 공간은,
1) UDF 구조에 대해 할당되는 볼륨 및 파일 구조
2) HD DVD-비디오 포맷의 데이터 구조에 대해 할당되는 단일의 "HD DVD-비디오 존"
3) HD DVD-비디오 애플리케이션 이외의 것에 대해 사용될 수 있는 "DVD 기타 존"
으로 이루어져 있다.
이하의 규칙이 HD DVD-비디오 존에 적용된다
1) "HD DVD-비디오 존"은 카테고리 1 디스크에서 "표준 컨텐츠 존"으로 이루어져 있다.
"HD DVD-비디오 존"은 카테고리 2 디스크에서 "고급 컨텐츠 존"으로 이루어져 있다.
"HD DVD-비디오 존"은 카테고리 3 디스크에서 "표준 컨텐츠 존" 및 "고급 컨텐츠 존"으로 이루어져 있다.
2) "표준 컨텐츠 존"은 카테고리 1 디스크 및 카테고리 3 디스크에서 단일의 비디오 관리자(VMG) 및 적어도 하나 내지 최대 511개의 비디오 타이틀 세트(VTS)로 이루어진다. "표준 컨텐츠 존"은 카테고리 2 디스크에 존재해서는 안 된다.
3) VMG는 존재하는 경우 "HD DVD-비디오 존"의 선두 부분에 할당되어야 하며, 이는 카테고리 1의 경우이다.
4) VMG는 적어도 2개 내지 최대 102개의 파일로 이루어져 있다.
5) 각각의 VTS(고급 VTS는 제외)는 적어도 3개 내지 최대 200개의 파일로 이루어져 있다.
6) "고급 컨텐츠 존"은 고급 VTS를 갖는 고급 컨텐츠에서 지원되는 파일로 이루어져 있다. ADV_OBJ 디렉토리 아래의 고급 컨텐츠 존에 대한 파일의 최대 수는 512 x 2047이다.
7) 고급 VTS는 적어도 3개 내지 최대 5995개의 파일로 이루어져 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
정보 저장 매체(DISC) 내에 기록된 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT)의 기록 장소에 대해 도 5(c)를 사용하여 이하에 설명한다. 이하의 설명에서, 고급 컨텐츠(ADVCT) 전용의 기록 장소가 설정되어 있는 매체는 도 5(b)에 도시된 정보 저장 매체(DISC)에 대응하고, 표준 컨텐츠(STDCT) 전용의 기록 장소가 설정되어 있는 매체는 도 5(a)에 도시된 카테고리 1의 정보 저장 매체(DISC)에 대응한다. 도 5(c)에 도시한 바와 같이, 정보 저장 매체(DISC) 상에 각각의 컨텐츠를 기록하는 공간은 볼륨 공간으로서 정의되고, 논리 섹터 번호(LSN)가 볼륨 공간 내의 모든 장소에 할당되어 있다. 본 실시예에서, 볼륨 공간은 이하의 3가지 존으로 형성되어 있다.
1) 볼륨 및 파일 구조를 기술하는 존(파일 시스템 관리 정보 기록 영역)
이 존은 도 5(c)에 기술되어 있지 않지만 파일 시스템의 관리 정보를 기록하는 영역으로서 정의된다. 본 실시예에서, UDF(uniform disc format)에 부합하는 파일 시스템이 구축되어 있다. 상기 존은 그 파일 시스템의 관리 정보를 기록하는 영역을 나타낸다.
2) 단일의 HD_DVD-비디오 존
이 존은 도 5(c)에 기술한 본 실시예에서 데이터를 기록한다. 이 존은 고급 컨텐츠(ADVCT)를 기록하는 존 및 표준 컨텐츠(STDCT)를 기록하는 존으로 이루어져 있다.
기타의 DVD 관련 정보 기록 존
3) DVD 기타 존
이 존은 본 실시예의 HD_DVD-비디오에서 사용되는 정보 이외의 DVD 관련 정보를 기록한다. 이 존은 HD_DVD-비디오 기록 표준과 관계된 정보 및 기존의 DVD-비디오 및 DVD-오디오 표준과 관계된 정보를 기록할 수 있다.
본 실시예에서, 이하의 규칙이 상기 2) 및 도 5(c)에 기술된 HD_DVD-비디오 존에 적용된다.
1) 카테고리 1 및 카테고리 3에 부합하는 정보 저장 매체는 표준 컨텐츠(STDCT)의 기록 영역에 하나의 비디오 관리자(VMG) 및 1 내지 511개의 비디오 타이틀 세트(VTS)의 정보를 기록할 수 있다. 카테고리 2에 부합하는 정보 저장 매체(DISC)는 표준 컨텐츠(STDCT)의 기록 영역을 설정할 수 없다.
2) 카테고리 1에 부합하는 정보 저장 매체(DISC)에서, 비디오 관리자(VMG)는 HD_DVD-비디오 기록 영역 내의 첫 번째 장소에 기록된다.
3) 비디오 관리자(VMG)는 2 내지 최대 102개의 파일로 이루어져 있다.
4) 고급 비디오 타이틀 세트(ADVTS)를 제외한 각각의 비디오 타이틀 세트(VTS)는 적어도 3개 내지 최대 200개의 파일로 이루어져 있다.
5) 고급 컨텐츠(ADVCT)의 기록 영역은 고급 비디오 타이틀 세트(ADVTS)를 갖는 고급 컨텐츠(ADVCT)에서 지원되는 파일들로 이루어져 있다. 기록 영역에 기록되는 고급 컨텐츠(ADVCT)에 대한 파일의 최대 수는 512 x 2047이다.
6) 고급 비디오 타이틀 세트(ADVTS)는 3 내지 5995개의 파일로 이루어져 있다.
<재생시의 천이>
고급 컨텐츠(ADVCT)의 재생시 및 표준 컨텐츠(STDCT)의 재생시의 천이에 대해 도 6을 사용하여 이하에서 설명한다. 도 5(c)에 도시된 카테고리 3에 부합하는 정보 저장 매체(DISC)는 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT)를 독립적으로 재생할 수 있는 구조를 갖는다. 카테고리 3에 부합하는 정보 저장 매체(DISC)가 인터넷 연결 기능을 갖는 고급 정보 재생 장치에 삽입될 때, 이 재생 장치는 초기 상태(INSTT)에서 고급 컨텐츠(ADVCT) 내에 포함된 고급 내비게이션 데이터(ADVNV)를 판독한다. 그 후에, 재생 장치는 고급 컨텐츠 재생 상태(ADVPS)로 천이한다. 도 5(b)에 도시된 카테고리 2에 부합하는 정보 저장 매체(DISC)가 삽입될 때 동일한 처리가 적용된다. 도 6에 도시된 고급 컨텐츠 재생 상태(ADVPS)에서, 마크업 파일(MRKUP) 또는 스크립트 파일(SCRPT)에 대응하는 명령(MSCMD)을 실행함으로써 재생 상황이 표준 컨텐츠 재생 상태(STDPS)로 천이할 수 있다. 표준 컨텐츠 재생 상태(STDPS)에서, 표준 컨텐츠(STDCT) 내에 설정된 내비게이션 명령들 내의 명령(NCCMD)을 실행함으로써 재생 상황이 고급 컨텐츠 재생 상태(ADVPS)로 복귀할 수 있다.
표준 컨텐츠(STDCT)에서, 기존의 DVD-비디오 표준에서와 같이 시스템에 의해 설정되는 예를 들어 표시 앵글 번호, 재생 오디오 번호, 기타 등등의 정보를 기록하는 시스템 파라미터가 정의된다. 본 실시예에서, 고급 컨텐츠(ADVCT)는 시스템 파라미터에 설정되는 데이터를 재생할 수 있거나 고급 컨텐츠 재생 상태(ADVPS)에서 시스템 파라미터 값을 변경할 수 있다. 이와 같이, 기존의 DVD-비디오 재생과의 호환성이 보장될 수 있다. 고급 컨텐츠 재생 상태(ADVPS)와 표준 컨텐츠 재생 상태(STDPS) 간의 천이 방향과는 무관하게, 본 실시예에서는 시스템 파라미터의 설정 값의 일관성이 유지될 수 있다.
도 5(c)에 나타낸 카테고리 3에 부합하는 정보 저장 매체(DISC)에서 사용자의 기호에 따라 고급 컨텐츠(ADVCT)와 표준 컨텐츠(STDCT) 간에 임의적인 천이가 행해질 때, 전술한 바와 같이 시스템 파라미터 값이 일관성을 갖기 때문에, 예를 들어 천이 전후에 동일한 표시 언어가 사용되고 재생시의 사용자의 편의성이 보장될 수 있다.
<매체 식별 처리 방법>
도 7은 도 5에 도시된 서로 다른 3가지 유형의 정보 저장 매체(DISC)가 탑재되어 있는 경우 본 실시예의 정보 재생 장치에 의한 매체 식별 처리 방법을 나타낸 것이다.
네트워크 접속 기능을 갖은 하이-엔드 정보 재생 장치에 정보 저장 매체(DISC)가 장착될 때, 정보 재생 장치는 정보 저장 매체(DISC)가 HD_DVD에 부합하는지를 판정한다(단계 S21). HD_DVD에 부합하는 정보 저장 매체(DISC)의 경우, 정보 재생 장치는 도 11에 도시한 루트 디렉토리 바로 아래에 있는 고급 컨텐츠 디렉토리(ADVCT)에 기록되어 있는 재생 목록 파일(PLLST)을 찾으러 가서 정보 저장 매체(DISC)가 카테고리 2 또는 3에 부합하는지를 판정한다(단계 S22). 재생 목록 파일(PLLST)이 발견되는 경우, 정보 재생 장치는 정보 저장 매체(DISC)가 카테고리 2 또는 3에 부합하는지를 판정하고, 고급 컨텐츠(ADVCT)를 재생한다(단계 S23). 재생 목록 파일(PLLST)이 발견되지 않은 경우, 정보 재생 장치는 표준 컨텐츠(STDCT) 내의 비디오 관리자 정보(VMGI)에 기록되어 있는 비디오 관리자 ID 번호(VMGM_ID)를 검사하고 정보 저장 매체(DISC)가 카테고리 1에 부합하는지를 판정한다(단계 S24). 카테고리 1에 부합하는 정보 저장 매체(DISC)의 경우에, 비디오 관리자 ID 번호(VMGM_ID)가 특정의 데이터로서 기록되고, 비디오 관리자 카테고리(VMG_CAT) 내의 정보에 기초하여 카테고리 1에 부합하는 표준 컨텐츠(STDCT)만이 기록되어 있음이 식별될 수 있다. 이 경우에, 표준 컨텐츠(STDCT)가 재생된다(단계 S25). 장착된 정보 저장 매체(DISC)가 도 5에 기술된 카테고리 중 어느 것에도 속하지 않는 경우, 정보 재생 장치에 따른 처리 방법이 채용된다(단계 S26).
<오디오만의 재생>
본 실시예는 비디오 표시 기능을 가지고 있지 않고 오디오 정보만을 재생하 는 재생 장치를 지원한다. 도 8은 오디오 전용 정보 재생 장치에서의 시동 시퀀스를 나타낸 것이다.
정보 저장 매체(DISC)가 정보 재생 장치에 장착되면, 정보 재생 장치는 정보 저장 매체(DISC)가 HD_DVD에 부합하는지를 판정한다(단계 S31). 본 실시예에서, 정보 저장 매체(DISC)가 HD_DVD에 부합하지 않는 경우, 정보 재생 장치에 따른 처리 방법이 채용된다(단계 S34). 또한, 정보 재생 장치가 오디오 정보만을 재생하는 것이 아닌 경우, 정보 재생 장치에 따른 처리 방법이 채용된다(단계 S32 및 S34). 탑재된 정보 저장 매체(DISC)가 본 실시예의 HD_DVD에 부합하는 경우, 정보 재생 장치는 루트 디렉토리 바로 아래에 있는 고급 컨텐츠 디렉토리(AVDCT) 내에 기록된 재생 목록 파일(PLLST)의 유무를 검사한다. 재생 목록 파일(PLLST)이 발견되는 경우, 오디오 정보만을 재생하는 정보 재생 장치는 오디오 정보를 재생한다(단계 S32 및 S33). 이때, 정보 재생 장치는 재생 목록 파일(PLLST)을 통해 정보를 재생한다.
<데이터 액세스 방법>
본 실시예에서의 표준 컨텐츠(STDCT) 내의 고화질 비디오 객체(EVOB) 및 고급 컨텐츠(ADVCT) 내의 고화질 비디오 객체(EVOB)에 대한 서로 다른 관리 방법에 대해 도 9를 참조하여 이하에 기술한다.
본 실시예에서 표준 컨텐츠(STDCT) 내의 관리 정보인 표준 비디오 타이틀 세트 정보(STVTSI) 상에서, 각각의 고화질 비디오 객체(EVOB)에의 액세스는 논리 공간상의 어드레스 정보인 논리 섹터 번호(LSN)에 의해 지정된다. 이와 같이, 액세 스가 어드레스 정보를 사용하여 관리되기 때문에, 기존의 DVD-비디오 표준과의 호환성이 보장될 수 있다. 이와 반대로, 고급 컨텐츠(ADVCT) 내의 각각의 고화질 비디오 객체(EVOB)에의 액세스는 어드레스 정보가 아니라 시간 정보에 의해 관리된다. 이 점이 본 실시예에서의 큰 기술적 특징이다. 이 특징으로, 기존의 비디오 기록 및 재생을 가능하게 해주는 비디오 기록 표준과의 호환성이 보장될 수 있을 뿐만 아니라 편집 처리의 용이성도 보장된다. 보다 구체적으로는, 고급 컨텐츠(ADVCT) 상의 재생 관리 정보를 나타내는 재생 목록(PLLST)에서, 재생 위치에서의 고급 비디오 객체 데이터의 재생 범위는 시간 정보에 의해 설정된다. 본 실시예의 고급 컨텐츠(ADVCT)에서, 재생 목록(PLLST)에 지정된 시간 정보는 타임 맵 정보(TMAPI)에 의해 어드레스 정보로 변환될 수 있다. 이 타임 맵 정보(TMAPI)는 지정된 시간 정보를, 정보 저장 매체(DISC) 상의 논리 어드레스 위치를 나타내는 논리 섹터 번호(LSN)로 변환하는 데 사용된다. 타임 맵 정보(TMAPI)는 재생 목록(PLLST)과는 다른 위치에 기록되어 있다. 게다가, 고급 컨텐츠(ADVCT) 내의 고급 비디오 타이틀 세트 정보(ADVTSI)는 표준 컨텐츠(STDCT) 내의 표준 비디오 타이틀 세트 정보(STVTSI)에 대응한다. 이 고급 비디오 타이틀 세트 정보(ADVTSI)는 각자의 고화질 비디오 객체(EVOB)의 개별적인 속성 정보를 기록하는 고화질 비디오 객체 정보(EVOBI)르 기록한다. 이 고화질 비디오 객체 정보(EVOBI)는 속성 정보의 관리 정보인 개개의 고화질 비디오 객체(EVOB) 각각을 참조하고 이를 관리한다. 이 고화질 비디오 객체 정보(EVOBI#3)가 표준 컨텐츠(STDCT) 내의 고화질 비디오 객체(EVOB)의 속성을 관리 및 참조할 때, 고급 컨텐츠(ADVCT)의 재생을 관리하는 재생 목록(PLLST)은 표준 컨텐츠(STDCT) 내의 고화질 비디오 객체(EVOB)의 재생을 지정할 수 있다.
<고급 컨텐츠에 의한 표준 컨텐츠의 이용>
표준 컨텐츠는 고급 컨텐츠에 의해 이용될 수 있다. 고급 VTS의 VTSI는 EVOB를 참조할 수 있고, 이 EVOB는 또한 TMAP(도 9 참조)을 사용하여 표준 VTS의 VTSI에 의해 참조될 수 있다. 이 경우에, TMAP 정보는 EVOB 내의 하나 이상의 EVOBU를 참조한다. 그렇지만, EVOB는 고급 컨텐츠에서 지원되지 않는 HLI, PCI 기타 등등을 포함할 수 있다. 이러한 EVOB이 재생에서, HLI 및 PCI 등의 고급 컨텐츠에서 지원되지 않는 어떤 정보는 고급 컨텐츠에서 무시된다.
보다 알기 쉬운 설명이 이하에 제공된다.
상기한 바와 같이, 고급 컨텐츠(ADVCT)는 표준 컨텐츠(STDCT) 내의 어떤 데이터를 이용할 수 있다. 이 점은 본 실시예에서의 큰 기술적 특징이다.
예를 들어, 도 9에 도시한 바와 같이, 고급 비디오 타이틀 세트 정보(ADVTSI) 내의 고화질 비디오 객체 정보(EVOBI#3)는 고급 컨텐츠(ADVCT) 내의 타임 맵 정보(TMAPI#3)를 이용하여 표준 컨텐츠(STDCT) 내의 고화질 비디오 객체(EVOB#3)를 참조 및 재생할 수 있다. 또한, 도 9에 도시한 바와 같이, 고급 컨텐츠 내의 고화질 비디오 객체 정보(EVOBI#3)에 의해 참조되는 고화질 비디오 객체(EVOB#3)는 또한 표준 비디오 타이틀 세트 정보(STVTSI)에 의해서도 참조될 수 있다. 상기한 바와 같이, 본 실시예에서, 표준 컨텐츠(STDCT) 내의 고화질 비디오 객체(EVOB#3)가 복수의 정보에 의해 참조될 수 있기 때문에, 이는 공통으로 이용될 수 있고, 또 정보 저장 매체(DISC) 상에 기록되는 데이터의 효율이 향상될 수 있다.
이 고화질 비디오 객체(EVOB#3)는 하이라이트 정보(HLI), 프리젠테이션 제어 정보(PCI) 기타 등등의 정보를 포함한다. 그렇지만, 고급 컨텐츠(ADVCT)는 이들 정보를 지원하지 않으며, 이들 하이라이트 정보(HLI) 및 프리젠테이션 제어 정보(PCI)에 의해 지정된 정보는 재생 목록(PLLST)에 기초한 고급 컨텐츠(ADVCT)의 재생 시에 무시된다.
<고급 VTS>
고급 VTS는 고급 컨텐츠에 대한 비디오 타이틀 세트로서 이용된다. 표준 VTS와 비교하여, 이하의 것들이 부가적으로 정의된다.
1) EVOB에 대한 추가의 보강
- 1개의 메인 비디오 스트림
- 8개의 메인 오디오 스트림(최대)
- 1개의 서브 비디오 스트림
- 8개의 서브 오디오 스트림(최대)
- 32개의 서브-픽처 스트림(최대)
- 1개의 고급 스트림
2) 고화질 VOB 세트(EVOBS)의 통합
- 메뉴 EVOBS 및 타이틀 EVOBS 둘 다의 통합
3) 계층화된 구조의 제거
- 타이드(Tide), PGC, PTT 및 셀이 없음
- 내비게이션 명령 및 UOP 제어를 지원하지 않음
4) 새로운 타임 맵 정보(TMAPI)의 도입
- 연속적인 블록의 경우, 하나의 TMAPI는 하나의 EVOB에 대응하고 이는 파일로서 저장되어야 한다.
- 인터리빙된 블록의 경우, 블록 내의 EVOB에 대응하는 TMAPI는 파일로서 저장되어야 한다.
- NV_PCK 내의 어떤 정보는 간단화되어 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 5(c)에 도시된 고급 비디오 타이틀 세트(ADVTS)에 대해 도 9를 참조하여 이하에서 기술한다. 고급 비디오 타이틀 세트(ADVTS)는 고급 컨텐츠(ADVCT)에 대한 비디오 타이틀 세트로서 이용된다. 도 5(c)에 도시된 고급 비디오 타이틀 세트(ADVTS)와 표준 비디오 타이틀 세트(STVTS) 간의 차이에 대해 이하에 열거한다.
1) 고급 컨텐츠(ADVCT) 내의 고화질 비디오 객체(EVOB)에 대한 추가의 보강
고급 비디오 타이틀 세트(ADVTS)는 하나의 메인 비디오 스트림(MANVD), 8개(최대) 이하의 메인 오디오 스트림(MANAD), 하나의 서브 비디오 스트림(SUBVD), 8개(최대) 이하의 서브 오디오 스트림(SUBAD), 32개(최대) 이하의 서브-픽처 스트림(SUBPT), 및 하나의 고급 스트림(후술하는 고급 애플리케이션(ADAPL)을 기록하는 스트림 데이터)을 가질 수 있다.
2) 고화질 비디오 객체 세트(EVOBS)의 통합
표준 컨텐츠(STDCT)에서, 도 4에 도시한 바와 같이, 메뉴 프레임을 나타내는 비디오 관리자(VMG) 내의 고화질 비디오 객체(EVOB)는 재생될 비디오 정보를 나타내는 표준 비디오 타이틀 세트(STVTS) 내의 고화질 비디오 객체(EVOB)와 완전히 분리되어 있으며, 동화상 및 메뉴 프레임은 동시에 표시될 수 없다. 이와 반대로, 본 실시예에서의 고급 비디오 타이틀 세트(ADVTS)는 메뉴 프레임 및 동화상을 나타내는 픽처 프레임을 통합함으로써 이들을 관리 및 표시할 수 있다.
3) 비디오 정보에 대한 관리 정보의 계층화된 구조의 제거
기존의 DVD-비디오 및 표준 컨텐츠(STDCT)는 비디오 관리 단위로서 프로그램 체인 PGC/파트 오프 타이틀(part of title) PTT/셀의 계층적 구조를 채용하고 있다. 그렇지만, 본 실시예에서의 고급 컨텐츠(ADVCT)의 관리 방법은 이러한 계층적 구조를 채용하지 않는다. 또한, 기존의 DVD-비디오의 표준 컨텐츠(STDCT)는 천이 처리 등의 특수 처리를 실행하는 데 내비게이션 명령을 사용하고 사용자 조작 처리를 수행한다. 그렇지만, 본 실시예의 고급 컨텐츠(ADVCT)는 이러한 프로세스를 수행하지 않는다.
4) 새로운 타임 맵 정보(TMAPI)의 도입
이후에 기술되는 연속적인 블록에서, 하나의 타임 맵 정보(TMAPI)는 하나의 고화질 비디오 객체(EVOB)에 대응하고, 각자의 타임 맵 정보(TMAPI)는 정보 저장 매체(DISC) 상에 하나의 파일로서 기록된다. 인터리빙된 블록의 경우, 그 인터리빙된 블록 내의 각각의 스트림에 대응하는 복수의 고화질 비디오 객체(EVOB)가 포함되어 있다. 타임 맵 정보(TMAPI)는 개개의 고화질 비디오 객체(EVOB) 각각에 대 해 설정되어 있으며, 복수의 타임 맵 정보(TMAPI)가 각각의 인터리빙된 블록에 대해 하나의 파일 내에 기록되어 있다. 또한, 종래의 DVD-비디오 및 표준 컨텐츠(STDCT)에서 정의된 내비게이션 팩(NV_PCK) 내의 정보는 간단화된 후에 기록된다.
<고급 비디오 타이틀 세트(고급 VTS)의 구조>
이 VTS는 단지 하나의 타이틀로 이루어져 있다. 이 VTS는 비디오 타이틀 세트 정보(VTSI)라고 하는 제어 데이터, VTS 내의 타이틀에 대한 고화질 비디오 객체 세트(VTSTT_EVOBS), 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP), 백업 제어 데이터(VTSI_BUP) 및 비디오 타이틀 세트 타임 맵 정보의 백업(VTS_TMAP_BUP)으로 이루어져 있다.
이하의 규칙이 비디오 타이틀 세트(VTS)에 적용된다.
1) 제어 데이터(VTSI) 및 제어 데이터의 백업(VTSI_BUP)(존재하는 경우, 이 데이터는 선택적으로 기록됨)이 하나의 파일로 되어야 한다.
2. VTSI 및 VTSI_BUP(존재하는 경우)는 동일한 ECC 블록 내에 기록되어서는 안 된다.
3) 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP) 및 이것의 백업(VTS_TMAP_BUP)(존재하는 경우, 이 데이터는 선택적으로 기록됨) 각각은 각각 최대 999개의 파일로 이루어져 있다.
4) VTS_TMAP 및 VTS_TMAP_BUP(존재하는 경우)는 동일한 ECC 블록 내에 기록되어서는 안 된다.
5) VTS_TMAP을 구성하는 파일들은 연속적으로 할당되어야 한다.
6) VTS_TMAP_BUP(존재하는 경우)를 구성하는 파일들은 연속적으로 할당되어야 한다.
7) 연속적인 블록에 속하는 EVOB는 하나의 파일로 되어야 한다.
8) 인터리빙된 블록에 속하는 EVOB는 하나의 파일에 포함되어야 한다.
9) VTS의 EVOBS(VTSTT_EVOBS)는 최대 999개의 파일로 이루어져 있다.
10) VTSTT_EVOBS를 구성하는 파일들은 연속하여 할당되어야 한다.
11) VTSI_BUP(존재하는 경우)의 내용은 VTSI와 정확하게 완전히 동일해야 한다. 따라서, VTSI_BPU 내의 상대 어드레스 정보가 VTSI_BPU의 외부를 지칭하는 경우, 이 상대 어드레스는 VTSI의 상대 어드레스로서 취해져야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 9에 도시된 고급 컨텐츠(ADVCT) 내의 고급 비디오 타이틀 세트(ADVTS)의 데이터 구조에 관하여 이하에 기술한다.
본 실시예에서, 하나의 고급 비디오 타이틀 세트(ADVTS)는 비디오 정보 자체를 나타내는 하나의 타이틀만으로 이루어져 있다. 본 실시예에서, 고급 비디오 타이틀 세트(ADVTS)는 제어 정보를 기록하는 고급 비디오 타이틀 세트 정보(ADVTSI), 비디오 정보 자체를 나타내는 비디오 타이틀을 저장하는 고화질 비디오 객체 세트(VTSTT_EVOBS), 도 9에 도시된 타임 맵 정보(TMAPI)를 기록하는 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP), 고급 비디오 타이틀 세트 정보(ADVTSI)의 백업 정보(ADVTSI_BUP), 및 타임 맵 정보의 백업 정보(VTS_TMAP_BUP)로 이루어져 있다. 이들 정보는 정보 저장 매체(DISC) 상에 이 순서로 연속적으로 기록되어야 한다. 이하의 규칙이 본 실시예에서의 고급 비디오 타이틀 세트(ADVTS)에 적용된다.
1) 제어 정보인 고급 비디오 타이틀 세트 정보(ADVTSI) 및 그의 백업 정보(ADVTSI_BUP)는 정보 저장 매체(DISC) 상에 하나의 파일로서 기록되어야 한다.
2) 고급 비디오 타이틀 세트 정보(ADVTSI) 및 그의 백업 정보(ADVTSI_BUP)는 하나의 ECC 블록 내에 함께 저장되어서는 안 된다. 고급 비디오 타이틀 세트 정보(ADVTSI) 및 그의 백업 정보(ADVTSI_BUP)가 연속하여 기록되어 있을 때, 고급 비디오 타이틀 세트 정보(ADVTSI) 내의 마지막 정보가 하나의 ECC 블록의 중간에 위치하는 경우, 그 다음 백업 정보(ADVTSI_BUP)가 서로 다른 ECC 블록 내에 할당되도록 패딩 정보가 그 ECC 블록 내의 나머지 영역에 기록되어야 한다. 이와 같이, 고급 비디오 타이틀 세트 정보(ADVTSI)와 그 다음 백업 정보(ADVTSI_BUP) 사이의 경계에 있는 ECC 블록이 에러로 인해 판독될 수 없는 경우에도, 이들 2개의 정보 중 하나가 재생될 수 있고, 따라서 재생 시의 신뢰성을 향상시킬 수 있다.
3) 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP) 및 그의 백업 정보(VTS_TMAP_BUP) 각각은 1 내지 999개(최대) 이하의 파일에 기록되어야 한다.
4) 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP) 및 그의 백업 정보(VTS_TMAP_BUP) 각각은 하나의 ECC 블록 내에 함께 기록되어서는 안 된다. 즉, 2)에서와 같이, 이들 2개의 정보 간의 경계가 하나의 ECC 블록 내에 할당될 때, 즉 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP)의 마지막 부분이 하나의 ECC 블록의 중간에 할당되어 있을 때, 그 다음 백업 정보(VTS_TMAP_BUP)를 그 다음 ECC 블록의 선두 위치에서부터 기록되도록 할당하기 위해 패딩 데이터가 기록된다. 이와 같이, 재생시의 신뢰성이 보장될 수 있다.
5) 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP)를 구성하는 복수의 파일은 정보 저장 매체(DISC) 상에 연속적으로 기록되어야 한다. 이와 같이, 광학 헤드의 원치않는 천이 처리가 불필요하게 될 수 있으며, 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP)는 한 번의 연속 재생으로 재생될 수 있고, 따라서 재생 처리의 용이성 및 고속화를 달성할 수 있다.
6) 각각의 비디오 타이틀 세트 타임 맵 정보(VTS_TMAP)의 백업 정보(VTS_TMAP_BUP)를 구성하는 복수의 파일은 정보 저장 매체(DISC) 상에 연속적으로 기록되어야 한다. 이와 같이, 5)에서와 같이, 재생 처리의 용이성 및 고속화가 달성될 수 있다.
7) 고급 비디오 타이틀 세트의 타이틀을 기록하는 고화질 비디오 객체 세트(VTSTT_EVOBS)는 정보 저장 매체(DISC) 상에 1개 내지 999개(최대) 이하의 파일로서 기록되어야 한다.
8) 고급 비디오 타이틀 세트의 타이틀을 기록하는 고화질 비디오 객체 세트(VTSTT_EVOBS)를 기록하는 복수의 파일은 정보 저장 매체(DISC) 상에 연속적으로 기록되어야 한다. 이와 같이, 고급 비디오 타이틀 세트의 타이틀을 기록하는 고화질 비디오 객체 세트(VTSTT_EVOBS)는 한 번의 연속 재생으로 재생될 수 있고, 따라서 재생 시의 연속성을 보장해줄 수 있다.
9) 고급 비디오 타이틀 세트 정보(ADVTSI)의 백업 정보(ADVTSI_BUP)의 내용 은 고급 비디오 타이틀 세트 정보(ADVTSI)와 완전히 동일해야 한다.
<고급 VTS 내의 고화질 비디오 객체 세트(EVOBS)의 구조>
EVOBS는 비디오, 오디오, 서브-픽처 등으로 이루어진 고화질 비디오 객체의 집합체이다.
이하의 규칙이 EVOBS에 적용된다.
1) EVOBS에서, EVOB는 연속적인 블록 및 인터리빙된 블록 내에 기록되어야 한다.
2) EVOBS는 하나 이상의 EVOB로 이루어져 있다. EVOB_ID 번호는 EVOBS 내의 가장 작은 LSN을 갖는 EVOB에서부터 1부터 시작하여 오름차순으로 할당받는다. EVOB_ID 번호는 또한 VTSI 내의 EVOBI의 동일 번호에 대응한다.
3) 각각의 EVOB는 그 EVOB가 연속적인 블록에 속하는 경우 하나의 대응된 TMAP를 갖는다. 인터리빙된 블록을 구성하는 EVOB들은 하나의 대응된 TMAP 파일을 갖는다.
4) EVOB는 논리 섹터 번호에서 오름차순으로 연속적으로 (갭이 없이) 할당받는다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 9에 도시된 고급 컨텐츠(ADVCT) 내의 고화질 비디오 객체(EVOB)의 데이터 구조에 대해 이하에서 설명한다. 본 실시예에서, 고화질 객체(EVOB)의 집합체는 고화질 비디오 객체 세트(EVOBS)라고 부르며, 비디오, 오디오, 서브-픽처 기타 등등으로 이루어져 있다. 본 실시예에서, 이하의 규칙이 고급 컨텐츠(ADVCT) 내의 고화질 비디오 객체 세트(EVOBS)에 적용된다.
1) 고화질 비디오 객체(EVOB)는 연속적인 블록 및 인터리빙된 블록에 기록된다(후술함).
2) 하나의 고화질 비디오 객체 세트(EVOBS)는 하나 이상의 고화질 비디오 객체(EVOB)를 포함한다. 고화질 비디오 객체의 상기한 ID 번호(EVOB_ID)는 정보 저장 매체(DISC) 상에 기록된 고화질 비디오 객체(EVOB)의 레이아웃 순서로 할당된다. 즉, ID 번호(EVOB_ID)는 논리 공간상에서의 고화질 비디오 객체(EVOB)의 기록 어드레스를 나타내는 논리 섹터 번호(LSN)의 오름차순으로 할당되며, 첫 번째 번호는 1로 설정된다. 고화질 비디오 객체의 ID 번호(EVOB_ID)는 고급 타이틀 세트 정보(ADVTSI) 내에 기술된 고화질 비디오 객체 정보(EVOBI)의 동일 번호에 대응한다. 즉, 도 9에 도시한 바와 같이, 고화질 비디오 객체(EVOB#1)는 ID 번호(EVOB_ID) = "1"을 가지며, 고화질 비디오 객체(EVOB#2)는 ID 번호(EVOB_ID_ = "2"를 갖는다. 그 데이터를 제어하는 고화질 비디오 객체 정보(EVOBI#1)는 번호 = "1"을 갖도록 설정되고, 고화질 비디오 객체(EVOB#2)를 관리하는 고화질 비디오 객체 정보(EVOBI#2)는 번호 = "2"를 갖도록 설정된다.
3) 고화질 비디오 객체(EVOB)가 연속적인 블록에 속하는 경우 각각의 고화질 비디오 객체(EVOB)는 하나의 대응된 타임 맵 파일을 갖는다. 즉, 도 9에 나타낸 바와 같이, 타임 맵 정보(TMAPI#1)는 고화질 비디오 객체(EVOB#1)의 시간을 관리하기 위한 부분으로서 존재하고, 이 타임 맵 정보(TMAPI#1)는 정보 저장 매체(DISC) 상에 하나의 타임 맵 파일로서 기록된다. 복수의 고화질 비디오 객체(EVOB)가 인 터리빙된 블록을 구성하는 경우, 하나의 타임 맵 파일이 하나의 인터리빙된 블록에 대응하여 정보 저장 매체(DISC) 상에 기록된다.
<표시 객체 간의 관계>
도 10은 상기 정의된 각각의 표시 객체에 대한 데이터 유형, 데이터 소스 및 플레이어/디코더 간의 관계를 나타낸 것이다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서의 고급 컨텐츠(ADVCT)는 도 10에 도시된 객체를 사용한다. 각각의 표시 객체에 대한 데이터 유형, 데이터 소스, 플레이어/디코더, 및 플레이어 간의 대응관계가 도 10에 도시되어 있다. 우선, 데이터 소스로서의 "네트워크 경유" 및 "영속적 저장 장치(PRSTR)"에 대해 이하에서 설명한다.
<네트워크 서버>
네트워크 서버는 고급 컨텐츠 재생을 위한 선택적인 데이터 소스이지만, 플레이어는 네트워크 액세스 기능을 가져야만 한다. 네트워크 서버는 보통 기존의 디스크의 컨텐츠 제공자에 의해 운영된다. 네트워크 서버는 보통 인터넷에 위치한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 10에 도시된 데이터 소스와 관계된 "네트워크 경유"에 대해 설명한다.
본 실시예는 고급 컨텐츠(ADVCT)를 재생하는 데 사용되는 객체의 데이터 소스로서 네트워크 서버(NTSRV)로부터 네트워크를 경유하여 전달되는 객체 데이터의 재생을 전제로 하고 있다. 따라서, 본 실시예에서의 고급 기능을 갖는 플레이어는 네트워크 액세스를 전제로 하고 있다. 네트워크를 경유하여 데이터를 전송할 때의 객체의 데이터 소스를 나타내는 네트워크 서버(NTSRV)로서, 액세스될 서버가 재생 시에 정보 저장 매체(DISC) 상의 고급 컨텐츠(ADVCT) 내에 지정되어 있으며, 그 서버는 고급 컨텐츠(ADVCT)를 작성한 컨텐츠 제공자에 의해 운영된다. 네트워크 서버(NTSRV)는 통상 인터넷상에 위치하고 있다.
<네트워크 서버상의 데이터 카테고리>
임의의 고급 컨텐츠 파일이 네트워크 서버 상에 존재할 수 있다. 고급 내비게이션은 적절한 API(들)를 사용하여 데이터 소스 상의 임의의 파일을 파일 캐쉬 또는 영속적 저장 장치로 다운로드할 수 있다. 네트워크 서버로부터 판독된 S-EVOB 데이터의 경우, 2차 비디오 플레이어는 스트리밍 버퍼를 사용할 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서의 고급 컨텐츠(ADVCT)를 기록하는 파일들은 사전에 네트워크 서버(NTSRV)에 기록되어 있을 수 있다. 사전에 설정되어 있는 애플리케이션 처리 명령(API)은 고급 내비게이션 데이터(ADVNV)를 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 또는 영속적 저장 장치(PRSTR) 상으로 다운로드 한다. 본 실시예에서, 1차 비디오 세트 플레이어는 네트워크 서버(NTSRV)로부터의 1차 비디오 세트(PRMVS)를 직접 재생할 수 없다. 1차 비디오 세트(PRMVS)는 영속적 저장 장치(PRSTR) 상에 일시 기록되고, 데이터는 영속적 저장 장치(PRSTR)(후술함)를 통해 재생된다. 2차 비디오 플레이어(SCDVP)는 스트리밍 버퍼를 사용하여 네트워크 서버(NTSRV)로부터의 2차 고화질 비디오 객체(S-EVOB)를 직접 재생할 수 있다. 도 10에 도시된 영속적 저장 장치(PRSTR)에 대해 이하에서 설명한다.
<영속적 저장 장치/영속적 저장 장치 상의 데이터 카테고리>
2가지 카테고리의 영속적 저장 장치가 있다. 하나는 "필수형 영속적 저장 장치"라고 한다. 이것은 플레이어에 부착되어 있는 필수형 영속적 저장 장치이다. 플래쉬 메모리는 이것에 대한 일반적인 장치이다. 고정형 영속적 저장 장치에 대한 최소 용량은 128 MB이다. 기타의 것들은 선택적이며, "부가적인 영속적 저장 장치"라고 한다. 이들은 USB 메모리/HDD 또는 메모리 카드 등의 착탈식 저장 장치일 수 있다. NAS(Network Attached Storage)도 역시 가능한 부가적인 영속적 저장 장치 중 하나이다. 실제 장치 구현이 본 명세서에 구체화되어 있지 않다. 이들은 영속적 저장 장치에 대한 API 모델을 따라야만 한다.
임의의 고급 컨텐츠 파일이 영속적 저장 장치 상에 존재할 수 있다. 고급 내비게이션은 적절한 API(들)를 사용하여 데이터 소스 상의 임의의 파일을 영속적 저장 장치 또는 파일 캐쉬로 복사할 수 있다. 2차 비디오 플레이어는 영속적 저장 장치로부터 2차 비디오 세트를 판독할 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예는 2가지 서로 다른 유형의 영속적 저장 장치(PRSTR)를 정의한다. 첫 번째 유형은 필수형 영속적 저장 장치(또는 강제적인 영속적 저장 장치인 고정형 영속적 저장 장치)(PRSTR)이라고 한다. 본 실시예에서의 정보 기록 및 재생 장치(1)(플레이어)는 필수적인 컴포넌트로서의 영속적 저장 장치(PRSTR)를 갖는다. 고정형 영속적 저장 장치(PRSTR)로서 가장 대중적으로 사용되는 실제의 기록 매체 로서, 본 실시예는 플래쉬 메모리를 상정하고 있다. 본 실시예는 고정형 영속적 저장 장치(PRSTR)가 64 MB 이상의 용량을 갖는 것을 전제로 한다. 상기한 바와 같이, 영속적 저장 장치(PRSTR)의 최소 요구 메모리 크기가 설정되어 있는 경우, 고급 컨텐츠(ADVCT)의 재생 안정성이 정보 기록 및 재생 장치(1)의 상세 구성과 무관하게 보장될 수 있다. 도 10에 도시된 바와 같이, 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))는 데이터 소스로서 지정되어 있다. 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))는 DRAM, SRAM 기타 등등의 비교적 작은 용량을 갖는 캐쉬 메모리를 나타낸다. 본 실시예에서의 고정형 영속적 저장 장치(PRSTR)는 플래쉬 메모리를 포함하며, 그 메모리 자체는 정보 재생 장치로부터 분리되지 않도록 설정되어 있다. 그렇지만, 본 실시예는 이러한 특정의 메모리에 한정되지 않으며, 예를 들어 휴대용 플래쉬 메모리가 고정형 영속적 저장 장치(PRSTR)에 부가하여 사용될 수 있다.
본 실시예에서의 다른 유형의 영속적 저장 장치(PRSTR)는 부가적인 영속적 저장 장치(PRSTR)라고 부른다. 부가적인 영속적 저장 장치(PRSTR)는 착탈식 저장 장치일 수 있으며, 예를 들어 USB 메모리, 휴대형 HDD, 메모리 카드, 기타 등등에 의해 구현될 수 있다.
본 실시예에서, 플래쉬 메모리는 영속적 저장 장치(PRSTR)의 예로서 기술되어 있으며, USB 메모리, 휴대형 HDD, 메모리 카드 등은 부가적인 영속적 저장 장치(PRSTR)로서 기술되어 있다. 그렇지만, 본 실시예는 이러한 특정의 장치로 한정되지 않으며, 기타의 기록 매체가 사용될 수도 있다.
본 실시예는 데이터 처리 API(애플리케이션 인터페이스)를 사용하여 이들 영 속적 저장 장치(PRSTR)에 대한 데이터 I/O 처리, 기타 등등을 수행한다. 특정의 고급 컨텐츠(ADVCT)를 기록하는 파일은 영속적 저장 장치(PRSTR)에 기록될 수 있다. 고급 내비게이션 데이터(ADVNV)는 이를 기록하고 있는 파일을 데이터 소스로부터 영속적 저장 장치(PRSTR) 또는 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로 복사할 수 있다. 1차 비디오 플레이어(PRMVP)는 영속적 저장 장치(PRSTR)로부터 1차 비디오 세트(PRMVS)를 직접 판독 및 표시할 수 있다. 2차 비디오 플레이어(SCDVP)는 영속적 저장 장치(PRSTR)로부터 2차 비디오 세트(SCDVS)를 직접 판독 및 표시할 수 있다.
<표시 객체에 관한 유의 사항>
디스크, 영속적 저장 장치 또는 네트워크 내의 리소스 파일은 파일 캐쉬에 일단 저장될 필요가 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR) 또는 네트워크 서버(NTSRV)에 기록되어 있는 고급 애플리케이션(ADAPL) 또는 고급 자막(ADSBT)은 파일 캐쉬에 일단 저장될 필요가 있으며, 이러한 정보는 이어서 데이터 처리된다. 고급 애플리케이션(ADAPL) 또는 고급 자막(ADSBT)이 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))에 일단 저장되어 있는 경우, 표시 처리 및 제어 처리의 고속화가 보장될 수 있다.
도 10에 도시된 재생 프로세서로서의 1차 비디오 플레이어(PRMVP) 및 2차 비디오 플레이어(SCDVP)에 대해서는 나중에 설명한다. 요약하면, 1차 비디오 플레이 어(PRMVP)는 메인 비디오 디코더(MVDEC), 메인 오디오 디코더(MADEC), 서브 비디오 디코더(SVDEC), 서브 오디오 디코더(SADEC), 및 서브-픽처 디코더(SPDEC)를 포함한다. 2차 비디오 플레이어(SCDVP)에 관해서는, 메인 오디오 디코더(MADEC), 서브 비디오 디코더(SVDEC) 및 서브 오디오 디코더(SADEC)가 1차 비디오 플레이어(PRMVP) 내의 디코더들과 공동으로 사용된다. 또한, 고급 엘리먼트 프리젠테이션 엔진(AEPEN) 및 고급 자막 플레이어(ASBPL)에 대해서도 역시 나중에 기술한다.
<1차 비디오 세트>
디스크 상에 하나의 1차 비디오 세트만이 있다. 이는 일치하는 이름을 갖는 IFO, 하나 이상의 EVOB 파일 및 TMAP 파일로 이루어져 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 하나의 정보 저장 매체(DISC) 상에 단지 하나의 1차 비디오 세트(PRMVS)만이 존재한다. 이 1차 비디오 세트(PRMVS)는 그의 관리 정보, 하나 이상의 고화질 비디오 객체 파일(EVOB), 및 타임 맵 파일(TMAP)을 포함하며, 각각의 쌍에 대해 공통의 이름을 사용한다.
<1차 비디오 세트>(계속)
1차 비디오 세트는 1차 오디오 비디오의 컨테이너 포맷이다. 1차 비디오 세트의 데이터 구조는 비디오 타이틀 세트 정보(VTSI), 타임 맵(TMAP) 및 1차 고화질 비디오 객체(P-EVOB)로 이루어지는 고급 VTS와 부합한다. 1차 비디오 세트는 1차 비디오 플레이어에 의해 재생되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
1차 비디오 세트(PRMVS)는 1차 오디오 비디오(PRMAV)의 포맷을 포함한다. 1차 비디오 세트(PRMVS)는 고급 비디오 타이틀 세트 정보(ADVTSI), 타임 맵(TMAP), 및 1차 고화질 비디오 객체(P-EVOB), 기타 등등으로 이루어져 있다. 1차 비디오 세트(PRMVS)는 1차 비디오 플레이어(PRMVP)에 의해 재생되어야 한다.
도 10에 도시된 1차 비디오 세트(PRMVS)의 구성 요소에 대해 이하에 설명한다.
본 실시예에서, 1차 비디오 세트(PRMVS)는 주로 정보 저장 매체(DISC) 상에 기록되어 있는 메인 비디오 데이터를 의미한다. 이 1차 비디오 세트(PRMVS)의 데이터 유형은 1차 오디오 비디오(PRMAV)로 이루어져 있으며, 본 실시예에서 메인 비디오(MANVD), 메인 오디오(MANAD), 및 서브 픽처(SUBPT)는 종래의 DVD-비디오 및 표준 컨텐츠(STDCT)의 비디오 정보, 오디오 정보 및 서브-픽처 정보와 동일한 정보를 의미한다. 본 실시예에서의 고급 컨텐츠(ADVCT)는 최대 2개의 프레임을 동시에 새로 표시할 수 있다. 즉, 서브 비디오(SUBVD)는 메인 비디오(MANVD)와 동시에 재생될 수 있는 비디오 정보로서 정의된다. 이와 마찬가지로, 메인 오디오(MANAD)와 동시에 출력될 수 있는 서브 오디오(SUBAD)가 새로 정의된다.
본 실시예에서, 서브 오디오(SUBAD)의 이하의 2가지 서로 다른 사용 방법이 이용가능하다.
1) 메인 비디오(MANVD) 및 서브 비디오(SUBVD)가 동시에 표시될 때 서브 오디오(SUBAD)를 사용하여 서브 비디오(SUBVD)의 오디오 정보를 출력하는 방법.
2) 메인 비디오(MANVD)만이 재생되어 화면 상에 표시되고 또 메인 비디 오(MANVD)의 비디오 데이터에 대응하는 오디오 정보인 메인 오디오(MANAD)가 출력되고 있을 때, 예를 들어 영화 감독의 코멘트가 음성으로 중첩되어 출력되는 경우, 메인 오디오(MANAD) 상에 중첩되는 서브 오디오(SUBAD)를 영화 감독의 코멘트로서 출력하는 방법.
<2차 비디오 세트>
2차 비디오 세트는 메인 비디오/오디오 스트림의 1차 비디오 세트 내의 대응하는 스트림(대체 오디오 비디오)으로의 대체, 메인 오디오 스트림의 1차 비디오 세트 내의 대응하는 스트림(대체 오디오)으로의 대체를 위해 사용되거나, 또는 1차 비디오 세트에 대한 부가/그의 대체(2차 오디오 비디오)를 위해 사용된다. 2차 비디오 세트는 디스크 상에 기록되거나, 영속적 저장 장치 내에 기록되거나 또는 서버로부터 전달될 수 있다. 2차 비디오 세트에 대한 파일은, 그 데이터가 디스크 상에 기록되어 있는 경우, 재생 이전에 파일 캐쉬 또는 영속적 저장 장치 내에 일단 저장되고, 1차 비디오 세트와 동시에 재생되는 것이 가능하다. 디스크 상의 2차 비디오 세트는 1차 비디오 세트가 재생되지 않는 경우(즉, 디스크로부터 공급되지 않는 경우) 직접 액세스될 수 있다. 반면에, 2차 비디오 세트가 서버 상에 위치하는 경우, 이 데이터 전부가 파일 캐쉬 또는 영속적 저장 장치에 일단 저장되어 재생될 수 있거나("전체 다운로드"), 이 데이터의 일부가 스트리밍 버퍼에 순차적으로 저장되고 버퍼 내의 저장된 데이터가 서버로부터 데이터를 다운로드하는 동안 버퍼 오버플로우 없이 재생된다("스트리밍").
보다 알기 쉬운 설명이 이하에 제공된다.
2차 비디오 세트(SCDVS)는 1차 비디오 세트(PRMVS) 내의 메인 오디오(MANAD)에 대한 대체로서 사용되고 또한 1차 비디오 세트(PRMVS)의 부가 정보 또는 대체 정보로서 사용된다. 본 실시예는 이에 한정되지 않는다. 예를 들어, 2차 비디오 세트(SCDVS)는 대체 오디오(SBTAD)의 메인 오디오(MANAD)에 대한 대체로서 또는 2차 오디오 비디오(SCDAV)에 대한 부가(중첩된 표시) 또는 대체로서 사용될 수 있다. 본 실시예에서, 2차 비디오 세트(SCDVS)의 컨텐츠는 네트워크를 경유하여 상기한 네트워크 서버(NTSRV)로부터 다운로드될 수 있거나 영속적 저장 장치(PRSTR) 내에 기록되어 사용될 수 있거나 사전에 본 발명의 실시예의 정보 저장 매체(DISC) 상에 기록되어 있거나 할 수 있다. 2차 비디오 세트(SCDVS)의 정보가 본 실시예의 정보 저장 매체(DISC)에 기록되어 있는 경우, 이하의 방식이 채용된다. 즉, 2차 비디오 세트 파일(SCDVS)이 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 또는 영속적 저장 장치(PRSTR) 내에 일단 저장되고 이어서 파일 캐쉬 또는 영속적 저장 장치(PRSTR)로부터 재생된다. 2차 비디오 세트(SCDVS)의 정보는 1차 비디오 세트(PRMVS)의 어떤 데이터와 동시에 재생될 수 있다. 본 실시예에서, 정보 저장 매체(DISC) 상에 기록되어 있는 1차 비디오 세트(PRMVS)는 직접 액세스 및 표시될 수 있지만, 본 실시예에서의 정보 저장 매체(DISC) 상에 기록되어 있는 2차 비디오 세트(SCDVS)는 직접 재생될 수 없다. 본 실시예에서, 1차 비디오 세트(PRMVS) 내의 정보는 상기한 영속적 저장 장치(PRSTR) 내에 기록되어 있고, 영속적 저장 장치(PRSTR)로부터 직접 재생될 수 있다. 보다 구체적으로는, 2차 비디오 세트(SCDVS)가 네트워크 서버(NTSRV) 상에 기록되어 있는 경우, 2차 비디오 세 트(SCDVS) 전부가 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 또는 영속적 저장 장치(PRSTR) 내에 일단 기록되고 이어서 재생된다. 본 실시예는 이것에 한정되지 않는다. 예를 들어, 네트워크 서버(NTSRV) 상에 기록되어 있는 2차 비디오 세트(SCDVS)의 일부가 필요에 따라 스트리밍 버퍼가 오버플로우하지 않는 범위 내에서 스트리밍 버퍼 내에 일단 저장되고 그로부터 재생될 수 있다.
<2차 비디오 세트>(계속)
2차 비디오 세트는 3가지 유형의 표시 객체, 즉 대체 오디오 비디오, 대체 오디오 및 2차 오디오 비디오를 전달할 수 있다. 2차 비디오 세트는 디스크, 네트워크 서버, 영속적 저장 장치 또는 플레이어 내의 파일 캐쉬로부터 제공될 수 있다. 2차 비디오 세트의 데이터 구조는 고급 VTS의 간소화되고 수정된 구조이다. 이는 속성 정보를 갖는 타임 맵(TMAP) 및 2차 고화질 비디오 객체(S-EVOB)로 이루어져 있다. 2차 비디오 세트는 2차 비디오 플레이어에 의해 재생되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
2차 비디오 세트(SCDVS)는 3가지 서로 다른 유형의 표시 객체, 즉 대체 오디오 비디오(SBTAV), 대체 오디오(SBTAD) 및 2차 오디오 비디오(SCDAV)를 전달할 수 있다. 2차 비디오 세트(SCDVS)는 정보 저장 매체(DISC), 네트워크 서버(NTSRV), 영속적 저장 장치(PRSTR), 파일 캐쉬(FLCCH), 기타 등등으로부터 제공될 수 있다. 2차 비디오 세트(SCDVS)의 데이터 구조는 고급 비디오 타이틀 세트(ADVTS)의 간소화되고 약간 수정된 구조이다. 2차 비디오 세트(SCDVS)는 타임 맵(TMAP) 및 2차 고화질 비디오 객체(S-EVOB)로 이루어져 있다. 2차 비디오 세트(SCDVS)는 2차 비 디오 플레이어(SCDVP)에 의해 재생되어야 한다.
도 10에 도시된 2차 비디오 세트(SCDVS)의 구성요소에 대해 이하에 기술한다.
기본적으로, 2차 비디오 세트(SCDVS)는 영속적 저장 장치(PRSTR)로부터 네트워크를 경유하여, 즉 본 실시예에서의 정보 저장 매체(DISC) 이외의 장소로부터 정보를 판독하고 판독된 정보를 상기한 1차 비디오 세트(PRMVS)로 부분적으로 치환하여 표시함으로써 획득되는 데이터를 나타낸다. 즉, 도 10에 도시된 메인 오디오 디코더(MADEC)는 1차 비디오 플레이어(PRMVP) 및 2차 비디오 플레이어(SCDVP)에 공통이다. 2차 비디오 세트(SCDVS)의 컨텐츠가 2차 비디오 플레이어(SCDVP) 내의 메인 오디오 디코더(MADEC)를 사용하여 재생되어야 할 때, 1차 비디오 세트(PRMVS)의 서브 오디오(SUBAD)는 1차 비디오 플레이어(PRMVP)에 의해 재생되지 않고 이것이 2차 비디오 세트(SCDVS)의 데이터로 치환된 후에 출력된다. 2차 비디오 세트(SCDVS)는 3가지 서로 다른 유형의 객체, 즉 대체 오디오 비디오(SBTAV), 대체 오디오(SBTAD) 및 2차 오디오 비디오(SCDAV)로 이루어져 있다. 대체 오디오(SBTAD) 내의 메인 오디오(MANAD)는 기본적으로 1차 비디오 세트(PRMVS) 내의 메인 오디오(MANAD)로 치환될 때 사용된다. 대체 오디오 비디오(SBTAV)는 메인 비디오(MANVD) 및 메인 오디오(MANAD)로 이루어져 있다. 대체 오디오(SBTAD)는 하나의 메인 오디오 스트림(MANAD)으로 이루어져 있다. 예를 들어, 정보 저장 매체(DISC) 상에 1차 비디오 세트(PRMVS)로서 사전에 기록되어 있는 메인 오디오(MANAD)가 메인 비디오(MANVD)의 비디오 정보에 대응하여 일본어 및 영어를 기록하고 있는 경 우, 메인 오디오(MANAD)는 사용자에 대한 표시 시에 일본어 또는 영어 오디오 정보만을 표시할 수 있다. 이와 반대로, 본 실시예는 다음과 같이 달성될 수 있다. 즉, 모국어로서 중국어를 말하는 사용자의 경우, 네트워크 서버(NTSRV)에 기록되어 있는 중국어 오디오 정보가 네트워크를 경유하여 다운로드되고, 오디오 정보를 일본어 또는 영어로 표시하는 대신에 2차 비디오 세트(SCDVS)의 메인 오디오(MANAD)인 중국어로 대체되면서 1차 비디오 세트(PRMVS)의 메인 비디오(MANVD)의 재생 시에 오디오 정보가 출력될 수 있다. 또한, 2차 비디오 세트(SCDVS)의 서브 오디오(SUBAD)는 2차 오디오 비디오(SCDAV)의 서브 비디오(SUBVD)의 화면과 동기된 오디오 정보가 2개의 화면 상에 표시 시에 표시될 때(예를 들어, 영화 감독의 코멘트 정보가 상기한 1차 비디오 세트(PRMVS)의 메인 비디오(MANVD)와 동기하여 출력되는 메인 오디오(MANAD) 상에 중첩되어 동시에 표시될 때) 사용될 수 있다.
<2차 오디오 비디오>
2차 오디오 비디오는 0개 또는 1개의 서브 비디오 스트림 및 0개 내지 8개의 서브 오디오 스트림을 포함한다. 이것은 1차 비디오 세트에 대한 부가 또는 1차 비디오 세트 내의 서브 비디오 스트림 및 서브 오디오 스트림의 대체를 위해 사용된다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 2차 오디오 비디오(SCDAV)는 0개 또는 1개의 서브 비디오(SUBVD) 및 0개 내지 8개의 서브 오디오(SUBAD)를 포함한다. 본 실시예에서, 2차 오디오 비디오(SCDAV)는 1차 비디오 세트(PRMVS) 상에(에 부가하여) 중첩되도록 사용된다. 본 실시예에서, 2차 오디오 비디오(SCDAV)는 또한 1차 비디오 세트(PRMVS) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)에 대한 대체로서 사용될 수 있다.
<2차 오디오 비디오>(계속)
2차 오디오 비디오는 1차 오디오 비디오의 서브 비디오 및 서브 오디오표시를 대체한다. 이는 서브 오디오 스트림을 갖는/갖지 않는 서브 비디오 스트림으로 이루어지거나 또는 서브 오디오 스트림만으로 이루어져 있을 수 있다. 2차 오디오 비디오 내의 표시 스트림 중 하나를 재생하는 동안, 1차 오디오 비디오 내의 서브 비디오 스트림 및 서브 오디오 스트림을 재생하는 것이 금지된다. 2차 오디오 비디오의 컨테이너 포맷은 2차 비디오 세트이다.
보다 알기 쉬운 설명이 이하에 제공된다.
2차 오디오 비디오(SCDAV)는 1차 비디오 세트(PRMVS) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)를 대체한다. 2차 오디오 비디오(SCDAV)는 이하의 경우를 갖는다.
1) 서브 비디오(SUBVD) 스트림만으로 이루어져 있는 경우,
2) 서브 비디오(SUBVD) 및 서브 오디오(SUBAD) 둘 다로 이루어져 있는 경우, 및
3) 서브 오디오(SUBAD)만으로 이루어져 있는 경우.
2차 오디오 비디오(SCDAV) 내의 스트림을 재생할 시에, 1차 오디오 비디오(PRMAV) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 재생될 수 없다. 2 차 오디오 비디오(SCDAV)는 2차 비디오 세트(SCDVS) 내에 포함되어 있다.
<고급 애플리케이션>
고급 애플리케이션은 하나의 매니페스트 파일, 마크업 파일(들)(컨텐츠/스타일/타이밍/레이아웃 정보를 포함함), 스크립트 파일(들), 정지 화상 파일(들)(JPEG/PNG/MNG/캡처 이미지 포맷), 효과 오디오 파일(들)(WAV로 래핑된 LPCM), 폰트 파일(들)(오픈 타입) 및 기타 등등으로 이루어져 있다. 매니페스트 파일은 표시 레이아웃에 대한 정보, 실행될 초기 마크업 파일, 스크립트 파일(들) 및 고급 애플리케이션 내의 리소스를 제공한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 10의 고급 애플리케이션(ADAPL)은 마크업 파일(MRKUP), 스크립트 파일(SCRPT), 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD), 폰트 파일(FONT), 및 기타 등등의 정보로 이루어져 있다. 상기한 바와 같이, 고급 애플리케이션(ADAPL)의 이들 정보는 이들이 파일 캐쉬에 일단 저장되고 사용된다. 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로의 다운로드에 관계된 정보는 매니페스트 파일(MNFST)(후술함) 내에 기록된다. 또한, 고급 애플리케이션(ADAPL)의 다운로드 타이밍 등의 정보는 재생 목록(PLLST) 내의 리소스 정보(RESRCI) 내에 기술되어 있다. 본 실시예에서, 매니페스트 파일(MNFST)은 또한 초기에 실행되는 마크업 파일(MRKUP) 정보의 로딩에 관계된 정보, 스크립트 파일(SCRPT) 내에 기록되어 있는 정보를 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로 로딩할 시에 필요한 정보 등도 포함한다.
<고급 애플리케이션>(계속)
고급 애플리케이션은 3가지 기능을 제공한다. 첫 번째 기능은 고급 컨텐츠의 전체적인 표시 거동을 제어하는 것이다. 그 다음 기능은 비디오 표시 상에 메뉴 버튼 등의 그래픽 표시를 실현하는 것이다. 마지막 기능은 효과 오디오 재생을 제어하는 것이다. 매니페스트, 스크립트 및 마크업 등의 고급 애플리케이션의 고급 내비게이션은 고급 애플리케이션의 거동을 정의한다. 고급 엘리먼트 파일은 그래픽 및 오디오 표시를 위해 사용된다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 애플리케이션(ADAPL)은 이하의 3가지 기능을 제공한다.
첫 번째 기능은 고급 컨텐츠(ADVCT)의 표시 거동에 대한 제어 기능(예를 들어, 서로 다른 프레임 간의 점프 제어)이다. 두 번째 기능은 메뉴 버튼 등의 그래픽 표시를 실현하는 기능이다. 세 번째 기능은 효과 오디오 재생 제어 기능이다. 고급 내비게이션 파일(ADVNV)은 고급 애플리케이션(ADAPL)을 구현하는 매니페스트(MNFST), 스크립트 파일(SCRPT), 마크업 파일(MRKUP), 기타 등등을 포함한다. 고급 엘리먼트 파일(ADVEL) 내의 정보는 정지 화상(IMAGE), 폰트 파일(FONT), 기타 등등과 관계되어 있고, 두 번째 기능의 그래픽 표시 및 오디오 표시 시에 표시 아이콘 및 표시 오디오로서 사용된다.
<고급 자막>
고급 자막(ADSBT)도 고급 애플리케이션(ADAPL)에서와 같이 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 내에 저장된 후에 사용된다. 고급 자막(ADSBT)의 정보는 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)로부터 또는 네트워크를 경유하여 취득될 수 있다. 본 실시예에서의 고급 자막(ADSBT)은 기본적으로 종래의 비디오 정보에 대한 치환된 설명 자막 또는 텔롭(telop) 또는 그림 문자, 정지 화상 등의 이미지를 포함한다. 설명 자막의 치환에 관하여는, 이는 기본적으로 이미지 이외의 텍스트에 기초하여 형성되어 있으며, 폰트 파일(FONT)을 변경함으로써 표시될 수 있다. 이러한 고급 자막(ADSBT)은 이들을 네트워크 서버(NTSRV)로부터 다운로드함으로써 부가될 수 있다. 예를 들어, 정보 저장 매체(DISC)에 저장되어 있는 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)를 재생하면서 주어진 비디오 정보에 대한 새로운 설명 자막 또는 코멘트가 출력될 수 있다. 상기한 바와 같이, 이하의 사용 방법이 이용가능하다. 즉, 서브-픽처(SUBPT)가 예를 들어 1차 비디오 세트(PRMVS) 내의 자막으로서 일본어 및 영어 자막만을 저장하고 있을 때, 모국어로서 중국어를 말하는 사용자는 네트워크를 경유하여 네트워크 서버(NTSRV)로부터 고급 자막(ADSBT)으로서 중국어 자막을 다운로드하고, 다운로드된 자막을 표시한다. 이 경우의 데이터 유형은 고급 자막(ADSBT) 또는 폰트 파일(FONT)에 대한 마크업 파일(MRKUP)의 유형으로서 설정되어 있다.
<고급 자막>(계속)
고급 자막은 서브-픽처 데이터의 치환일 수 있는 비디오와 동기된 자막에 대해 사용된다. 이는 고급 자막에 대한 하나의 매니페스트 파일, 고급 자막에 대한 마크업 파일(들)(컨텐츠/스타일/타이밍/레이아웃 정보를 포함함), 폰트 파일(들) 및 이미지 파일(들)로 이루어져 있다. 고급 자막에 대한 마크업 파일은 고급 애플 리케이션에 대한 마크업의 서브셋이다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 고급 자막(ADSBT)은 1차 비디오 세트(PRMVS)의 메인 비디오(MANVD)와 동기하여 표시되는 자막(설명 자막, 기타 등등)으로서 사용된다. 고급 자막(ADSBT)은 또한 1차 비디오 세트(PRMVS) 내의 서브-픽처(SUBPT)에 대한 동시 표시(추가 표시 처리)로서 또는 1차 비디오 세트(PRMVS)의 서브-픽처(SUBPT)에 대한 치환으로서 사용될 수 있다. 고급 자막(ADSBT)은 고급 자막(ADSBT)에 대한 하나의 매니페스트 파일(MNFST), 고급 자막(ADSBT)에 대한 마크업 파일(들)(MRKUP), 폰트 파일(들)(FONT) 및 이미지 파일(들)(IMAGE)로 이루어져 있다. 고급 자막(ADSBT)에 대한 마크업 파일(MRKUP)은 고급 애플리케이션(ADAPL)의 마크업 파일(MRKUP)의 서브셋으로서 존재한다.
<고급 자막>(계속)
고급 자막은 자막 특징을 제공한다. 고급 자막은 자막에 관하여 2가지 의미를 갖는다. 한가지는 1차 오디오 비디오에서의 서브-픽처 스트림으로서 사용되는 것은 물론 표준 컨텐츠의 서브-픽처 기능이다. 다른 하나는 고급 자막으로서 사용되는 것이다. 양자는 동시에 사용되어서는 안 된다. 고급 자막은 고급 애플리케이션의 서브셋이다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 컨텐츠(ADVCT)는 자막에 관하여 2가지 의미를 갖는다.
첫 번째 의미로서, 자막은 표준 컨텐츠(STDCT)의 서브-픽처 기능에서와 같이 1차 오디오 비디오(PRMAV)에서의 서브-픽처 스트림으로서 사용된다. 두 번째 의미로서, 자막은 고급 자막(ADSBT)으로서 사용된다. 양쪽 의미는 동시에 양쪽 목적을 위해 사용되어서는 안 된다. 고급 자막(ADSBT)은 고급 애플리케이션(ADAPL)의 서브셋이다.
<고급 스트림>
고급 스트림은 1차 비디오 세트를 제외한 하나 이상의 고급 컨텐츠 파일을 포함하는 패키지 파일의 데이터 포맷이다. 고급 스트림은 1차 고화질 비디오 객체 세트(P-EVOBS)로 멀티플렉싱되어 파일 캐쉬로 전달되고, 이 P-EVOBS는 1차 비디오 플레이어에 공급된다. P-EVOBS에 멀티플렉싱되고 고급 컨텐츠 재생에 필수적인 동일 파일들이 디스크 상에 파일로서 저장되어 있어야만 한다. 이들 복제된 복사본은 고급 컨텐츠 재생을 보장해주는 데 필요한데, 그 이유는 고급 컨텐츠 재생이 점프될 때 고급 스트림 공급이 완료될 수 없기 때문이다. 이 경우에, 필요한 파일들은 규정된 점프 타이밍으로부터 재생을 재시작하기 이전에 파일 캐쉬 관리자에 의해 디스크로부터 데이터 캐쉬로 직접 복사된다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 스트림은 1차 비디오 세트(PRMVS)를 제외하고 하나 이상의 고급 컨텐츠 파일(ADVCT)을 포함하는 패키지 파일의 데이터 포맷이다. 고급 스트림은 1차 고화질 비디오 객체 세트(P-EVOBS) 내에 멀티플렉싱되어 기록되어 있으며, 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로 전달된다. 이 1차 고화질 비디오 객체 세트(P-EVOBS)는 1차 비디오 플레이어(PRMVP)에 의해 재생 처리된다. 1차 고화질 비디오 객체 세트(P-EVOBS) 내에 멀티플렉스되어 기록되어 있는 이들 파일은 고급 컨텐츠(ADVCT)의 재생에 필수적이며 본 실시예의 정보 저장 매체(DISC) 상에 파일 구조를 갖도록 저장되어 있어야 한다.
<고급 내비게이션>
고급 내비게이션 파일은 파일로서 있거나 패키지 파일에 아카이브되어 있어야 한다. 고급 내비게이션 파일은 고급 컨텐츠 재생을 위해 판독되고 해석된다. 기동을 위한 고급 내비게이션 파일인 재생 목록은 "ADV_OBJ" 디렉토리 상에 위치해야 한다. 고급 내비게이션 파일은 P-EVOB에 멀티플렉싱되어 있거나 P-EVOB에 멀티플렉싱되어 있는 패키지 파일에 아카이브될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 내비게이션(ADVNV)과 관계된 파일들은 고급 컨텐츠(ADVCT)의 재생 시에 인터럽트 처리에 사용된다.
<1차 오디오 비디오>
1차 오디오 비디오는 몇 가지 표시 스트림, 즉 메인 비디오, 메인 오디오, 서브 비디오, 서브 오디오 및 서브-픽처를 제공할 수 있다. 플레이어는 메인 비디오 및 메인 오디오에 부가하여 서브 비디오 및 서브 오디오를 동시에 재생할 수 있다. 1차 오디오 비디오는 전적으로 디스크로부터 제공되어야 한다. 1차 오디오 비디오의 컨테이너 포맷은 1차 비디오 세트이다. 비디오 및 오디오 표시의 가능한 조합은 1차 비디오 오디오와 2차 비디오 세트에 의해 전달되는 다른 표시 객체 간의 조건에 의해 제한된다. 1차 오디오 비디오는 또한 고급 애플리케이션, 고급 자 막 및 기타에 의해 사용될 수 있는 여러 가지 종류의 데이터 파일을 전달할 수 있다. 이들 파일에 대한 컨테이너 스트림은 고급 스트림이라고 부른다.
보다 알기 쉬운 설명이 이하에 제공된다.
1차 오디오 비디오(PRMAV)는 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD) 및 서브-픽처(SUBPT)를 포함하는 스트림들로 이루어져 있다. 정보 재생 장치는 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)를 동시에 재생할 수 있다. 1차 오디오 비디오(PRMAV)는 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR) 내에 기록되어야 한다. 1차 오디오 비디오(PRMAV)는 1차 비디오 세트(PRMVS)의 일부로서 포함된다. 비디오 및 오디오 표시의 가능한 조합은 1차 오디오 비디오(PRMAV) 및 2차 비디오 세트(SCDVS) 간의 조건에 의해 제한된다. 1차 오디오 비디오(PRMAV)는 또한 고급 애플리케이션(ADAPL), 고급 자막(ADSBT), 및 기타에 의해 사용될 수 있는 여러 가지 종류의 데이터 파일을 전달할 수 있다. 이들 파일 내에 포함된 스트림은 고급 스트림이라고 부른다.
<대체 오디오>
대체 오디오는 1차 오디오 비디오의 메인 오디오 표시를 대체한다. 이는 메인 오디오 스트림만으로 이루어져 있어야 한다. 대체 오디오가 재생되는 동안, 1차 비디오 세트 내의 메인 오디오가 재생되는 것이 금지된다. 대체 오디오의 컨테이너 포맷은 2차 비디오 세트이다. 2차 비디오 세트가 대체 오디오 비디오를 포함하는 경우, 2차 비디오 세트는 대체 오디오를 포함할 수 없다.
보다 알기 쉬운 설명이 이하에 제공된다.
대체 오디오(SBTAD)는 1차 오디오 비디오(PRMAV)의 메인 오디오(MANAD) 표시를 대체한다. 이 대체 오디오(SBTAD)는 메인 오디오(MANAD) 스트림만으로 이루어져 있어야 한다. 대체 오디오(SBTAD)가 재생되는 동안에, 1차 비디오 세트(PRMVS) 내의 메인 오디오(MANAD)가 재생되는 것이 금지되어 있다. 대체 오디오(SBTAD)는 2차 비디오 세트(SCDVS) 내에 포함되어 있다.
<고급 컨텐츠에 대한 1차 고화질 비디오 객체(P-EVOB)>
고급 컨텐츠에 대한 1차 고화질 비디오 객체(P-EVOB)는 1차 비디오 세트의 표시 데이터를 전달하는 데이터 스트림이다. 고급 컨텐츠에 대한 1차 고화질 비디오 객체는 단지 1차 고화질 비디오 객체 또는 P-EVOB라고 한다. 1차 고화질 비디오 객체는 "MPEG-2 표준(ISO/IEC 13818-1)"에 규정된 프로그램 스트림과 부합한다. 1차 비디오 세트의 표시 데이터의 유형은 메인 비디오, 메인 오디오, 서브 비디오, 서브 오디오 및 서브-픽처이다. 고급 스트림은 또한 P-EVOB로 멀티플렉싱된다.
P-EVOB 내의 가능한 팩 유형은 다음과 같다.
Figure 112006062570134-PAT00015
내비게이션 팩(NV_PCK)
Figure 112006062570134-PAT00016
메인 비디오 팩(VM_PCK)
Figure 112006062570134-PAT00017
메인 오디오 팩(AM_PCK)
Figure 112006062570134-PAT00018
서브 비디오 팩(VS_PCK)
Figure 112006062570134-PAT00019
서브 오디오 팩(AS_PCK)
Figure 112006062570134-PAT00020
서브-픽처 팩(PS_PCK)
Figure 112006062570134-PAT00021
고급 팩(ADV_PCK)
1차 비디오 세트에 대한 타임 맵(TMAP)은 각각의 1차 고화질 비디오 객체 단위(P-EVOBU)에 대한 진입점을 지정한다.
1차 비디오 세트에 대한 액세스 단위는 메인 비디오는 물론 종래의 비디오 객체(VOB) 구조의 액세스 단위에 기초한다. 서브 비디오 및 서브 오디오에 대한 오프셋 정보는 동기 정보(SYNCI)는 물론 메인 오디오 및 서브-픽처에 의해 주어진다.
고급 스트림은 1차 비디오 세트 재생의 중단 없이 여러 가지 종류의 고급 컨텐츠 파일을 파일 캐쉬로 공급하는 데 사용된다. 1차 비디오 플레이어 내의 디멀티플렉서 모듈은 고급 스트림 팩(ADV_PCK)을 내비게이션 관리자 내의 파일 캐쉬 관리자로 배포한다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 컨텐츠(ADVCT)에 대한 1차 고화질 비디오 객체(P-EVOB)는 1차 비디오 세트(PRMVS)의 표시 데이터를 전달하는 데이터 스트림이다. 1차 비디오 세트(PRMVS)의 표시 데이터의 유형으로서, 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD), 및 서브-픽처(SUBPT)가 포함된다. 본 실시예에서, 1차 고화질 비디오 객체(P-EVOB) 내에 포함된 팩으로서, 내비게이션 팩(NV_PCK)은 기존의 DVD 및 표준 컨텐츠(STDCT)에서와 같이 존재하며, 고급 스트림을 기록하고 있는 고급 스트림 팩이 존재한다. 본 실시예에서, 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)에 대한 오프셋 정보는 메인 오디오(MANAD) 및 서브-픽처(SUBPT)에서와 같이 동기 정보(SYNCI)에 기록되어 있다.
<파일 구조>
도 1은 도 10에 도시된 여러 가지 객체 스트림이 정보 저장 매체(DISC) 상에 기록되어 있을 때의 파일 구조를 나타낸 것이다. 본 실시예에서, 고급 컨텐츠(ADVCT)에 관해서는, 고급 컨텐츠 디렉토리(ADVCT)는 정보 저장 매체(DISC)의 루트 디렉토리 바로 아래에 할당된다. 고급 컨텐츠 디렉토리(ADVCT) 아래에 재생 목록 파일(PLLST)에 관계된 정보를 기록하고 있는 재생 목록 파일(PLLST)이 존재한다. 이 파일과 함께, 고급 애플리케이션과 관계된 정보를 기록하고 있는 고급 애플리케이션 디렉토리(ADAPL), 1차 비디오 세트와 관계된 정보를 기록하고 있는 1차 비디오 세트 디렉토리(PRMVS), 2차 비디오 세트와 관계된 정보를 기록하고 있는 2차 비디오 세트 디렉토리(SECVS), 및 고급 자막과 관계된 정보를 기록하고 있는 고급 자막 디렉토리(ADSBT)가 기록되어 있다.
고급 애플리케이션 디렉토리(ADAPL) 아래에, 고급 애플리케이션과 관계된 관리 정보를 기록하고 있는 고급 내비게이션 디렉토리(ADVNV), 및 고급 애플리케이션에서 사용되는 여러 가지 고급 엘리먼트(객체 정보, 기타 등등)와 관계된 정보를 기록하고 있는 고급 엘리먼트 디렉토리(ADVEL)가 존재한다. 고급 내비게이션 디렉토리(ADVNV)는 고급 애플리케이션에서 사용되는 여러 가지 종류의 관리 정보 간의 관계 및 네트워크 다운로드를 위해 필요한 정보 리스트를 함께 기록하고 있는 매니페스트와 관계된 매니페스트 파일(MNFST), 페이지 레이아웃 기타 등등에 관계된 마크업 데이터를 기록하고 있는 마크업 파일(MRKUP), 스크립트 명령을 기록하고 있는 스크립트 파일(SCRPT)을 포함한다. 고급 엘리먼트 디렉토리(ADVEL)는 정지 화상을 기록하고 있는 정지 화상 파일(IMAGE), 효과 오디오 데이터를 기록하고 있는 효과 오디오 파일(EFTAD), 폰트 정보를 기록하고 있는 폰트 파일(FONT), 및 기타 파일(OTHER)을 포함한다.
1차 비디오 세트 디렉토리(PRMVS) 아래에, 1차 오디오 비디오 디렉토리(PRMAV)가 존재한다. 이 디렉토리는 1차 오디오 비디오의 고화질 비디오 객체에 관계된 속성 정보 및 관리 정보를 기록하고 있는 비디오 타이틀 세트 정보 파일(ADVTSI), 1차 비디오 세트의 시간 정보를 어드레스 정보로 변환하는 데 사용되는 타임 맵 정보를 기록하고 있는 1차 비디오 세트의 타임 맵 파일(PTMAP), 및 1차 고화질 비디오 객체를 기록하고 있는 1차 고화질 비디오 객체 파일(P-EVOB)을 포함한다.
2차 비디오 세트 디렉토리(SCDVS) 아래에는, 대체 오디오 디렉토리(SBTAD) 및 2차 오디오 비디오 디렉토리(SCDAV)가 존재한다. 2차 오디오 비디오 디렉토리(SCDAV) 아래에는, 2차 비디오 세트의 시간 정보를 어드레스 정보로 변환하는 데 사용되는 타임 맵 정보를 기록하고 있는 2차 비디오 세트의 타임 맵 파일(STMAP), 및 2차 고화질 비디오 객체를 기록하고 있는 2차 고화질 비디오 객체 파일(S-EVOB)이 존재한다. 또한, 대체 오디오 디렉토리(SBTAD) 아래에는, 2차 비디오 세트의 시간 정보를 어드레스 정보로 변환하는 데 사용되는 타임 맵 파일(STMAP) 및 2차 고화질 비디오 객체 파일(S-EVOB)이 저장될 수 있다.
고급 자막 디렉토리(ADSBT) 아래에는, 고급 자막과 관계된 관리 정보를 기록하고 있는 고급 내비게이션 디렉토리(ADNVN) 및 고급 자막의 엘리먼트 정보로서의 고급 엘리먼트 디렉토리(ADVEL)가 존재한다. 고급 내비게이션 디렉토리(ADVNV)는 고급 자막의 매니페스트 파일(MNFSTS), 및 고급 자막의 마크업 파일(MRKUPS)을 포함한다. 고급 자막의 매니페스트 파일(MNFSTS)은 고급 자막과 관계된 여러 가지 관리 정보 간의 관계 및 네트워크 다운로드에 필요한 정보를 기록하고 있다. 고급 자막의 마크업 파일(MRKUPS)은 화면 상의 고급 자막의 표시 위치, 기타 등등을 지정하는 데 사용되는 마크업 정보를 기록하고 있다. 고급 엘리먼트 디렉토리(ADVEL)는 고급 자막의 폰트 정보를 기록하고 있는 고급 자막의 폰트 파일(FONTS)을 포함한다.
<고급 컨텐츠에 대한 디렉토리>
"고급 컨텐츠에 대한 디렉토리"는 "ADV_OBJ" 디렉토리 아래에만 존재할 수 있다. 고급 내비게이션, 고급 엘리먼트 및 2차 비디오 세트의 모든 파일은 이 디렉토리에 있을 수 있다. 이 디렉토리의 이름은 이하의 고급 컨텐츠에 대한 파일 내에 정의된 문자 세트로 이루어져 있어야 한다. "ADV_OBJ" 서브디렉토리의 총 수("ADV_OBJ" 디렉토리는 제외)는 512보다 적어야 한다. 디렉토리 깊이는 "ADV_OBJ" 디렉토리로부터 8보다 작거나 같아야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
이 디렉토리 내에 포함된 고급 컨텐츠 디렉토리(ADVCT) 및 이 디렉토리 내에 포함된 디렉토리 및 파일의 이름은 d-문자 또는 d1-문자를 사용하여 기재된다. 고급 컨텐츠 디렉토리(ADVCT) 아래에는 서브-디렉토리가 있다. 서브-디렉토리의 계층의 깊이는 8 계층 이하이며, 서브-디렉토리의 총수는 본 실시예에서 512 이하이 어야 한다. 디렉토리가 너무 깊은 경우 또는 서브-디렉토리의 총수가 너무 큰 경우, 접근성이 떨어진다. 따라서, 본 실시예에서, 계층의 수 및 디렉토리의 수를 제한함으로서 고속 액세스가 보장된다.
<고급 컨텐츠에 대한 파일들>
"ADV_OBJ" 디렉토리 아래에 있는 파일들의 총수는 512 x 2047개로 제한되어야 하고, 각각의 디렉토리 내의 파일의 총수는 2048개 이하로 되어야 한다. 문자 코드 세트 "A 내지 Z a 내지 z 0 내지 9 SP ! $ & ' () + , - . = @ _"(ISO 8859-1에서의 20h, 21h, 24h 내지 29h, 2Bh 내지 2Eh, 30h 내지 39h, 3Bh, 3Dh, 40h 내지 5Ah, 5Fh, 61h 내지 7Ah)가 파일 이름에 사용된다. 파일 이름의 길이는 255개 문자보다 작거나 같아야 한다. 파일 이름의 사용에 관해서는, 이하의 규칙이 적용된다.
Figure 112006062570134-PAT00022
디스크는 대문자 및 소문자 둘 다의 문자를 가질 수 있다.
Figure 112006062570134-PAT00023
디스크는 대문자와 소문자 차이만 있는 동일한 파일 이름을 가져서는 안 된다(예를 들어, test.jpg 및 TEST.JPG는 디스크에 공존해서는 안 된다).
Figure 112006062570134-PAT00024
XML/스크립트 문서 내에서 참조되는 파일 이름은 디스크/영속적 저장 장치/네트워크 내의 고급 엘리먼트에 대한 이름과 일치해야 한다. <대소 문자 구별> (예를 들어, test.jpg는 TEST.JPG에 링크되지 않는다)
보다 알기 쉬운 설명이 이하에 제공된다.
고급 컨텐츠 디렉토리(ADVCT) 아래에 기록될 수 있는 파일의 총수는 512 x 2047개로 제한되어야 하고, 각각의 디렉토리 내에 기록될 수 있는 파일의 총수는 2048개 이하로 되어야 한다. 파일 이름은 도트 "."가 각각의 파일 이름 이후에 할당되는 구조를 채용하며, 확장자는 도트 "." 이후에 할당된다. 고급 컨텐츠 디렉토리(ADVCT)는 정보 저장 매체의 루트 디렉토리 바로 아래에 기록되어 있고, 재생 목록 파일(PLLST)은 이 고급 컨텐츠 디렉토리(ADVCT) 바로 아래에 기록되어 있다.
<재생 목록>
카테고리 2 디스크 및 카테고리 3 디스크의 경우에, 표시 장치와 연결되어 있는 플레이어에 대해 파일 이름 "VPLST%%%.XPL" 또는 표시 장치와 연결되어 있지 않은 플레이어에 대해 파일 이름 "APLST&&&.XPL"을 갖는 재생 목록 파일은 "ADV_OBJ" 디렉토리 아래에 있어야 한다. 재생 목록 파일이 시동 시퀀스에서 판독될 필요가 있는 경우, 재생 목록 파일은 "ADV_OBJ" 디렉토리 바로 아래에 있어야 하고(그의 서브-디렉토리는 포함되지 않음), "%%%" 및 "&&&"는 값 "000" 내지 "999"로 기술된다. 이 경우에, 최대 번호를 갖는 재생 목록 파일이 시동 시퀀스에서 맨 먼저 판독되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
복수의 재생 목록 파일(PLLST)이 정보 저장 매체(DISC) 상에 기록될 수 있다. 재생 목록 파일(PLLST)로서, 2가지 서로 다른 유형의 재생 목록 파일(PLLST)이 설정될 수 있다. 재생 시에 정보 재생 장치에 의해 직접 액세스되는 재생 목록 파일(PLLST)의 파일 이름은 "VPLIST%%%.XMP"으로 설정되어 있고, 정보 재생 장치에 의해 직접 액세스되지 않는 재생 목록 파일(PLLST)의 파일 이름은 "APLIST&&&.XML"로 설정된다. "%%%" 및 "&&&"이 000 내지 999 범위의 숫자를 저장한다는 것에 유 의한다.
<고급 비디오 타이틀 세트(고급 VTS)에 대한 파일 이름>
비디오 타이틀 세트 정보에 대한 파일 이름은 "HVA00001.VTI"로 되어야 한다.
고급 비디오 객체에 대한 파일 이름은 "EVO"의 확장자를 가져야 한다.
연속적인 블록에 대한 타임 맵 정보의 파일 이름은 파일 이름 내에 대응하는 EVOB의 보디와 동일한 보디를 가져야 하며, 확장자는 "MAP"이다.
인터리빙된 블록에 대한 타임 맵 정보의 파일 이름은 파일 이름 내에 대응하는 EVOB의 보디와 동일한 보디를 가져야 하며, 확장자는 "MAP"이다.
표준 VTS에 대한 타임 맵 정보의 파일 이름은 "HVSO@@@@.MAP"이어야 한다.
- "@@@@"은 각각의 EVOBI 및 TMAP에 할당된 EVOB 인덱스 번호와 동일한 번호인 "0001" 내지 "1998"의 4개의 문자로 되어 있어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 11에 도시된 고급 비디오 타이틀 세트 정보 파일(ADVTSI)은 "HAV00001.VTI"의 파일 이름을 가져야 한다. 1차 고화질 비디오 객체 파일(P-EVOB)의 파일 이름의 확장자 및 2차 고화질 비디오 객체 파일(S-EVOB)의 파일 이름의 확장자는 "EVO"이어야 한다. 1차 비디오 세트의 타임 맵 파일(PTMAP)의 파일 이름의 확장자 및 2차 비디오 세트의 타임 맵 파일(STMAP)의 파일 이름의 확장자는 "MAP"이어야 한다.
1차 비디오 세트 타임 맵 파일(PTMAP) 및 2차 비디오 세트 타임 맵 파 일(STMAP)의 파일의 수는 999개 이하로 제한되어야 한다. 타임 맵 파일의 수를 규정함으로써, 고화질 객체(EVOB)에 대한 액세스 제어의 고속화가 보장된다.
도 12, 도 13a 및 도 13b는 고급 컨텐츠 내의 데이터 구조 및 효과, 기타의 설명을 나타낸 것이다.
<고급 컨텐츠>
고급 컨텐츠는 표준 컨텐츠에 의해 실현되는 오디오 및 비디오의 확장에 부가하여 더 많은 대화성을 실현해준다. 고급 컨텐츠는 이하의 것으로 이루어져 있다.
Figure 112006062570134-PAT00025
재생 목록
Figure 112006062570134-PAT00026
1차 비디오 세트
Figure 112006062570134-PAT00027
2차 비디오 세트
Figure 112006062570134-PAT00028
고급 애플리케이션
Figure 112006062570134-PAT00029
고급 자막
재생 목록은 도 12에 도시된 표시 객체 간에 재생 정보를 제공한다. 예를 들어, 1차 비디오 세트를 재생하기 위해, 플레이어는 재생 목록에 기재되어 있는 URI를 사용하여 TMAP 파일을 판독하고, TMAP에 의해 참조되는 EVOBI를 해석하며 EVOBI에 정의되어 있는 적절한 P-EVOB에 액세스한다. 고급 애플리케이션을 표시하기 위해, 플레이어는 재생 목록에 기재되어 있는 URI를 사용하여 매니페스트 파일을 판독하고 리소스 엘리먼트(초기 파일을 포함함)를 저장한 후에 매니페스트 파일에 기술되어 있는 초기의 마크업 파일을 표시하기 시작한다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 표준 컨텐츠(STDCT)에 의해 구현된 오디오 및 비디오 표현 포맷을 더욱 확장하고 대화성을 실현하는 고급 컨텐츠(ADVCT)가 제공된다. 고급 컨텐츠(ADVCT)는 도 10에 도시된 재생 목록(PLLST), 1차 비디오 세트(PRMVS), 2차 비디오 세트(SCDVS), 고급 애플리케이션(ADAPL), 및 고급 자막(ADSBT)으로 이루어져 있다. 도 12에 도시된 재생 목록(PLLST)은 여러 가지 종류의 객체 정보의 재생 방법과 관계된 정보를 기록하고 있으며, 이들 정보는 도 11에 나타낸 바와 같이 고급 컨텐츠 디렉토리(ADVCT) 아래에 하나의 재생 목록 파일(PLLST)로서 기록되어 있다.
<재생 목록>(반복)
재생 목록 파일은 XML에 의해 기술되고, 하나 이상의 재생 목록 파일이 디스크 상에 있다. 플레이어는 고급 컨텐츠를 재생하기 위해 먼저 재생 목록 파일을 해석한다. 재생 목록 파일은 이하의 정보로 이루어져 있다.
Figure 112006062570134-PAT00030
객체 매핑 정보
Figure 112006062570134-PAT00031
트랙 번호 할당 정보
Figure 112006062570134-PAT00032
트랙 내비게이션 정보
Figure 112006062570134-PAT00033
리소스 정보
Figure 112006062570134-PAT00034
재생 순서 정보
Figure 112006062570134-PAT00035
시스템 구조 정보
Figure 112006062570134-PAT00036
스케쥴링된 제어 정보
보다 알기 쉬운 설명이 이하에 제공된다.
재생 목록(PLLST) 또는 재생 목록(PLLST)을 기록하고 있는 재생 목록 파일(PLLST)은 XML을 사용하여 기술되고, 하나 이상의 재생 목록 파일(PLLST)이 정보 저장 매체(DISC) 내에 기록되어 있다. 본 실시예에서 카테고리 2 또는 카테고리 3에 속하는 고급 컨텐츠(ADVCT)를 기록하고 있는 정보 저장 매체(DISC)에서, 정보 재생 장치는 정보 저장 매체(DISC)의 삽입 직후에 재생 목록 파일(PLLST)을 검색한다. 본 실시예에서, 재생 목록 파일(PLLST)은 이하의 정보를 포함하고 있다.
1) 객체 매핑 정보(OBMAPI)
객체 매핑 정보(OBMAPI)는 1차 비디오 세트(PRMVS), 2차 비디오 세트(SCDVS), 고급 애플리케이션(ADAPL), 고급 자막(ADSBT), 기타 등등의 객체와 관계된 재생 정보로서 설정되어 있다. 본 실시예에서, 각각의 객체 데이터의 재생 타이밍은 후술하는 타이틀 타임라인 상에의 매핑의 형태로 기술된다. 객체 매핑 정보(OBMAPI)에서, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)의 위치는 이들의 타임 맵 파일(PTMAP) 또는 타임 맵 파일(STMAP)이 존재하는 장소(디렉토리 또는 URL)를 참조하여 지정된다. 객체 매핑 정보(OBMAPI)에서, 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)은 이들 객체 또는 그의 장소(디렉토리 또는 URL)에 대응하는 매니페스트 파일(MNFST)을 지정함으로써 결정된다.
2) 트랙 번호 할당 정보
본 실시예는 복수의 오디오 스트림 및 서브-픽처 스트림을 갖도록 허용되어 있다. 재생 목록(PLLST) 상에는, 몇 개의 스트림 데이터가 표시되는가를 나타내는 정보가 기재된다. 몇 번째의 경향이 사용되는가를 나타내는 정보는 트랙 번호로서 기술된다. 기술되는 트랙 번호로서, 비디오 경향에 대한 비디오 트랙 번호, 서브 비디오 경향에 대한 서브 비디오 트랙 번호, 오디오 경향에 대한 오디오 트랙 번호, 서브 오디오 경향에 대한 서브 오디오 트랙 번호, 자막 경향에 대한 자막 트랙 번호, 및 애플리케이션 경향에 대한 애플리케이션 트랙 번호가 설정된다.
3) 트랙 내비게이션 정보(TRAVIS)
트랙 내비게이션 정보(TRAVIS)는 할당된 트랙 번호에 대한 관련 정보를 기술하고, 각자의 트랙 번호에 대한 속성 정보를 사용자의 선택의 편의를 위한 리스트로서 기록한다. 예를 들어, 언어 코드, 기타 등등이 각자의 트랙 번호에 대한 내비게이견 정보에 기록되어 있다, 즉 트랙 번호 1 = 일본어, 트랙 번호 2 = 영어, 트랙 번호 3 = 중국어, 기타 등등으로 되어 있다. 트랙 내비게이션 정보(TRAVIS)를 이용함으로써, 사용자는 원하는 언어를 즉각 결정할 수 있다.
4) 리소스 정보(RESRCI)
리소스 정보(RESRCI)는 파일 캐쉬 내로의 리소스 파일의 전송 시한, 기타 등등의 타이밍 정보를 나타낸다. 이 리소스 정보는 또한 고급 애플리케이션(ADAPL) 내에 리소스 파일의 참조 타이밍 등을 기술한다.
5) 재생 순서 정보(PLSQI)
재생 순서 정보(PLSQI)는 단일의 타이틀 내의 챕터 정보, 기타 등등의, 사용자로 하여금 주어진 챕터 위치로의 점프 처리를 실행할 수 있게 해주는 정보를 기술한다. 이 재생 순서 정보(PLSQI)는 타이틀 타임라인(TMLE) 상에 시간 지정점으 로서 표시되어 있다.
6) 시스템 구조 정보
시스템 구조 정보는 인터넷을 경유하여 파일 캐쉬에 데이터를 저장할 시에 필요한 데이터 크기를 나타내는 스트림 버퍼 크기, 기타 등등의 시스템을 구성하는 데 필요한 구조적인 정보를 기록하고 있다.
7) 스케쥴링된 제어 정보(SCHECI)
스케쥴링된 제어 정보(SCHECI)는 타이틀 타임라인(TMLE) 상의 일시 정지 위치(타이밍) 및 이벤트 시작 위치(타이밍)를 나타내는 스케쥴을 기록하고 있다.
<재생 목록으로부터의 데이터 참조>
도 12는 재생 목록(PLLST)에 의한 각자의 객체에 대한 데이터 참조 방법을 나타낸 것이다. 예를 들어, 재생 목록(PLLST) 상에서 특정의 1차 고화질 객체(P-EVOB)가 재생될 때, 그 1차 고화질 객체(P-EVOB)는 그의 속성 정보를 기록하고 있는 고화질 비디오 객체 정보(EVOBI)가 참조된 후에 액세스되어야 한다. 재생 목록(PLLST)은 1차 고화질 객체(P-EVOB)의 재생 범위를 타임라인 상에서의 시간 정보로서 규정하고 있다. 이 때문에, 지정된 시간 정보를 정보 저장 매체(DISC) 상의 어드레스 위치로 변환하는 데 사용되는 툴로서 1차 비디오 세트의 타임 맵 정보(PTMAP)가 먼저 참조되어야 한다. 이와 마찬가지로, 2차 고화질 비디오 객체(S-EVOB)의 재생 범위도 재생 목록(PLLST) 상에서의 시간 정보로서 기재되어 있다. 그 범위 내의 정보 저장 매체(DISC) 상에서의 2차 고화질 비디오 객체(S-EVOB)의 데이터 소스를 검색하기 위해, 2차 비디오 세트(SCDVS)의 타임 맵 정보(STMAP)가 먼저 참조된다. 고급 애플리케이션(ADAPL)의 데이터는 도 10에 나타낸 바와 같이 정보 재생 장치에 의해 사용되기 이전에 파일 캐쉬 내에 저장되어야 한다. 이 때문에, 고급 애플리케이션(ADAPL)의 여러 가지 데이터를 사용하기 위해, 매니페스트 파일(MNFST) 내에 기술된 여러 가지 리소스 파일(리소스 파일의 저장 장소 및 리소스 파일 이름도 역시 매니페스트 파일(MNFST) 내에 기술되어 있음)을 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로 전송하는 데 재생 목록(PLLST)으로부터 매니페스트 파일(MNFST)이 참조되어야 한다. 이와 유사하게, 고급 자막(ADSBT)의 여러 가지 데이터를 사용하기 위해, 이들은 사전에 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 상에 저장되어야 한다. 고급 자막(ADSBT)의 매니페스트 파일(MNFST)을 이용함으로써, 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))로의 데이터 전송이 행해질 수 있다. 고급 자막(ADSBT)의 마크업 파일(MRKUPS)에 기초하여, 화면 상에서의 고급 자막(ADSBT)의 표시 장소와 표시 타이밍이 검출될 수 있고, 고급 자막(ADSBT) 정보가 화면 상에 표시될 때 고급 자막(ADSBT) 내의 폰트 파일(FONT)이 이용될 수 있다.
<타임 맵에 대한 참조>
1차 비디오 세트(PRMVS)를 표시하기 위해, 타임 맵 정보(PTMAP)가 참조되어야 하고, 고화질 비디오 객체 정보(EVOBI)에 의해 정의된 1차 고화질 비디오 객체(P-EVOB)에 대한 액세스 처리가 실행되어야 한다.
본 실시예에 따른 고급 컨텐츠(ADVCT) 내의 데이터 구조에서의 요점 내용 및 효과에 대해 도 13a 및 도 13b를 참조하여 이제부터 설명한다. 이하의 8가지 요점 내용 및 효과가 있다.
본 실시예에 따른 특징/요점 내용에 대해 이제부터 이하에서 기술한다.
1) 시간축 레이아웃 및 사용자 표시 화면에서의 2차원 레이아웃에 관한 설정 관리 정보로서, 재생 목록(PLLST) 및 마크업(MRKUP)의 계층적 구조가 제공되고, 양 구조가 동일한 기술 형식(XML)으로 기술된다.
2) 타이틀 타임라인(TMLE)에 따른 미디어 클럭은 재생 목록(PLLST) 내에 제공되고, 타이밍 엘리먼트에 의한 설정에 따른 페이지 클럭/애플리케이션 클럭은 마크업(MRKUP) 내에 제공된다. 게다가, 양 클럭은 독립적으로 설정될 수 있다(이들은 서로 동기될 필요가 없다).
3) 동화상(고화질 비디오 객체(EVOB))에서의 초기 단계의 화면 레이아웃은 재생 목록(PLLST)(비디오 속성 항목 엘리먼트(VABITM))에 규정되어 있고, 스크립트(SCRPT)의 실행에 따라 변경될 수 있다.
4) 화면 내의 고급 애플리케이션(ADAPL)의 표시 영역(애플리케이션 영역(APPRGN))의 레이아웃은 매니페스트(MNFST) 내에 지정되고, 각각의 엘리먼트에 대한 레이아웃은 마크업(MRKUP) 내에 지정된다.
5) 복수의 마크업(MRKUP)이 하나의 재생 목록(PLLST)에 대해 설정될 수 있다.
6) 마크업 페이지 내에 설정된 스크립트(SCRPT)를 실행하여 동일한 재생 목록(PLLST) 내의 복수의 마크업 페이지(MRKUP) 간에 천이를 한다.
7) 동일한 재생 목록(PLLST) 내의 천이의 대상이 될 수 있는 복수의 마크업 페이지(MRKUP)는 복수의 매니페스트(MNFST)에 의해 지정될 수 있다. 게다가, 복수 의 마크업 페이지(MRKUP)에서 맨 먼저 표시되는 마크업 페이지(MRKUP)가 각각의 대응하는 매니페스트(MNFST) 내에 기술된다. 지정된 마크업 파일(MRKUP)은 사전에 파일 캐쉬(FLCCH) 내에 일시 저장되고, 파일 캐쉬에 일시 저장되어야만 하는 마크업 파일(MRKUP), 정지 화상(IMAGE) 또는 효과 오디오(EFTAD) 등의 엘리먼트 파일의 원래의 저장 장소가 애플리케이션 리소스 엘리먼트(APRELE)의 리스트로서 재생 목록(PLLST) 내에 기술된다(도 63a 내지 도 63c 참조).
8) 재생 목록(PLLST)으로부터 고급 애플리케이션 세그먼트(ADAPL)의 SRC 속성 정보(리소스 속성 정보) 또는 매니페스트(MNFST) 내의 마크업 엘리먼트(MRKUP)의 SRC 속성 정보(리소스 속성 정보)를 경유하여 초기 단계에서 표시되는 마크업 페이지(MRKUP)가 지정된다.
특징/요점 내용 (1) 내지 (8)에 대한 효과에 관해서 이제부터 설명한다.
(1) 레이아웃에 관한 설정 관리 정보의 확장성 및 유연성이 향상된다. 또한, 동일한 기술 형식에 의해 관리 정보의 해석 처리가 용이하게 되고 공유될 수 있다.
(2) 타이틀 타임라인(TMLE)에 동기화된 동화상 정보의 고속 재생/되감기 재생 동안에, 애플리케이션 클럭으로 표준 속도로 재생되는 애플리케이션 화면(고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)에 관한 화면)이 동시에 표시될 수 있고, 사용자에 대한 표현력이 크게 향상될 수 있다.
(3) 사용자 화면 상에서 동화상의 표시 영역이 임의로 설정할 수 있기 때문에, 사용자에 대한 표현력이 대폭 향상될 수 있다.
(4) 고급 애플리케이션(ADAPL)의 각자의 엘리먼트의 배치 장소가 (애플리케이션 영역(APPRGN)에 의해) 그룹화되어 있고, 그에 의해 고급 애플리케이션 관리자(ADAMNG)를 사용하는 관리를 용이하게 해준다. 또한, 동화상의 표시 영역에 대한 레이아웃 관리(예를 들어, 중첩의 방지)가 용이하게 될 수 있다.
(5} 동일한 동화상을 표시하고 있는 동안 복수의 마크업 페이지(MRKUP) 간의 천이가 표시될 수 있고, 그에 따라 사용자에 대한 표현력을 크기 향상시킬 수 있다.
(6) 복수의 마크업 페이지(MRKUP) 간의 천이 방법이 상당히 유연하게 된다(예를 들어, 사용자가 액션을 지정한 직후에 마크업 페이지(MRKUP) 간의 천이가 일어나지 않고, 동화상의 표시 화면에 따라 지연된 천이가 스크립트(SCRPT)에서 설정될 수 있다(도 2a 내지 도 2c의 기술적 혁신의 결과 얻어진 새로운 효과 (1.3) 참조)). 지연된 천이는, 도 75b의 (f)에 도시된 이벤트 엘리먼트(EVNTEL)를 사용하여 설정될 수 있다.
(7) 매니페스트(MNFST)에 의해 지정된 마크업 페이지(MRKUP) 정보가 사전에 파일 캐쉬(FLCCH) 내에 저장될 수 있기 때문에, 복수의 마크업 페이지(MRKUP) 간의 천이가 고속으로 행해질 수 있고, 그에 따라 사용자-친숙성을 향상시킨다(사용자에게 좋은 인상을 줄 수 있다). 또한, 파일 캐쉬(FLCCH) 내에 일시 저장되어야 하는 마크업 파일(MRKUP), 정지 화상(IMAGE) 및 효과 오디오(EFTAD) 등의 엘리먼트 파일의 원래의 저장 장소가 애플리케이션 리소스 엘리먼트(APRELE)의 리스트로서 재생 목록(PLLIST) 내에 기술되어 있기 때문에, 파일 캐쉬(FLCCH) 내에 일시 저장되어야 만 하는 리소스의 리스트가 사전에 인식될 수 있고, 파일 캐쉬(FLCCH)에의 리소스의 다운로드 처리의 효율이 향상될 수 있다.
(8) 재생 목록(PLLST)부터의 마크업 페이지(MRKUP)의 지정을 위한 확장성이 향상될 수 있고, 편집 용이성도 향상될 수 있다.
<네트워크 경로>
도 1은 네트워크 서버(NTSRV)로부터 정보 기록 및 재생 장치(1)까지의 네트워크 경로의 예를 나타낸 것으로서, 이 경로는 가정 내의 라우터(11)를 통해 광 케이블(12)을 경유하여, 가정 내의 무선 LAN을 통한 데이터 접속을 달성한다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 예를 들어, 본 실시예는 다른 네트워크 경로를 가질 수 있다. 도 1은 정보 기록 및 재생 장치(1)로서 퍼스널 컴퓨터를 도시하고 있다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 예를 들어, 정보 기록 및 재생 장치로서 단일의 가정용 레코더 또는 단일의 가정용 플레이어가 설정될 수 있다. 또한, 데이터가 무선 LAN을 사용하지 않고 유선으로 모니터 상에 직접 표시될 수도 있다.
본 실시예에서, 도 1에 도시된 네트워크 서버(NTSRV)는 도 10에 도시된 2차 비디오 세트(SCDVS)와 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 정보를 사전에 저장하고 있으며, 이들 정보는 광 케이블(12)을 거쳐 가정으로 전달될 수 있다. 광 케이블(12)을 통해 전송된 여러 가지 데이터는 가정 내에서 라우터(11)를 경유하여 정보 기록 및 재생 장치(1)로 무선 데이터(17)의 형태로 전송된다. 라우터(11)는 무선 LAN 제어기(7-2), 데이터 관리자(9) 및 네트워크 제어기(8)로 구성 되어 있고, 네트워크 제어기(8)는 네트워크 서버(NTSRV)와의 데이터 갱신 처리를 제어하며, 무선 LAN 제어기(7-2)는 데이터를 가정 내 무선 LAN으로 전송한다. 데이터 관리자(9)는 이러한 데이터 전송처리를 제어한다. 라우터(11)로부터 무선 데이터(17) 상에 멀티플렉싱되어 전송되는 2차 비디오 세트(SCDVS), 고급 애플리케이션(ADAPL), 및 고급 자막(ADSBT)의 여러 가지 컨텐츠의 데이터는 무선 LAN 제어기(7-1)에 의해 수신된 다음에, 고급 컨텐츠 플레이어 유닛(ADVPL)으로 전송되고, 어떤 데이터는 도 14에 도시하는 데이터 캐쉬(DTCCH)에 저장된다. 본 실시예의 정보 재생 장치는 고급 컨텐츠(ADVCT)를 재생하는 고급 컨텐츠 재생 유닛(ADVPL), 표준 컨텐츠(STDCT)를 재생하는 표준 컨텐츠 재생 유닛(STDPL), 및 기록가능한 정보 저장 매체(DISC) 혹은 하드 디스크 장치(6)에 비디오 기록을 수행하고 그곳으로부터 재생할 수 있는 기록 및 재생 프로세서(4)를 내장하고 있다. 이들 재생 유닛과 기록 및 재생 프로세서는 메인 CPU(5)에 의해 유기적으로 제어된다. 도 1에 도시한 바와 같이, 정보는 정보 기록 및 재생 유닛(2)에서 정보 저장 매체(DISC)로부터 재생되거나 그에 기록된다. 본 실시예에서, 고급 컨텐츠 재생 유닛(ADVPL)에 의해 재생되는 미디어는 정보 기록 및 재생 유닛(2) 또는 영속적 저장 장치 드라이브(고정형 또는 휴대형 플래쉬 메모리 드라이브)(3)으로부터의 정보의 재생을 전제로 한다. 본 실시예서는, 상술한 바와 같이, 네트워크 서버(NTSRV)에 기록된 데이터도 역시 재생될 수 있다. 이 경우에는, 상술한 바와 같이, 네트워크 서버(NTSRV)에 저장되어 있는 데이터는 광 케이블(12)을 경유하고, 라우터(11)에서의 네트워크 제어 하에서 라우터(11) 내의 무선 LAN 제어기(7-2)를 경유하여 무선 데이터(17)의 형태로 전송되며, 무선 LAN 제어기(7-1)를 경유하여 고급 컨텐츠 재생 유닛(ADVPL)으로 전송된다. 고급 컨텐츠 재생 유닛(ADVPL)에 의해 재생되는 비디오 정보는 디스플레이(13) 상에 표시될 수 있을 때 또는 와이드 화면 상에 표시하고 싶다는 사용자 요구가 검출될 때 무선 LAN 제어기(7-1)로부터 무선 데이터(18)의 형태로 와이드 화면 TV 모니터(15) 상에 표시될 수 있다. 와이드 화면 모니터(15)는 비디오 프로세서(24), 비디오 표시 유닛(21) 및 무선 LAN 제어기(7-3)를 내장하고 있다. 무선 데이터(18)는 무선 LAN 제어기(7-3)에 의해 수신되고, 비디오 프로세서(24)에 의해 비디오 처리되며, 비디오 표시 유닛(21)을 통해 와이드 화면 TV 모니터(15) 상에 표시된다. 이와 동시에, 오디오 데이터는 스피커(16-1, 16-2)를 통해 출력된다. 사용자는 키보드(14)를 사용하여 디스플레이(13) 상에 표시되는 화면(메뉴 화면 기타 등등) 상에서 조작을 할 수 있다.
<고급 컨텐츠 재생 유닛의 내부 구조>
도 1에 도시한 시스템 설명도에 있어서의 고급 컨텐츠 재생 유닛(ADVPL)의 내부 구조에 관해서 도 14를 참조하여 이하에서 설명한다. 본 실시예에 있어서, 고급 컨텐츠 재생 유닛(ADVPL)은 하기의 5개의 논리적인 기능 모듈을 포함하고 있다.
<데이터 액세스 관리자>
데이터 액세스 관리자는 데이터 소스 및 고급 컨텐츠 플레이어의 내부 모듈들 간에 여러 가지 종류의 데이터를 교환하는 일을 맡고 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
데이터 액세스 관리자(DAMNG)는 고급 컨텐츠(ADVCT)가 기록된 외부 데이터 소스와 고급 컨텐츠 재생 유닛(ADVPL) 내의 모듈들 간의 데이터 교환을 관리하는 데 사용된다. 본 실시예에서, 고급 컨텐츠(ADVCT)의 데이터 소스로서, 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV), 및 정보 저장 매체(DISC)를 전제로 하고 있으며, 데이터 액세스 관리자(DAMNG)는 이들로부터의 정보를 교환한다. 고급 컨텐츠(ADVCT)의 여러 가지 종류의 정보는 데이터 액세스 관리자(DAMNG)를 통해 (후술하는) 내비게이션 관리자(NVMNG), 데이터 캐쉬(DTCCH), 프리젠테이션 엔진(PRSEN)과 교환된다.
<데이터 캐쉬>
데이터 캐쉬는 고급 컨텐츠 재생을 위한 임시 데이터 저장 장치이다.
보다 알기 쉬운 설명이 이하에 제공된다.
데이터 캐쉬(DTCCH)는 고급 컨텐츠 재생 유닛(ADVPL)에서 임시 데이터 저장 장치(일시 데이터 저장 장소)로서 이용된다.
<내비게이션 관리자>
내비게이션 관리자는 고급 애플리케이션에서의 설명에 따라 고급 컨텐츠 플레이어의 모든 기능 모듈들을 제어하는 일을 맡고 있다. 내비게이션 관리자는 또한 리모콘 또는 플레이어의 프론트 패널 등의 사용자 인터페이스 장치를 제어하는 일도 맡고 있다. 수신된 사용자 인터페이스 장치 이벤트는 내비게이션 관리자에서 처리된다.
보다 알기 쉬운 설명이 이하에 제공된다.
내비게이션 관리자(NVMNG)는 고급 애플리케이션(ADAPL)의 기재 내용에 따라서 고급 컨텐츠 재생 유닛(ADVPL)의 모든 기능 모듈을 제어한다. 이 내비게이션 관리자(NVMNG)는 또한 사용자 조작(UOPE)에 응답하여 제어를 행한다. 사용자 조작(UOPE)은 정보 재생 장치의 프론트 패널 상에서의 키 입력(key-in), 리모콘 상에서의 키 입력, 기타 등등에 의해 발생된다. 이와 같이 발생된 사용자 조작(UOPE)으로부터 수신된 정보는 내비게이션 관리자(NVMNG)에 의해 처리된다.
<프리젠테이션 엔진>
프리젠테이션 엔진은 고급 애플리케이션의 고급 엘리먼트, 고급 자막, 1차 비디오 세트 및 2차 비디오 세트 등의 표시 자료의 재생을 맡고 있다.
프리젠테이션 엔진(PRSEN)은 고급 컨텐츠(ADVCT)의 표시 재생을 수행한다.
<AV 렌더러>
AV 렌더러는 다른 모듈들로부터의 비디오 입력을 합성하고 오디오 입력을 믹싱하여 스피커 및 디스플레이 등의 외부 장치로 출력하는 일을 맡고 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
AV 렌더러(AVRND)는 다른 모듈들로부터 입력된 비디오 정보와 음성 정보의 합성 처리를 실행하고, 합성 정보를 스피커(16-1, 16-2), 와이드 화면 TV 모니터(15), 기타 등등으로 외부로 출력한다. 이 경우에 사용되는 오디오 정보는 독립적인 스트림 정보 또는 서브 오디오(SUBAD) 및 메인 오디오(MANAD)를 믹싱하여 얻어진 오디오 정보 중 어느 하나일 수 있다.
<객체 정보 등의 자동 갱신의 구현>
도 2를 사용하여 설명된, 본 실시예에 따른 기술적 고안들의 결과로서 얻어진 새로운 효과의 구체적인 예가 도 15a 및 도 15b를 참조하여 이하에서 설명된다.
"5〕 네트워크를 이용하여 디스크 상의 정보 갱신 기능을 제공하는 것" 중의 "5.1) 객체 정보 및 디스크 내 관리 정보의 자동 갱신"이라는 새로운 효과를 발휘하는 방법으로서, 본 실시예에서는 도 15a 및 도 15b에 도시한 바와 같이, 광고 정보로서의 광고(44), 광고용의 독립적인 화면(32), 텔롭(telop) 광고(43) 및 예고편(41)이 항상 최신의 비디오 정보로서 사용자에게 공급될 수 있다. 이 점은 본 실시예에서의 큰 기술적 특징이다.
예고편(41)을 항상 최신의 정보로 변경시킴으로써, 사용자를 영화관으로 부르는 계기를 만들기 위해 영화의 상영 예고가 적시에 사용자에게 행해질 수 있다. 본 실시예에서, 광고(광고(44), 광고용의 독립적인 화면(32), 텔롭 광고(43))가 메인 타이틀(31)의 재생과 링크되도록 표시되기 때문에, 통상의 텔레비젼 방송과 같이 광고 스폰서로부터 스폰서 요금을 받으며, 이것에 따라 정보 저장 매체의 사용자에 대한 판매 가격을 낮게 억제할 수 있게 된다. 비디오 정보에 광고를 삽입한다는 개념은 종래부터 많이 제안되어 왔다. 본 실시예에서는, 최신의 광고 정보가 네트워크 서버(NTSRV)로부터 판독되고, 이 최신의 광고 정보는 정보 저장 매체(DISC) 상에 기록되어 있는 메인 타이틀(31)의 상영과 링크되도록 표시된다. 이 점이 본 실시예에서의 큰 기술적 특징이다. 최신의 예고편(41) 및 광고 정보는 도 1에 도시하는 네트워크 서버(NTSRV)에 순차적으로 갱신되고 저장되며, 정보 저장 매체(DISC) 내에 기록되어 있는 메인 타이틀(31)의 재생 타이밍에 동기하여 네트워 크를 통해 다운로드된다. 도 15a 및 도 15b에 도시한 각자의 객체와 도 10에 도시하는 각자의 객체 간의 관계를 이하에서 설명한다.
도 15a 및 도 15b에서, 메인 타이틀(31)은 1차 비디오 세트(PRMVS)의 1차 오디오 비디오(PRMAV)의 메인 비디오(MANVD)와 메인 오디오(MANAD)를 포함한다. 예고편(41), 광고(44) 및 광고용의 독립적인 화면(32)도 역시 정보 저장 매체(DISC) 내의 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)로서 기록되어 있다. 그렇지만, 정보 저장 매체(DISC)의 작성 이후 특정의 시간이 경과하였을 때, 이들 정보는 너무 오래되어 표시하기에 적절하지 않게 되어 버린다. 이러한 경우에, 이들 정보는 네트워크 서버(NTSRV)에 저장되어 있는 2차 비디오 세트(SCDVS) 내의 2차 오디오 비디오(SCDAV)의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)에 의해 대체되고, 광고(44) 또는 광고용의 독립적인 화면(32)으로서 표시된다. 본 실시예에서, 정보 저장 매체(DISC) 상에 사전에 기록되어 있는 광고(44)는 다른 실시예로서 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 메인 비디오(MANVD) 및 메인 오디오(MANAD)로서 기록될 수 있다. 이와 마찬가지로, 예고편(41)의 정보가 정보 저장 매체(DISC) 내에 기록되어 있는 경우, 이는 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD) 내에 또는 1차 오디오 비디오(PRMAV)의 메인 비디오(MANVD) 및 메인 오디오(MANAD) 내에 기록되어 있다. 재생 시에 정보 저장 매체(DISC)의 작성 이후에 특정의 시간이 경과되었을 때, 그 정보는 2차 비디오 세트(SCDVS) 내의 2차 오디오 비디오(SCDAV) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)의 정보로서 네트워크 서버(NTSRV)로부터 다운로드되고, 다운로드된 정보가 표시된다. 이와 같이, 본 실시예에 따르면, 광고(44), 광고용의 독립적인 화면(32) 또는 텔롭 광고(43), 및 예고편(41)의 정보가 항상 최신의 형태로 사용자에게 표시될 수 있고, 따라서 PR 효과를 향상시킬 수 있다.
<비디오 컨텐츠의 상세한 재생 방법>
본 실시예에서의 비디오 컨텐츠의 표시예에 대해 도 15a 및 도 15b를 참조하여 이하에서 상세히 설명한다.
도 15a(a)에서, 정보 저장 매체(DISC)가 정보 기록 및 재생 장치(1)에 삽입될 때, 맨 먼저 상세한 내비게이션의 필요성 설명 비디오 정보(42)가 표시된다. 사용자가 상세한 내비게이션의 필요성을 느끼지 않는 경우, 사용자는 이를 무시한다. 그렇지만, 사용자가 이 정보 저장 매체(DISC) 상의 고급 컨텐츠(ADVCT)를 재생하는 방법의 설명을 보고자 하는 경우, 사용자는 상세한 내비게이션의 사용 설명(도시 생략)을 표시하도록 상세한 내비게이션의 필요성을 입력한다. 도 15b(c)의 경우에, 도움말 키(후술함)의 사용 방법은 상세한 내비게이션의 필요성 설명 비디오 정보(42) 내에 설명되며, 도움말 아이콘은 항상 표시된다. 그 결과, 사용자는 필요한 때에 도움말 아이콘을 지정하여 사용 방법의 설명을 요구할 수 있다.
도 15a(a)에서, 상기한 광고(44)는 방송 TV 화면에서와 같이 메인 타이틀(31)의 표시의 도중에서 삽입되고, 광고(44)의 표시 방법 및 표시 타이밍은 통상 방송 수신 TV 상에 통상 표시되는 광고의 표시 타이밍, 표시 방법과 같다. 또한, 도 15a(a)에서, 정보 저장 매체(DISC)의 컨텐츠 제공자의 상영 예정 영화의 예고편(41)이 메인 타이틀(31)의 표시 종료 후에 표시된다.
도 15b(b)에서, 최신의 광고(43)는 텔롭 형태로 메인 타이틀(31)의 표시에 중첩되도록 표시된다. 텔롭 광고(43)의 표시 정보를 항상 최신의 정보로 갱신하는 방법으로서, 본 실시예는 네트워크 다운로드의 도움으로 고급 자막(ADSBT)을 이용한다. 이 점은 본 실시예에서의 큰 기술적 특징이다. 즉, 초기의 타이밍에서, 텔롭 광고(43)는 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 서브-픽처(SUBPT) 내에 텔롭(흐르는 텍스트 정보)의 형태로 표시된다. 정보 저장 매체(DISC)의 제조 후 특정한 시간이 경과했을 때, 텔롭 광고(43)의 최신의 정보가 네트워크 서버(NTSRV) 내의 고급 자막(ADSBT)으로서 기록되어 있기 때문에, 이는 네트워크를 경유하여 다운로드되고 텔롭 광고(43)로서 표시된다.
도 15b(c)에 있어서의 비디오 컨텐츠 표시예에 대해 이하에서 설명한다. 도 15b(c)에서는, 영화관에서 상영되는 영화의 예고편(41)은 상세한 내비게이션의 필요성 설명 비디오 정보(42) 직후에 표시되고, 메인 타이틀(31)은 예고편(41)의 표시 후에 표시된다. 이 경우, 메인 타이틀(31)에 부가하여 별도의 광고용의 독립적인 화면(32)이 표시되고, 동시에 도움말 아이콘(33)이 표시된다. 본 실시예에 있어서, 메인 타이틀(31)의 내용은 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 메인 비디오(MANVD) 및 메인 오디오(MANAD)로서 정보 저장 매체(DISC) 내에 미리 기록되어 있다. 별도의 광고용의 독립적인 화면(32)은 정보 저장 매체(DlSC)에서 1차 비디오 세트(PRMVS) 내의 1차 오디오 비디오(PRMAV)의 서브 비디 오(SUBVD) 및 서브 오디오(SUBAD)로서 기록되어 있다. 이 정보는 초기의 타이밍에서 사용자에게 표시된다. 정보 저장 매체(DISC)의 제조 후 특정한 시간이 경과하였을 때, 본 실시예에서는 별도의 광고용의 독립적인 화면(32)은 갱신된 비디오 정보를 표시할 수 있다. 이 방법으로서, 최신의 광고용의 독립적인 화면(32)의 정보는 네트워크 서버(NTSRV) 내에 2차 비디오 세트(SCDVS) 내의 2차 오디오 비디오(SCDAV)의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)로서 저장되고, 필요에 따라 네트워크를 경유하여 다운로드되며, 따라서 최신의 정보를 사용자에게 표시한다. 도 15b(c)의 실시예에서는, 도움말 아이콘(33)은 고급 애플리케이션(ADAPL)의 정지 화상 파일(IMAGE) 및 스크립트(SCRPT)를 포함한다.
<표시 화면의 실제예>
도 16은 도 15b(c)에 있어서 메인 타이틀(31), 광고용의 독립적인 화면(32) 및 도움말 아이콘(33)이 동시에 표시되어 있을 때의 α 점에서의 표시 화면의 예를 나타낸 것이다.
메인 타이틀(31)은 도 16에서 좌측 상부 영역에 표시되고, 광고용의 독립적인 화면(32)은 우측 상부 영역에 표시되며, 도움말 아이콘(33)은 아래쪽 영역에 표시되어 있다. 도 16의 화면 및 도 2에 도시한 본 실시예에 따른 기술적 고안의 결과 얻어지는 새로운 효과에 관해서 이하에서 설명한다.
도 2를 사용하여 설명된 본 실시예에 따른 기술적 고안의 결과 얻어지는 새로운 효과인 1] "사용자의 행위에 응답하여 유연하고 인상적인 반응을 행함"에 관하여는, 본 실시예에서는, 인터넷 상의 홈 페이지에 가까운 유연하고 인상적인 화 면이 생성될 수 있다. 도 16의 도움말 아이콘(33)은 본 실시예에 의한 실용적인 새로운 효과로서의 1.4) "PC 같은 도움말" 및 1.5) 메뉴 등의 사용 방법 가이드'에 대응한다. 이 화면 상에서의 도움말 아이콘(33)의 화상 데이터는 고급 애플리케이션(ADAPL)의 정지 화상 파일(IMAGE)로서 존재하고, 그의 정보는 도 11에 도시하는 정보 저장 매체(DISC) 내의 고급 컨텐츠 디렉토리(ADVCT) 아래에 있는 고급 애플리케이션 디렉토리(ADAPL) 내의 고급 엘리먼트 디렉토리(ADVEL) 내에 저장되어 있다. 도움말 아이콘(33)을 사용자가 클릭하면, 도움말 대응 화상이 움직이기 시작한다. 이러한 움직임에 관계된 명령 처리는 고급 애플리케이션(ADAPL) 내의 스크립트 파일(SCRPT)로서 기록되어 있다, 즉 도 11의 고급 컨텐츠 디렉토리(ADVCT) 아래에 있는 고급 애플리케이션 디렉토리(ADAPL) 속에 있는 고급 내비게이션 디렉토리(ADVNV) 아래의 스크립트 파일(SCRPT)에 저장되어 있다. 도움말 아이콘(33)의 정지 화상 및 스크립트 파일에 의해 정의되는 영역을 지정하는 정보가 도 11에 도시하는 마크업 파일(MRKUP) 내에 기록되고, 이들 정보 간을 관련시키는 정보(데이터를 다운로드하는 데 필요한 관련 정보)가 매니페스트 파일(MNFST) 내에 기록되어 있다. 도 16에 도시한 바와 같은 정지 버튼(34), 재생 버튼(35), FR(되감기) 버튼(36), 일시 정지 버튼(37), FF(빨리 감기) 버튼(38) 등의 복수의 정보는 고급 애플리케이션(ADAPL)으로서 분류된다. 이들 아이콘에 대응하는 정지 화상은 도 11의 정지 화상 파일(IMAGE) 내에 저장되고, 이들 버튼의 각각의 지정 시의 실행 명령은 도 11의 스크립트 파일 내에 기록되며, 이들의 영역 지정은 마크업 파일(MRKUP) 내에 기록되어 있다.
도 2에 도시한 본 실시예에 따른 기술적 고안의 결과로서의 새로운 효과 중에서의 3〕"재생 중인 비디오 정보에 중첩될 독립적인 정보를 동시에 표시하는 것"의 3.1) "멀티-윈도우에 의해 복수의 비디오 정보를 동시에 표시하는 것" 및 3.4) "스크롤하는 텍스트를 비디오 정보에 중첩되도록 동시에 표시하는 것"에 대응하는 도 16의 화면에 대해 이하에서 설명한다.
기존의 DVD에서는, 1 화면에 한가지 유형의 비디오 정보밖에 표시될 수 없다. 이와 반대로, 본 실시예에서는, 메인 비디오(MANVD) 및 메인 오디오(MANAD)와 동시에 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)가 표시될 수 있다. 보다 구체적으로는, 도 16에 있어서의 메인 타이틀(31)은 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD) 및 메인 오디오(MANAD)에 대응하고, 우측의 광고용의 독립적인 화면(32)은 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)에 대응하며, 따라서 2개의 화면이 동시에 표시될 수 있다. 게다가, 본 실시예에서는, 도 16의 우측에 도시하는 광고용의 독립적인 화면(32)은 이를 2차 비디오 세트(SCDVS)의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)로 대체함으로써 표시될 수 있다. 이 점은 본 실시예에서의 큰 기술적 특징이다. 즉, 1차 비디오 세트(PRMVS)의 1차 오디오 비디오의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 정보 저장 매체(DISC) 내에 미리 기록되어 있고, 갱신하여야 할 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 네트워크 서버(NTSRV) 내에 기록되어 있다. 정보 저장 매체(DISC)의 작성 직후에, 정보 저장 매체(DISC) 내에 사전에 기록된 광고용의 독립적인 화면(32)이 표시된다. 정보 저장 매체(DISC)의 작성 후 특정의 시간이 경과하였을 때, 광고용의 독립적인 화면(32)을 최신의 비디오 정보로 갱신하기 위해, 네트워크 서버(NTSRV) 내에 기록된 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)가 네트워크를 경유하여 다운로드되고 표시된다. 이와 같이 하여, 최신의 광고용의 독립적인 화면(32)이 항상 사용자에게 표시될 수 있고, 따라서 스폰서의 광고 효과를 향상시킬 수 있다. 따라서, 스폰서부터 다량의 광고료를 징수함으로써, 판매되는 정보 저장 매체(DISC)의 가격이 낮게 억제되고, 그에 따라 본 실시예에 있어서의 정보 저장 매체(DISC)의 보급을 촉진할 수 있다. 게다가, 도 16에 도시하는 텔롭 텍스트 메시지(39)는 메인 타이틀(31)에 중첩되도록 표시될 수 있다. 텔롭 텍스트 메시지로서, 뉴스, 일기 예보, 등의 최신 정보가 네트워크 서버(NTSRV) 상에 고급 자막(ADSBT)의 형태로 저장되고, 필요에 따라 네트워크를 경유하여 다운로드되면서 표시되며, 따라서 사용자의 편의성을 크게 향상시킨다. 이때의 텔롭 텍스트 메시지의 텍스트 폰트 정보가 도 11에 도시한 바와 같이 고급 자막 디렉토리(ADSBT) 내의 고급 엘리먼트 디렉토리(ADVPL) 내의 폰트 파일(FONTS)에 저장될 수 있다는 것에 유의한다. 이 텔롭 텍스트 메시지(39)의 크기 및 메인 타이틀(31) 상에서의 표시 장소에 관한 정보는 도 11의 고급 자막 디렉토리(ADSBT) 아래에 있는 고급 내비게이션 디렉토리(ADVNV) 내의 고급 자막(ADSBT)의 마크업 파일(MRKUPS)에 기록될 수 있다.
<재생 목록 내의 정보의 개요>
본 실시예에 있어서의 재생 목록(PLLIST) 내의 정보의 개요에 관해서 도 17을 참조하여 이하에서 설명한다. 본 실시예에 있어서의 재생 목록(PLLIST)은 도 11에 도시한 바와 같이, 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR) 내의 고급 컨텐츠 디렉토리(ADVCT)의 바로 아래에 존재하는 재생 목록 파일(PLLST) 내에 기록되어 있고, 고급 컨텐츠(ADVCT)의 재생에 관계된 관리 정보를 기록하고 있다. 재생 목록(PLLST)은 재생 순서 정보(PLSQI), 객체 매핑 정보(OBMAPI), 및 리소스 정보(RESRCI) 등의 정보를 기록하고 있다. 재생 순서 정보(PLSQI)는 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 또는 네트워크 서버(NTSRV) 내에 존재하는 고급 컨텐츠(ADVCT)에서의 각각의 타이틀의 정보, 및 타이틀 내의 비디오 정보를 분할하는 챕터들의 분할 위치 정보를 기록하고 있다. 객체 매핑 정보(OBMAPI)는 각각의 타이틀의 각자의 객체의 표시 타이밍 및 화면 상의 표시 위치를 관리한다. 각각의 타이틀은 타이틀 타임라인(TMLE)으로 설정되어 있고, 그 타이틀 타임라인(TMLE) 상의 시간 정보를 이용하여, 각각의 객체의 표시 시작 및 종료 타이밍이 설정될 수 있다. 리소스 정보(RESRCI)는 각각의 타이틀에 대한 화면 상에 표시되기 이전에 데이터 캐쉬(DTCCH)(파일 캐쉬(FLCCH)) 내에 저장되는 각각의 객체 정보의 사전 저장 타이밍의 정보를 기록하고 있다. 예컨대, 리소스 정보(RESRCI)는 데이터 캐쉬(DTCCH)(파일 캐쉬(FLCCH))에 로딩을 시작하는 로딩 시작 시간(LDSTTM), 각각의 데이터 캐쉬(DTCCH)(파일 캐쉬(FLCCH)) 내의 사용 유효 기간(VALPRD) 등의 정보를 기록하고 있다.
사용자에게 표시되는 일련의 화상(예를 들어, 하나의 쇼 프로그램)은 재생 목록(PLLST) 내의 타이틀로서 관리된다. 재생 목록(PLLST)에 기초하여 고급 컨텐츠(ADVCT)를 재생/표시할 때 최초로 표시되는 타이틀은 첫 번째 재생 타이 틀(FRPLTT)로서 정의될 수 있다. 상기 첫 번째 재생 타이틀(FRPLTT) 재생 중에 제70도에 도시한 바와 같이 재생 목록 애플리케이션(PLAPRS)이 파일 캐쉬(FLCCH)로 전송될 수 있고, 타이틀 #1 및 이후의 타이틀의 재생에 필요한 리소스의 다운로드 시간이 단축될 수 있다. 컨텐츠 제공자의 판단에 기초하여, 첫 번째 재생 타이틀(FRPLTT)이 설정될 수 없도록 재생 목록(PLLST)을 설정하는 것도 가능하다.
<타이틀 타임라인에 기초한 표시 제어>
도 17에 도시한 바와 같이, 표시되는 객체 및 그 화면상의 표시 장소를 지정하는 관리 정보는 2개의 레벨, 즉 재생 목록(PLLST)과, (매니페스트 파일(MNFST) 및 고급 자막(ADSBT) 내의 매니페스트 파일(MNFST)을 경유하여) 마크업 파일(MRKUP) 및 고급 자막(ADSBT)의 마크업 파일(MRKUPS)로 계층화되고, 재생 목록(PLLST) 내에 표시되는 객체의 표시 타이밍은 타이틀 타임라인(TMLE)에 동기하여 설정된다. 이 점은 본 실시예에서의 큰 기술적 특징이다. 게다가, 표시될 객체의 표시 타이밍은 마크업 파일(MRKUP) 또는 고급 자막(ADSBT)의 마크업 파일(MRKUPS)에서와 유사하게 타이틀 타임라인(TMLE)에 동기하여 설정된다. 이 점은 본 실시예에서의 큰 기술적 특징이다.
게다가, 본 실시예에서는, 표시될 객체 및 그의 표시 장소를 지정하는 관리 정보인 재생 목록(PLLST), 마크업 파일(MRKUP) 및 고급 자막(ADSBT)의 마크업 파일(MRKUPS)의 정보 내용은 동일한 기술 언어(XML)를 사용하여 기술되어 있다. 이 점도 역시 이하에서 기술하는 바와 같이 본 실시예에서의 큰 기술적 특징이다. 이 특징으로, 고급 컨텐츠(ADVCT)의 그의 작성자에 의한 용이한 편집 및 변경 처리가 종래의 DVD-비디오와 비교하여 크게 향상될 수 있다. 다른 효과로서는, 특수 재생 시의 표시 처리를 수행하는 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 재생 장소의 스킵 처리 등의 처리가 간소화될 수 있다.
<화면 상의 여러 가지 종류의 정보 및 재생 목록 간의 관계>
도 16을 참조하여 본 실시예의 특징에 관해서 계속하여 설명한다. 도 16에서, 메인 타이틀(31), 광고용의 독립적인 화면(32), 및 아래쪽 영역에 기재되어 있는 각종 아이콘 버튼이 화면 상에 표시된다. 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)는 메인 타이틀(31)로서 화면의 좌측 상부 영역 상에 표시되고, 그의 표시 타이밍은 재생 목록(PLLST)에 기재되어 있다. 이 메인 타이틀(31)의 표시 타이밍은 타이틀 타임라인(TMLE)에 동기하여 설정되어 있다. 예컨대, 서브 비디오(SUBVD)로서 기록되어 있는 광고용의 독립적인 화면(32)의 표시 장소 및 표시 타이밍도 전술한 동일한 재생 목록(PLLST)에 기재되어 있다. 이 광고용의 독립적인 화면(32)의 표시 타이밍도 타이틀 타임라인(TMLE)에 동기하여 지정되어 있다. 기존의 DVD-비디오에서, 예컨대 도 16의 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 화면은 비디오 객체 내에 서브-픽처(SUBPT)로서 기록되어 있고, 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 각각의 버튼을 누를 때에 실행되는 명령 정보도 마찬가지로 비디오 객체 내의 내비게이션 팩 내의 하이라이트 정보(HLI)로서 기록되어 있다. 그 결과, 컨텐츠 작성자의 용이한 편집 및 변경 처리가 가능하지 않다. 이와 반대로, 본 실시예에서는, 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 화면 정보와 대응하는 복수의 명령 정보는 고급 애플리케이션(ADAPL)으로서 함 께 그룹화되고, 그룹화된 고급 애플리케이션(ADAPL)의 표시 타이밍 및 화면 상의 표시 장소만이 재생 목록(PLLST) 상에 지정된다. 그룹화된 고급 애플리케이션(ADAPL)에 관계된 정보는 화면 상에 표시되기 전에 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 상으로 다운로드되어야 한다. 재생 목록(PLLST)은 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)에 관계된 데이터를 다운로드하는 데 필요한 정보를 기록하고 있는 매니페스트 파일(MNFST)(매니페스트 파일(MNFSTS))의 파일 이름 및 파일 저장 장소만을 기술하고 있다. 도 l6의 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 복수의 화면 정보 자체는 정지 화상 파일(IMAGE)로서 고급 엘리먼트 디렉토리(ADVEL) 내에 저장되어 있다(도 11 참조). 도 16의 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 각자의 정지 화상(IMAGE)의 화면 상의 배치 장소 및 표시 타이밍을 관리하고 있는 정보는 마크업 파일(MRKUP) 내에 기록되어 있다. 이 정보는 도 11에서의 고급 내비게이션 디렉토리(ADVNV) 내의 마크업 파일(MRKUP) 내에 기록되어 있다. 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 각각의 버튼을 누를 때에 실행되는 각각의 제어 정보(명령 정보)는 도 11의 고급 내비게이션 디렉토리(ADVNV) 내의 스크립트 파일(SCRPT) 내에 저장되어 있고, 이들 스크립트 파일(SCRPT)의 파일 이름과 그 파일의 저장 장소가 마크업 파일(MRKUP)(및 매니페스트 파일(MNFST)) 내에 기재되어 있다. 도 11에서는, 마크업 파일(MRKUP), 스크립트 파일(SCRPT), 및 정지 화상 파일(IMAGE)이 정보 저장 매체(DISC) 내에 기록되어 있다. 그렇지만, 본 실시예는 이것에 한정되지 않으며, 이들 파일은 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR) 내에 저장되어 있을 수도 있다. 이와 같 이, 화면 상의 전체적인 배치 및 표시 타이밍은 재생 목록(PLLST)에 의해 관리되며, 각자의 버튼 및 아이콘의 배치 위치 및 표시 타이밍은 마크업 파일(MRKUP)에 의해 관리된다. 재생 목록(PLLST)은 마크업 파일(MRKUP)에 대해서는 매니페스트 파일(MNFST)을 경유하여 지정을 한다. 여러 가지 아이콘 및 버튼의 비디오 정보 및 명령(스크립트), 및 명령 정보는 이들이 비디오 객체 내에 저장되어 있는 종래의 DVD-비디오에 비해 독립적인 파일에 저장되고, 마크업 파일(MRKUP)을 사용하여 중간 관리된다. 이 구조는 컨텐츠 작성자의 편집 및 변경 처리를 크게 용이하게 해줄 수 있다. 도 16에 도시하는 텔롭 텍스트 메시지(39)에 관해서도, 재생 목록(PLLST)은 고급 자막의 매니페스트 파일(MNFSTS)을 경유하여 고급 자막의 마크업 파일(MRKUPS)의 파일 이름과 파일 저장 장소를 지정한다(도 11 참조). 고급 자막의 마크업 파일(MRKUPS)은 정보 저장 매체(DISC) 내에 기록되어 있을 뿐만 아니라, 본 실시예에서는 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR) 상에도 저장될 수 있다.
<재생 목록>(반복)
재생 목록은 고급 컨텐츠 재생 목록의 2가지 목적을 위해 사용된다. 하나는 플레이어의 초기 시스템 구성을 위한 것이다. 다른 하나는 고급 컨텐츠의 복수의 종류의 표시 객체의 재생 방법의 정의를 위한 것이다. 재생 목록은 고급 컨텐츠 재생을 위한 이하의 구조 정보로 이루어져 있다.
Figure 112006062570134-PAT00037
각각의 타이틀에 대한 객체 매핑 정보
> 트랙 번호 할당
> 리소스 정보
Figure 112006062570134-PAT00038
각각의 타이틀에 대한 재생 순서
Figure 112006062570134-PAT00039
각각의 타이틀에 대한 스케쥴링된 제어 정보
고급 컨텐츠 재생에 대한 시스템 구성
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 고급 컨텐츠(ADVCT)의 재생 시에, 이하에 기술하는 바와 같이 재생 목록(PLLST)의 2가지 사용 목적이 있다. 첫 번째 사용 목적은 정보 재생 장치(1)에서의 초기 시스템 구조(데이터 캐쉬(DTCCH) 내의 필요 메모리 영역 등의 고급 설정)를 정의하는 것이다. 두 번째 사용 목적은 고급 컨텐츠(ADVCT) 내의 복수의 종류의 표시 객체의 재생 방법을 정의하는 것이다. 재생 목록(PLLST)은 이하의 구조 정보를 갖는다.
1) 각각의 타이틀의 객체 매핑 정보(OBMAPI)
> 트랙 번호 할당
> 리소스 정보(RESRCI)
2) 각각의 타이틀의 재생 순서(PLSQI)
3) 고급 컨텐츠(ADVCT)의 재생을 위한 시스템 구성
<리소스 정보>
재생 목록 내의 객체 매핑 정보에는, 고급 애플리케이션 재생 또는 고급 자막 재생에 리소스 파일이 필요하게 되는 때를 지정하는 정보 엘리먼트가 있다. 이들은 리소스 정보라고 불리운다. 2가지 유형의 리소스 정보가 있다. 하나는 애플 리케이션에 연관된 리소스 정보이다. 다른 하나는 타이틀에 연관되어 있는 리소스 정보이다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 17에 도시하는 리소스 정보(RESRCI)의 개요에 대해 이하에서 설명한다. 리소스 정보(RESRCI)는 재생 목록(PLLST) 내의 객체 매핑 정보(OBMAPI)에서, 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)을 재생하는 데 필요한 정보를 기록하고 있는 리소스 파일들이 어떤 타이밍에서 데이터 캐쉬(DTCCH)(파일 캐쉬(FLCCH))에 저장되어야 하는지를 나타내는 정보를 기록하고 있다. 본 실시예에 있어서, 리소스 정보(RESRCI)에는 두 가지의 유형이 존재한다. 제1 유형의 리소스 정보(RESRCI)는 고급 애플리케이션(ADAPL)에 관계되어 있는 것이고, 다른 유형은 고급 자막(ADSBT)에 관련되어 있는 것이다.
<트랙 및 객체 매핑 간의 관계>
타이틀 타임라인 상에서의 표시 객체의 각각의 객체 매핑 정보는 재생 목록 내의 트랙 번호 할당 정보를 포함할 수 있다. 트랙은 고급 컨텐츠 내의 서로 다른 표시 객체를 통해 선택가능한 표시 스트림을 보강한다. 예를 들어, 1차 오디오 비디오 내의 메인 오디오 스트림의 선택에 부가하여 대체 오디오 내의 메인 오디오 스트림을 재생하기 위해 선택하는 것이 가능하다. 5가지 유형의 트랙이 있다. 이들은 메인 비디오, 메인 오디오, 자막, 서브 비디오 및 서브 오디오이다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 17에 도시한 타이틀 타임라인(TMLE) 상에 표시되는 여러 가지 객체에 대 응하는 객체 매핑 정보(OBMAPI)는 재생 목록(PLLST) 내에 정의된 트랙 번호 할당 정보를 포함한다.
본 실시예의 고급 컨텐츠(ADVCT)에서, 서로 다른 객체에 대응하는 여러 가지 스트림을 선택하기 위해 트랙 번호가 정의된다. 예를 들어, 사용자에 대해 표시될 오디오 정보는 트랙 번호를 지정함으로써 복수의 오디오 정보(오디오 스트림)로부터 선택될 수 있다. 예컨대 도 10에 도시한 바와 같이, 대체 오디오(SBTAD)는 메인 오디오(MANAD)를 포함하며, 이 메인 오디오(MANAD)는 서로 다른 내용을 갖는 복수의 오디오 스트림을 포함하는 경우가 있다. 객체 매핑 정보(OBMAPI)(트랙 번호 할당) 내에 사전에 정의된 오디오 트랙 번호를 지정함으로써, 복수의 오디오 스트림 중에서 사용자에게 표시될 오디오 스트림이 선택될 수 있다. 또한, 상기 대체 오디오(SBTAD) 내의 메인 오디오(MANAD)로서 기록되어 있는 오디오 정보는 1차 오디오 비디오(PRMAV) 내의 메인 오디오(MANAD) 상에 중첩되도록 출력될 수 있다. 어떤 경우에, 출력 시에 중첩되는 1차 오디오 비디오(PRMAV) 내의 메인 오디오(MANAD)는 서로 다른 내용을 갖는 복수의 오디오 정보(오디오 스트림)를 가지고 있는 경우가 있다. 이러한 경우에, 객체 매핑 정보(OBMAPI)(트랙 번호 할당)에 사전에 정의되어 있는 오디오 트랙 번호를 지정함으로써, 복수의 오디오 스트림 중에서 사용자에게 표시될 오디오 스트림이 선택될 수 있다.
상기한 트랙의 중에는, 5개의 서로 다른 객체, 즉 메인 비디오(MANVD), 메인 오디오(MANAD), 자막(ADSBT), 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)가 존재하고, 이들 5개의 서로 다른 객체는 서로 다른 내용을 갖는 복수의 스트림을 동시에 기록할 수 있다. 이 때문에, 이들 5개의 서로 다른 객체 유형에 트랙 번호가 할당되고, 이 트랙 번호를 선택함으로써 사용자에게 표시될 스트림이 선택될 수 있다.
<설명 자막, 텔롭, 기타 등등의 정보>
본 실시예에 있어서, 설명 자막, 텔롭 등의 정보를 표시하는 2가지 방법, 즉 1차 오디오 비디오(PRMAV) 내의 서브-픽처(SUBPT)를 사용하여 이러한 정보를 표시하는 방법 및 고급 자막(ADSBT)을 사용하여 이러한 정보를 표시하는 방법이 있다. 본 실시예에서는, 고급 자막(ADSBT)의 타임라인(TMLE) 상으로의 매핑은, 예컨대 1차 오디오 비디오(PRMAV) 등의 매핑 상황과 상관없이 독립적으로 객체 매핑 정보(OBMAPI) 상에서 정의될 수 있다. 그 결과, 자막 및 텔롭 등의 정보, 즉 1차 오디오 비디오(PRMAV) 내의 서브-픽처(SUBPT) 및 고급 자막(ADSBT)이 동시에 표시될 수 있을 뿐만 아니라, 이들의 표시 시작/종료 타이밍이 각각 독자적으로 설정될 수 있다. 또한, 이들 중 하나가 선택적으로 표시될 수 있고, 그에 의해 자막 및 텔롭의 표시 능력을 대폭 향상시킬 수 있다.
도 17에 있어서, 1차 오디오 비디오(PRMAV)에 대응하는 부분은 P-EVOB라는 하나의 밴드로 표시되어 있다. 실제로는, 이 밴드는 메인 비디오(MANVD) 트랙, 메인 오디오(MANAD) 트랙, 서브 비디오(SUBVD) 트랙, 서브 오디오(SUBAD) 트랙, 서브-픽처(SUBPT) 트랙을 포함한다. 각각의 객체는 복수의 트랙을 포함하며, 표시 시에 하나의 트랙(스트림)이 선택되고 표시된다. 이와 마찬가지로, 2차 비디오 세트(SCDVS)는 S-EVOB인 밴드로 나타내어져 있으며, 그 각각은 서브 비디오(SUBVD) 트랙 및 서브 오디오(SUBAD) 트랙을 포함한다. 이들 트랙 중에서, 하나의 트랙(하 나의 스트림)이 선택되고 표시된다. 타이틀 타임라인(TMLE) 상에서 1차 오디오 비디오(PRMAV)만이 객체 매핑 정보(OBMAPI) 상에 매핑되어 있는 경우에는, 본 실시예에서는 이하의 규칙이 규정되어 용이한 재생 제어 처리를 보증한다.
Figure 112006062570134-PAT00040
메인 비디오 스트림(MANVD)은 항상 객체 매핑 정보(OBMAPI) 상에 매핑되고 재생되어야 한다.
Figure 112006062570134-PAT00041
메인 오디오 스트림(MANAD) 중의 하나의 트랙(하나의 스트림)은 객체 매핑 정보(0BMAPI) 상에 매핑되고 재생되어야 한다(그렇지만, 재생되지 않아도 된다). 본 실시예는 이러한 규칙에 상관없이 메인 오디오 스트림(MANAD) 중 어느 것도 객체 매핑 정보(OBMAPI) 상에 매핑하지 않는 것도 허용한다.
Figure 112006062570134-PAT00042
전제 조건 하에서, 타이틀 타임라인(TMLE) 상에 매핑된 서브 비디오 스트림(SUBVD이 사용자에게 표시되어야 하지만, (사용자 선택 등에 의해) 반드시 표시되지 않더라도 좋다.
Figure 112006062570134-PAT00043
전제 조건 하에서, 타이틀 타임라인(TMLE) 상에 매핑된 서브 오디오 스트림(SUBAD) 중의 하나의 트랙(하나의 스트림)이 사용자에게 표시되어야 하지만, (사용자 선택 등에 의해) 반드시 표시되지 않더라도 좋다.
또한, 1차 오디오 비디오(PRMAV) 및 대체 오디오(SBTAD)가 타이틀 타임라인(TMLE) 상에 동시에 매핑되고 동시에 표시되는 경우, 이하의 규칙이 본 실시예에서 규정되고, 따라서 고급 컨텐츠 재생 유닛(ADVPL)에서의 용이한 제어 처리 및 신뢰성을 보장해준다.
Figure 112006062570134-PAT00044
1차 오디오 비디오(PRMAV) 내의 메인 비디오(MANVD)가 객체 매핑 정 보(OBMAPI) 내에 매핑되어야 하고 반드시 재생되어야 한다.
Figure 112006062570134-PAT00045
대체 오디오(SBTAD) 내의 메인 오디오 스트림(MANAD)은 1차 오디오 비디오(PRMAV) 내의 메인 오디오 스트림(MANAD) 대신에 재생될 수 있다.
Figure 112006062570134-PAT00046
전제 조건 하에서, 서브 비디오 스트림(SUBVD)은 주어진 데이터와 함께 동시에 표시되어야 하지만, (사용자 선택 등에 의해) 항상 표시되는 것은 아니다.
Figure 112006062570134-PAT00047
전제 조건 하에서, 서브 오디오(SUBAD)의 (복수의 트랙 중) 하나의 트랙(하나의 스트림)은 표시되지만, (사용자 선택 등에 의해) 항상 표시되는 것은 아니다.
1차 오디오 비디오(PRMAV) 및 2차 오디오 비디오(SCDAV)가 객체 매핑 정보(OBMAPI)에서 타이틀 타임라인(TMLE) 상에 동시에 매핑되는 경우, 본 실시예에서는 이하의 규칙이 규정되고, 따라서 고급 컨텐츠 재생 유닛(ADVPL)의 간단한 처리 및 높은 신뢰성을 보장해준다.
Figure 112006062570134-PAT00048
1차 오디오 비디오(PRMAV) 내의 메인 비디오 스트림(MANVD)은 재생되어야 한다.
Figure 112006062570134-PAT00049
전제 조건 하에서, 메인 오디오 스트림(MANAD) 중의 하나의 트랙(하나의 스트림)이 표시되어야 하지만, (사용자 선택 등에 의해) 항상 표시되는 것은 아니다.
Figure 112006062570134-PAT00050
2차 오디오 비디오(SCDAV) 내의 서브 비디오 스트림(SUBVD) 및 서브 오디오 스트림(SUBAD)은 1차 오디오 비디오(PRMAV) 내의 서브 비디오 스트림(SUBVD) 및 서브 오디오 스트림(SUBAD) 대신에 재생될 수 있다. 서브 비디오 스트림(SUBVD) 및 서브 오디오 스트림(SUBAD)이 멀티플렉싱되어 2차 오디오 비디오(SCDAV) 내의 2차 고화질 비디오 객체(S-EVOB) 내에 기록되어 있는 경우, 서브 오디오 스트림(SUBAD)만의 재생은 금지된다.
<객체 매핑 위치>
타이틀 타임라인에 대한 타임 코드는 "타임 코드"이다. 이는 비드롭 프레임(non-drop frame)에 기초하고 HH:MM:SS:FF로 기술된다.
모든 표시 객체의 수명 기간은 타임 코드값에 의해 타이틀 타임라인 상으로 매핑되고 기술된다. 오디오 표시의 표시 종료 타이밍은 타임 코드 타이밍과 정확하게 동일하지 않을 수 있다. 이 경우, 오디오 표시의 종료 타이밍은 마지막 오디오 샘플 표시 타이밍으로부터 비디오 시스템 시간 단위(VSTU)로 반올림 되어야 한다. 이 규칙은 타이틀 타임라인 상에서의 오디오 표시 객체의 중첩을 피하기 위한 것이다.
60Hz 지역에 대한 비디오 표시 타이밍은 표시 객체가 1/24 주파수인 경우에도 1/60 VSTU 타이밍으로 매핑되어야 한다. 1차 오디오 비디오 또는 2차 오디오 비디오의 비디오 표시 타이밍에 있어서, 60Hz 지역에 대한 기본 스트림 내에 3:2 풀-다운 정보를 가져야 하며, 타이틀 타임라인 상에서의 표시 타이밍은 비디오 표시에 대한 이 정보로부터 도출된다. 1/24 주파수를 갖는 고급 애플리케이션 또는 고급 자막의 그래픽 표시 타이밍의 경우, 이 규격에서의 그래픽 출력 타이밍 모델을 따라야 한다.
1/24 타이밍과 1/60 타임 코드 단위 타이밍 간에 2가지 조건이 있다. 하나 는 양쪽 타이밍 간에 정확히 일치하는 것이고, 다른 하나는 양자 간에 불일치이다. 1/24 표시 객체 프레임의 불일치 타이밍의 경우, 가장 최근의 1/60 시간 단위 타이밍으로 반올림 되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서의 타이틀 타임라인(TMLE)의 단위를 설정하는 방법에 대해 이하에서 설명한다.
본 실시예에 있어서의 타이틀 타임라인(TMLE)은 비디오 정보의 프레임 및 필드의 표시 타이밍에 동기한 시간 단위를 가지며, 이때 시간 단위의 카운트 값에 기초하여 타이틀 타임라인(TMLE) 상의 시각이 설정된다. 이 점은 본 실시예에서의 큰 기술적 특징이다. 예를 들어, NTSC 시스템에서, 인터레이스된 표시(interlaced display)는 초당 60개 필드 및 30개 프레임을 가지고 있다. 따라서, 타이틀 타임라인(TMLE) 상의 최소 시간 단위의 길이는 초당 60개로 분할되고, 타이틀 타임라인(TMLE) 상의 시각은 시간 단위의 카운트 값에 기초하여 설정된다. 또한, NTSC 시스템에서의 프로그래시브 표시(progressive display)는 초당 60개 필드 = 60개 프레임을 가지며, 상기한 시간 단위와 일치한다. PAL 시스템은 50-Hz 시스템이고, 인터레이스된 표시는 초당 50개 필드/25개 프레임을 가지며, 프로그래시브 표시는 초당 50개 필드 = 50개 프레임을 갖는다. 이 50-Hz 시스템의 비디오 정보의 경우에는, 타이틀 타임라인(TMLE)은 초당 50개 단위로 등분되고, 타이틀 타임라인(TMLE) 상의 시각 및 타이밍은 등분된 1개의 간격(1/50초)을 기준으로 한 카운트 수에 기초하여 설정된다. 이와 같이, 타이틀 타임라인(TMLE)의 기준 길이(최소 시 간 단위)는 비디오 정보의 필드 및 프레임의 표시 타이밍에 동기하여 설정되고, 각각의 비디오 정보 사이의 동기된 타이밍 표시 제어가 용이하게 될 수 있으며, 현실적으로 의미가 있는 범위 내에서의 최고 정밀도를 갖는 시간 설정이 가능해진다.
상기한 바와 같이, 본 실시예에 있어서, 시간 단위는 비디오 정보의 필드 및 프레임에 동기하여 설정된다, 즉 60-Hz 시스템에서의 하나의 시간 단위는 1/60초이고, 50-Hz 시스템에서의 하나의 시간 단위는 1/50초이다. 각각의 시간 단위 위치(시각)에서, 모든 표시 객체의 전환 타이밍(표시 시작 또는 종료 타이밍 또는 다른 프레임으로의 전환 타이밍)이 제어된다. 즉, 본 실시예에서는, 모든 표시 객체의 표시 기간이 타이틀 타임라인(TMLE) 사이의 시간 단위(1/60초 또는 1/50초)에 동기하여 설정된다. 오디오 정보의 프레임 간격은 비디오 정보의 프레임 또는 필드 간격과 다른 경우가 있다. 이러한 경우에, 오디오 정보의 재생 시작 및 종료 타이밍으로서, 표시 기간(표시 시작 및 종료 시각)은 타이틀 타임라인(TMLE) 상의 단위 간격에 대응하여 반올림된 타이밍에 기초하여 설정된다. 이와 같이 하여, 복수의 오디오 객체의 표시 출력이 타이틀 타임라인(TMLE) 상에서 중첩하는 것이 방지될 수 있다.
고급 애플리케이션(ADAPL) 정보의 표시 타이밍이 타이틀 타임라인(TMLE)의 단위 간격과 다른 경우(예를 들어, 고급 애플리케이션(ADAPL)이 초당 24개 프레임을 가지고 그의 표시 기간이 60-Hz 시스템의 타이틀 타임라인 상에 표현되어 있는 경우), 고급 애플리케이션(ADAPL)의 표시 타이밍(표시 시작 및 종료 시각)은 60-Hz 시스템(시간 단위 = 1/60 초)의 타이틀 타임라인(TMLE)에 대응하여 반올림된다.
<고급 애플리케이션에 대한 타이밍 모델>
고급 애플리케이션(ADV APP)은 서로 단방향 또는 양방향 링크를 가질 수 있는 하나 또는 복수의 마크업 파일, 고급 애플리케이션에 속하는 이름 공간을 공유하는 스크립트 파일, 및 마크업(들) 및 스크립트(들)에 의해 사용되는 고급 엘리먼트 파일로 이루어져 있다. 하나의 고급 애플리케이션 내의 각각의 마크업 파일의 유효 기간은 타이틀 타임라인 상에 매핑되어 있는 고급 애플리케이션의 유효 기간과 동일하다. 하나의 고급 애플리케이션의 표시 동안에, 활성 마크업은 항상 단 하나뿐이다. 활성 마크업은 한쪽에서 다른 쪽으로 점프한다. 하나의 애플리케이션의 유효 기간은 대별하여 3개의 기간, 즉 프리-스크립트(pre-script) 기간, 마크업 표시 기간, 및 포스트-스크립트(post-script) 기간으로 분할된다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서는, 타이틀 타임라인(TMLE) 상에서의 고급 애플리케이션(ADAPL)의 유효 기간은 3개의 기간, 즉 프리-스크립트 기간, 마크업 표시 기간 및 포스트-스크립트 기간으로 분할될 수 있다. 마크업 표시 기간은 고급 애플리케이션(ADAPL)의 마크업 파일(MRKUP)의 정보에 기초한 타이틀 타임라인(TMLE)의 시간 단위에 대응하여 고급 애플리케이션(ADAPL)이 표시되는 기간을 말한다. 프리-스크립트 기간은 마크업 표시 기간에 앞서 고급 애플리케이션(ADAPL)의 화면을 표시하는 준비 기간으로서 사용된다. 포스트-스크립트 기간은 마크업 표시 기간 직후에 설정되고, 고급 애플리케이션(ADAPL)의 각각의 표시 객체의 표시 직후의 종료 기간(예를 들어, 메모리 리소스의 해방 처리(release processing)에 사용되는 기간) 으로서 사용된다. 본 실시예는 이것에 한정되지 않는다. 예를 들어, 프리-스크립트 기간은 고급 애플리케이션(ADAPL)의 표시에 앞서 제어 처리 기간(예를 들어, 게임의 사용자에게 주어진 점수를 클리어함)으로서 사용될 수 있다. 또한, 포스트-스크립트 기간은 고급 애플리케이션(ADAPL)의 재생 직후의 명령 처리(예를 들어, 게임의 사용자의 점수의 포인트-업 처리(point-up processing))에서 사용될 수 있다.
<애플리케이션 동기 모델>
이하의 2가지 동기 모델을 갖는 2가지 종류의 애플리케이션이 있다.
Figure 112006062570134-PAT00051
소프트-싱크(soft-sync) 애플리케이션
Figure 112006062570134-PAT00052
하드-싱크(hard-sync) 애플리케이션
싱크 유형의 정보는 재생 목록 내의 애플리케이션 세그먼트의 sync 속성에 의해 정의된다. 소프트-싱크 애플리케이션 및 하드-싱크 애플리케이션에서, 타이틀 타임라인에 대한 거동은 애플리케이션의 실행 준비 시에 서로 다르다. 애플리케이션의 실행 준비는 리소스 로딩 및 다른 시동 프로세스(스크립트 글로벌 코드 실행 등)이다. 리소스 로딩은 저장 장치(DISC, 영속적 저장 장치 및 네트워크 서버)로부터 리소스를 판독하고 파일 캐쉬로 저장하는 것이다. 모든 애플리케이션은 모든 리소스 로딩이 완료되기 이전에 실행되어서는 안 된다.
보다 알기 쉬운 설명이 이하에 제공된다.
상기한 마크업 표시 기간 동안의 화면에 관하여 이하에서 설명한다. 도 16의 표시 화면을 예로 들면, 본 실시예에서는 비디오 정보의 표시 중에 정지 버 튼(34)이 눌러지는 경우, 그 비디오 정보가 정지되고, 정지 버튼(34)의 형상이나 빛깔이 변화되는 등의 화면 표시가 변경될 수 있다. 이것은 도 2에 도시된 "기술적 고안의 결과 얻어지는 새로운 효과"란에 기재된 1〕"사용자 행위에 대하는 유연하고 인상적인 반응을 행함 " 내의 1.1) "버튼 선택이나 실행 지시를 한 때 애니메이션 및 이미지의 변화로 응답하는" 효과를 의미한다. 상기한 예에서와 같이 도 16의 표시 화면 자체가 크게 변경되는 경우에는, 대응하는 마크업 파일(MRKUP)은 고급 애플리케이션(ADAPL) 내의 대응하는 마크업 파일(MRKUP)로 점프한다. 이와 같이, 고급 애플리케이션(ADAPL)의 표시 화면 내용을 설정하는 마크업 파일(MRKUP)을 다른 마크업 파일(MRKUP)로 점프시킴으로써, 외관상의 화면 표시가 크게 변경될 수 있다. 즉, 본 실시예에 있어서, 마크업 표시 기간 동안에 다른 화면에 대응하여 복수의 마크업 파일(MRKUP)이 설정되고, 화면의 전화에 대응하여 전환된다(이 전환 처리는 스크립트 파일(SCRPT)에 기술된 방법에 기초하여 실행된다). 따라서, 마크업 파일(MRKUP)의 표시 기간 동안 타이틀 타임라인(TMLE) 상에서의 마크업 페이지의 시작 타이밍은 복수개의 마크업 파일(MRKUP) 중 최초로 표시되는 것의 표시 시작 타이밍과 일치하며, 타이틀 타임라인(TMLE) 상에서의 마크업 페이지의 종료 타이밍은 복수의 마크업 파일(MRKUP) 중 마지막 것의 표시 종료 타이밍과 일치한다. 마크업 페이지를 점프시키는(표시 화면 내에서의 고급 애플리케이션(ADAPL) 부분에서의 표시 화면을 변경시키는) 방법으로서, 본 실시예는 이하의 2개의 싱크 모델을 규정하고 있다.
Figure 112006062570134-PAT00053
소프트-싱크 애플리케이션
Figure 112006062570134-PAT00054
하드-싱크 애플리케이션
<소프트-싱크 애플리케이션>
소프트-싱크 애플리케이션은 실행 준비보다 타이틀 타임라인의 매끄러운 진행에 우선권을 부여한다. "오토 런(Auto Run)" 속성이 'true'이고 애플리케이션이 선택되는 경우, 리소스는 소프트 싱크된 메카니즘에 의해 파일 캐쉬 내로 로딩된다. 소프트-싱크 애플리케이션은 모든 리소스가 파일 캐쉬 내로 로딩된 후에 활성화된다. 타이틀 타임라인 정지 없이 판독될 수 없는 리소스는 소프트-싱크 애플리케이션의 리소스로서 정의되어서는 안 된다. 타이틀 타임라인이 소프트-싱크 애플리케이션의 유효 기간 내로 점프하는 경우, 그 애플리케이션은 실행될 수 없다. 또한, 소프트-싱크 애플리케이션의 유효 기간 동안에, 재생 모드는 트릭 재생에서 정상 재생으로 변경되고, 애플리케이션은 실행될 수 없다.
보다 알기 쉬운 설명이 이하에 제공된다.
첫 번째 점프 방법은 마크업 페이지의 소프트 싱크 점프(점프 모델)이다. 이 점프 타이밍에서, 사용자에게 표시되는 화면 상에서 타이틀 타임라인(TMLE)의 시간 흐름이 정지하지 않는다. 즉, 상기 마크업 페이지의 전환 타이밍은 전술한 타이틀 타임라인(TMLE)의 단위 위치(시각)의 타이밍과 일치하고, 이전의 마크업 페이지의 종료 타이밍은 타이틀 타임라인(TMLE) 상에서 그 다음 마크업 페이지(고급 애플리케이션(ADAPL)의 표시 화면)의 시작 타이밍과 일치한다. 이러한 제어를 가능하게 해주기 위해, 본 실시예에 있어서, 이전의 마크업 페이지를 종료시키기 위해서 필요한 시간(예컨대, 데이터 캐쉬(DTCCH) 내의 할당된 메모리 공간을 해방시 키기 위해 사용되는 기간 등)은 그 다음 마크업 페이지의 표시 기간과 중첩하도록 설정된다. 또한, 이전의 마크업 페이지의 표시 준비 기간은 그 다음 마크업 페이지의 표시 기간과 중첩하도록 설정된다. 마크업 페이지의 소프트 싱크 점프는 타이틀 타임라인(TMLE)과 동기된 고급 애플리케이션(ADAPL) 또는 고급 자막(ADSBT)에 사용될 수 있다.
<하드-싱크 애플리케이션>
하드-싱크 애플리케이션은 타이틀 타임라인의 매끄러운 진행보다 실행 준비에 우선권을 부여한다. 하드-싱크 애플리케이션은 모든 리소스가 파일 캐쉬 내로 로딩된 후에 활성화된다. "오토 런" 속성이 'true'이고 애플리케이션이 선택되면, 리소스는 하드 싱크된 메카니즘에 의해 파일 캐쉬 내로 로딩된다. 하드-싱크 애플리케이션은 리소스 로딩 및 애플리케이션의 실행 준비 동안에 타이틀 타임라인을 유지한다.
보다 알기 쉬운 설명이 이하에 제공된다.
다른 점프 방법으로서, 본 실시예에서는, 마크업 페이지의 하드 싱크 점프도 규정하고 있다. 일반적으로는, 사용자에게 표시되는 화면 상에서는 타이틀 타임라인(TMLE) 상에서의 시간 변화가 생기고(타이틀 타임라인(TMLE) 상에서의 카운트-업이 행해짐), 이러한 변화에 동기하여 1차 오디오 비디오(PRMAV)의 화면이 변화된다. 예컨대, 타이틀 타임라인(TMLE) 상에서의 시간이 정지하는(타이틀 타임라인(TMLE) 상에서의 카운트 값이 고정되어 있는) 경우에는, 대응하는 1차 오디오 비디오(PRMAV)의 화면이 정지하고, 정지 화상 화면이 사용자에게 표시된다. 본 실시 예에서 마크업 페이지의 하드 싱크 점프가 일어나면, 타이틀 타임라인(TMLE) 상에서의 시간이 정지하는(타이틀 타임라인(TMLE) 상에서의 카운트 값이 고정되는) 기간이 생긴다. 마크업 페이지의 하드 싱크 점프에서는, 타이틀 타임라인(TMLE) 상에서의 외관상의 전환 이전의 마크업 페이지의 종료 타이밍 시각은 그 다음 마크업 페이지의 타이틀 타임라인(TMLE) 상에서의 재생 시작 타이밍과 일치한다. 이 점프의 경우에, 이전에 표시된 마크업 페이지의 종료 기간은 그 다음 마크업 페이지를 표시하는 데 필요한 준비 기간과 중첩하지 않는다. 이 때문에, 상기 점프 기간 동안에 타이틀 타임라인(TMLE) 상에서의 시간 흐름이 일시적으로 정지하고, 예컨대 1차 오디오 비디오(PRMAV) 등의 표시가 일시적으로 정지된다. 마크업 페이지의 하드 싱크 점프 처리는 본 실시예에 있어서는 고급 애플리케이션(ADAPL)에서만 사용된다. 이와 같이, 고급 자막(ADSBT)의 표시 화면의 전환 시에, 타이틀 타임라인(TMLE) 상에서의 시간 변화를 정지시키지 않고(예컨대 1차 오디오 비디오(PRMAV)를 정지시키지 않고) 고급 자막(ADSBT)의 화면 변화가 행해질 수 있다.
마크업 페이지로 지정되는 고급 애플리케이션(ADAPL), 고급 자막(ADSBT) 등의 화면은 본 실시예에 있어서는 각각의 프레임마다 전환된다. 예를 들어, 인터레이스된 표시에 있어서, 초당 프레임의 수는 초당 필드의 수와 다르다. 그렇지만, 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 화면이 각각의 프레임마다 전환되도록 제어되는 경우, 전환 처리는 인터레이스된/프로그래시브 표시에 상관없이 동일한 타이밍에서 행해질 수 있으며, 따라서 제어를 용이하게 해준다. 즉, 직전의 프레임 표시 타이밍에서 그 다음 프레임에 필요한 화면의 준비가 시작된다. 준 비는 다음 프레임의 표시 타이밍까지 완료되고, 그 다음 프레임의 표시 타이밍에 동기하여 화면이 표시된다. 예컨대, NTSC 인터레이스된 표시가 60-Hz 시스템에 대응하기 때문에, 타이틀 타임라인(TMLE) 상에서의 시간 단위의 간격은 1/60초이다. 이 경우에는, 초당 30개 프레임이 표시되기 때문에, 타이틀 타임라인(TMLE)의 2개 단위(2개의 단위의 경계 위치)의 간격으로 프레임 표시 타이밍이 설정된다. 따라서, 타이틀 타임라인(TMLE) 상의 n 번째 카운트 값에서 화면이 표시되어야 하는 경우, 2 카운트 이전의 (n-2) 번째 타이밍에서 그 다음 프레임의 표시 준비가 시작되고, 타이틀 타임라인(TMLE) 상의 n-번째 카운트의 타이밍 단계에서 준비된 그래픽 프레임(고급 애플리케이션(ADAPL)에 관계된 여러 가지 화면을 표시하는 화면을 본 실시예에서는 그래픽 프레임이라고 부른다)이 표시된다. 본 실시예에서는, 이와 같이 각각의 프레임에 대해 그래픽 프레임이 준비되고 표시되기 때문에, 연속적으로 전환되는 그래픽 프레임이 사용자에게 표시될 수 있고, 따라서 사용자가 이상하게 느끼게 되는 일이 방지된다.
<프리젠테이션 클립 엘리먼트 및 객체 매핑 정보>
재생 목록 파일 내의 타이틀 엘리먼트는 표시 객체의 세그먼트의 객체 매핑 정보를 기술하는, 프리젠테이션 클립 엘리먼트라고 하는 엘리먼트의 리스트를 포함한다.
프리젠테이션 클립 엘리먼트 및 대응하는 표시 객체 유형은 도 18에 도시되어 있다.
PrimaryAudioVideoClip(1차 오디오 비디오 클립) 엘리먼트, SubstituteAudioVideoClip(대체 오디오 비디오 클립) 엘리먼트, SecondaryAudioVideoClip(2차 오디오 비디오 클립) 엘리먼트 및 SubstituteAudioClip(대체 오디오 클립) 엘리먼트, 고급 자막 세그먼트(AdvancedSubtitleSegment) 엘리먼트, 애플리케이션 세그먼트(ApplicationSegment) 엘리먼트는 각각 1차 오디오 비디오, 2차 오디오 비디오, 대체 오디오, 고급 자막, 고급 자막 프로파일 마크업의 고급 자막, 및 마크업 및 스크립트의 고급 애플리케이션의 객체 매핑 정보를 기술한다.
표시 객체는 도 18에 기술하는 바와 같이 인덱스 정보 파일의 URI에 의해 참조되어야 한다. URI는 규칙에 의해 기술되어야 한다.
타이틀 타임라인에서의 표시 객체의 객체 매핑 정보는 타이틀 타임라인에서의 표시 객체의 유효 기간이다.
표시 객체의 타이틀 타임라인 상에서의 유효 기간은 타이틀 타임라인 상에서의 시작 시각 및 종료 시각에 의해 결정된다. 타이틀 타임라인 상에서의 시작 시각 및 종료 시각은 각각의 프리젠테이션 클립 엘리먼트의 titleTimeBegin 속성 및 titleTimeEnd 속성에 의해 각각 기술된다. 고급 자막 및 애플리케이션을 제외한 프리젠테이션 클립의 경우에, 표시 객체의 시작 위치는 각각의 프리젠테이션 클립 엘리먼트의 clipTimeBegin에 의해 기술된다.
PrimaryAudioVideoClip, SubstituteAudioVideoClip, SubstituteAudioClip 및 SecondaryAudioVideoClip 엘리먼트의 경우, 표시 객체는 clipTimeBegin에 의해 기술되는 시작 위치에 존재해야 한다.
clipTimeBegin 속성값은 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된-프레임의 표시 시작 시각(PTS)이어야 한다.
titleTimeBegin, titleTimeEnd 및 clipTimeBegin의 속성값, 및 표시 객체의 지속 시간은 이하의 관계를 만족시켜야 한다.
titleTimeBegin < titleTimeEnd 및
titleTimeEnd ≤ 타이틀의 지속 시간.
표시 객체가 타이틀 타임라인과 동기되어 있는 경우, 이하의 관계가 만족되어야 한다.
clipTimeBegin + titleTimeEnd - titleTimeBegin
≤ 표시 객체의 지속 시간
PrimaryAudioVideoClip 엘리먼트의 유효 기간은 타이틀 타임라인 상에서 서로 중첩되어서는 안 된다.
SecondaryAudioVideoClip 엘리먼트의 유효 기간은 타이틀 타임라인 상에서 서로 중첩되어서는 안 된다.
SubstituteAudioClip 엘리먼트의 유효 기간은 타이틀 타임라인 상에서 서로 중첩되어서는 안 된다.
SubstituteAudioVideoClip 엘리먼트의 유효 기간은 타이틀 타임라인 상에서 서로 중첩되어서는 안 된다.
PrimaryAudioVideoClip 엘리먼트 및 SubstituteAudioVideoClop 엘리먼트 중 임의의 것의 경우, 타이틀 타임라인 상에서의 유효 기간은 중첩되어서는 안 된다.
SubstituteAudioVideoClip 엘리먼트, SecondaryAudioVideoClip 엘리먼트 및 SubstituteAudioClip 엘리먼트 중 임의의 것의 경우, 타이틀 타임라인 상에서의 유효 기간은 중첩되어서는 안 된다.
'디스크' 데이터 소스를 갖는 임의의 프리젠테이션 클립 엘리먼트의 경우, 타이틀 타임라인 상에서의 유효 기간은 '디스크' 데이터 소스를 갖는 다른 프리젠테이션 클립 엘리먼트의 유효 기간과 중첩되어서는 안 된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 17에 도시한 재생 목록(PLLIST) 내에 기술되는 객체 매핑 정보(OBMAPI)는 프리젠테이션 클립 엘리먼트라고 불리는 엘리먼트의 리스트 정보를 기재한다. 도 18은 여러 가지 프리젠테이션 클립 엘리먼트와 표시되고 사용될 대응하는 객체 이름 간의 관계를 나타낸 것이다.
도 18에 도시한 바와 같이, 객체 매핑 정보(OBMAPI) 내에서 기술되는 1차 오디오 비디오 클립 엘리먼트(PRAVCP)는 1차 오디오 비디오(PRMAV)에 관계된 객체 매핑 정보(OBMAPI)를 설명하고 있다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 2차 오디오 비디오(SCDAV)의 객체 매핑 정보(OBMAPI)의 설명을 하고 있다. 대체 오디오 클립 엘리먼트(SBADCP)는 대체 오디오(SBTAD)의 객체 매핑 정보(OBMAPI)를 설명한다. 객체 매핑 정보(OBMAPI) 내의 고급 자막 세그먼트 엘리먼트(ADSTSG)는 고급 자막(ADSBT) 내의 마크업 파일(MRKUPS)에 관계된 정보를 기술한다. 객체 매핑 정보(OBMAPI) 내의 플리케이션 세그먼트 엘리먼트(ADAPSG)는 고급 애플리케이션(ADAPL)의 마크업 파일(MRKUP) 및 스크립트 파일(SCRPT)과 관계된 정보를 기술한 다. 재생 및 사용될 각각의 객체와 관계된 객체 매핑 정보(OBMAPI)는 타이틀 타임라인(TMLE) 상에서의 각각의 객체의 유효 기간(표시 기간 또는 준비 기간 및 종료 처리 기간을 포함함)과 관계된 정보를 기술한다. 타이틀 타임라인(TMLE) 상에서의 유효 기간은 타이틀 타임라인(TMLE) 상에서의 시작 시각 및 종료 시각에 의해 규정된다. 각각의 클립 엘리먼트에서, 타이틀 타임라인(TMLE) 상에서의 시작 시각 및 종료 시각은 titleTimeBegin 속성 및 titleTimeEnd 속성으로 규정된다. 즉, 각각의 클립 엘리먼트는 개별적으로 titleTimeBegin 속성 및 titleTimeEnd 속성을 기록한다. 대응하는 객체의 표시는 타이틀 타임라인(TMLE) 상에서의 titleTimeBegin 속성에 의해 기술되는 시각으로부터 시작하고 titleTimeEnd 속성에 의해 기술되는 시각에서 종료한다. 고급 자막 세그먼트 엘리먼트(ADSTSG) 및 애플리케이션 세그먼트 엘리먼트(ADAPSG)를 제외한 1차 오디오 비디오 클립 엘리먼트(PRAVCP), 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 및 대체 오디오 클립 엘리먼트(SBADCP)에서, 1차 오디오 비디오(PRMAV), 2차 오디오 비디오(SCDAV) 및 대체 오디오(SBTAD) 각각은 각각의 객체가 기록되어 있는 시작 위치로부터 계산된 표시 경과 기간을 의미하는 clipTimeBegin에 의해 표시되기 시작한다. 즉, 전술한 titleTimeBegin 속성과 titleTimeEnd 속성은 타이틀 타임라인(TMLE) 상에서의 시각 정보를 의미한다. 반면에, 전술한 clipTimeBegin은 각각의 객체 내에서의 독립적인 시간 경과를 의미한다. titIeTimeBegin 속성과 cIipTimeBegin의 시각들을 동기화함으로써, 복수의 서로 다른 객체가 동일한 타이틀 타임라인(TMLE) 상에서 동기되어 표시될 수 있다.
재생 및 사용되는 여러 가지 객체가 정보 저장 매체(DISC)에 기록되어 있지 않고 재생 목록(PLLST)만이 정보 저장 매체(DISC)에 기록되어 있음에 유의한다. 정보 재생 장치는 대응하는 재생 목록(PLLST)으로부터 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR)에 기록되어 있는 재생 및 사용될 여러 가지 객체를 지정 및 획득할 수 있다.
본 실시예에서, 각각의 표시 객체의 표시 기간과, titleTimeBegin, titleTimeEnd, clipTimeBegin과의 사이에는 이하의 관계가 설정되어, 표시 타이밍들 간의 모순을 발생하지 않고 표시 처리의 정밀도를 향상시킬 수 있다.
titleTimeBegin < titleTimeEnd 및
titleTimeEnd≤ 타이틀의 표시 기간]
cIipTimeBegin + titleTimeEnd - titleTimeBegin
≤ 표시 객체의 표시 기간
게다가, 본 실시예에 있어서, 하기의 조건을 설정함으로써, 표시 정밀도가 향상된다.
Figure 112006062570134-PAT00055
각각의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 유효 기간이 타이틀 타임라인(TMLE) 상에서 중첩해서는 안 된다.
Figure 112006062570134-PAT00056
각각의 2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 유효 기간이 타이틀 타임라인(TMLE) 상에서 중첩해서는 안 된다.
Figure 112006062570134-PAT00057
각각의 대체 오디오 클립 엘리먼트(SBADCP)의 유효 기간이 타이틀 타임라인(TMLE) 상에서 중첩해서는 안 된다.
Figure 112006062570134-PAT00058
2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 유효 기간이 타이틀 타임라 인(TMLE) 상에서 대체 오디오 클립 엘리먼트(SBADCP)의 유효 기간과 중첩해서는 안 된다.
도 12, 도 13a 및 도 13b에 도시한 바와 같이, 재생 목록(PLLST)으로부터는 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP), 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP), 매니페스트 파일(MNFST), 및 고급 자막(ADSBT)의 매니페스트 파일(MNFSTS)이 참조된다.
보다 구체적으로는, 도 18에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에서 참조되는 파일 이름으로서 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP)의 파일 이름과 그 저장 장소를 기술하고 있다. 마찬가지로, 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)의 파일 이름과 그 저장 장소를 기술하고 있다. 게다가, 대체 오디오 클립 엘리먼트(SBADCP)는 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)의 파일 이름과 저장 장소를 기술하고 있다. 고급 자막 세그먼트 엘리먼트(ADSTSG)는 고급 자막(ADSBT)의 매니페스트 파일(MNFSTS)의 파일 이름과 그 저장 장소를 기술하고 있다. 애플리케이션 세그먼트 엘리먼트(ADAPSG)는 고급 애플리케이션(ADAPL)의 매니페스트 파일(MNFST)의 파일 이름과 그 저장 장소를 기술하고 있다.
도 18에 도시한 객체를 재생 및 사용할 시에 인덱스로서 참조되는 파일의 장소는 도 10에 기술되어 있다. 재차 확인을 위해, 이들은 도 18에서의 객체의 원래의 데이터 소스의 섹션에 기술되어 있다.
각각의 클립 엘리먼트에 기술되어 있고 또 객체를 재생 및 사용할 시에 인덱스로서 참조되는 파일들은 도 18에 나타낸 바와 같이 여러 가지 기록 매체(네트워크 서버(NTSRV)를 포함함)에 기록되어 있을 수 있다. 도 19는 각각의 클립 엘리먼트에 기술되어 있는 파일들의 저장 장소 지정 방법을 나타낸 것이다. 보다 구체적으로는, 파일들이 네트워크 서버(NTSRV) 내에 저장되어 있는 경우, 도 19에 도시한 바와 같이, HTTP 서버 또는 HTTPS 서버의 어드레스는 "http:…" 또는 "https:…"에 의해 지정된다. 본 실시예에 있어서, 각각의 클립 엘리먼트 내에 기술되는 파일 저장 장소 지정 정보(URI: Uniform Resource Identifier)의 기술 범위는 1024 바이트 이하를 사용하여 기술되어야 한다. 이러한 정보가 정보 저장 매체(DISC), 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 또는 영속적 저장 장치(PRSTR) 내에 기록되어 있는 경우에는, 파일 저장 장소는 데이터 파일로서 지정된다.
각각의 파일이 정보 저장 매체(DISC), 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)), 또는 영속적 저장 장치(PRSTR) 내에 저장되어 있는 경우, 각각의 매체가 식별되어야 한다. 본 실시예에서는, 각각의 매체는 각자의 클립 엘리먼트 내에 도 20에 도시한 바와 같은 경로 지정 기술 방법을 채용함으로써 식별될 수 있다. 이 점은 본 실시예에서의 큰 기술적 특징이다.
<컨텐츠 참조>
디스크 또는 네트워크 상에서 이용가능한 모든 리소스는 URI(Uniform Resource Identifier)에 의해 인코딩된 주소를 갖는다.
이하는 디스크 상의 XML 파일을 참조하는 URI 예이다.
file:///dvddisk/ADV_OBJ/file.xmu
URI의 전체 길이는 1024 보다 작아야 한다.
'file' URI 방식에 의해, URI는 DVD 디스크 컨텐츠, 파일 캐쉬 및 영속적 저장 장치 상의 리소스를 참조할 수 있다. 2가지 유형의 영속적 저장 장치가 있다. 하나는 모든 플레이어가 단지 하나만을 가져야만 하는 필수형 영속적 저장 장치이다. 다른 하나는 플레이어가 하나 이상을 가질 수 있는 부가적 영속적 저장 장치이다. URI의 경로는 이하의 방식으로 영속적 저장 장치에 대한 저장 장치 유형 및 식별자를 포함한다.
모든 고급 내비게이션 파일(매니페스트 파일/마크업/스크립트) 및 고급 엘리먼트 파일은 재생 목록 내의 리소스 정보 엘리먼트, 즉 API에 의해 파일 캐쉬 내로 로딩되어야 한다. 리소스 정보 엘리먼트에 의해 로딩된 모든 파일은 파일 캐쉬 내의 장소가 아니라 원래의 파일 장소의 URI에 의해 참조되어야 한다.
아카이브된 파일 내의 파일들은 아카이브된 파일의 URI의 서브 경로에 의해 참조되어야 한다. 이때, 아카이브된 파일의 URI는 파일 캐쉬 내의 장소가 아니라 원래의 장소에 의해 참조되어야 한다.
경로 'file:///file cache/'는 파일 캐쉬 내의 /temp 디렉토리로서 해석된다. 파일 캐쉬의 경우, 애플리케이션 병합된 디렉토리만이 액세스될 수 있다.
재생 목록, 매니페스트 및 마크업은 상대 URI 참조를 사용할 수 있다. xml: base 속성이 규정되어 있지 않은 경우, 베이스 URI는 원래의 파일 장소의 URI로부터 도출되어야 한다. xml: base 속성이 규정되어 있는 경우, 베이스 URI는 규칙에 의해 결정된다.
경로-세그먼트 '..'는 URI에서 사용되어서는 안 된다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에 있어서, 영속적 저장 장치(PRSTR)로서 두 가지의 기록 매체가 고려하고 있다. 첫 번째 것은 고정형 영속적 저장 장치(PRSTR)이며, 본 실시예에 있어서는 정보 기록 및 재생 장치(1) 내에 단지 하나의 영속적 저장 장치 드라이브(3)만을 규정한다. 다른 하나는 휴대형 영속적 저장 장치(PRSTR)이며, 본 실시예에 있어서는 정보 기록 및 재생 장치(1) 내에 하나 이상의 저장 장치(복수의 저장 장치가 허용됨)가 탑재될 수 있다. 파일에의 경로 지정 기술에 있어서는, 도 20에 도시한 바와 같은 기술 방법이 규정되고, 그 내용은 재생 목록(PLLST) 내의 각각의 클립 엘리먼트 내에 기술된다. 즉, 정보 저장 매체(DISC) 내에 파일이 기록되어 있는 경우에는, "file:///dvddisc/"가 기술된다. 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 내에 파일이 저장되어 있는 경우에는, 경로 지정 기술 방법으로서 "file:///filecache/"가 기술된다. 고정형 영속적 저장 장치(PRSTR) 내에 파일이 기록되어 있는 경우에는, 경로 지정 기술 방법으로서 "file:///fixed/"가 기술되어 있다. 휴대형 영속적 저장 장치(PRSTR) 내에 파일이 기록되어 있는 경우에는, 경로 지정 기술 방법으로서, "file://removable/"이 기술되어 있다. 정보 저장 매체(DISC), 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)), 또는 영속적 저장 장치(PRSTR) 내에 여러 가지 파일이 기록되는 경우에는, 각각의 기록 매체 내에 도 l1에 도시하는 파일 구조가 형성되고, 파일들은 대응하는 디렉토리 아래에 기록된다.
<재생 목록 파일>
재생 목록 파일은 고급 컨텐츠에 대한 내비게이션, 동기화 및 초기 시스템 구조 정보를 기술한다. 재생 목록 파일은 잘 구성된 XML로서 인코딩되어야 한다. 도 21은 재생 목록 파일의 개요예를 나타낸 것이다. 재생 목록의 루트 엘리먼트는 재생 목록 엘리먼트의 내용에 구성 엘리먼트, 미디어 속성 리스트 엘리먼트 및 타이틀 세트 엘리먼트를 포함하는 재생 목록 엘리먼트가 되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 21은 도 17에 도시된 재생 목록(PLLST) 에 관계된 정보를 기록하고 있는 재생 목록 파일(PLLST) 내의 데이터 구조를 나타낸 것이다. 이 재생 목록 파일(PLLST)은, 도 11에 도시한 바와 같이, 고급 컨텐츠 디렉토리(ADVCT)의 아래에 재생 목록 파일(PLLST)의 형태로 직접 기록된다. 재생 목록 파일(PLLST)은 관리 정보, 각각의 표시 객체 사이의 동기화 정보 및 초기의 시스템 구조에 관계된 정보(예를 들어, 데이터 캐쉬(DTCCH) 내에서 사용되는 메모리 공간의 사전 할당 등에 관계된 정보)를 기술하고 있다. 재생 목록 파일(PLLST)은 XML에 기초한 기술 방법에 의해 기재된다. 도 21은 재생 목록 파일(PLLST) 내의 개략적인 데이터 구조를 나타낸 것이다.
도 21에 있어서의 <Playlist[재생 목록]...>와 </Playlist>로 둘러싸인 영역을 재생 목록 엘리먼트라고 부른다. 재생 목록 엘리먼트 내의 정보로서는, 구조 정보(CONFGI), 미디어 속성 정보(MDATRI) 및 타이틀 정보(TTINFO)가 이 순서대로 기재된다. 본 실시예에 있어서, 재생 목록 엘리먼트 내의 각종 엘리먼트의 배치 순서는 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에서의 비디오 표시의 시작 이전의 동작 순서에 대응하여 설정되어 있다. 즉, 도 14에 도시하는 고급 컨텐츠 재생 유닛(ADVPL) 내의 데이터 캐쉬(DTCCH) 내에서의 사용되는 메모리 공간의 할당이 재생 준비의 프로세스에서 가장 필요하다. 이 때문에, 재생 목록 엘리먼트 내에서 구조 정보 엘리먼트(CONFGI)가 맨 먼저 기술된다. 각각의 표시 객체 내의 정보의 속성에 따라서 도 14 내의 프리젠테이션 엔진(PRSEN)이 준비되어야 한다. 이를 위해, 구조 정보(CONFGI) 엘리먼트의 뒤 또한 타이틀 정보(TTINFO) 엘리먼트의 앞에 미디어 속성 정보(MDATRI)가 기술되어야 한다. 이와 같이, 데이터 캐쉬(DTCCH) 및 프리젠테이션 엔진(PRSEN)이 준비된 후에, 타이틀 정보(TTINFO) 엘리먼트(136)에 기재된 정보에 따라서 고급 컨텐츠 재생 유닛(ADVPL)이 표시 처리를 시작한다. 따라서, 준비에 필요한 정보의 뒤에(마지막 위치에) 타이틀 정보(TTINFO) 엘리먼트(136)가 배치된다.
도 21의 첫 번째 줄의 설명(131)은 "이하의 문장은 XML 기술 방법에 기초하여 기술됨"을 선언하는 정의 텍스트이며, xml 속성 정보(XMATRI)의 정보가 "<?xml" 과 "?>" 사이에 기술되어 있는 구조를 갖는다.
도 22는 (a)에서 xml 속성 정보(XMATRI) 내의 정보 내용을 나타낸 것이다.
xml 속성 정보(XMATRI)는 XML의 대응하는 버전 정보와 자식 관계를 갖는 다른 XML이 참조되는지 여부를 나타내는 정보를 기술한다. 자식 관계를 갖는 다른 XML이 참조되는지 여부를 나타내는 정보는 "yes" 또는 "no"를 사용하여 기술된다. 자식 관계를 갖는 다른 XML이 이 대상 텍스트에서 직접 참조되고 있는 경우, "no" 가 기술되고, 이 XML 텍스트가 다른 XML을 직접 참조하지 않고 단독의 XML으로서 존재하는 경우, "yes"가 기술된다. XML 문장으로서, 예를 들어 XML의 대응하는 버전 번호가 1.0이고 XML 텍스트가 다른 XML을 참조하지 않고 단독의 XML으로서 존재하는 경우, 도 22의 (a)의 기재예로서, "<? xm1 version=`1.O' standalone=`yes'?>"가 기술된다.
재생 목록 엘리먼트의 범위를 규정하는 재생 목록 엘리먼트 태그 내의 기재 문장은 "<Playlist" 이후에, 재생 목록 태그의 이름 공간 정의 정보(PLTGNM) 및 재생 목록 속성 정보(PLATRI)를 기술하고, "?>"로 닫으며, 따라서 재생 목록 엘리먼트 태그를 형성한다. 도 22는 (b)에서 재생 목록 엘리먼트 태그 내의 기재 정보를 나타낸다. 본 실시예에 있어서, 재생 목록 파일(PLLST) 내의 재생 목록 엘리먼트의 수는 원칙상 1개이다. 그렇지만, 특수한 경우에는, 복수의 재생 목록 엘리먼트가 기재될 수 있다. 이러한 경우, 재생 목록 파일(PLLST) 내에 복수의 재생 목록 엘리먼트 태그가 기재될 수 있기 때문에, 각각의 재생 목록 엘리먼트를 식별하기 위해 재생 목록 태그의 이름 공간 정의 정보(PLTGNM)는 "<Playlist"의 직후에 기술된다. 재생 목록 속성 정보(PLATRI)는 고급 컨텐츠 버전 번호의 정수 부분 값(MJVERN), 고급 컨텐츠 버전 번호 정보의 소수점 이하의 값(MNVERN), 및 재생 목록 엘리먼트 내의 재생 목록에 관계된 부가 정보(예를 들어, 이름 등)(PLDSCI)를 이 순서대로 기재한다. 예컨대, 기재예로서, 고급 컨텐츠 버전 번호가 "1.0"인 경우에는, 고급 컨텐츠 버전 번호의 정수 부분 값(MJVERN)에는 "1"이 설정되고, 고급 컨텐츠 버전 번호의 소수점 이하의 값(MNVERN)에는 "O"이 설정된다. 재생 목 록(PLLST)에 관계된 부가 정보가 "string"이고, 재생 목록 태그의 이름 공간 정의 정보(PLTGNM)가 "http://www.dvdforum.org/HDDVDVideo/Playlist"인 경우에는, 재생 목록 엘리먼트 태그 내의 기술 텍스트는
"<Playlist xmlns =
`http://www.dvdforum.org/HDDVDVideo/Playlist'
majorVersion=`1' minorVersion=`O' description= string>"로 된다.
도 1에 도시된 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)은 재생 목록 엘리먼트 태그 내에 기술된 고급 컨텐츠 버전 번호를 먼저 재생하고, 고급 컨텐츠 버전 번호가 그에 의해 지원되는 버전 번호 범위 내에 속하는지를 판정한다.
고급 컨텐츠 버전 번호가 지원 범위 밖에 속하는 경우, 고급 컨텐츠 재생 유닛(ADVPL)은 재생 처리를 즉각 중지해야 한다. 이를 위해, 본 실시예에서는, 재생 목록 속성 정보(PLATRI)는 고급 컨텐츠 버전 번호의 정보를 맨 앞의 위치에 기술한다.
본 실시예에서의 재생 목록(PLLST)에 기술되어 있는 여러 가지 종류의 정보는 도 23a 및 도 23b, 도 24a 및 도 24b에 도시된 바와 같이 계층적 구조를 갖는다.
<타이틀 정보>
재생 목록 파일은 타이틀 세트 엘리먼트 내의 타이틀 엘리먼트의 리스트를 포함한다. 타이틀 세트 엘리먼트는 재생 목록 내의 고급 컨텐츠에 대한 일련의 타 이틀의 정보를 기술한다.
각각의 타이틀에 대해 타이틀 타임라인이 할당되어 있다. 타이틀 타임라인의 기간은 시간 표현 값에 의해 타이틀 엘리먼트의 타이틀 기간 속성으로 기술되어야 한다. 타이틀 타임라인의 기간은 '00:00:00:00'보다 커야만 한다
주의: 고급 애플리케이션만을 포함하는 타이틀을 기술하기 위해, 기간을 '00:01:00:00' 등의 어떤 값으로 설정하고 타이틀의 처음에서 타이틀 타임라인 상에서 시간을 일시 정지한다.
타이틀의 총 수는 1000보다 적어도 한다.
각각의 타이틀 엘리먼트는 고급 컨텐츠에 대한 타이틀의 일련의 정보를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
전술한 재생 목록 파일(PLLST) 내에 기록되어 있는 정보에 있어서, 재생 목록 엘리먼트 내에 포함되는 타이틀 정보(TTINF0)는 도 23a의 (b)에 도시한 바와 같이, <TitleSet>와 </TitleSet>로 둘러싸인 타이틀 세트 엘리먼트를 사용하여 기술된다. 이 타이틀 세트 엘리먼트는 재생 목록(PLLST) 내에서 정의된 고급 컨텐츠(ADVCT)의 타이틀 세트에 관계한 정보를 기술한다. 타이틀 세트 엘리먼트 태그 내에 기술되는 타이틀 세트 속성 정보(TTSTAT)로서, 도 23b의 (d)에 도시한 바와 같이, 프레임 레이트(초당 프레임 수) 정보(FRANlRT)(timeBase 속성 정보), 마크업 페이지 내에서 사용되는 틱 클럭(tick clock)의 주파수 정보(TKBASE)(tickBase 속성 정보), 타이틀 세트 내의 디폴트 상태에서의 메뉴 언어 정 보(DEFLNG)(defauItLanguage 속성 정보)가 존재한다.
<Datatypes(데이터 유형) 및 TitleSet(타이틀 세트) 엘리먼트>
Figure 112006062570134-PAT00059
Datatypes
속성값의 부가의 데이터 유형이 정의된다.
1) timeExpression
이하의 포맷으로 기술되는 비드롭 프레임 카운트의 타임코드를 기술한다.
timeExpression := HH ':' MM ':' SS ':' FF
HH := [0-2][0-9] (HH = 00 - 23)
MM := [0-5][0-9]
SS := [0-5][0-9]
FF := [0-5][0-9]
(프레임 레이트 = 50 fps의 경우 FF = 00 - 49
프레임 레이트 = 60 fps의 경우 FF = 00 - 59)
프레임 레이트가 타이틀 엘리먼트의 timeBasse 속성에 의해 기술되는 값이다.
비드롭 프레임 카운트는 다음과 같이 계산된다.
비드롭 프레임 카운트 := *(3600 x HH + 60 x MM + SS) x
프레임 레이트 + FF
2) frameRate
프레임 레이트 값을 기술한다. frameRate 데이터 유형은 이하의 BNF 구문에 따른다.
frameRate := rateValue 'fps'
rateValue := '50' | '60'
rateValue의 값은 프레임 레이트를 기술한다.
3) tickRate
틱 레이트(tick rate) 값을 기술한다. tickRate 데이터 유형은 이하의 BNF 구문을 따른다.
tickRate := tickValue 'fps'
tickValue := '24' | '50' | '60'
tickValue의 값은 틱 레이트 값을 프레임 레이트로 기술한다. 이 값은 프레임 레이트가 '50'인 경우 '50' 또는 '24'이다. 이 값은 프레임 레이트가 '60'인 경우 '60' 또는 '24'이다.
4) langCode
오디오 스트림 및 이 대체 자막의 자막 스트림에 대한 특정의 코드 및 특정의 코드 확장을 기술한다. 언어 코드 속성값은 이하의 BNF 방식을 따른다. specificCode 및 specificCodeExt는 각각 특정의 코드 및 특정의 코드 확장을 기술한다. specificCode 값 '*'은 "Not Specified(규정되지 않음)"를 기술한다.
langCode :=
specificCode ':' specificCodeExtension
specificCode := [a-z][a-z] | '*'
specificCodeExt := [0-9A-F][0-9A-F]
5) anyURI
규칙들을 따르는 URI 내의 컨텐츠 참조를 기술한다.
6) parentalList
각각의 국가 코드에 대한 시청 제한의 리스트를 기술한다. parentalList 데이터 유형은 이하의 BNF 구문을 따른다.
parentalList := parental (#x20 parental)*
parental :=
(countryCode | '*') ':' parentalLevel
country Code := [A-Z][A-Z]
parental Level := [1-8]
parentalList는 지정된 국가 코드에 대한 타이틀을 재생하기 위한 최소의 시청 제한을 기술하는 시청 제한 데이터의 공백 분리 리스트이다. parentalLevel 및 countryCode는 각각 최소 시청 제한 및 국가 코드를 기술한다. '*'는 Not Specified 국가 코드를 의미한다. '*'가 countryCode에 대해 사용되는 경우, 시청 제한 데이터는 비지정된 국가 코드에 대한 최소 시청 제한 레벨을 기술한다. countryCode는 ISO-3166에 정의된 Alpha-2 코드이어야 한다. countryCode 및 '*'는 parentalList 값에서 고유해야 한다.
Figure 112006062570134-PAT00060
TitleSet 엘리먼트
TitleSet 엘리먼트는 재생 목록 내의 고급 컨텐츠에 대한 일련의 타이틀의 정보를 기술한다.
TitleSet 엘리먼트의 XML 구문 표현:
<TitleSet\
timeBase = frameRate
tickBase = tickRate
defaultLanguage = language
>
FirstPlayTitle ?
Title +
PlaylistApplication *
</TitleSet>
TitleSet 엘리먼트는 Title 엘리먼트의 리스트, FirstPlayTitle 엘리먼트 및 PlaylistApplication 엘리먼트의 리스트로 이루어져 있다. Title 엘리먼트의 문서 순서에 따라, 고급 내비게이션에 대한 타이틀 번호가 '1'부터 연속적으로 할당되어야 한다. Title 엘리먼트는 각각의 타이틀의 정보를 기술한다.
(a) timeBase 속성
프레임 레이트 값을 기술한다. 프레임 레이트 값은 Title 내의 timeExpression에 대한 프레임 레이트를 결정한다.
(b) tickBase 속성
마크업 내에서 사용되는 틱 클럭 주파수를 기술한다. 이 값은 생략될 수 있 다. 값이 생략되어 있는 경우, 틱 클럭 주파수는 프레임 레이트 값이다.
(c) defaultLanguage 속성
TitleSet의 디폴트 메뉴 언어를 기술한다. 이 속성값은 ISO-639에 정의된 2-문자 소문자 심볼로 이루어져 있다. 메뉴 언어 설정에 일치하는 타이틀 내의 애플리케이션 세그먼트가 없는 경우, defaultLanguage의 언어를 갖는 애플리케이션 세그먼트가 활성화되어야 한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
타이틀 세트 엘리먼트 내에 재생 목록(PLLST) 내의 고급 컨텐츠(ADVCT)에 관한 타이틀의 세트가 기술되어 있다. 타이틀 세트 엘리먼트 내에 기술되는 타이틀 엘리먼트 정보(TTELEM)의 배치 순서에 따라 각각의 타이틀 번호가 설정된다. 즉, 타이틀 세트 엘리먼트 내에 맨 처음으로 기술되는 타이틀 엘리먼트 정보(TTELEM)에 기초하여 관리되는 타이틀의 타이틀 번호가 1이고, 연속한 번호가 각각의 타이틀 엘리먼트 정보(TTELEM)에 기초하여 관리되는 타이틀의 타이틀 번호로서 순차적으로 설정된다.
도 23b의 (d)에 도시하는 프레임 레이트(초당 프레임의 수) 정보 (FRAMRT)(timeBase 속성 정보)는 프레임 레이트 값을 나타낸다. 각각의 타이틀 내에서의 시간 관리는 타이틀 타임라인(TMLE) 상에서의 카운트 값("HH:MM:SS:FF"에서의 FF의 값)에 기초하여 행해진다. 프레임 레이트 정보(FRAMRT)의 값에 기초하여 이때의 타이틀 타임라인(TMLE)의 카운트 주파수로서 50 Hz 시스템 또는 60 Hz 시스템이 설정된다. frameRate는 'fps'(초당 프레임)의 단위의 레이트 값으로서 표 현되며, "50" 또는 "60"의 값은 레이트 값으로서 선택적으로 설정된다. 이제부터 마크업 페이지에서 사용되는 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)에 관하여 설명한다. 각각의 마크업 페이지(MRKUP)에 따라 설정된 페이지 클럭의 주파수 및 각각의 고급 애플리케이션(ADAPL)에 따라 설정된 애플리케이션 클럭의 주파수는 틱 클럭 주파수(TKBASE)와 일치한다. 게다가, 틱 클럭 주파수(TKBASE)는 타이틀 타임라인(TMLE) 상에서의 미디어 클럭의 주파수와 독립적으로 설정될 수 있다. 각각의 타이틀에 대한 타이틀 타임라인(TMLE)의 기준 주파수를 나타내는 프레임 레이트(초당 프레임의 수) 정보(FRAMRT)(timeBase 속성 정보)의 클럭은 미디어 클럭이라고 불리운다. 게다가, 본 실시예는 각각의 마크업 페이지(MRKUP)에 따라 설정된 클럭인 페이지 클럭 및 각각의 애플리케이션에 따라 설정된 애플리케이션 클럭이 미디어 클럭과 독립적으로 설정될 수 있다는 특징이 있다. 그 결과, 고급 애플리케이션(ADAPL)을 표준 속도로 재생하면서 타이틀 타임라인(TMLE) 상에서 FF, FR, 일시 정지 재생이 수행될 수 있다는 효과가 얻어질 수 있다. 게다가, timeBase/FRAMRT에 대하여 TickBase/TKBASE를 대폭 지연시키는 것으로 고급 재생 유닛(ADVPL)의 부담을 경감시킬 수 있다는 효과도 얻어진다. 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)는 "fps"의 단위의 tickValue로 표시되고, 값 "24", "50", 및 "60" 중 하나가 tickValue로서 설정된다. 프레임 레이트(초당 프레임의 수) 정보(FRAMRT)(timeBase 속성 정보)의 값이 "50"의 경우에는, 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)의 값으로서 "50" 또는 "24"의 값이 설정된다. 프레임 레이트(초당 프레임 수) 정보(FRAMRT)(timeBasc 속성 정보)의 값이 "60"인 경우에는, 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)의 값으로서 "60" 또는 "24"의 값이 설정된다. 이와 같이, 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)의 값이 프레임 레이트(초당 프레임의 수) 정보(FRAMRT)(timeBase 속성 정보)의 값을 정수로 나눔으로써 얻어지는 값으로 설정되고, 틱 클럭과 미디어 클럭 사이의 클럭 설정이 용이하게 될 수 있다(예컨대, 미디어 클럭의 주파수를 분주하는 것으로 용이하게 틱 클럭을 생성할 수 있다). 타이틀 세트 속성 정보(TTSTAT) 내에서 틱 클럭 주파수 정보(TKBASE)(tickBase 속성 정보)의 기술이 생략될 수 있다. 이 경우에는, 틱 클럭 주파수는 프레임 레이트 값과 일치한다. 본 실시예는 timeBase/FRAMRT 및 tickBase/TKBASE이 타이틀 세트 엘리먼트 내에 설정되어 있다는 데 특징이 있다. 그 결과, 동일 타이틀 세트 내에서 이들 값을 공유하는 것으로 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 처리를 간소화할 수 있다.
이제부터 TitleSet에서 디폴트 상태로 있는 메뉴 언어 정보(DEFLNG)(defaultLanguage 속성 정보)에 관해서 설명을 한다. 도 47에 도시한 바와 같이, 프로파일 파라미터로서 메뉴 언어가 설정된다. 메뉴 언어에 합치한 타이틀 내의 애플리케이션 세그먼트(APPLSG)(도 56b의 (d) 참조)가 존재하지 않는 경우에는, TitleSet에서 디폴트 상태로 있는 메뉴 언어 정보(DEFLNG)(defaultLanguage 속성 정보)에 기초하여 설정된 언어에 대응하는 애플리케이션 세그먼트(APPLSG)가 실행/표시될 수 있다. 타이틀 세트 속성 정보(TTSTAT) 내에서 TitleSet에서 디폴트 상태로 있는 메뉴 언어 정 보(DEFLNG)(defaultLanguage 속성 정보)의 기재가 생략될 수 있다.
<타이틀 정보>(반복)
타이틀 세트 엘리먼트 내에서 첫 번째로 FirstPlaytitle 엘리먼트 정보(RFPTELE)가 기술될 수 있고, 1개 이상의 타이틀 엘리먼트 정보(TTELEM) 세트가 순차적으로 기재되고, 각 타이틀에 관한 관리 정보가 각각의 대응하는 타이틀 엘리먼트 정보(TTELEM) 내에 기록되어 있다. 도 17의 예는 타이틀 #1 내지 #3까지의 3개의 타이틀을 가지며, 도 23a의 (b)는 타이틀 #1에 관계된 타이틀 엘리먼트 정보(TTELEM)에서 타이틀 #3에 관계된 타이틀 엘리먼트 정보(TTELEM)까지를 기술하고 있다. 그렇지만, 본 실시예는 이러한 예에 한정되지 않으며, 1 이상 임의의 수까지의 타이틀에 관계된 타이틀 엘리먼트 정보(TTELEM)가 기술될 수 있다. 또한, 타이틀 세트 엘리먼트 내에는 타이틀 엘리먼트 정보(TTELEM) 뒤에 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 기술될 수 있다. 타이틀 엘리먼트 정보(TTELEM)에 대응하는 각각의 타이틀에 타이틀 타임라인(TMLE)이 설정된다. 각 타이틀마다의 타이틀 타임라인(TMLE)의 표시 기간은 타이틀 엘리먼트 정보(TTELEM) 내의 titleDulation 속성 정보(타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)) 내에 기술된다. 타이틀 세트 엘리먼트 내에 기술되는 각각의 타이틀 엘리먼트 정보(TTELEM)의 기재 순서에 따라, 대응하는 타이틀의 번호가 설정된다. 도 23a의 (b)에 도시한 바와 같이, 타이틀 세트 엘리먼트 내에 최초로 기술되는 타이틀 엘리먼트 정보(TTELEM)에 대응하는 타이틀의 타이틀 번호는 1로 설정된다. 본 실시예에 있어서, 타이틀 세트 엘리먼트 내에 기술될 수 있는 타이틀 엘 리먼트 정보(TTELEM)의 수(재생 목록(PLLST)마다 정의할 수 있는 타이틀의 수)는 512 이하로 설정되어 있다. 타이틀의 수의 상한치를 설정함으로써, 고급 컨텐츠 재생 유닛(ADVPL)에서의 처리가 발산하는 것이 방지된다. 각각의 타이틀 엘리먼트 정보(TTELEM)는 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 및 트랙 내비게이션 정보(TRNAVI)를 이 순서대로 기술한다. 객체 매핑 정보(OBMAPI)는 각각의 표시 객체 내의 스트림(트랙) 번호를 설정하는 트랙 번호 할당 정보의 정보를 포함하고 있다.
객체 매핑 정보(OBMAPI)는 도 24a 및 도 24b를 사용하여 기술된 각종 클립 엘리먼트의 리스트를 기술하고 있다. 또한, 객체 매핑 정보(OBMAPI)는 전술한 프리젠테이션 클립 엘리먼트 내에서의 트랙 번호의 설정 정보를 나타내는 트랙 번호 할당 정보에 관계된 리스트를 기술한다. 본 실시예에서는, 비디오 정보, 오디오 정보 또는 서브-픽처 정보 등의 각각의 재생 객체가 복수의 스트림을 가질 수 있고, 독립적인 트랙이 이들 스트림과 관계되어 있으며, 트랙 번호가 설정되어 있고, 그에 따라 표시 객체 내의 재생 스트림을 식별할 수 있다. 이와 같이 트랙 번호 할당 엘리먼트 리스트를 설정함으로써, 각각의 표시 객체 내에 포함되는 스트림의 수 및 개개의 스트림이 식별될 수 있다. 리소스 정보(RESRCI)는 타이틀 엘리먼트 정보(TTELEM) 내에서의 리소스 엘리먼트의 리스트를 설명한다. 트랙 내비게이션 정보(TRNAVI)는 트랙 내비게이션 리스트 엘리먼트에 관한 정보를 기술한다. 재생 순서 정보(PLSQI)는 단일의 타이틀 내의 비디오 컨텐츠의 분할에 대응하는 챕터의 선두 위치를 나타내는 챕터 리스트 엘리먼트의 정보를 기술한다.
도 23a의 (c)에 도시한 바와 같이, 타이틀 엘리먼트 정보(TTELEM) 내에서의 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 및 트랙 내비게이션 정보(TRNAVI)의 배열 순서는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)(도 1 참조)의 처리 순서에 대응하고 있다. 즉, 단일의 타이틀 내에서 사용되는 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 정보를 기술하는 객체 매핑 정보(OBMAPI)의 정보는 타이틀 엘리먼트 정보(TTELEM) 내의 최초의 장소에 기재된다. 고급 컨텐츠 재생 유닛(ADVPL)은 맨 처음에 기록되어 있는 객체 매핑 정보(OBMAPI)로부터 단일의 타이틀 내에서 처음으로 사용되는 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 내용을 파악한다. 도 10을 사용하여 기술된 바와 같이, 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 정보는 사용자에의 표시에 앞서 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH))안에 사전에 저장되어야 한다. 이 때문에, 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)은 재생에 앞서 타이틀 내에 설정된 고급 애플리케이션(ADAPL)과 고급 자막(ADSBT) 및 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 내에서의 이들의 저장 타이밍에 관계된 정보를 필요로 한다. 고급 컨텐츠 재생 유닛(ADVPL)은 이어서 리소스 정보(RESRCI)를 판독하고, 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 내에서의 저장 타이밍을 검출할 수 있다. 따라서, 리소스 정보(RESRCI)가 객체 매핑 정보(OBMAPI) 이후에 기술되고, 고급 컨텐츠 재생 유닛(ADVPL)의 처리가 용이하게 된다. 사용자가 고급 컨텐츠(ADVCT)를 재생할 때에 보고 싶은 비디오 정보를 즉각적으로 이동할 수 있게 해주는 데 재생 순서 정 보(PLSQI)가 중요하게 되기 때문에, 재생 순서 정보(PLSQI)는 리소스 정보(RESRCI) 이후에 할당된다. 트랙 내비게이션 정보(TRNAVI)가 사용자에의 표시 직전에 필요한 정보이기 때문에, 이는 타이틀 엘리먼트 정보(TTELEM) 내에서 마지막 장소에 기술된다.
타이틀 ID 정보(TTIDI)를 도 23a(c)에 도시한 바와 같이 타이틀 엘리먼트 정보(TTELEM) 내의 타이틀 엘리먼트 태그에서의 첫 번째 위치에 기술함으로써,
1) 복수의 타이틀 엘리먼트 정보(TTELEM)가 타이틀 정보(TTINFO) 내에 기술될 수 있고(각각의 타이틀 엘리먼트 정보(TTELEM)는 서로 다른 타이틀에 대한 재생 관리 정보로서 설정될 수 있음),
2) 타이틀 정보(TTINFO) 내의 각각의 타이틀 ID 정보(TTIDI)는 타이틀 엘리먼트 태그 내의 첫 번째 위치에 기술된 타이틀 ID 정보(TTIDI)의 내용을 해석함으로써 즉각 식별될 수 있고, 재생 목록(PLLST) 내에서의 내용 판별 처리가 고속화될 수 있다.
또한, 본 실시예에 있어서, 타이틀 엘리먼트 정보(TTELEM) 내의 기술 내용을 관련시키는 각각의 정보는 함께 그룹화되고 가까운 위치에 기술된다. 그룹 이름으로서, 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI) 및 트랙 내비게이션 정보(TRNAVI)가 할당된다. 그 결과, 재생 목록 관리자(PLMNG) 내의 재생 목록(PLLST)의 내용 해석 처리가 간소화 및 고속화될 수 있다.
<타이틀 엘리먼트>
타이틀 엘리먼트는 객체 매핑 정보, 기본 스트림에 대한 트랙 번호 할당 및 타이틀에서의 재생 순서로 이루어지는 고급 컨텐츠에 대한 타이틀의 정보를 기술한다.
타이틀 엘리먼트의 내용은 챕터 리스트 엘리먼트, 트랙 내비게이션 리스트 엘리먼트, 타이틀 리소스 엘리먼트 및 프리젠테이션 클립 엘리먼트의 리스트로 이루어져 있다. 프리젠테이션 클립 엘리먼트는 1차 오디오 비디오 클립, 대체 오디오비디오 클립, 대체 오디오 클립, 2차 오디오비디오 클립, 고급 자막 세그먼트 및 애플리케이션 세그먼트이다.
타이틀 엘리먼트 내의 프리젠테이션 클립 엘리먼트는 타이틀 내의 객체 매핑 정보를 기술한다.
프리젠테이션 클립 엘리먼트는 또한 기본 스트림에 대한 트랙 번호 할당을 기술한다.
챕터 리스트 엘리먼트는 타이틀 내에서의 재생 순서의 정보를 기술한다.
트랙 내비게이션 리스트 엘리먼트는 타이틀 내에서의 트랙 내비게이션 정보의 정보를 기술한다.
타이틀 리소스 엘리먼트는 타이틀마다의 리소스 정보의 정보를 기술한다.
(a) titleNumber 속성
타이틀의 수를 기술한다. 타이틀 수는 제약을 따라야 한다.
(b) typeattribute
타이틀의 유형을 기술한다. 컨텐츠가 연동 컨텐츠이고 타이틀이 원본 타이틀인 경우, 값은 'Original(원본)'이어야 한다. 컨텐츠가 연동 컨텐츠이고 타이틀 이 사용자 정의 타이틀인 경우, 값은 'User Defined(사용자 정의)'이어야 한다. 그렇지 않은 경우, 이는 생략되거나 "Advanced(고급)"이어야 한다. 이 값은 생략될 수 있다. 디폴트값은 "Advanced(고급)"이다.
(c) selectable 속성
타이틀이 사용자 조작에 의해 선택가능한지 여부를 기술한다. 값이 "false"인 경우, 타이틀은 사용자 조작에 의해 내비게이션되어서는 안 된다. 이 값은 생략될 수 있다. 디폴트값은 "true"이다.
(d) titleDuration 속성
타이틀 타임라인의 기간을 기술한다. 속성값은 시간 표현식에 의해 기술되어야 한다.
모든 표시 객체의 종료 시간은 타이틀 타임라인의 지속 기간보다 작아야 한다.
(e) parentalLevel 속성
각각의 국가 코드에 대한 시청 제한 레벨의 리스트를 기술한다. 이 속성값은 시청 제한 리스트 값에 의해 기술되어야 한다. 이 속성은 생략될 수 있다. 디폴트값은 '*: 1'이다.
(f) tickBaseDivisor 속성
고급 애플리케이션 관리자에서의 프로세스에 대한 애플리케이션 틱의 감소율을 기술한다. 예를 들어, 틱 베이스 젯수 값이 3인 경우, 고급 애플리케이션 관리자는 3개의 애플리케이션 틱 중 하나를 처리하고 그 중 나머지는 무시해야 한다.
(g) onEnd 속성
현재의 타이틀의 종료 이후에 재생될 타이틀을 기술하는 타이틀 엘리먼트의 id 속성값을 기술한다. 이 값은 생략될 수 있다. 이 값이 생략되는 경우, 플레이어는 타이틀 재생 이후에 정지되어야 한다.
(h) displayName 속성
사람에게 친숙한 텍스트 형식으로 타이틀의 이름을 기술한다. 플레이어는 이 이름을 타이틀 이름으로서 표시할 수 있다. 이 속성은 생략될 수 있다.
(i) 대체 SD 표시 모드 속성
이 타이틀 재생에서 4:3 모니터 상에서 허용되는 표시 모드를 디스플레이한다. 'pan scan Or Letter box(팬 스캔 또는 레터 박스)'는 팬-스캔 및 레터박스 둘 다를 가능하게 해준다. 'pan scan'은 팬-스캔만을 허용하고, 'letterbox'는 4:3 모니터에 대한 레터박스만을 허용한다. 플레이어는 허용된 표시 모드에서 강제로 4:3 모니터로 출력해야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'pan scan Or Letter box'이다.
(j) description 속성
사람에게 친숙한 텍스트 형식으로 부가의 정보를 기술한다. 이 속성은 생략될 수 있다.
(k) xml:base 속성
이 엘리먼트 내의 베이스 URI를 기술한다. xml:base의 시맨틱스는 XML 베이스를 따라야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 24a 및 도 24b는 본 실시예에서 각 타이틀 엘리먼트 정보(TTELEM)의 개시를 나타내는 타이틀 엘리먼트 태그 안에 기재되어 있는 정보를 도시한 것이다. 타이틀 엘리먼트 태그는 각 타이틀을 식별하는 데 사용되는 타이틀의 ID 정보(TTID)를 맨 처음에 기재한다. 다음에, 타이틀 번호 정보(TTNUM)가 기술된다. 본 실시예에 있어서, 도 24a (b)에 도시한 바와 같이, 타이틀 정보(TTlNFO) 내에 복수의 타이틀 엘리먼트 정보(TTELEM)가 기술될 수 있다. 타이틀 번호는 기술 순서로 설정되고, 타이틀 번호 정보(TTNUM) 내에 기록되는 반면, 타이틀 엘리먼트 정보(TTELEM)는 타이틀 정보(TTINFO) 내의 처음 위치에 기술되어 있다. 게다가, 타이틀 엘리먼트 정보(TTELEM) 내에 관리되는 타이틀의 유형(종류)과 관련하여, 타이틀 유형 정보가 기술된다. 본 실시예에서, 타이틀 유형 정보(TTTYPE)로서, "Advanced", "Original" 및 "UserDefined"의 3 종류의 유형 정보의 값이 설정될 수 있다. 본 실시예에 있어서, 사용자가 기록, 편집 및 재생을 할 수 있는 고급 비디오 기록 포맷으로 기록된 비디오 정보가 고급 컨텐츠(ADVCT)의 일부로서 이용될 수 있다. 고급 비디오 기록 포맷으로 기록된 비디오 정보를 연동 컨텐츠라고 부른다. 연동 컨텐츠에 관한 원본 타이틀에 대한 타이틀 유형 정보(TTTYPE)(기록 직후 및 편집 이전의 연동 컨텐츠)는 "Original"로 설된한다. 반면에, 연동 컨텐츠에 관해 사용자가 편집한(즉, 사용자에 의해 정의된) 후에 타이틀에 대한 타이틀 유형 정보(TTTYPE)는 "UserDefined"으로 설정된다. 다른 고급 컨텐츠(ADVCT)에 관해서는, 타이틀 유형 정보(TTTYPE)는 "Advanced"로 설정된다. 본 실시예에 있어 서는, 타이틀 속성 정보(TTATRI) 내의 타이틀 유형 정보(TTTYPE)의 기술은 생략될 수 있다. 이 경우에는, 디폴트값인 "Advanced"의 값이 자동으로 설정된다. 다음에, selectable 속성 정보가 기술된다. 이 selectable 속성 정보는 지정된 타이틀이 사용자 조작에 응답하여 동작될 수 있는지에 관한 선택 정보를 나타낸다. 예컨대, 도 1에 도시하는 시스템의 경우, 사용자가 와이드 화면 텔레비젼 모니터(15)와 마주하여, (도시하지 않은) 리모콘을 사용하여 화면 조작(예컨대, 빨리 감기(FF) 또는 되감기(FR))을 수행할 수 있다. 이와 같이 사용자에 의해 지정된 처리를 사용자 조작이라고 하며, selectable 속성 정보는 타이틀이 사용자 조작에 응답하여 처리되는지 여부를 나타낸다. 이 정보에서, "true"인지 ""faIse"인지의 단어가 기술된다. 예컨대, 대응하는 타이틀의 비디오 컨텐츠, 즉 광고(44) 및 예고편(41)이 사용자에 의해 빨리 감기될 수 없는 경우에는, 대응하는 타이틀 전체가 사용자 조작을 금지하도록 설정될 수 있다. 이 경우에는, selectable 속성 정보는 대응하는 타이틀에 대한 사용자 조작을 금지시키기 위해 "false"로 설정되고, 따라서 사용자에 의한 빨리 감기나 되감기 등의 요구를 거부할 수 있다. 이 값이 "true"인 경우에는, 사용자 조작이 지원되고, 사용자의 요청에 따라 빨리 감기나 되감기 등의 처리(사용자 조작)가 실행될 수 있다. 본 실시예에 있어서, selectable 속성 정보의 디폴트값은 "true"로 설정되어 있다. 고급 컨텐츠 재생 유닛(ADVPL)(도 1 참조)의 타이틀 재생 처리 방법은 selectable 속성 정보에 따라 크게 변한다. 따라서, selectable 속성 정보를 타이틀 ID 정보(TTID)의 직후의 위치에 또 다른 종류의 정보 이후에 할당함으로써, 고급 컨텐츠 재생 유닛(ADVPL)의 처리의 편리성이 향상될 수 있다. 본 실시예에 있어서는, 타이틀 엘리먼트 태그 내에서, selectable 속성 정보의 기술이 생략될 수 있다. 이 정보의 기술이 생략되는 경우, 이는 디폴트값 "true"로서 설정된다.
도 23b (d)에 도시하는 타이틀 세트 엘리먼트 내의 프레임 레이트 정보는 화면 상에 표시되는 비디오 정보의 초당 프레임의 수를 나타내고, 타이틀 타임라인(TMLE)의 기준 시간 간격에 대응한다. 도 17을 사용하여 기술된 바와 같이, 본 실시예에서는, 50-Hz 시스템(타이틀 타임라인(TMLE) 상에서 초당 50 카운트가 카운트 업됨) 및 60-Hz 시스템(타이틀 타임라인(TMLE) 상에서 초당 60 카운트가 카운트 업됨)의 2가지 시스템이 타이틀 타임라인(TMLE)으로서 설정될 수 있다. 예를 들어, NTSC 인터레이스된 표시의 경우에는, 초당 30개 프레임(60개 필드)이 표시된다. 이 경우는 60-Hz 시스템에 대응하고, 단위 간격(타이틀 타임라인의 1 카운트의 시간 간격)이 1/60 초로 설정된다. 본 실시예에 있어서, 타이틀 타임라인(TMLE)에 따른 클럭을 미디어 클럭이라고 부르고, 이는 각각의 마크업(MRKUP)에 대해 설정된 클럭인 페이지 클럭과 구별된다. 게다가, 본 실시예에서는, 마크업(MRKUP) 내에 지정되는 고급 애플리케이션(ADAPL)의 실행 시에 정의되는 애플리케이션 클럭이 존재한다. 페이지 클럭 및 애플리케이션 클럭은 동일한 기준 클럭을 갖는다. 이 클럭은 틱 클럭의 주파수라고 불리운다. 타이틀 타임라인(TMLE)에 따른 미디어 클럭 및 틱 클럭은 독자적으로 설정될 수 있다. 이 점은 본 실시예에서의 큰 기술적 특징이다. 그 결과, 예컨대, 1차 오디오 비디오(PRMAV)의 비디오 정보의 고속 재생/되감기 재생 동안 고급 애플리케이션(ADAPL)에 의해 정의된 애니 메이션은 틱 클럭(애플리케이션 클럭)으로 표준 속도로 재생될 수 있고, 사용자에 대한 표현이 크게 향상될 수 있다. 마크업(MRKUP)에서 사용되는 틱 클럭에 대한 주파수 정보(TKBASE)는 도 23b (d)에 도시한 바와 같이 "tickBase=" 이후에 기술된다. 마크업(MRKUP) 내에서 사용되는 틱 클럭에 대한 주파수 정보(TKBASE)의 값은 프레임 레이트(초당 프레임의 수)의 정보로서 기술된 값 이하의 값으로서 설정되어 야 한다. 그 결과, 틱 클럭에 기초한 고급 애플리케이션의 실행(애니메이션의 표시 등)이 타이틀 타임라인(TMLE)에 따라 (미디어 클럭과 모순이 일어나지 않도록) 원활하게 수행될 수 있고, 고급 컨텐츠 재생 유닛(ADAPL) 내의 회로 구조가 간소화될 수 있다. 도 24a의 (b)에 도시하는 timeBaseDivisor 속성 정보는 고급 애플리케이션 관리자 내의 처리 클럭의 애플리케이션 틱 클럭에 대한 감쇠비(TICKBD)를 표하고 있다. 즉, 이 정보는 도 28에 도시하는 고급 애플리케이션 관리자(ADAMNG)가 처리를 실행하는 때의 애플리케이션 틱(틱 클럭 주파수 정보(TKBASE))에 대한 감쇠비를 의미한다. 예컨대, timeBaseDivisor 속성 정보의 값이 "3"으로 설정되는 경우에, 애플리케이션 틱의 클럭(애플리케이션 클럭)이 3 카운트만큼 증분될 때마다 고급 애플리케이션 관리자(ADAMNG)의 처리가 1 단계 진행한다. 이와 같이 고급 애플리케이션 관리자(ADAMNG)의 처리 클럭이 틱 클럭(애플리케이션 클럭)보다 뒤에 있도록 지연되는 경우, 저속으로 동작하는 고급 애플리케이션(ADAPL)에 대해 CPU 파워를 걸지 않고서 처리가 실행될 수 있고, 그에 의해 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 발열량을 억제할 수 있다.
타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)는 대 응하는 타이틀 상에서의 타이틀 타임라인(TMLE) 전체의 길이를 나타낸다. 타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)는 프레임 레이트(초당 프레임의 수) 정보에 대응하는 50-Hz 시스템 또는 60-Hz 시스템의 카운트의 총수를 사용하여 기술된다. 예컨대, 대응하는 타이틀 전체의 표시 시간이 n 초인 경우, 타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)로서는 카운트의 총수에 "6On" 또는 "50n"의 값이 설정된다. 본 실시예에 있어서, 모든 재생 객체의 종료 시간은 타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)보다 작아야 한다. 이와 같이, 타이틀 타임라인(TMLE) 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)는 타이틀 타임라인(TMLE) 상의 시간 단위 간격에 의존하기 때문에, 이 정보는 프레임 레이트 정보의 뒤에 할당되고, 그에 의해 고급 컨텐츠 재생 유닛(ADVPL)의 용이한 데이터 처리를 보장해준다.
다음의 시청 제한 레벨 정보는 재생되는 대응하는 타이틀의 시청 제한 레벨을 나타낸다.
시청 제한 레벨 값으로서 8 이하의 숫자가 입력된다. 본 실시예에 있어서, 이 정보는 타이틀 엘리먼트 태그 내에서 생략될 수 있다. 이 정보의 디폴트값은 "1"로 설정된다.
현재의 타이틀의 종료 후에 표시되는 타이틀의 번호 정보를 나타내는 정보 "onEnd"는 현재의 타이틀의 종료 후에 재생되는 그 다음 타이틀과 관계된 타이틀 번호의 정보를 기술한다. 타이틀 번호에 설정된 값이 "0"인 경우, 타이틀의 종료 후에 화면이 (종료 화면을 표시하기 위해) 일시 정지된 채로 있다. 이 정보의 디 폴트값은 "0"으로 설정된다. 타이틀 엘리먼트 태그 내에서 이 정보의 기재가 생략될 수 있고, 이러한 경우에 그 정보는 디폴트값으로서 "0"으로 설정된다.
정보 기록 및 재생 장치(1)에 의해 표시되는 타이틀 이름 정보 "displayName"는 대응하는 타이틀의 이름을 텍스트 포맷으로 기술한다. 이 정보에 기재된 정보는 정보 기록 및 재생 장치(1)의 타이틀 이름으로서 표시될 수 있다. 또한, 이 정보는 타이틀 엘리먼트 태그 내에서 생략될 수 있다.
4:3 TV 모니터 상에서의 허용 표시 모드 정보(SDDISP)를 나타내는 alternativeSDDisplayMode 속성 정보는 대응하는 타이틀을 재생할 때 4:3 TV 모니터로 데이터를 출력할 때에 허용되는 표시 모드를 나타낸다. 이 값이 "panscanOrLetterbox"로 설정된 경우에는, 4:3 TV 모니터로 데이터를 출력할 경우에 팬-스캔 모드와 레터 박스 모드 중 어느 하나로 데이터를 출력하는 것이 허용된다. 또한, 이 값이 "panscan"으로 설정된 경우에는, 4:3 TV 모니터로 데이터를 출력하는 경우 팬-스캔 모드에서 데이터를 출력하는 것만이 허용된다. 게다가, 이 값이 "letterbox"로 설정된 경우에는, 4:3 TV 모니터로 데이터를 출력하는 경우에 레터 박스 표시 모드 밖에 허용되지 않는다. 데이터가 4:3 TV 모니터로 출력되는 경우, 정보 기록 및 재생 장치(1)는 허용된 표시 모드로 데이터를 강제적으로 표시/출력해야 한다. 4:3 TV 모니터 상에서의 허용 표시 모드 정보(SDDISP)의 기술이 생략될 수 있지만, 이러한 경우에 디폴트값인 "panscanOrLetterbox"가 자동으로 설정된다.
게다가, 타이틀에 관한 부가정보(description)의 섹션에는 타이틀에 관한 부 가 정보가 텍스트 포맷으로 기재되어 있다. 이 정보의 기술은 타이틀 엘리먼트 태그 내에서 생략될 수 있다. 정보 기록 및 재생 장치(1)에 의해 표시되는 타이틀 이름 정보(displayName) 및 타이틀에 관한 부가 정보(description)는 고급 컨텐츠 재생 유닛(ADVPL)의 재생 처리를 실행할 시에 필수적인 것이 아니다. 따라서, 이들 정보는 타이틀 속성 정보(TTATRI)에서 마지막 위치에 기록된다. 마지막으로, 타이틀 엘리먼트에 대응하는 파일 저장 장소 URI 기술 형식(XMBASE)은 XML에 준거한 URI(uniform resource identifier)에 대한 기술 포맷(XML_BASE)을 나타낸다.
타이틀 엘리먼트 태그의 구체적인 정보예로서, 예컨대, 타이틀의 식별 ID 정보가 "Ando이고, 60-Hz 시스템에서의 타이틀 전체의 시간 길이가 80000인 경우에, 기술예는 다음과 같다.
<Title = `Ando' titleDuration = `80000'>
60-Hz 시스템에서는, 초당 타이틀 타임라인(TMLE)의 카운트의 수가 60 카운트만큼 카운트 업되기 때문에, 상기 80000의 값은 22 분(
Figure 112006062570134-PAT00061
80000 ÷ 60 ÷ 60)으로 된다.
타이틀 엘리먼트 정보(TTELEM) 내의 정보는, 도 23a의 (c)에 도시하는 바와 같이, 프리젠테이션 클립 엘리먼트 리스트를 기술하는 객체 매핑 정보(OBMAPI), 타이틀 리소스 엘리먼트를 기록하는 리소스 정보(RESRCI), 챕터 리스트 엘리먼트를 기술하는 재생 순서 정보(PLSQI), 및 트랙 리스트 내비게이션 리스트 엘리먼트를 기술하는 트랙 내비게이션 정보(TRNAVI)를 포함한다. 프리젠테이션 클립 엘리먼트는, 도 24b의 (c)에 도시한 바와 같이, 1차 오디오 비디오 클립(PRAVCP), 대체 오 디오 비디오 클립(SBAVCP), 대체 오디오 클립(SBADCP), 2차 오디오 비디오 클립(SCAVCP), 고급 자막 세그먼트(ADSTSG), 및 애플리케이션 세그먼트(APPLSG)를 기술한다. 프리젠테이션 클립 엘리먼트는 각각의 타이틀 내의 객체 매핑 정보(OBMAPI) 내에 기술된다. 프리젠테이션 클립 엘리먼트는 각각의 기본 스트림에 대응하여 트랙 번호 할당 정보의 일부로서 기술된다.
재생 순서 정보(PLSQI)는, 도 24b의 (d)에 도시한 바와 같이, 챕터 리스트 엘리먼트의 리스트로서 기재된다.
<챕터 엘리먼트 및 재생 순서 정보>
재생 목록 파일 내의 타이틀 엘리먼트는 챕터 리스트 엘리먼트 내의 챕터 엘리먼트의 리스트를 포함한다. 챕터 리스트 엘리먼트는 재생 순서 정보라고 하는 챕터 구조를 기술한다.
챕터 리스트 엘리먼트는 챕터 엘리먼트의 리스트로 이루어져 있다. 챕터 리스트 내의 챕터 엘리먼트의 문서 순서에 따라, 고급 내비게이션에 대한 챕터 번호는 "1"부터 연속적으로 할당되어야 한다.
타이틀 내의 챕터들의 총 수는 2000보다 작아야 한다.
재생 목록 내의 챕터의 총 수는 100000보다 작아야 한다.
챕터 엘리먼트의 titleTimeBegin 속성은 타이틀 타임라인 상에의 시간 값에 의해 챕터 시작 위치를 기술한다. 챕터 종료 위치는 다음 챕터 시작 위치 또는 마지막 챕터에 대한 타이틀 타임라인의 끝으로서 주어진다.
타이틀 타임라인에서의 챕터 시작 위치는 챕터 번호에 따라 단조적으로 증가 되어야 하고, 타이틀 타임라인의 길이보다 작거나 같아야 한다. 챕터 1의 챕터 시작 위치는 00:00:00:00이어야 한다.
이하의 설명은 재생 순서의 예이다.
<ChaperList>
<Chapter titleTimeBegin = "00:00:00:00"/>
<Chapter titleTimeBegin = "00:01:02:00"/>
<Chapter titleTimeBegin = "00:02:01:03"/>
<Chapter titleTimeBegin = "00:04:02:30"/>
<Chapter titleTimeBegin = "00:05:21:22"/>
<Chapter titleTimeBegin = "00:06:31:23"/>
</ChapterList>
보다 알기 쉬운 설명이 이하에 제공된다.
재생 순서 정보(PLSQI) 내에서의 챕터 리스트 엘리먼트는 타이틀 내의 챕터 구조를 기술한다. 챕터 리스트 엘리먼트는 챕터 엘리먼트(도 24b의 (d)에 도시한 바와 같이, <Chapter titleTimeBegin> 태그로 시작하는 각각의 행)의 리스트로서 기술되어 있다. 챕터 리스트 내에서 최초로 기술된 챕터 엘리먼트의 번호는 "1"로 설정되고, 챕터 번호는 각각의 챕터 엘리먼트의 기술의 순서에 따라서 설정된다. 1개의 챕터 리스트(타이틀) 내의 챕터의 수는 512 이하로 설정되고, 따라서 고급 컨텐츠 재생 유닛(ADVPL)의 처리시의 발산을 방지한다. 각각의 챕터 엘리먼트 내에서의 titleTimeBegin 속성("<Chapter titleTimeBegin>=" 이후에 기재되는 정보) 는 타이틀 타임라인 상에서의 각각의 챕터의 시작 위치를 나타내는 시각 정보(타이틀 타임라인(TMLE) 상에서의 카운트의 수)를 나타내고 있다.
각각의 챕터의 시작 위치를 나타내는 시각 정보는 각각 시간, 분, 초, 프레임의 수를 나타내는 "HH : MM : SS : FF"의 형태로 표시된다. 이 챕터의 종료 위치는 다음 챕터의 시작 위치로 표현된다. 마지막 챕터의 종료 위치는 타이틀 타임라인(TMLE) 상의 마지막 값(카운트 값)으로 해석된다. 각각의 챕터의 타이틀 타임라인(TMLE) 상에서의 시작 위치를 나타내는 시각 정보(카운트 값)는 챕터 번호의 증가에 대응하여 단조적으로 증가하도록 설정되어야 한다. 이와 같이 설정함으로써, 각각의 챕터의 재생 순서에 따른 순차적인 점프 액세스 제어가 용이하게 된다.
각각의 챕터 엘리먼트에 대한 부가 정보는 사용자가 이해하기 쉽도록 텍스트 포맷으로 기술된다. 또한, 각각의 챕터 엘리먼트에 대한 부가 정보는 챕터 엘리먼트 태그내에서의 기술을 생략할 수 있다. 게다가, "displayName="의 직후에, 대응하는 챕터 이름은 사용자가 쉽게 이해할 수 있는 텍스트 포맷으로 기술될 수 있다. 고급 컨텐츠 재생 유닛(ADAPL)(도 1 참조)은 대응하는 챕터 이름 정보를 각각의 챕터의 이름으로서 와이드 화면 TV 모니터(15) 상에 표시할 수 있다. 대응하는 챕터 이름 정보는 챕터 엘리먼트 태그 내에서의 기술을 생략할 수 있다.
도 25는 전술한 도 10에 정의된 각종 재생 표시 객체의 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 데이터 흐름을 나타낸 것이다.
도 14는 도 1에 도시하는 고급 컨텐츠 재생 유닛(ADVPL) 내의 구조를 나타낸 것이다. 도 25 내의 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 및 네트워 크 서버(NTSRV)는 각각 도 14 내의 대응하는 것과 일치한다. 도 25에서의 스트리밍 버퍼(STRBUF) 및 파일 캐쉬(FLCCH)는 총칭하여 데이터 캐쉬(DTCCH)라고 부르며, 이들은 도 14의 데이터 캐쉬(DTCCH)에 대응한다. 도 25에서의 1차 비디오 플레이어(PRMVP), 2차 비디오 플레이어(SCDVP), 메인 비디오 디코더(MVDEC), 메인 오디오 디코더(MADEC), 서브-픽처 디코더(SPDEC), 서브 비디오 디코더(SVBEC), 서브 오디오 디코더(SADEC), 고급 애플리케이션 프리젠테이션 엔진(AAPEN), 및 고급 자막 플레이어(ASBPL)은 도 14에서의 프리젠테이션 엔진(PRESEN) 내에 포함된다. 도 14에서의 내비게이션 관리자(NVMNG)는 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 각종 재생 표시 객체 데이터의 흐름을 관리하며, 도 14에서의 데이터 액세스 관리자(DAMNG)는 각종 고급 컨텐츠(ADVCT)의 저장 장소와 고급 컨텐츠 재생 유닛(ADVPL) 사이에서 데이터를 중개한다.
도 10에 도시한 바와 같이, 재생 객체의 재생 시에는, 1차 비디오 세트(PRMVS)의 데이터는 정보 저장 매체(DISC)에 기록되어야 한다.
본 실시예에서, 1차 비디오 세트(PRMVS)는 또한 고해상도 비디오 정보를 처리할 수 있다. 따라서, 1차 비디오 세트(PRMVS)의 데이터 전송 레이트는 아주 높아질 수 있다. 네트워크 서버(NTSRV)로부터의 직접 재생이 시도되는 경우, 또는 네트워크 라인 상에서의 데이터 전송 레이트가 일시적으로 떨어지는 경우, 사용자에 대한 연속적인 비디오 표시가 중단될 수 있다. 도 43에 도시된 바와 같이, SD 카드(SDCD), USB 메모리(USBM), USBHDD, NAS 등등의 여러 가지 정보 저장 매체는 영속적 저장 장치(PRSTR)인 것으로 가정되며, 영속적 저장 장치(PRSTR)로서 사용되 는 어떤 정보 저장 매체는 낮은 데이터 전송 레이트를 가질 수 있다. 따라서, 본 실시예에서, 고해상도 비디오 정보를 처리할 수 있는 1차 비디오 세트(PRMVS)가 정보 저장 매체(DISC)에만 기록될 수 있기 때문에, 1차 비디오 세트(PRMVS)의 고해상도 데이터를 중단시키지 않고 사용자에의 연속적인 표시가 보장될 수 있다. 정보 저장 매체(DISC)로부터 판독된 1차 비디오 세트는 이와 같이 1차 비디오 플레이어(PRMVP)로 전송된다. 1차 비디오 세트(PRMVS)에서, 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD), 및 서브-픽처(SUBPT)가 멀티플렉싱되고 2048-바이트 단위로 팩(pack)으로서 기록된다. 이들 팩은 재생 시에 디멀티플렉싱되고 메인 비디오 디코더(MVDEC), 메인 오디오 디코더(MADEC), 서브 비디오 디코더(SVDEC), 서브 오디오 디코더(SADEC), 및 서브-픽처 디코더(SPDEC)에서 디코딩 처리된다. 본 실시예는 2차 비디오 세트(SCDVS)의 객체의 2가지 서로 다른 재생 방법, 즉 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)로부터의 직접적인 재생 경로 및 객체들이 데이터 캐쉬(DTCCH)에 일시적으로 저장된 후에 이 데이터 캐쉬(DTCCH)로부터 객체들을 재생하는 방법을 가능하게 해준다. 상기한 첫 번째 방법에서, 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)에 기록되어 있는 2차 비디오 세트(SCDVS)는 2차 비디오 플레이어(SCDVP)로 직접 전송되고, 메인 오디오 디코더(MADEC), 서브 비디오 디코더(SVDEC), 또는 서브 오디오 디코더(SADEC)에 의해 디코딩 처리된다. 상기한 두 번째 방법으로서, 2차 비디오 세트(SCDVS)는 그의 저장 장소(즉, 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR) 또는 네트워크 서버(NTSRV))에 상관없이 데이터 캐쉬(DTCCH)에 일시적 으로 기록되고, 이어서 데이터 캐쉬(DTCCH)로부터 2차 비디오 플레이어(SCDVP)로 전송된다. 이때, 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)에 기록되어 있는 2차 비디오 세트(SCDVS)는 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH)에 기록된다. 그렇지만, 네트워크 서버(NTSRV)에 기록되어 있는 2차 비디오 세트(SCDVS)는 스트리밍 버퍼(STRBUF)에 일시적으로 저장된다. 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)로부터의 데이터 전송은 어떤 대량의 데이터 전송 레이트 저하를 겪지 않는다. 그렇지만, 네트워크 서버(NTSRV)로부터 전송되는 객체 데이터의 데이터 전송 레이트는 네트워크 상황에 따라 일시적으로 크게 떨어질 수 있다. 따라서, 네트워크 서버(NTSRV)로부터 전송되는 2차 비디오 세트(SCDVS)가 스트리밍 버퍼(STRBUF)에 기록되어 있기 때문에, 네트워크 상에서의 데이터 전송 레이트 저하는 시스템의 측면에서 지원될 수 있고, 사용자 표시 시의 연속적인 재생이 보장될 수 있다. 본 실시예는 이들 방법에 한정되지 않으며, 네트워크 서버(NTSRV)에 기록되어 있는 2차 비디오 세트(SCDVS)의 데이터를 영속적 저장 장치(PRSTR)에 저장할 수 있다. 그 후에, 2차 비디오 세트(SCDVS)의 정보는 영속적 저장 장치(PRSTR)로부터 2차 비디오 플레이어(SCDVP)로 전송되고, 재생 및 표시될 수 있다.
도 10에 도시한 바와 같이, 고급 애플리케이션(ADAPL)과 고급 자막(ADSBT)의 정보는 객체의 기록 장소에 상관없이, 전부 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH) 내에 일시적으로 저장된다. 이와 같이 하여, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)와의 동시 재생 시에 도 1에 도시하는 정보 기록 및 재 생 유닛 내에서의 광학 헤드의 액세스 횟수가 감소되고, 따라서 사용자에의 연속적인 표시를 보증할 수 있다. 파일 캐쉬(FLCCH) 내에 일시 저장된 고급 애플리케이션(ADAPL)은 고급 애플리케이션 프리젠테이션 엔진(AAPEN)으로 전송되고, 사용자에의 표시 처리가 이루어진다. 또한, 파일 캐쉬(FLCCH) 내에 저장된 고급 자막(ADSBT)의 정보는 고급 자막 플레이어(ASBPL)로 전송되고, 사용자에게 표시된다.
데이터 액세스 관리자:
데이터 액세스 관리자는 디스크 관리자, 네트워크 관리자, 및 영속적 저장 장치 관리자로 이루어져 있다(도 26 참조).
디스크 관리자:
디스크 관리자는 HD DVD 디스크로부터 고급 컨텐츠 플레이어의 내부 모듈로의 데이터 판독을 제어한다.
디스크 관리자는 HD DVD 디스크에 대한 파일 액세스 API 세트를 제공하는 일을 맡고 있다. HD DVD 디스크는 기록 기능을 지원해서는 안 된다.
영속적 저장 장치 관리자:
영속적 저장 장치 관리자는 영속적 저장 장치와 고급 컨텐츠 플레이어의 내부 모듈 간의 데이터 교환을 제어한다. 영속적 저장 장치 관리자는 영속적 저장 장치에 대한 파일 액세스 API 세트를 제공하는 일을 맡고 있다. 영속적 저장 장치는 파일 판독/기록 기능을 지원할 수 있다.
네트워크 관리자:
네트워크 관리자는 네트워크 서버와 고급 컨텐츠 플레이어의 내부 모듈 간의 데이터 교환을 제어한다. 네트워크 관리자는 네트워크 서버에 대한 파일 액세스 API 세트를 제공하는 일을 맡고 있다. 네트워크 서버는 보통 파일 다운로드를 지원하고, 어떤 네트워크 서버는 파일 업로딩을 지원할 수 있다.
내비게이션 관리자는 고급 애플리케이션에 따라 네트워크 서버와 파일 캐쉬 간의 파일 다운로드/업로딩을 호출한다. 네트워크 관리자는 또한 프로토콜 레벨 액세스 기능을 프리젠테이션 엔진에 제공한다. 프리젠테이션 엔진 내의 2차 비디오 플레이어는 네트워크 서버로부터의 스트리밍을 위해 이들 기능을 이용할 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 26은 도 14에 도시한 고급 컨텐츠 재생 유닛(ADVPL) 내의 데이터 액세스 관리자(DAMNG) 내의 구조를 나타낸 것이다.
본 실시예에서의 데이터 액세스 관리자(DAMNG)는 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV) 및 정보 저장 매체(DISC) 내에 기록된 각종 재생 객체의 고급 컨텐츠 재생 유닛(ADVPL) 내로의 교환을 제어한다. 데이터 액세스 관리자(DAMNG)는 디스크 관리자(DKMNG), 영속적 저장 장치 관리자(PRMNG), 및 네트워크 관리자(NTMNG)를 포함한다. 먼저, 디스크 관리자(DKMNG)의 동작에 대해 설명한다. 본 실시예에 있어서, 디스크 관리자(DKMNG)는 정보 저장 매체(DISC)로부터 정보를 판독하고 고급 컨텐츠 재생 유닛(ADVPL) 내의 각종의 내부 모듈로 데이터를 전송할 시에 데이터 제어를 수행한다. 디스크 관리자(DKMNG)는 본 실시예의 정보 저장 매체(DISC)에 대하여 API(애플리케이션 인터페이스) 명령에 따라서 정보 저장 매 체(DISC) 내에 기록된 각종 파일을 재생한다. 본 실시예에서는 정보 저장 매체(DISC)에의 정보의 기록 기능을 전제로 하고 있지 않다.
영속적 저장 장치 관리자(PRMNG)는 영속적 저장 장치(PRSTR) 및 고급 컨텐츠 재생 유닛(ADVPL) 내의 각종 내부 모듈 간의 데이터 전송을 제어한다. 영속적 저장 장치 관리자(PRMNG)도 디스크 관리자(DKMNG)에서와 같이 API 명령 세트에 대응하여 영속적 저장 장치(PRSTR)에서의 파일 액세스 제어를 수행한다. 본 실시예의 영속적 저장 장치(PRSTR)는 기록 및 재생 기능을 전제로 하고 있다.
네트워크 관리자(NTMNG)는 네트워크 서버(NTSRV)와 고급 컨텐츠 재생 유닛(ADVPL) 내의 내부 모듈 간의 데이터 전송 제어를 수행한다. 네트워크 관리자(NTMNG)는 네트워크 서버(NTSRV)에 대한 API 명령 세트에 기초하여 파일 액세스 제어(파일 판독 제어)를 수행한다. 본 실시예에 있어서, 네트워크 서버(NTSRV)는 네트워크 서버(NTSRV)부터의 파일다운로드를 통상 지원할 뿐만 아니라, 네트워크 서버(NTSRV)로의 파일 업로딩도 지원할 수 있다.
게다가, 본 실시예에 있어서는, 네트워크 관리자(NTMNG)가 프리젠테이션 엔진(PRSEN)으로 전송되는 각종 재생 객체의 프로토콜 레벨에서의 액세스 제어 기능도 관리하고 있다. 또한, 도 25에 도시한 바와 같이, 네트워크 관리자(NTMNG)는 스트리밍 버퍼(STRBUF)를 통한 네트워크 서버(NTSRV)로부터 2차 비디오 플레이어(SCDVP)로의 2차 비디오 세트(SCDVS)의 데이터 전송 제어를 수행할 수 있다. 네트워크 관리자(NTMNG)는 또한 이들 제어 동작을 제어 및 관리한다.
데이터 캐쉬:
데이터 캐쉬는 2가지 종류의 임시 데이터 저장 장치로 분할될 수 있다. 하나는 파일 데이터에 대한 임시 버퍼인 파일 캐쉬이다. 다른 하나는 데이터를 스트리밍하기 위한 임시 버퍼인 스트리밍 버퍼이다.
스트리밍 버퍼에 대한 데이터 캐쉬 분담액은 재생 목록에 기술되어 있으며, 데이터 캐쉬는 고급 컨텐츠 재생의 시동 시퀀스 동안에 분할된다. 데이터 캐쉬의 최소 크기는 64 MB이다(도 27 참조).
데이터 캐쉬 초기화:
데이터 캐쉬 구성은 고급 컨텐츠 재생의 시동 시퀀스 동안에 변경된다. 재생 목록은 스트리밍 버퍼의 크기를 포함할 수 있다. 스트리밍 버퍼 크기 구성이 없는 경우, 이는 스트리밍 버퍼 크기가 0임을 나타낸다. 스트리밍 버퍼 크기의 바이트 크기는 다음과 같이 계산된다.
<streaming Buf size = "1024"/>
스트리밍 버퍼 크기 = 1024 (kB) = 1024 x 1024 바이트.
스트리밍 버퍼 크기는 2048 바이트의 배수이어야 한다.
최소 스트리밍 버퍼 크기는 0 바이트이다.
파일 캐쉬:
파일 캐쉬는 데이터 소스, 내비게이션 관리자 및 프리젠테이션 엔진 간의 일시적인 파일 캐싱을 위해 사용된다.
스트리밍 버퍼:
스트리밍 버퍼는 2차 비디오 플레이어 내의 2차 비디오 프리젠테이션 엔진에 의한 2차 비디오 세트에 대한 일시적인 데이터 버퍼링을 위해 사용된다. 2차 비디오 플레이어는 네트워크 관리자에 대해 2차 비디오 세트의 S-EVOB의 일부를 스트리밍 버퍼로 가져오도록 요청한다. 이어서, 2차 비디오 플레이어는 스트리밍 버퍼로부터 S-EVOB 데이터를 판독하고 이를 2차 비디오 플레이어 내의 디멀티플렉서 모듈로 피드시킨다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 27은 도 14에 도시한 고급 컨텐츠 재생 유닛(ADVPL) 내의 데이터 캐쉬(DTCCH) 내의 구조를 나타낸 것이다.
본 실시예에 있어서, 데이터 캐쉬(DTCCH)는 일시적인 데이터 저장 장소로서 이하에 기술되는 2가지 서로 다른 유형의 영역으로 분할된다. 첫 번째 영역은 파일 데이터에 대한 일시 저장 장소(임시 버퍼)로서 사용되는 파일 캐쉬(FLCCH)이다. 두 번째 영역으로서, 본 실시예에서는, 스트리밍 데이터에 대한 일시 저장 장소로서 사용되는 스트리밍 버퍼(STRBUF)가 정의될 수 있다. 도 25에 도시한 바와 같이, 본 실시예에 있어서는, 스트리밍 버퍼(STRBUF)는 네트워크 서버(NTSRV)로부터 전송된 2차 비디오 세트(SCDVS)를 일시적으로 저장할 수 있다. 스트리밍 버퍼(STRBUF) 내에는 2차 비디오 세트(SCDVS)에 포함되는 대체 오디오(SBTAD), 대체 오디오 비디오(SBTAV), 또는 2차 오디오 비디오(SCDAV)가 일시적으로 기록된다. 재생 목록(PLLST) 내의 리소스 정보(RESRCI) 내의 스트리밍 버퍼(STRBUF)에 연관된 정보 기술 섹션에는 데이터 캐쉬(DTCCH)에 할당되는 스트리밍 버퍼(STRBUF) 영역에 연관된 정보(스트리밍 버퍼(STRBUF) 영역의 크기, 스트리밍 버퍼(STRBUF) 영역으로 서 할당되는 메모리 공간 상의 어드레스 범위 등)이 기재된다.
고급 컨텐츠(ADVCT)의 재생 시동 처리(시동 시퀀스) 동안에, 데이터 캐쉬(DTCCH)의 할당 작업(파일 캐쉬(FLCCH)에 할당되는 데이터 크기 및 스트리밍 버퍼(STRBUF)에 할당되는 데이터 크기의 할당 처리)가 실행된다. 본 실시예에 있어서, 데이터 캐쉬(DTCCH) 내의 데이터 크기는 64 MB 이상인 것을 전제로 하고 있다. 64 MB 이상을 전제로 한 고급 애플리케이션(ADAPL) 및 고급 자막(ADSBT)의 사용자에의 표시 처리를 원활하게 실행하는 것이 보증된다.
본 실시예에 있어서, 고급 컨텐츠(ADVCT)의 재생 시의 시동 처리(시동 시퀀스) 동안에, 데이터 캐쉬(DTCCH) 내의 할당 작업(파일 캐쉬(FLCCH) 및 스트리밍 버퍼(STRBUF)의 할당된 메모리 크기의 설정 등)이 변경된다. 재생 목록 파일(PLLST)은 스트리밍 버퍼(STRBUF)에 할당되는 메모리 크기 정보를 기술하고 있다. 스트리밍 버퍼(STRBUF)의 크기가 재생 목록(PLLST) 내에 기술되어 있지 않은 경우에는, 스트리밍 버퍼(STRBUF)에 할당되는 메모리 크기는 "0"인 것으로 간주된다. 도 23a 및 도 23b에 도시된 재생 목록(PLLST) 내의 구조 정보(CONFGI) 내에 기술된 스트리밍 버퍼(STRBUF)의 크기 정보는 팩 크기(논리 블록 크기 또는 논리 섹터 크기)를 단위로서 사용하여 기술된다. 본 실시예에서, 하나의 팩 크기, 하나의 논리 블록 크기, 및 하나의 논리 섹터 크기 모두는 서로 같다, 즉 2048 바이트(약 2 kB)이다. 예를 들어, 상기한 구조 정보(CONFGI)가 스트리밍 버퍼 크기가 1024임을 기술하는 경우, 데이터 캐쉬(DTCCH)에서 실제로 할당되는 메모리 공간 상의 스트리밍 버퍼의 크기는 1024 x 2 = 2048 kB이다. 스트리밍 버퍼(STRBUF)의 최소 크기는 0 바이 트로서 지정된다. 본 실시예에서, 1차 비디오 세트(PRMVS) 내에 포함된 1차 고화질 비디오 객체(P-EVOB) 및 2차 비디오 세트(SCDVS) 내에 포함된 2차 고화질 비디오 객체(S-EVOB)는 각각의 논리 블록(논리 섹터)에 대한 팩 단위의 스트림으로서 기록된다. 따라서, 본 실시예에서, 팩 크기(논리 블록 크기 또는 논리 섹터 크기)를 사용하여 스트리밍 버퍼(STRBUF)의 크기 정보를 기술함으로써 각각의 스트림 팩에 대한 단위 액세스 제어가 용이하게 될 수 있다.
도 27에 도시한 바와 같이, 파일 캐쉬(FLCCH)는 데이터 액세스 관리자(DAMNG)를 거쳐 외부로부터 가져온 고급 컨텐츠(ADVCT)의 데이터를 일시적으로 저장하는 장소로서 사용되고, 내비게이션 관리자(NVMNG) 및 프리젠테이션 엔진(PRSEN) 둘 다에 의해 사용될 수 있다.
도 27에 도시한 바와 같이, 본 실시예에서, 스트리밍 버퍼(STRBUF)는 프리젠테이션 엔진(PRSEN)에 의해서만 사용되는 메모리 공간이다. 도 25에 도시된 바와 같이, 본 실시예에서, 스트리밍 버퍼(STRBUF)는 2차 비디오 세트(SCDVS)의 데이터를 기록하며, 2차 비디오 플레이어(SCDVP) 내의 2차 비디오 재생 엔진(SVPBEN)에 의해 사용될 수 있다. 2차 비디오 플레이어(SCDVP)는 네트워크 관리자(NTMNG)(도 26에 도시된 데이터 액세스 관리자(DAMNG) 내에 포함됨)에 대해 네트워크 서버(NTSRV)로부터 2차 비디오 세트(SCDVS) 내의 2차 고화질 비디오 객체 데이터(S-EVOB) 중 적어도 일부를 판독하고 이를 스트리밍 버퍼(STRBUF)에 일시적으로 저장하도록 요청을 발행한다. 그 후에, 2차 비디오 플레이어(SCDVP)는 스트리밍 버퍼(STRBUF)에 일시적으로 저장된 2차 고화질 비디오 객체 데이터(S-EVOB)를 판독하 고, 이를 도 35에 도시된 2차 비디오 플레이어(SCDVP) 내의 디멀티플렉서(DEMUX)로 전송하며, 디코더 엔진(DEDEN) 내에서 이들을 디코더 처리되게 한다.
내비게이션 관리자:
내비게이션 관리자는 5개의 주요 기능 모듈, 즉 파서, 재생 목록 관리자, 고급 애플리케이션 관리자, 패일 캐쉬 관리자 및 사용자 인터페이스 엔진으로 이루어져 있다(도 28 참조).
파서:
파서는 재생 목록 관리자 및 고급 애플리케이션 관리자로부터의 요청에 응답하여 고급 내비게이션 파일을 판독 및 파싱한다. 파싱된 결과는 요청된 모듈로 전송된다.
재생 목록 관리자:
재생 목록 관리자는 이하의 임무를 갖는다.
Figure 112006062570134-PAT00062
모든 재생 제어 모듈의 초기화
Figure 112006062570134-PAT00063
타이틀 타임라인 제어
Figure 112006062570134-PAT00064
파일 캐쉬 리소스 관리
Figure 112006062570134-PAT00065
재생 제어 모듈 관리
Figure 112006062570134-PAT00066
플레이어 시스템의 인터페이스
모든 재생 제어 모듈의 초기화:
재생 목록 관리자는 재생 목록 내의 기재 내용에 기초하여 시동 절차를 실행한다. 재생 목록 관리자는 파일 캐쉬 크기 및 스트리밍 버퍼 크기를 변경한다. 재생 목록 관리자는 재생 정보를 각각의 재생 제어 모듈에, 예를 들어 TMAP 파일 및 P-EVOB의 재생 길이의 정보를 1차 비디오 플레이어에, 매니페스트 파일을 고급 애플리케이션 관리자에 알려주며, 이하 마찬가지이다.
타이틀 타임라인 제어:
재생 목록 관리자는 고급 애플리케이션으로부터의 요청, 각각의 제어 모듈로부터의 재생 진행 상태, 및 현재의 재생 목록의 디폴트 재생 스케쥴에 응답하여 타이틀 타임라인 진행을 제어한다. 재생 목록 관리자는 또한 1차 비디오 플레이어, 2차 비디오 플레이어, 기타 등등의 각각의 재생 모듈이 타이틀 타임라인에 동기되어 있는 그 자신의 표시 객체를 계속하여 매끄럽게 재생할 수 있는지 이들을 관찰한다. 어떤 동기된 표시 객체가 계속하여 매끄럽게 재생될 수 없는 경우, 재생 목록 관리자는 동기된 표시 객체 간의 표시 타이밍 및 타이틀 타임라인의 시간을 중재한다.
파일 캐쉬 리소스 관리:
재생 목록 관리자는 재생 목록 내의 객체 매핑 정보의 리소스 정보를 판독 및 파싱한다. 재생 목록 관리자는 그 안에 리소스 관리 테이블을 발생하는 파일 캐쉬 관리자에 리소스 정보를 제공한다.
재생 목록 관리자는 파일 캐쉬 관리자에 대해 타이틀 타임라인 진행과 함께 이 테이블에 기초하여 리소스 파일을 로딩 및 폐기하도록 지시한다.
재생 제어 모듈 관리:
재생 목록 관리자는 고급 애플리케이션 관리자 내의 프로그래밍 엔진에 재생 제어 모듈의 각종의 API 세트를 제공한다. 2차 비디오 플레이어 제어, 효과 오디오 제어, 오디오 믹싱 제어, 기타 등등의 API가 있다.
플레이어 시스템의 인터페이스:
재생 목록 관리자는 고급 애플리케이션 관리자 내의 프로그래밍 엔진에 플레이어 시스템 API를 제공한다.
시스템 정보, 기타 등등에 액세스하는 API가 있다.
고급 애플리케이션 관리자:
고급 애플리케이션 관리자는 고급 컨텐츠의 재생 거동 전체를 제어하고 또한 고급 애플리케이션의 마크업 및 스크립트의 협동에 따라 고급 애플리케이션 프리젠테이션 엔진도 제어한다. 고급 애플리케이션 관리자는 선언 엔진 및 프로그래밍 엔진으로 이루어져 있다(도 28 참조).
선언 엔진:
선언 엔진은 고급 애플리케이션의 마크업에 따라 고급 컨텐츠의 선언 거동을 관리 및 제어한다. 선언 엔진은 이하의 일을 맡고 있다.
Figure 112006062570134-PAT00067
고급 애플리케이션 프리젠테이션 엔진의 제어
> 그래픽 객체 및 고급 텍스트의 배치
> 그래픽 객체 및 고급 텍스트의 스타일
> 스케쥴링된 그래픽 플레인 거동 및 효과 오디오 재생의 타이밍 제어
Figure 112006062570134-PAT00068
메인 오디오의 제어
> 메인 비디오에 할당되어 있는 객체 엘리먼트를 통해 1차 오디오 비디오 내 의 메인 오디오의 속성 제어
Figure 112006062570134-PAT00069
서브 비디오의 제어
> 서브 비디오에 할당되어 있는 객체 엘리먼트를 통해 1차 오디오 비디오 또는 2차 오디오 비디오 내의 서브 비디오의 속성 제어
Figure 112006062570134-PAT00070
스케쥴링된 스크립트 호출
> 타이밍 엘리먼트를 실행함으로써 스크립트 호출 타이밍을 제어한다.
프로그래밍 엔진:
프로그래밍 엔진은 이벤트 구동 거동, API 세트 호출 또는 임의의 종류의 고급 컨텐츠 제어를 관리한다. 사용자 인터페이스 이벤트는 일반적으로 프로그래밍 엔진에 의해 처리되고, 이는 선언 엔진에 정의되어 있는 고급 컨텐츠 또는 고급 애플리케이션의 거동을 변경할 수 있다.
파일 캐쉬 관리자:
파일 캐쉬 관리자는 이하의 일을 맡고 있다.
Figure 112006062570134-PAT00071
P-EVOB에 멀티플렉싱되어 있는 패키지 파일을 포함한 리소스 파일을 1차 비디오 플레이어 내의 디멀티플렉서 모듈로부터 파일 캐쉬로 저장
Figure 112006062570134-PAT00072
패키지 파일을 포함한 리소스 파일을 디스크, 네트워크 서버 또는 영속적 저장 장치 상에 저장
Figure 112006062570134-PAT00073
재생 목록 관리자 또는 고급 애플리케이션 관리자에 의해 요청되는 패키지 파일을 포함한 리소스 파일을 데이터 소스로부터 파일 캐쉬로 검색
Figure 112006062570134-PAT00074
파일 캐쉬의 파일 시스템 관리
파일 캐쉬 관리자는 P-EVOB에 멀티플렉싱된 고급 스트림의 PCK를 1차 비디오 플레이어 내의 디멀티플렉서 모듈로부터 수신한다. 고급 스트림(PCK)의 PS 헤더가 제거되고, 이어서 고급 스트림 데이터가 파일 캐쉬 내로 저장된다. 파일 캐쉬 관리자는 또한 재생 목록 관리자 또는 고급 애플리케이션으로부터의 요청에 응답하여 디스크, 네트워크 서버 또는 영속적 저장 장치 상의 패키지 파일을 포함한 리소스 파일을 가져온다.
사용자 인터페이스 엔진
사용자 인터페이스 엔진은 커서 관리자 및 프론트 패널, 리모콘, 마우스, 게인 패드 콘트롤러, 기타 등등의 몇 가지 사용자 인터페이스 장치 제어기를 포함한다. 사용자 입력 이벤트를 발생할 수 있는 장치의 지원이 필수적이다. 커서 관리자의 지원이 필수적이다. 정지로부터 빠져나오는 방법(리셋 버튼, 디스크 트레이 강제 열기 버튼, 기타 등등)의 지원이 필수적이다. 다른 사용자 인터페이스를 지원하는 것은 선택적이다.
각각의 제어기는 장치의 이용가능성을 검출하고 사용자 조작 이벤트를 관찰한다. 모든 사용자 입력 이벤트가 이 규격으로 정의되어 있다. 사용자 입력 이벤트는 내비게이션 관리자 내의 고급 애플리케이션 관리자 내의 프로그래밍 엔진에 통지된다.
커서 관리자는 커서 형상 및 위치를 제어한다. 커서 위치, 이미지 및 핫스폿은 고급 애플리케이션 관리자 내의 프로그래밍 엔진으로부터의 API 호출을 통해 갱신된다. 커서 관리자는 마우스, 게임 패드, 기타 등등의 관련 장치로부터의 움 직임 이벤트에 따라 커서 플레인을 갱신한다. 커서가 움직일 수 있는 영역을 '커서 영역'이라고 한다. 이 영역은 API 호출에 의해 변경될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 28은 도 14에 도시된 고급 컨텐츠 재생 유닛(ADAPL) 내의 내비게이션 관리자(NVMNG)의 내부 구조를 나타낸 것이다. 본 실시예에서, 내비게이션 관리자(NVMNG)는 5개의 주요 기능 모듈, 즉 파서(PARSER), 재생 목록 관리자(PLMNG), 고급 애플리케이션 관리자(ADMNG), 파일 캐쉬 관리자(FLCMNG), 및 사용자 엔진(UIENG)을 포함한다.
본 실시예에서, 도 28에 도시된 파서(PARSER)는 컨텐츠의 분석 처리를 실행하기 위해 재생 목록 관리자(PLMNG) 또는 고급 애플리케이션 관리자(ADAMNG)로부터의 요청에 응답하여 고급 내비게이션 파일(도 11에 도시된 고급 내비게이션 디렉토리(ADVNV) 내의 매니페스트 파일(MNFST), 마크업 파일(MRKUP) 및 스크립트 파일(SCRPT))을 파싱한다. 파서(PARSER)는 분석 결과에 기초하여 여러 가지 종류의 요구된 정보를 각각의 기능 모듈로 전송한다.
도 28에 도시된 재생 목록 관리자(PLMNG)는 이하의 프로세스를 실행한다.
Figure 112006062570134-PAT00075
도 14에 도시된 고급 컨텐츠 재생 유닛(ADVPL) 내의 프리젠테이션 엔진(PRSEN), AV 렌더러(AVRND), 기타 등등의 재생 제어 모듈 모두의 초기화
Figure 112006062570134-PAT00076
타이틀 타임라인(TMLE) 제어(타이틀 타임라인(TMLE)과 동기화된 각각의 표시 객체의 동기화 처리, 사용자 표시 시에 타이틀 타임라인(TMLE)의 일시 정지 또는 고속 감기 제어, 기타 등등)
Figure 112006062570134-PAT00077
파일 캐쉬(FLCCH)(데이터 캐쉬(DTCCH)) 내에서의 리소스 관리
Figure 112006062570134-PAT00078
고급 컨텐츠 재생 유닛(ADVPL) 내의 프리젠테이션 엔진(PRSEN), AV 렌더러(AVRND), 기타 등등의 재생 표시 제어 모듈의 관리
Figure 112006062570134-PAT00079
플레이어 시스템의 인터페이스 처리
본 실시예에 있어서, 도 28에 도시한 재생 목록 관리자(PLMNG)는 재생 목록 파일(PLLST) 내에 기술된 내용에 기초하여 초기화 처리를 한다. 구체적인 내용으로서, 재생 목록 관리자(PLMNG)는 도 27에 도시한 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH)에 할당되는 메모리 공간 크기 및 스트리밍 버퍼(STRBUF)로서 할당되는 메모리 공간 내의 데이터 크기를 변경한다. 고급 컨텐츠(ADVCT)의 재생 및 표시 시에, 재생 목록 관리자(PLMNG)는 각각의 재생 제어 모듈에 대하여 필요한 재생 표시 정보의 전송 처리를 실행한다. 예를 들어, 1차 비디오 비디오 관리자(PRMVP)는 1차 고화질 비디오 객체 데이터(P-EVOB)의 재생 기간 동안에 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP)을 전송한다. 재생 목록 관리자(PLMNG)는 재생 목록 관리자(PLMNG)로부터 고급 애플리케이션 관리자(ADAMNG)로 매니페스트 파일(MNFST)을 전송한다.
재생 목록 관리자(PLMNG)는 이하의 3가지 제어 동작을 수행한다.
1) 고급 애플리케이션(ADAPL)으로부터의 요청에 응답하여, 재생 목록 관리자(PLMNG)는 타이틀 타임라인(TMLE)의 진행 처리를 실행한다. 도 17의 설명에서, 고급 애플리케이션(ADAPL) 재생 시에 하드 싱크 점프로 인해 마크업 페이지 점프가 일어난다. 이하에서는 도 16의 예를 이용하여 설명한다. 메인 타이틀(31) 및 광 고용의 독립적인 화면(32)을 동시에 표시하고 있는 동안에 사용자가 고급 애플리케이션(ADAPL)에 포함되는 도움말 아이콘(33)을 누른 경우에 응답하여, 화면의 아래쪽에 표시되어 있는 고급 애플리케이션(ADAPL)에 의해 구성되는 화면 내용의 변경(마크업 페이지 점프)이 생기는 경우가 있다. 이때, 내용(다음에 표시되는 마크업 페이지)의 준비에 소정의 시간이 필요한 경우가 있다. 이러한 경우에는, 다음 마크업 페이지의 준비가 완료될 때까지 비디오 및 오디오 데이터를 정지 상태로 설정하기 위해 재생 목록 관리자(PLMNG)는 타이틀 타임라인(TMLE)의 진행을 중단시킨다. 이들 처리는 재생 목록 관리자(PLMNG)에 의해 실행된다.
2) 재생 목록 관리자(PLMNG)는 각종 재생 표시 제어 모듈부터의 재생 상태의 재생 표시 처리 상태를 제어한다. 구체적인 예로서, 본 실시예에서는, 재생 목록 관리자(PLMNG)가 각각의 모듈의 진행 상태를 파악하고, 이상이 생겼을 때에 대응하는 처리를 실행한다.
3) 현재의 재생 목록(PLLST)에서의 디폴트 상태에서의 재생 표시 스케쥴 관리
본 실시예에 있어서, 타이틀 타임라인(TMLE)에 동기하여 표시되는 각종 표시 객체의 연속적인(매끄러운) 재생의 필요성에 상관없이, 재생 목록 관리자(PLMNG)는 1차 비디오 플레이어(PRMVP) 및 1차 비디오 플레이어(SCDVP) 등의 재생 표시 모듈을 모니터링한다. 타이틀 타임라인(TMLE)에 동기하여 재생 표시되는 각종 표시 객체의 연속적인(매끄러운) 재생 표시가 불가능하게 된 경우에는, 재생 목록 관리자(PLMNG)는 동기하여 표시 및 재생되는 객체와 타이틀 타임라인(TMLE) 상에서의 시각(시간) 간의 재생 타이밍을 조정하고, 그에 따라 사용자가 불편함을 느끼게 하지 않는 표시 제어를 수행할 수 있다.
내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 재생 목록(PLLST) 내의 리소스 정보(RESRCI)를 판독 및 분석한다. 재생 목록 관리자(PLMNG)는 판독한 리소스 정보(RESRCI)를 파일 캐쉬(FLCCH)로 전송한다. 재생 목록 관리자(PLMNG)는 파일 캐쉬 관리자(FLCMNG)에 대해 타이틀 타임라인(TMLE)의 진행에 동기하여 리소스 관리 테이블에 기초하여 리소스 파일을 로딩 또는 소거하도록 지시한다.
내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 고급 애플리케이션관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)에 대하여 재생 표시 제어에 관계하는 각종의 명령(API)을 발생시켜, 프로그래밍 엔진(PRGEN)을 제어한다. 재생 목록 관리자(PLMNG)에 의해 발생되는 각종 명령(API)의 예로서, 2차 비디오 플레이어(SCDVP)(도 34)에 대한 제어 명령, 오디오 믹싱 엔진(ADMXEN)(도 38)에 대한 제어 명령, 및 효과 오디오(EFTAD)의 처리에 관한 API 명령 등이 발행된다.
또한, 재생 목록 관리자(PLMNG)는 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)에 대한 플레이어 시스템 API 명령도 발행한다. 이들 플레이어 시스템 API 명령은 시스템 정보에 액세스하는 데 필요한 명령 등을 포함한다.
본 실시예에 있어서, 도 28에 도시하는 고급 애플리케이션 관리자(ADAMNG)의 기능에 관해서 이하에 설명을 한다. 고급 애플리케이션 관리자(ADAMNG)는 고급 컨텐츠(ADVCT)의 모든 재생 표시 처리에 관한 제어를 한다. 또한, 고급 애플리케이 션 관리자(ADAMNG)는 고급 애플리케이션(ADAPL)의 마크업 파일(MRKUP) 및 스크립트 파일(SCRPT)의 정보에 관련되어 협동 작업으로서 도 30에 도시하는 고급 애플리케이션 프리젠테이션 엔진(AAPEN)의 제어도 행한다. 도 28에 도시한 바와 같이, 고급 애플리케이션 관리자(ADAMNG)는 선언 엔진(DECEN) 및 프로그래밍 엔진(PRGEN)을 포함한다.
선언 엔진(DECEN)은 고급 애플리케이션(ADAPL) 내의 마크업 파일(MRKUP)에 대응하여 고급 컨텐츠(ADVCT)의 선언 처리를 관리 및 제어한다. 선언 엔진(DECEN)은 이하의 항목에 대처한다.
1. 고급 애플리케이션 프리젠테이션 엔진(AAPEN)(도 30)의 제어
Figure 112006062570134-PAT00080
그래픽 객체(고급 애플리케이션(ADAPL)) 및 고급 텍스트(고급 자막(ADSBT))의 레이아웃 처리
Figure 112006062570134-PAT00081
그래픽 객체(고급 애플리케이션(ADAPL)) 및 고급 텍스트(고급 자막(ADSBT))의 표시 스타일 제어
Figure 112006062570134-PAT00082
그래픽 플레인(고급 애플리케이션(ADAPL)에 관계된 표시)의 표시 계획에 동기한 표시 타이밍 제어 및 효과 오디오(EFTAD)의 재생 시의 타이밍 제어
2. 메인 비디오(MANVD)의 제어 처리
Figure 112006062570134-PAT00083
1차 오디오 비디오(PRMAV) 내의 메인 비디오(MANVD)의 속성 제어
도 39에 도시한 바와 같이, 메인 비디오 플레인(MNVDPL) 내의 메인 비디오(MANVD)의 프레임 크기는 고급 애플리케이션(ADAPL) 내의 API 명령에 의해 설정된다. 이 경우, 선언 엔진(DECEN)은 고급 애플리케이션(ADAPL) 내에 기술된 메인 비디오(MANVD)의 프레임 크기 및 프레임 배치 장소 정보에 대응하여 메인 비디오(MANVD)의 표시 제어를 수행한다.
3. 서브 비디오(SUBVD)의 제어
Figure 112006062570134-PAT00084
1차 오디오 비디오(PRMAV) 또는 2차 오디오 비디오(SCDAV) 내의 서브 비디오(SUBVD)의 속성 제어
도 39에 도시한 바와 같이, 서브 비디오 플레인(SBVDPL) 내에서의 서브 비디오(SUBVD)의 프레임 크기는 고급 애플리케이션(ADAPL) 내의 API 명령에 의해 설정된다. 이 경우, 선언 엔진(DECEN)은 고급 애플리케이션(ADAPL) 내에 기술된 서브 비디오(SUBVD)의 프레임 크기 및 프레임 배치 장소 정보에 대응하여 서브 비디오(SUBVD)의 표시 제어를 수행한다.
4.스케쥴-관리된 스크립트 호출
Figure 112006062570134-PAT00085
고급 애플리케이션(ADAPL) 내에 기술된 타이밍 엘리먼트의 실행에 대응하여 스크립트 호출 타이밍이 제어된다.
본 실시예에 있어서, 프로그래밍 엔진(PRGEN)은 API 세트 호출 및 고급 컨텐츠(ADVCT)의 주어진 제어 등의 각종 이벤트에 대응하는 처리를 관리한다. 또한, 프로그래밍 엔진(PRGEN)은 통상적으로 리모콘 조작 처리 등의 사용자 인터페이스 이벤트를 처리한다. 사용자 인터페이스 이벤트(UIEVT) 등에 의해, 선언 엔진(DECEN) 내에 정의된 고급 애플리케이션(ADAPL)의 처리 및 고급 컨텐츠(ADVCT)의 처리 등이 변경될 수 있다.
파일 캐쉬 관리자(FLCMNG)는 이하의 이벤트에 대응하여 처리한다.
1. 파일 캐쉬 관리자(FLCMNG)는 1차 고화질 비디오 객체 세트(P-EVOBS) 내에 멀티플렉싱되어 있는 고급 애플리케이션(ADAPL)과 연관된 팩 및 고급 자막(ADSBT) 에 연관된 팩을 추출하고, 리소스 파일로서 이들을 결합하여 파일 캐쉬(FLCCH) 내에 리소스 파일로서 저장한다. 1차 고화질 비디오 객체 세트(P-EVOBS) 내에 멀티플렉싱되어 있는 고급 애플리케이션(ADAPL)에 대응하는 팩 및 고급 자막(ADSBT)에 대응하는 팩은 도 35에 도시하는 디멀티플렉서(DEMUX)에 의해 추출된다.
2. 정보 저장 매체(DISC), 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR) 내에 기록되어 있는 각종 파일을 파일 캐쉬(FLCCH) 내에 리소스 파일로서 저장한다.
3. 파일 캐쉬 관리자(FLCMNG)는 재생 목록 관리자(PLMNG) 및 고급 애플리케이션 관리자(ADAMNG)로부터의 요청에 응답하여 각종 데이터 소스로부터 파일 캐쉬(FLCCH)로 이전에 전송된 리소스 파일을 재생한다.
4. 파일 캐쉬 관리자(FLCMNG)는 파일 캐쉬(FLCCH) 내에서의 파일 시스템 관리 처리를 수행한다.
상술한 바와 같이, 파일 캐쉬 관리자(FLCMNG)는 1차 고화질 비디오 객체 세트(P-EVOBS) 내에 멀티플렉싱되어 있고 1차 비디오 플레이어(PRMVP) 내의 디멀티플렉서(DEMUX)에서 추출된, 고급 애플리케이션(ADAPL)에 연관된 팩의 처리를 수행한다. 이때, 1차 고화질 비디오 세트(P-EVOBS) 내에 포함되어 있는 고급 스트림 팩 내의 프리젠테이션 스트림 헤더는 제거되고, 팩이 고급 스트림 데이터로서 파일 캐쉬(FLCCH) 내에 기록된다. 재생 목록 관리자(PLMNG) 및 고급 애플리케이션 관리 자(ADAMNG)로부터의 요청에 응답하여 정보 저장 매체(DlSC), 네트워크 서버(NTSRV) 및 영속적 저장 장치(PRSTR) 내에 저장되어 있던 리소스 파일을 획득한다.
사용자 인터페이스 엔진(UIENG)은, 도 28에 도시한 바와 같이, 리모콘 제어기(RMCCTR), 프론트 패널 제어기(FRPCTR), 게임 패드 제어기(GMPCTR), 키보드 제어기(KBDCTR), 마우스 제어기(MUSCTR) 및 커서 관리자(CRSMNG)를 포함한다. 본 실시예에 있어서, 프론트 패널 제어기(FRPCTR) 및 리모콘 제어기(RMCCTR) 중 하나는 지원되어야만 한다. 본 실시예에 있어서, 커서 관리자(CRSMNG)는 필수적이며, 화면 상에서의 사용자 처리는 퍼스널 컴퓨터와 같이 커서의 사용을 전제로 한다. 본 실시예에서는, 여러 가지 다른 제어기가 옵션으로서 다루어진다. 도 28에 도시한 사용자 인터페이스 엔진(UIENG) 내의 각종 제어기는 대응하는 실제의 장치(마우스나 키보드 등)가 사용가능한지 여부를 검출함과 동시에 사용자 조작 이벤트를 모니터링하고 있다. 상기한 사용자 입력 처리가 행해지면, 그의 정보는 사용자 인터페이스 이벤트(UIEVT)로서 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)으로 전송된다. 커서 관리자(CRSMNG)는 커서 형상 및 화면 상의 커서 위치를 제어한다. 커서 관리자(CRSMNG)는 사용자 인터페이스 엔진(UIENG) 내에서 검출된 움직임 정보에 응답하여 도 39에 도시하는 커서 플레인(CRSRPL)을 갱신한다.
고급 컨텐츠 플레이어에 대한 플레이어 상태 머신
도 29는 고급 컨텐츠 플레이어의 상태 머신을 나타낸 것이다. 상태 머신에는 시동, 재생, 일시 정지, 프리 점프(Pre Jump), 포스트 점프(Post Jump), 정지 및 서스펜드(Suspend)의 8개의 상태가 있다.
A) 시동/갱신 상태
플레이어가 시동 시퀀스 또는 갱신 시퀀스를 시작할 때, 플레이어 상태 머신은 시동/갱신 상태로 이동한다. 시동/갱신 시퀀스가 정상적으로 완료될 때, 상태 머신은 재생 상태로 이동한다.
B) 재생 상태
타이틀 타임라인이 정상 속도로 진행하는 동안, 플레이어 상태 머신은 재생 상태에 있다.
C) 정지 상태
이 상태에서, 타이틀 타임라인은 진행하지 않아야 하며 또한 모든 애플리케이션도 진행하지 않아야 한다.
D) 일시 정지 상태
타이틀 타임라인이 일시적으로 정지되어 있는 동안, 플레이어 상태 머신은 일시 정지 상태로 이동한다.
E) 고속/저속 - 전방향/역방향 상태
타이틀 타임라인이 고속으로 전방향으로, 저속으로 전방향으로, 고속으로 역방향으로 또는 저속으로 역방향으로 진행하는 동안, 플레이어 상태 머신은 고속/저속 - 전방향/역방향 상태로 이동한다.
F) 프리 점프 상태
사용자가 메뉴 애플리케이션에 의해 표시되는 '점프' 버튼을 클릭할 때, 플 레이어 상태 머신은 프리 점프 상태로 이동한다. 이 상태에서, 현재 실행 중인 애플리케이션 중에서, 타이틀 타임라인 상의 목적지 지점에서 유효하지 않은 모든 애플리케이션이 종료된다. 이 처리가 완료된 후에, 상태 머신은 포스트 점프 상태로 이동한다.
G) 포스트 점프 상태
이 상태의 시작에서, 타이틀 타임라인 상의 어떤 점프 목적지 시간으로 점프한다. 이어서, 비디오 표시의 버퍼링, 애플리케이션에 대한 리소스 로딩 등의 그 다음 표시를 시작하기 위한 준비가 행해진다. 그 후에, 상태 머신은 재생 상태로 이동한다.
H) 서스펜드 상태
표준 컨텐츠가 재생 중이거나 영속적 저장 장치 관리 메뉴가 실행 중에 있을 때, 상태 머신은 서스펜드 상태로 이동한다. 이 상태에서, 타이틀 타임라인 및 모든 표시 객체는 서스펜드된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에 의해 처리되는 상태는 서스펜드 상태(SPDST), 일시 정지 상태(PSEST), 고속 상태(FASTST)/저속 상태(LOWST)/전방향 상태(FWDST)/역방향 상태(RVCST), 시동 상태(STUPST)/갱신 상태(UPDTST), 정지 상태(STOPST), 재생 상태(PBKST), 프리 점프 상태(PRJST) 및 포스트 점프 상태(POJST)의 8개의 상태가 존재한다. 도 29는 고급 컨텐츠 재생 유닛(ADVPL)의 상태들 간의 상태 천이도이다. 이 상태 천이도에 표시된 각각의 상태는, 도 14에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADAPL) 내의 내비게이션 관리자(NVMNG)에 의해 제어된다. 예컨대, 도 1에 도시한 시스템 예의 경우, 사용자가 와이드 화면 텔레비젼 모니터(15)를 향하여 리모콘을 조작하면, 무선 데이터(18)는 정보 기록 및 재생 장치(1) 내의 무선 LAN 제어기(7-1)를 통하여 고급 컨텐츠 재생 유닛(ADVPL) 내에 입력된다. 고급 컨텐츠 재생 유닛(ADVPL) 내의 내비게이션 관리자(NVMNG)에 사용자 조작(UOPE)의 정보가 입력되면, 도 28에 도시한 바와 같이, 리모콘 제어기(RMCCTR)가 작동하고, 그 정보를 사용자 인터페이스 이벤트(UIEVT)로서 고급 애플리케이션 관리자(ADAMNG)에 입력한다. 고급 애플리케이션관리자(ADAMNG)는 사용자가 지정한 화면 상의 위치에 대응하여 사용자 지정 내용을 해석하고 이들을 파서(PARSER)에 통지한다. 파서(PARSER)는 도 29에 도시하는 각각의 상태로의 천이를 일으킨다. 도 29에 도시한 바와 같이, 각각의 상태 천이가 일어나면, 파서(PARSER)는 재생 목록 관리자(PLMNG)에 의해 해석된 재생 목록(PLLST)의 정보에 대응하여 최적의 처리를 제어한다. 이하에서 각각의 상태의 동작 내용에 관해서 설명을 한다.
A) 시동 상태(STUPST)/갱신 상태(UPDTST)
고급 컨텐츠 재생 유닛(ADVPL)이 시동 처리 또는 갱신 처리를 시작하면, 고급 컨텐츠 재생 유닛(ADVPL)은 시동 상태(STUPST)/갱신 상태(UPDTST)로 천이된다. 시동 상태(STUPST)/갱신 상태(UPDTST)가 정상적으로 완료하면, 고급 컨텐츠 재생 유닛(ADVPL)은 재생 상태(PBKST)로 천이한다.
B) 재생 상태(PBKST)
재생 상태(PBKST)는 고급 컨텐츠(ADVCT)의 통상의 속도에서의 재생 상태를 의미한다. 즉, 고급 컨텐츠 재생 유닛(ADVPL)이 재생 상태(PBKST)에 있을 때, 통상의 재생 속도로 타이틀 타임라인(TMLE)에 따른 처리를 실행한다.
C) 정지 상태(STOPST)
정지 상태(STOPST)는 고급 컨텐츠 재생 유닛(ADVPL)이 종료 상태에 도달한 것을 의미한다. 이때, 타이틀 타임라인(TMLE)의 시간 축에 따른 처리는 실행되지 않고, 모든 애플리케이션 처리도 정지된다.
D) 일시 정지 상태(PSEST)
일시 정지 상태(PSEST)는 일시 정지된 상태를 나타낸다. 이때에는, 타이틀 타임라인(TMLE)의 시간 진행(타이틀 타임라인(TMLE) 상에서의 카운트-업)은 일시 정지된다.
E) 고속 상태(FASTST)/저속 상태(SLOWST)/전방향 상태(FWDST)/역방향 상태(RVCST)
고속 상태(FASTST)는 영화의 고속 재생 모드를 의미하고, 저속 상태(SLOWST)는 영화의 저속 재생 모드를 나타낸다. 전방향 상태(FWDST)는 통상의 재생 방향으로의 정보 재생을 의미하고, 동일 타이틀 내로의 전방향으로의 점프 처리(특정한 시간 경과 후의 재생 위치에 액세스함)도 포함한다. 역방향 상태(RVCST)는 통상의 재생 방향에 대한 역방향의 재생(되감기)를 의미하며, 특정의 시간 이전의 위치로의 점프 재생도 포함한다. 고급 컨텐츠 재생 유닛(ADVPL)이 상기 상태들 각각에 있을 때에, 타이틀 타임라인(TMLE) 상에서의 시간 변경(카운트-업/카운트 다운) 처 리는 타이틀 타임라인(TMLE) 상에서 시간 진행(카운트 변경 상태)으로서의 이들 재생 상태 각각에 대응하여 실행된다.
F) 프리-점프 상태(PRJST)
프리-점프 상태(PRJST)는 재생 중인 컨텐츠(타이틀)의 종료 처리를 의미한다. 본 실시예에 있어서, 고급 애플리케이션(ADAPL)은 화면 상에 각종의 제어 버튼을 표시한다. 사용자가 이들 버튼 중 "점프 버튼"을 클릭하면, 고급 컨텐츠 재생 유닛(ADVPL)은 프리-점프 상태(PRJST)로 천이한다. 고급 애플리케이션(ADAPL)에 의해 표시된 "점프 버튼"에 의해 지정된 점프 목적지는 다른 타이틀로의 점프를 나타내거나, 동일 타이틀 내에서도 타이틀 타임라인(TMLE)에 의해 지정된 시각(카운트 값)과 크게 다르다. 화면 상에 현재 표시되어 있는 고급 애플리케이션(ADVPL)은 점프 목적지에 대응하는 타이틀 타임라인(TMLE)의 시각(카운트 값)에서 사용되지 않는 (유효 기한이 만료된) 경우가 있다. 이 경우에는, 화면 상에 현재 표시되어 있는 고급 애플리케이션(ADAPL)의 종료 처리가 필요하여진다. 따라서, 본 실시예에 있어서는, 프리-점프 상태(PRJST)에서, 점프 목적지에서의 타이틀 타임라인(TMLE)의 시각(카운트 값)이 검사되고, 유효 기간이 만료된 고급 애플리케이션(ADAPL)의 종료 처리 및 유효 기간이 새로 시작하는(점프 이전에 화면 상에 표시되지 않은) 고급 애플리케이션(ADAPL)의 표시 준비 처리가 실행된다. 그 후, 고급 컨텐츠 재생 유닛(ADVPL)은 포스트-점프 상태(POJST)로 천이된다.
G) 포스트-점프 상태(POJST)
포스트-점프 상태(POJST)는 다음 컨텐츠(타이틀)의 로딩 처리 모드를 나타낸 다. 도 17에 도시한 바와 같이, 각각의 타이틀마다 고유의 타이틀 타임라인(TMLE)이 설정되어 있다. 예컨대 타이틀 #2의 재생 동안에 프리-점프 상태(PRJST)로의 천이가 행해질 때, 타이틀 #2의 타이틀 타임라인(TMLE)의 시간 진행이 정지된다. 포스트-점프 상태(POJST)에서 다음 타이틀 #3의 재생 준비가 이루어지는 경우, 타이틀 타임라인(TMLE)은 타이틀 #2에 대한 타이틀 타임라인(TMLE)으로부터 타이틀 #3에 대응하는 타이틀 타임라인(TMLE)으로 천이한다. 포스트-점프 상태(POJST)에서는, 데이터 캐쉬(DTCCH)의 메모리 공간의 설정이나 상기 설정된 데이터 캐쉬(DTCCH) 내로의 고급 애플리케이션(ADAPL)의 로딩 처리 등의 준비 프로세스가 실행된다. 이들 일련의 준비 프로세스가 종료하면, 고급 컨텐츠 재생 유닛(ADVPL)은 재생 상태(PBKST)로 천이한다.
H)서스펜드 상태(SPDST)
서스펜드 상태는 고급 컨텐츠 재생 유닛(ADVPL)이 대기 상태(standby state)에 있는 것을 의미한다. 이 상태에서, 타이틀 타임라인(TMLE)의 시간 진행은 일시 정지됨과 동시에, 각종 재생 표시 객체도 표시 대기 상태에 있다. 이 상태의 예로서, 예컨대 도 1에 있어서, 와이드 화면 텔레비젼 모니터(15) 상에 표준 컨텐츠(STDCT)만이 표시되고 고급 컨텐츠(ADVCT)가 표시되지 않을 때, 이 상태가 설정된다.
사용자가 정보 저장 매체(DISC)를 정보 기록 및 재생 장치(1) 내의 정보 기록 및 재생 유닛(2) 내에 삽입하면, 고급 컨텐츠 재생 유닛(ADVPL)은 시동 상태(STUPST)로 설정되고, 또한 초기 상태로서 갱신 상태(UPDTST)로 들어간다. 그 후, 통상의 경우에는, 고급 컨텐츠 재생 유닛(ADVPL)은 곧 재생 상태(PBKST)로 천이하여 고급 컨텐츠(ADVCT)의 표시 모드를 시작한다. 이때, 사용자가 고급 컨텐츠(ADVCT)를 표준 컨텐츠(STDCT)로 전환하는 경우, 고급 컨텐츠 재생 유닛(ADVPL)은 서스펜드 상태(SPDST)로 천이된다. 사용자가 고급 컨텐츠(ADVCT)를 재생하기 시작하면, 고급 컨텐츠 재생 유닛(ADVPL)은 재생 상태(PBKST)로 천이한다. 다음에, 사용자가 다른 프레임(타이틀)로의 프레임 천이를 지시하면, 고급 컨텐츠 재생 유닛(ADVPL)은 프리-점프 상태(PRJST)를 경유하여 포스트-점프 상태(POJST)로 천이하고, 이어서 사용자가 지정한 타이틀의 재생 상태(PBKST)로 천이된다. 이 경우에, 사용자가 재생 동안에 일시 정지 버튼을 누르면, 고급 컨텐츠 재생 유닛(ADVPL)은 일시 정지 상태(PSEST)로 천이한다. 그 후, 사용자가 빨리 감기를 지정하면, 고급 컨텐츠 재생 유닛(ADVPL)은 고속 상태로 천이된다. 그 후, 사용자가 정보 기록 및 재생 장치(1)를 종료시키면, 고속 컨텐츠 재생 유닛(ADVPL)은 정지 상태(STOPST)로 천이한다. 이러한 방식으로 사용자 조작(UOPE)에 응답하여 고급 컨텐츠 재생 유닛(ADVPL)의 상태 천이가 발생한다.
프리젠테이션 엔진:
프리젠테이션 엔진은 내비게이션 관리자로부터의 제어 명령에 응답하여 표시 데이터를 디코딩하고 AV 렌더러를 출력하는 일을 맡고 있다. 프리젠테이션 엔진은 6개의 주요 모듈 및 하나의 그래픽 버퍼링 메모리로 이루어져 있다. 이들 6개의 주요 모듈은 고급 애플리케이션 프리젠테이션 엔진, 고급 자막 플레이어, 폰트 렌더링 시스템, 2차 비디오 플레이어, 1차 비디오 플레이어, 및 디코더 엔진이다.
하나의 그래픽 버퍼링 메모리는 픽셀 버퍼이다. 픽셀 버터는 텍스트 이미지 및 디코딩된 PNG 이미지 등의 픽셀 이미지를 저장하는 공유 그래픽 메모리이다. 픽셀 버퍼는 고급 애플리케이션 프리젠테이션 엔진, 폰트 렌더링 시스템 및 고급 자막 플레이어(도 30 참조)에 대해 사용된다.
고급 애플리케이션 프리젠테이션 엔진:
보다 알기 쉬운 설명이 이하에 제공된다.
도 30은 도 14에 도시하는 고급 컨텐츠 재생 유닛(ADVPL) 내의 프리젠테이션 엔진(PRSEN)의 내부 구조를 나타낸 것이다.
먼저 프리젠테이션 엔진(PRSEN)의 위치 결정에 대해 설명한다. 각종 기록 매체 각각에 기록된 고급 컨텐츠(ADVCT)는 도 14에 도시한 바와 같이 데이터 액세스 관리자(DAMNG)를 통과한 뒤, 프리젠테이션 엔진(PRSEN)을 경유하여 AV 렌더러(AVRND)로 데이터 전송된다. 이때의 제어는 내비게이션 관리자(NVMNG)에 의해 행해진다. 즉, 프리젠테이션 엔진(PRSEN)은 내비게이션 관리자(NVMNG)에 의해 발생되는 제어 명령에 응답하여 각종 표시 객체에 대응하는 재생 표시 데이터를 디코딩하고, 디코딩된 결과를 AV 렌더러(AVRND)로 전송한다. 도 30에 도시한 바와 같이, 프리젠테이션 엔진(PRSEN)은 6개의 서로 다른 주요 처리 기능 모듈 및 하나의 그래픽 버퍼 메모리를 포함한다. 6개의 서로 다른 주요 기능 모듈은 고급 애플리케이션 프리젠테이션 엔진(AAPEN), 폰트 렌더링 시스템(FRDSTM), 고급 자막 플레이어(ASBPL), 2차 비디오 플레이어(SCDVP), 1차 비디오 플레이어(PRMVP) 및 디코더 엔진(DCDEN)을 포함한다. 픽셀 버퍼(PIXBUF)는 그래픽 버퍼 메모리에 대응한다. 예를 들어, 픽셀 버퍼(PIXBUF)는 예컨대, 텍스트 이미지 및 PNG 이미지 등과 같은 픽셀 이미지를 저장하는 그래픽 메모리로서 공유된다.
도 30에 도시한 바와 같이, 픽셀 버퍼(PIXBUF)는 고급 애플리케이션 프리젠테이션 엔진(AAPEN), 폰트 렌더링 시스템(FRDSTM) 및 고급 자막 플레이어(ASBPL)에 의해 공유된다. 즉, 후술하는 바와 같이, 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 고급 애플리케이션(ADAPL)과 연관된 이미지 화상(예컨대, 도 16에 도시하는 도움말 아이콘(33)으로부터 FF 버튼(38)에 이르는 일련의 프레임 이미지)를 발생한다. 이때에, 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 이미지 화상의 일시적인 저장 장소로서 픽셀 버퍼(PIXBUF)를 이용한다. 이와 마찬가지로, 폰트 렌더링 시스템(FRDSTM)은 폰트에 대응하는 텍스트 정보를 발생한다. 일시적으로 지정된 폰트 형상의 텍스트 정보인 이미지 화상은 픽셀 버퍼(PIXBUF)를 그의 일시적인 저장 장소로서 공유한다. 또한, 고급 자막 플레이어(ASBPL)가 예컨대 고급 자막(ADSBT)의 자막 정보를 발생하는 경우, 그의 이미지 화상도 픽셀 버퍼(PIXBUF) 내에 일시적으로 저장될 수 있다.
도 10에 도시한 바와 같이, 본 실시예에 있어서, 4가지 서로 다른 유형의 재생 표시 객체가 존재하고, 도 25는 이들 재생 표시 객체의 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 데이터의 흐름을 나타낸 것이다. 도 30와 전술한 도 25 사이의 관계에 대해 이하에 설명한다.
먼저, 1차 비디오 세트(PRMVS)에 관해서 설명한다. 도 25에 도시한 바와 같이, 정보 저장 매체(DISC)에 기록된 1차 비디오 세트(PRMVS)는 직접 1차 비디오 플 레이어(PRMVP)로 전송되고, 각종 디코더에서 디코딩된다. 관련 설명이 도 30을 이용하여 제공된다. 정보 저장 매체(DISC)에 기록된 1차 비디오 세트(PRMVS)는 데이터 액세스 관리자(DAMNG)를 통과하고, 이어서 1차 비디오 플레이어(PRMBVP)를 경유하여 디코더 엔진(DCDEN)에 의해 디코딩되고 AV 렌더러(AVRND)에서 화상 합성된다.
2차 비디오 세트(SCDVS)에 관해서 이하에서 설명한다. 도 25에 도시한 바와 같이, 2차 비디오 세트(SCDVS)는 2차 비디오 플레이어(SCDVP)를 통과하고 각종 디코더에 의해 디코딩된다. 관련 설명이 도 30을 사용하여 제공된다. 2차 비디오 세트(SCDVS)는 데이터 액세스 관리자(DAMNG)를 통과하고, 2차 비디오 플레이어(SCDVP)에 의해 처리된 뒤, 디코더 엔진(DCDEN)에 의해 디코딩되며, AV 렌더러(AVRND)에 의해 화상 합성된다. 또한, 도 25에 도시한 바와 같이, 네트워크 서버(NTSRV) 내에 기록되어 있는 2차 비디오 세트(SCDVS)는 스트리밍 버퍼(STRBUF)를 경유하여, 2차 비디오 플레이어(SCDVP)에 도달한다. 관련 설명이 도 30을 사용하여 제공된다. 네트워크 서버(NTSRV)에 기록되어 있는 2차 비디오 세트(SCDVS)는 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF)(도시하지 않음)에 일시 저장된 뒤, 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF)로부터 2차 비디오 플레이어(SCDVP)로 전송되고, 디코더 엔진(DCDEN)에 의해 디코딩된 뒤 AV 렌더러(AVRND)에 의해 화상 합성된다.
고급 애플리케이션(ADAPL)에 관해서 이하에서 설명한다. 도 25에 도시한 바와 같이, 고급 애플리케이션(ADAPL)은 파일 캐쉬(FLCCH)에 일시 저장된 뒤, 고급 엘리먼트 프리젠테이션 엔진(AEPEN)으로 전송된다. 관련 설명이 도 30을 사용하 여 제공된다. 고급 애플리케이션(ADAPL)은 일시 저장되어 있는 파일 캐쉬(FLCCH)로부터 고급 애플리케이션 프리젠테이션 엔진(AAPEN)으로 전송되고, 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내에서 이미지 화상으로서 형성된 뒤, AV 렌더러(AVRND)에 의해 화상 합성된다.
마지막으로, 고급 자막(ADSBT)에 관해서 이하에서 설명한다. 도 25에 도시한 바와 같이, 고급 자막(ADSBT)은 반드시 파일 캐쉬(FLCCH) 내에 일시 저장된 뒤, 고급 자막 플레이어(ASBPL)로 전송된다. 관련 설명이 도 30을 사용하여 제공된다. 파일 캐쉬(FLCCH) 내에 저장되어 있는 고급 자막(ADSBT)은 고급 자막플레이어(ASBPL)에 의해 텍스트 내용을 표현하는 이미지 화상으로 변환되고, AV 렌더러(AVRND) 상에서 화상 합성된다. 특히, 고급 자막(ADSBT)이 지정된 폰트 형식으로 화면에 표시되어야 하는 경우에는, 도 11에 도시한 바와 같이, 고급 엘리먼트 디렉토리(ADVEL) 내에 저장된 폰트 파일(FONT)이 사용된다. 이 데이터를 사용하여, 파일 캐쉬(FLCCH) 내에 저장되어 있는 고급 자막(ADSBT)은 폰트 렌더링 시스템(FRDSTM) 내에서 지정된 폰트 형식의 문자 화상(이미지 화상)으로 변환된 뒤, AV 렌더러(AVRND)에 의해 화상 합성된다. 본 실시예에 있어서는, 폰트 렌더링 시스템(FRDSTM)에 의해 발생된 독자적인 폰트 형식의 문자 화상(이미지 화상)은 픽셀 버퍼(PIXBUF)에 일시 저장되고, 그 이미지 화상은 고급 자막 플레이어(ASBPL)를 경유하여 AV 렌더러(AVRND)로 전송된다.
고급 애플리케이션 프리젠테이션 엔진은 2개의 표시 스트림을 AV 렌더러로 출력한다.
하나는 그래픽 플레인에 대한 프레임 이미지이다. 다른 하나는 효과 오디오 스트림이다. 고급 애플리케이션 프리젠테이션 엔진은 사운드 디코더, 그래픽 디코더 및 레이아웃 관리자로 이루어져 있다(도 31 참조).
사운드 디코더:
사운드 디코더는 파일 캐쉬로부터 WAV 파일을 판독하고 프로그래밍 엔진으로부터의 API 호출에 의해 트리거된 AV 렌더러로 LPCM 데이터를 연속적으로 출력한다.
그래픽 디코더:
그래픽 디코더는 파일 캐쉬로부터의 MNG, PNG 또는 JPEG 이미지 등의 그래픽 데이터를 검색한다.
이들 이미지 파일은 디코딩되어 픽셀 버퍼에 저장된다. 이어서, 이들 이미지 파일은 레이아웃 관리자로부터의 요청에 응답하여 레이아웃 관리자로 전송된다.
레이아웃 관리자:
레이아웃 관리자는 그래픽 플레인에 대한 프레임 이미지를 만들어 AV 렌더러로 보내는 일을 맡고 있다.
레이아웃 정보는 프레임 이미지가 변할 때 고급 애플리케이션 관리자 내의 선언 엔진으로부터 나온다. 레이아웃 관리자는 프레임 이미지를 생성하기 위한 "그래픽 서피스(Graphics Surface)"라고 부르는 메모리를 갖는다.
레이아웃 관리자는 프레임 이미지 상에 위치하게 될 지정된 그래픽 객체를 디코딩하기 위해 그래픽 디코더를 호출한다. 레이아웃 관리자는 또한 프레임 이미 지 상에 역시 위치하게 될 텍스트 이미지를 만들기 위해 폰트 렌더링 시스템을 호출한다. 레이아웃 관리자는 그래픽 이미지를 아래에서 위쪽으로 적절한 위치에 놓고 객체가 알파 채널/값을 갖는 경우 픽셀 알파 값을 계산한다. 이어서, 마지막으로, 레이아웃 관리자는 프레임 이미지를 AV 렌더러로 전송한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 14에 도시한 바와 같이, 본 실시예에 있어서, 고급 컨텐츠 재생 유닛(ADVPL)은 프리젠테이션 엔진(PRSEN)을 포함한다. 도 31은 도 30에 도시하는 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN)의 내부구조를 나타낸 것이다.
본 실시예에 있어서, 고급 애플리케이션 프리젠테이션 엔진(AUEN)은 이하에 기술하는 2가지 서로 다른 유형의 재생 표시 스트림(재생 표시 객체)을 AV 렌더러(AVRND)로 전송한다. AV 렌더러(AVRND)로 전송되는 재생 표시 스트림 중 하나는 도 39에 도시하는 그래픽 플레인(GRPHPL) 상에 표시되는 프레임 이미지이다. 효과 오디오 스트림(EFTAD)은 다른 재생 표시 스트림에 대응한다. 도 31에 도시한 바와 같이, 고급 애플리케이션 프리젠테이션 엔진(MPEN)은 사운드 디코더(SNDDEC), 그래픽 디코더(GHCDEC) 및 레이아웃 관리자(LOMNG)를 포함한다.
고급 애플리케이션(ADAPL) 내의 효과 오디오(EFTAD)(도 10 참조) 정보는 사전에 일시 저장되어 있는 파일 캐쉬(FLCCH)로부터 사운드 디코더(SNDDEC0로 전송되고, 사운드 디코더(SNDDEC) 내에서 디코딩된 뒤, AV 렌더러(AVRND) 내에서 오디오 믹싱된다. 고급 애플리케이션(ADAPL) 내의 이미지 화상을 형성하는 개개의 정지 화상(IMAGE)(도 10 참조)은 일시 저장되어 있는 파일 캐쉬(FLCCH)로부터 그래픽 디코더(GHCDEC)로 전송되고, 그래픽 디코더(GHCDEC) 내에서 비트 맵 상의 이미지 화상(의 구성 요소)로 변환된다. 게다가, 각각의 정지 화상(IMAGE)은 레이아웃 관리자(LOMNG)에서 크기 변환(스케일러 처리)을 행하고, 정지 화상을 형성하기 위해 레이아웃 상에서 합성되고, 이어서 AV 렌더러에 의해 이미지 합성된다.
도 16에 도시한 예를 이용하여 상기한 처리에 대해 설명한다. 도 16에 도시한 바와 같이, 고급 애플리케이션(ADAPL)에 대응하여 도움말 아이콘(33), 정지 버튼(34), 재생 버튼(35), FR 버튼(36), 일시 정지 버튼(37) 및 FF 버튼(38)에 대응하는 복수의 개개의 정지 화상 정보가 파일 캐쉬(FLCCH) 내에 저장되어 있고, 각각의 개개의 정지 화상은 디코더 처리에 의해 비트맵 상의 이미지 화상(의 구성요소)으로 변환된다. 다음에, 레이아웃 관리자(LOMNG)는 도움말 아이콘(33)의 위치 및 정지 버튼(34)의 위치 등을 설정하고, 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 화상의 어레이로서 구성되는 이미지 화상이 레이아웃 관리자(LOMNG) 내에서 발생된다. 레이아웃 관리자(LOMNG)에 의해 발생된 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 화상의 어레이인 이 이미지 화상은 AV 렌더러(AVRND)에 의해 다른 화상들에 합성된다.
사운드 디코더(SNDDEC)는 파일 캐쉬(FLCCH)로부터 WAV 파일을 판독하고, 그 파일을 AV 렌더러(AVRND)로 선형 PCM 형태로 연속적으로 출력한다. 도 28에 도시한 바와 같이, 내비게이션 관리자(NVMNG)는 프로그래밍 엔진(PRGEN)을 포함한다. 이 프로그래밍 엔진(PRGEN)은 프리젠테이션 엔진(PRSEN)으로 API 명령을 발행하며, 상기 데이터 처리가 트리거인 그 API 명령에 응답하여 실행된다.
그래픽 디코더(GHCDEC)는 파일 캐쉬(FLCCH) 내에 저장된 그래픽 데이터의 디코딩 처리를 실행한다. 본 실시예에 있어서, 취급하는 이미지 화상(의 구성요소)은 MNG 이미지, PNG 이미지, MPEG 이미지 등을 포함한다. 이들 이미지 화상에 관한 정보가 기록된 이미지 파일은 그래픽 디코더(GHCDEC) 내에서 디코딩되고 디코딩된 이미지 화상(의 구성요소)은 도 30에 도시하는 픽셀 버퍼(PIXBUF) 내에 일시 저장된다. 그 후, 일시 저장된 이미지 화상(의 구성요소)은 레이아웃 관리자(LOMNG)로부터의 요청에 응답하여 레이아웃 관리자(LOMNG)로 전송된다.
본 실시예에 있어서, 고급 애플리케이션 프리젠테이션 엔진(AAPEN)에 의해 처리되는 이미지 화상은 도 39에 도시하는 그래픽 플레인(GRPHPL) 상의 표시 프레임을 구성한다. 레이아웃 관리자(LOMNG)는 그래픽 플레인(GRPHPL) 상의 이들 이미지 화상을 작성하고 이들을 합성을 위해 AV 렌더러(AVRND로 전송하는 처리를 실행한다. 도 39에 도시하는 그래픽 플레인(GRPHPL) 내의 각각의 표시 프레임(이미지 화상의 구성요소)에 대응하는 레이아웃 정보가 이용가능하다. 그래픽 플레인(GRPHPL) 내의 프레임 내용이 변화할 때마다 대응하는 서로 다른 레이아웃 정보가 존재하고, 이러한 레이아웃 정보에 기초하여 레이아웃 관리자(LOMNG) 내에서 레이아웃이 설정된다. 이 레이아웃 정보는 도 28에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 내의 고급 애플리케이션 관리자(ADAMNG)에 포함되는 선언 엔진(DECEN)에 의해 발행되는 이 레이아웃 정보는 레이아웃 관리자(LOMNG)로 전송된다. 레이아웃 관리자(LOMNG)는 그래픽 서피스(GRPHSF)라고 불리는 메모리를 내장 하고 있고, 이는 그래픽 플레인(GRPHPL) 상의 이미지 화상을 작성하는 때에 이용된다. 그래픽 플레인(GRPHPL) 내에 복수의 화상(이미지 화상의 구성요소)을 배치하는 경우에는, 레이아웃 관리자(LOMNG)는 개별적으로 그래픽 디코더(GHCDEC)를 기동시켜, 이미지 화상의 각각의 구성요소를 디코딩하고 이어서 프레임 이미지(이미지 화상)로서의 이미지 화상의 각각의 구성요소에 대한 레이아웃을 설정한다. 도 30에 도시한 바와 같이, 프리젠테이션 엔진(PRSEN)은 폰트 렌더링 시스템(FRDSTM)을 포함하며, 이는 지정된 폰트 형식에 기초하여 문자 정보를 이미지 화상으로 변환한다. 이러한 특정한 폰트를 사용하여 표시를 하는 경우에는, 레이아웃 관리자(LOMNG)는 폰트 렌더링 시스템(FRDSTM)을 활성화시켜 텍스트 정보를 프레임 이미지(이미지 화상)로 변환한다. 본 실시예에서는, 도 39에 도시한 바와 같이, 그래픽 플레인(GRPHPL) 상의 이미지 화상의 전체 또는 이미지 화상의 개개의 구성요소는 그래픽 플레인(GRPHPL) 아래쪽에 존재하는 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL) 또는 메인 비디오 플레인(MNVDPL)의 비디오 화상이 들여다 보일 수 있도록 반투명으로 설정될 수 있다. 그래픽 플레인(GRPHPL) 내의 이미지 화상의 각각의 구성요소(또는 이미지 화상 전체)의 아래쪽 플레인에 대한 투명도는 알파 값에 의해 정의된다. 알파 값이 이와 같이 설정된 경우에는, 레이아웃 관리자(LOMNG)는 그 알파 값에 따라서 반투명한 형태로서 그래픽 플레인(GRPHPL) 상의 지정된 장소에 구성요소를 배치하도록 설정한다.
도 32는 파일 캐쉬 및 드로잉 캔버스 내의 객체들이 어떻게 처리되는지의 그래픽 프로세스 모델의 예시적인 거동을 나타낸 것이다.
1) 파일 캐쉬 상에는 3개의 그래픽 객체(얼굴 표시 문자 "웃는", "화난", 및 "우는")가 있다. 이와 유사한 방식으로, 고급 애플리케이션에 대한 텍스트도 파일 캐쉬 상에 저장된다.
2) 프리젠테이션 엔진은 그래픽 디코더를 사용하여 모든 얼굴 표시 문자를 디코딩하고 이를 픽셀 버퍼에 저장한다. 이와 유사한 방식으로, 텍스트 "ABC"가 폰트 렌더링 시스템에 의해 변환되고, 픽셀 버퍼에 저장된다. API에 의해 작성된 드로잉 캔버스 상의 라인 객체가 픽셀 버퍼에 저장된다.
3) 이들 얼굴 표시 문자 객체는 스케일링되어 그래픽 서피스 상에 배치된다. 이때, 이들 그래픽의 알파 값이 계산된다. 이 예에서, "화난 얼굴 표시 문자" 및 "웃는 얼굴 표시 문자"의 알파 값은 40% 투명하다. 이와 유사한 방식으로, 텍스트 객체 및 라인 객체는 그래픽 서피스 상에 배치된다.
4) 레이아웃 관리자는 프레임 이미지를 AV 렌더러로 전송한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 32는 본 실시예에 있어서의 프리젠테이션 엔진(PRSEN)에서의 그래픽 프로세스 모델을 나타낸 것이다.
그래픽 프로세스 이전에, 고급 애플리케이션(ADAPL)의 정보는 본 실시예에서는 파일 캐쉬(FLCCH) 내에 압축된 형태(압축 형태(CMPF))로 기록되어 있다. 그래픽 프로세스에 의해 작성된 그래픽 이미지(이미지 화상)는 후술하는 바와 같이 도 39의 그래픽 플레인(GRPHPL) 상에 표시된다. 그래픽 플레인(GRPHPL) 상에는, 도 4 O에 도시한 바와 같이, 캔버스 좌표계(CNVCRD)가 정의되고, 캔버스 좌표계(CNVCRD) 상에 각각의 디코된 그래픽 이미지(애니메이션을 포함하는 이미지 화상)가 배치된다.
1) 도 32에 도시된 실시예에서, 3가지 유형의 그래픽 객체 (a), (b) 및 (c)가 파일 캐쉬(FLCCH) 내에 압축 형태(CMPFRM)(압축된 형태)로 사전에 기록되어 있다. 또한, "ABC"의 예로 나타낸 바와 같이 파일 캐쉬(FLCCH) 내에 고급 애플리케이션(ADAPL)의 텍스트 정보도 기록될 수 있다.
2) 도 31에 도시하는 그래픽 디코더(GHCDEC)는 도32 (1)에 도시하는 압축된 정보 (a), (b), 및 (c)를 디코딩하여 이들을 이미지 화상(픽셀 이미지(PIXIMG))으로 변환하고, 디코딩된 결과를 픽셀 버퍼(PIXBUF) 내에 저장한다(도 32(2)). 이와 마찬 가지로, 폰트 렌더링 시스템(FRDSTM)은 파일 캐쉬(FLCCH) 내에 기록된 텍스트정보 "ABC"를 이미지 화상(픽셀 이미지(PIXIMG))으로 변환하고, 이를 픽셀 버퍼(PlXBUF) 내에 기록한다. 도 28에 도시한 바와 같이, 본 실시예는 또한 내비게이션 관리자(NVMNG) 내의 마우스 제어기(MUSCTR)도 지원하고 있다. 사용자가 마우스 제어기(MUSCTR)를 통해 마우스를 사용하여 도형을 드로잉하는 경우, 그 도형은 각 라인의 시점과 종점 위치의 좌표로서 라인 객체의 형태로 입력된다. 라인 객체는 마우스 제어기(MUSCTR)를 통해 API 명령의 형태로 전술한 캔버스 좌표계(CNVCRD) 상에 이미지 화상(픽셀 이미지(PlXIMG))으로서 드로잉된다. 라인 객체로서 드로잉된 이미지 화상(픽셀 이미지(PIXIMG))도 마찬가지로 픽셀 버퍼(PIXBUF) 내에 기록된다.
3) 도 31의 레이아웃 관리자(LOMNG)는 일시 저장되어 있는 여러 가지 디코딩 된 이미지 화상(픽셀 이미지(PIXIMG))은 그래픽 서피스(GRPHSF) 상에서의(그래픽 플레인(GRPHPL) 상에서의) 배치 위치 및 표시 크기를 설정한다. 도 32 (3)에 도시한 바와 같이, 드로잉 (a), (b) 및 (c), 텍스트 이미지 "ABC" 및 API 명령에 의해 드로잉된 도형이 동일한 그래픽 서피스(GRPHSF) 상에(그래픽 플레인(GRPHPL) 상에) 서로 중첩하도록 표시되어 있다. 본 실시예에 있어서는, 각 이미지 화상(픽셀 이미지(PIXIMG))에 대하여 투명도를 규정함으로써, 중첩하는 부분의 반대쪽의 도형이 들여다보인다. 각각의 이미지 화상(픽셀 이미지(PIXIMG))의 반투명도는 알파 값(알파 정보)에 의해 정의한다. 레이아웃 관리자(LOMNG)는 각각의 이미지 화상(픽셀 이미지(PIXIMG))에 대한 알파 값을 계산할 수 있고, 중첩하고 있는 부분의 반대쪽이 들여다보일 수 있도록 설정될 수 있다. 도 32 (3)의 예에서는, (a) 및 (b)의 알파 값은 40%로 설정되어 있다(40% 투명도).
4) 그래픽 서비스(GRPHSF)(그래픽 플레인(GRPHPL)) 상의 합성 이미지 화상(프레임 이미지)은 레이아웃 관리자(LOMNG)로부터 AV 렌더러(AVRND)로 전송된다.
도 1에 도시한 바와 같이, 정보 기록 및 재생 장치(1)는 고급 컨텐츠 재생 유닛(ADVPL)을 포함한다. 고급 컨텐츠 재생 유닛(ADVPL)은 도 14에 도시한 바와 같이, 프리젠테이션 엔진(PRSEN)을 포함한다. 또한, 프리젠테이션 엔진(PRSEN)은 도 30에 도시한 바와 같이 고급 자막 플레이어(ASBPL)를 포함한다. 고급 자막 플레이어(ASBPL) 내의 구조에 대해 이하에서 설명한다.
도 39에 도시한 바와 같이, 표시 화면 상에는 서브 픽처 및 고급 자막(ADSBT)을 표시하는 서브-픽처 플레인(SBPCPL)이 존재한다. 고급 자막 플레이 어(ASBPL)는 서브-픽처 플레인(SBPCPL) 상에 표시되는 자막 이미지를 출력한다. 도 33에 도시된 바와 같이, 고급 자막 플레이어(ASBPL)는 파서(PARSER), 선언 엔진(DECEN) 및 레이아웃 관리자(LOMNG)를 포함한다.
고급 자막 플레이어:
고급 자막 플레이어는 자막 이미지를 서브-픽처 플레인으로 출력한다. 고급 자막은 고급 애플리케이션의 서브셋이며, 따라서 고급 자막 플레이어는 고급 애플리케이션 관리자 및 고급 애플리케이션 프리젠테이션 엔진의 서브셋 모델을 갖는다. 고급 자막 플레이어는 파서, 선언 엔진 및 레이아웃 엔진으로 이루어져 있다(도 33 참조).
파서는 파일 캐쉬로부터 마크업을 판독하고, 이어서 파싱된 결과가 선언 엔진으로 전송된다.
선언 엔진은 고급 자막의 레이아웃, 스타일 및 타이밍의 프리젠테이션 정보를 관리한다.
타이틀 타임라인의 진행에 따라, 선언 엔진은 서브픽처 이미지를 발생하기 위해 레이아웃 관리자로 명령을 전송한다. 레이아웃 관리자는 선언 엔진으로부터 오는 정보에 따라 텍스트 이미지를 발생하기 위해 폰트 렌더링 시스템을 호출하고, 이어서 서브픽처 프레임 이미지 내의 적절한 위치 상에 발생된 이미지를 위치시킨다. 이때, 요구된 그래픽 이미지는 픽셀 버퍼에 저장되고, 레이아웃 관리자에서 그래픽 서피스 상에 프레임 이미지가 생성된다. 마지막으로, 프레임 이미지를 서브픽처 플레인 상으로 출력한다.
보다 알기 쉬운 설명이 이하에 제공된다.
고급 자막(ADSBT)은 고급 애플리케이션(ADAPL)의 서브셋으로서 위치가 부여된다. 따라서, 고급 자막 플레이어(ASBPL)는 고급 애플리케이션 관리자(ADAMNG)(도 28 참조) 및 고급 애플리케이션 프리젠테이션 엔진(AAPEN)(도 30 참조)의 서브셋 모듈을 가지고 있다. 즉, 도 30에 도시한 바와 같이, 고급 자막 플레이어(ASBPL) 및 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 하나의 픽셀 버퍼(PIXBUF)를 공유하고 있다. 도 33에 도시한 바와 같이, 고급 자막 플레이어(ASBPL) 내의 레이아웃 관리자(LOMNG)는 도 31에 도시한 바와 같이 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내의 레이아웃 관리자(LOMNG)와 공유하고, 또한 고급 자막 플레이어(ASBPL) 내의 선언 엔진(DECEN)은 도 28에 도시한 바와 같이 고급 애플리케이션 관리자(ADAMNG) 내의 선언 엔진(DECEN)을 공유하고 있다.
처음에, 고급 자막 플레이어(ASBPL) 내의 파서(PARSER)는 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH) 내에 저장되어 있는 고급 자막의 마크업 파일(MRKUPS)을 판독하고, 그의 내용을 파싱한다. 파서(PARSER)는 파싱 결과를 선언 엔진(DECEN)으로 전송한다. 선언 엔진(DECEN)은 고급 자막(ADSBT)의 레이아웃의 표시 형식(스타일) 및 표시 타이밍에 관한 프리젠테이션 정보를 관리한다. 타이틀 타임라인(TMLE) 상의 시간 진행에 동기하여 자막 이미지(텔롭 텍스트의 이미지 등)를 작성하기 위해, 선언 엔진(DECEN)은 각종 명령을 레이아웃 관리자(LOMNG)로 전송한다. 선언 엔진(DEDEN)으로부터 전송되는 명령 정보에 따라서, 레이아웃 관리자(LOMNG)는 프리젠테이션 엔진(PRSEN) 내의 폰트 렌더링 시스템(FRDSTM)을 활성화 시켜 텍스트 이미지(이미지 화상)를 작성한다. 그 후, 서브-픽처 프레임 이미지(서브-픽처 플레인(SBPCPL)) 내에서의 적절한 위치에, 작성된 텍스트 이미지(이미지 화상)를 배치한다. 이때, 작성된 텍스트 이미지(이미지 화상)는 픽셀 버퍼(PIXBUF) 상에 기록됨과 동시에, 레이아웃 관리자(LOMNG)에 의해 서브-픽처 플레인(SBPCPL) 상에 레이아웃 처리된다. 처리 결과로서의 이미지 화상(프레임 이미지)은 서브-픽처 플레인(SBPCPL) 상으로 출력된다.
도 30에 도시한 바와 같이, 폰트 렌더링 시스템(FRDSTM)은 프리젠테이션 엔진(PRSEN) 내에 포함되고, 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 및 고급 자막 플레이어(ASBPL)로부터의 요청에 응답하여 텍스트 이미지(이미지 화상)를 작성한다. 도 34는 폰트 렌더링 시스템(FRDSTM) 내의 구조를 나타낸 것이다.
폰트 렌더링 시스템:
폰트 렌더링 시스템(FRDSTM)은 고급 애플리케이션 프리젠테이션 엔진 또는 고급 자막 플레이어로부터의 요청에 응답하여 텍스트 이미지를 발생하는 일을 맡고 있다. 폰트 렌더링 시스템은 텍스트 이미지를 디코딩하기 위해 픽셀 버퍼를 사용한다. 폰트 렌더링 시스템이 지원하는 폰트 유형은 오픈 타입(Open Type) 폰트이다.
보다 알기 쉬운 설명이 이하에 제공된다.
폰트 렌더링 시스템(FRDSTM)은 폰트 엔진(FONTEN)을 내장한 디코더(DECDER), 래스터라이저(RSTRZ) 및 폰트 캐쉬(FONTCC)를 포함한다. 파일 캐쉬(FLCCH)로부터 판독된 고급 자막(ADSBT) 정보 또는 고급 애플리케이션(ADAPL) 정보는 폰트 엔 진(FONTEN)을 이용하여 디코더(DECDER) 내에서 텍스트 이미지(이미지 화상)를 발생하는 데 사용된다. 서브-픽처 플레인(SBPCPL)(도 39 참조) 내에서의 발생된 텍스트 이미지(이미지 화상)의 표시 크기는 래스터라이즈(RSTRZ) 내의 스케일러(SCALER)에 의해 설정된다. 그 후, 작성된 텍스트 이미지(이미지 화상)의 투명도는 알파 맵 발생(AMGRT)에 의해 지정된다. 작성된 텍스트 이미지(이미지 화상)는 필요에 따라서 폰트 캐쉬(FONTCC) 내에 일시 저장되고, 필요한 타이밍에서 폰트 캐쉬(FONTCC)로부터 판독되고, 그에 따라 화상을 표시한다. 작성된 텍스트 이미지(이미지 화상)의 투명도는 알파 맵 발생(AMGRT)에 의해 규정된다. 그 결과, 텍스트 이미지의 중복된 부분의 밑으로 있는 서브 비디오 플레인(SBVDPL) 또는 메인 비디오 플레인(MNVDPL)(도 39 참조) 상의 영상을 들여다 볼 수 있다.
본 실시예에 있어서, 알파 맵 발생(AMGRT)은 디코더(DECDER)에서 작성된 텍스트 이미지(이미지 화상) 전체의 투명도를 균일하게 설정할 수 있을 뿐만 아니라, 텍스트 이미지(이미지 화상)에서의 투명도를 부분적으로 변화시킬 수 있다. 본 실시예에 있어서는, 디코더(DECDER)에 의해 텍스트 문자로부터 텍스트 이미지(이미지 화상)로 변환하는 프로세스에서, 픽셀 버퍼(PIXBUF)가 사용될 수 있다. 본 실시예에 있어서, 폰트 렌더링 시스템(FRDSTM)에 의해 지원되는 폰트 유형은 기본적으로 오픈 타입(종래 일반적으로 사용되는 폰트 타입)이다. 그러나, 본 실시예는 이러한 특정의 유형에 한정되지 않으며, 도 11에 도시한 고급 엘리먼트 디렉토리(ADVEL) 아래에 있는 폰트 파일(FONT)을 이용하여, 폰트 파일(FONT)에 대응하는 폰트 유형의 형태로 텍스트 이미지가 작성될 수도 있다.
도 14에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADVPL)은 프리젠테이션 엔진(PRSEN)을 포함하고, 이 프리젠테이션 엔진(PRSEN)은 2차 비디오 플레이어(SCDVP)를 포함한다(도 30 참조). 도 35를 사용하여, 본 실시예에 있어서의 2차 비디오 플레이어(SCDVP)의 내부 구조를 설명한다.
2차 비디오 플레이어:
2차 비디오 플레이어는 2차 비디오 세트에 의해 전달되는 대체 오디오 비디오, 대체 오디오 및 2차 오디오 비디오를 재생하는 일을 맡고 있다. 이들 표시 객체는 디스크, 네트워크 서버, 영속적 저장 장치 및 파일 캐쉬 상에 저장될 수 있다. 1차 비디오 세트가 디스크로부터 재생되고 있는 동안에 2차 비디오 세트를 디스크로부터 재생하기 위해, 2차 비디오 플레이어에 의해 재생되기 이전에 2차 비디오 세트가 파일 캐쉬 상에 저장될 필요가 있다. 네트워크 서버로부터의 컨텐츠는 네트워크 전송 경로의 비트 레이트 변동으로 인한 데이터 부족을 피하기 위해 2차 비디오 플레이어 내의 디멀티플렉서 모듈로 피드되기 이전에 스트리밍 버퍼에 저장되어야만 한다. 비교적 짧은 길이의 컨텐츠는 2차 비디오 플레이어에 의해 판독되기 이전에 파일 캐쉬에 저장될 수 있다. 2차 비디오 플레이어는 2차 비디오 재생 엔진 및 디멀티플렉서로 이루어져 있다. 2차 비디오 플레이어는 2차 비디오 세트 내의 표시 스트림 유형에 따라 디코더 엔진 내의 적당한 디코더에 연결된다(도 35 참조).
2차 비디오 재생 엔진:
2차 비디오 재생 엔진은 내비게이션 관리자 내의 재생 목록 관리자로부터의 요청에 응답하여 2차 비디오 플레이어 내의 모든 기능 모듈을 제어하는 일을 맡고 있다. 2차 비디오 재생 엔진은 TMAP 파일을 판독 및 분석하여 S-EVOB의 적당한 판독 위치를 찾아낸다.
디멀티플렉서:
디멀티플렉서는 S-EVOB 스트림을 판독하고 이를 2차 비디오 플레이어에 연결되어 있는, 디코더 엔진 내의 적당한 디코더 모듈로 배포한다. 디멀티플렉서는 또한 정확한 SCR 타이밍에서 S-EVOB 내의 각각의 PCK를 출력하는 일을 맡고 있다. S-EVOB가 비디오 또는 오디오의 단일 스트림으로 이루어져 있는 경우, 디멀티플렉서는 정확한 SCR 타이밍에서 단지 이를 디코더로 공급하기만 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 10에 도시한 바와 같이, 2차 비디오 세트(SCDVS)는 대체 오디오 비디오(SBTAV), 대체 오디오(SBTAD), 및 2차 오디오 비디오(SCDAV)를 포함하고, 2차 비디오 플레이어(SCDVP)는 이들의 재생 처리를 수행한다. 2차 비디오 세트(SCDVS)의 재생 표시 객체는 정보 저장 매체(DlSC), 네트워크 서버(NTSRV) 및 영속적 저장 장치(PRSTR)의 어느 하나 내에 저장될 수 있다. 도 16에 도시하는 표시 프레임 예에서와 같이, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)가 동시에 단일의 화면 상에 표시되는 경우에는, 2차 비디오 세트(SCDVS)의 표시 재생 객체는 사전에 파일 캐쉬(FLCCH) 내에 저장되어야 하고, 파일 캐쉬(FLCCH)로부터 재생되어야 한다. 예컨대, 단일의 정보 저장 매체(DISC) 내의 서로 다른 장소에 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)가 기록되어 있는 경우, 양자가 동시에 재생 되려면, 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 정보 기록 및 재생 유닛(2) 내에 포함된 광학 헤드(도시 생략)는 1차 비디오 세트(PRMVS)와 2차 비디오 세트(SCDVS)의 기록 위치 간에 액세스 제어를 반복해야만 하고, 광학 헤드의 액세스 시간의 영향으로 인해 양자를 연속 재생하는 것이 어렵게 된다. 그것을 회피하기 위해서, 본 실시예에서는, 정보 기록 및 재생 유닛(2) 내의 광학 헤드가 1차 비디오 세트(PRMVS)만을 재생할 수 있도록 2차 비디오 세트(SCDVS)는 파일 캐쉬(FLCCH) 내에 저장된다. 그 결과, 광학 헤드의 액세스 횟수가 대폭 감소되고, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)가 연속하여 단일의 프레임 상에 표시될 수 있다. 네트워크 서버(NTSRV) 내에 기록된 2차 비디오 세트(SCDVS)를 2차 비디오 플레이어(SCDVP)에서 재생 처리하는 경우에는, 2차 비디오 플레이어(SCDVP) 내의 디멀티플렉서(DEMUX)로 데이터가 전송되기 전에, 사전에 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF) 내에 2차 비디오 세트(SCDVS)를 저장해 놓아야 한다(도 25 참조). 이와 같이 하여, 네트워크 경로의 전송 레이트의 변동이 생기더라도, 전송되는 데이터의 고갈을 방지할 수 있다. 기본적으로는 네트워크 서버(NTSRV) 내에 저장된 2차 비디오 세트(SCDVS)는 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF) 내에 사전에 저장된다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 2차 비디오 세트(SCDVS)의 데이터 크기가 작은 경우에는, 2차 비디오 세트(SCDVS)는 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH) 내에 저장될 수도 있다. 이 경우에는, 2차 비디오 세트(SCDVS)는 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH)로부터 디멀티플렉서(DEMUX)로 전송된다. 도 35에 도시한 바와 같이, 2 차 비디오 플레이어(SCDVP)는 2차 비디오 재생 엔진(SVPBEN) 및 디멀티플렉서(DEMUX)를 포함한다. 도 10에 도시한 바와 같이, 2차 비디오 세트(SCDVS) 내에는 메인 오디오(MANAD)와 메인 비디오(MANVD)가 각각의 팩에 대해 멀티플렉싱되어 있고, 데이터가 기록된다(서브 비디오(SUBVD) 및 서브 오디오(SUBAD)도 각각의 팩에 대해 멀티플렉싱되어 기록되어 있다). 디멀티플렉서(DEMUX)는 이들 데이터를 각각의 팩에 대해 디멀티플렉싱하여 그 팩을 디코더 엔진(DCDEN)으로 전송한다. 즉, 디멀티플렉서(DEMUX)에 의해 추출된 서브-픽처 팩(SP_PCK)은 서브-픽처 디코더(SPDEC)로 전송되고, 서브 오디오 팩(AS_PCK)은 서브 오디오 디코더(SADEC)로 전송된다. 서브 비디오 팩(VS_PCK)은 서브 비디오 디코더(SVDEC)로 전송되고, 메인 오디오 팩(AM_PCK)은 메인 오디오 디코더(MADEC)로 전송되며, 메인 비디오 팩(VM_PCK)은 메인 비디오 디코더(MVDED)로 전송된다.
도 35에 도시하는 2차 비디오 재생 엔진(SVPBEN)은 2차 비디오 플레이어(SCDVP)에서의 모든 기능 모듈의 제어 처리를 실행한다. 2차 비디오 재생 엔진(SVPBEN)의 제어에서, 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)로부터의 요청에 응답하여 처리를 한다. 2차 비디오 세트(SCDVS)가 재생 및 표시되는 경우에는, 도 12에 도시한 바와 같이, 재생 목록(PLLST)은 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)을 참조한다. 2차 비디오 재생 엔진(SVPBEN)은 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)을 재생함과 동시에 그의 내용을 해석하고, 따라서 2차 고화질 비디오 객체 데이터(S-EVOB)의 최적의 재생 개시 위치를 산출하여, 정보 기록 및 재생 유닛(2)(도 1 참조) 내의 광학 헤 드에 대해 액세스 지시를 한다.
2차 비디오 플레이어(SCDVP) 내의 디멀티플렉서(DEMUX)는 2차 고화질 비디오 객체 데이터 스트림(S-EVOB)을 재생하고, 이를 팩으로 디멀티플렉싱하며, 각각의 팩에 대해 디코더 엔진(DCDEN) 내의 여러 가지 디코더로 데이터를 전송한다. 팩을 디코더 엔진(DCDEN)으로 전송할 시에, 디멀티플렉서(DEMUX)는 디코더 엔진(DCDEN) 내에 포함된 표준 클럭의 시스템 블럭 타이밍(SRC 타이밍)과 동기하여 DTS(디코딩 시간 스탬프) 데이터의 타이밍에서 이들을 여러 가지 디코더로 전송한다.
도 1에 도시하는 고급 컨텐츠 재생 유닛(ADVPL)은 도 14에 도시한 바와 같이 프리젠테이션 엔진(PRSEN)을 포함한다. 도 30에 도시한 바와 같이, 프리젠테이션 엔진(PRSEN)은 1차 비디오 플레이어(PRMVP)를 포함한다. 도 36은 1차 비디오 플레이어(PRMVP)의 내부 구조를 나타낸 것이다.
1차 비디오 플레이어:
1차 비디오 플레이어는 1차 비디오 세트를 재생하는 일을 맡고 있다. 1차 비디오 세트는 디스크 상에 저장되어야 한다.
1차 비디오 플레이어는 DVD 재생 엔진 및 디멀티플렉서로 이루어져 있다. 1차 비디오 플레이어는 1차 비디오 세트 내의 표시 스트림 유형에 따라 디코더 엔진 내의 적절한 디코더 모듈에 연결된다(도 36 참조).
DVD 재생 엔진:
DVD 재생 엔진은 내비게이션 엔진 내의 재생 목록 관리자로부터의 요청에 응답하여 1차 비디오 플레이어 내의 모든 기능 모듈을 제어하는 일을 맡고 있다. DVD 재생 엔진은 P-EVOB의 적절한 판독 위치를 찾아내기 위해 IFO 및 TMAP(들)을 판독 및 분석하고, 멀티 앵글, 오디오/서브픽처 선택 및 서브 비디오/오디오 재생 등의 1차 비디오 세트의 특수한 재생 특징을 제어한다.
디멀티플렉서:
디멀티플렉서는 P-EVOB 스트림을 판독하고 이를 1차 비디오 플레이어에 연결되어 있는 디코더 엔진 내의 적당한 디코더 모듈로 배포한다. 디멀티플렉서는 또한 정확한 SCR 타이밍에서 P-EVOB 내의 각각의 PCK을 각각의 디코더로 출력하는 일을 맡고 있다. 멀티 앵글 스트림의 경우, 디멀티플렉서는 TMAP 또는 내비게이션 팩(NV PCK) 내의 위치 정보에 따라 디스크 또는 영속적 저장 장치 상의 P-EVOB의 적절한 인터리빙된 블록을 판독한다. 디멀티플렉서는 선택된 오디오 팩(AM_PCK 또는 AS PCK)을 오디오 디코더(메인 오디오 디코더 또는 서브 오디오 디코더)에 제공하는 일을 맡고 있다. 또한, 이는 선택된 서브픽처 팩(SP PCK)을 서브픽처 디코더에 제공하는 일을 맡고 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에 있어서, 1차 비디오 플레이어(PRMVP)는 1차 비디오 세트(PRMVS)의 재생을 지원한다. 1차 비디오 세트(PRMVS)는 정보 저장 매체(DISC) 내에만 저장된다. 도 36에 도시한 바와 같이, 1차 비디오 플레이어(PRMVP)는 DVD 재생 엔진(DPBKEN) 및 디멀티플렉서(DEMUX)를 포함한다. 도 10에 도시한 바와 같이, 1차 비디오 세트(PRMVS)의 각종의 데이터 유형으로는 메인 비디오(MANVD)로부터 서브-픽처(SUBPT)에 이르는 데이터 유형이 존재한다. 디멀티플렉서(DEMUX)는 이들의 각 종의 데이터 유형에 따라서 디코더 엔진(DCDEN) 내의 대응하는 디코더에 접속되어 있다. 즉, 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 포함되는 서브-픽처 팩(SP_PCK)은 서브-픽처 디코더(SPDEC) 내로 전송되고, 서브 오디오 팩(AS_PCK)은 서브 오디오 디코더(SADEC)로 전송된다. 서브 비디오 팩(VS_PCK)은 서브 비디오 디코더(SVDEC)로 전송되고, 메인 오디오 팩(AM_PCK)은 메인 오디오 디코더(MADEC)로 전송되며 메인 비디오 팩(VM_PCK)은 메인 비디오 디코더(MADEC)로 전송된다.
도 28에 도시한 바와 같이, 내비게이션 관리자(NVMNG)는 재생 목록 파일(PLLST)의 내용을 해석하는 재생 목록 관리자(PLMNG)를 포함한다. 재생 목록 관리자(PLMNG)로부터의 요청에 응답하여, 제36도에 도시하는 DVD 재생 엔진(DPBKEN)은 1차 비디오 플레이어(PRMVP) 내의 모든 기능 모듈의 제어를 지원한다. DVD 재생 엔진(DPBKEN)은 재생과 연관된 관리 정보(도 11에 도시하는 재생 목록 파일(PLLST) 및 비디오 타이틀 세트 정보 파일(ADVTSD))의 내용을 해석하고, 1차 비디오 세트 디렉토리(PRMAV) 아래에 있는 타임 맵 파일(PTMAP)을 이용하여, 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 재생 개시 위치에의 액세스를 제어한다. 게다가, DVD 재생 엔진(DPBKEN)은 예컨대 멀티 앵글, 오디오, 서브-픽처 트랙(스트림)의 전환, 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)를 이용한 2-화면 동시 재생 등의 1차 비디오 세트(PRMVS)의 특수한 재생 기능을 제어한다.
디멀티플렉서(DEMUX)는 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 분산되어 배치되어 있는 각종 스트림(팩) 데이터를 1차 비디오 플레이어(PRMVP)에 접속되어 있는 디코더 엔진(DCDEN) 내의 대응하는 디코더로 전송하여 이들의 디코딩 처리 를 실행한다. 도시하지는 않았지만, 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 각각의 팩(PCK)은 지정된 DTS(디코딩 시간 스탬프) 시간에 대응하는 디코더로 각각의 팩 정보를 전송하기 위한 DTS 정보를 포함한다. 멀티-앵글 스트림에 대해서는, 디멀티플렉서(DEMUX)는 1차 비디오 세트의 타임 맵 파일(PTMAP) 내의 정보 또는 내비게이션 팩(NV_PCK)의 정보에 대응하여, 정보 저장 매체(DISC) 내에 기록된 1차 고화질 비디오 객체 데이터(P-EVOB)의 인터리빙된 블록 내의 적절한 데이터를 재생하는 처리를 지원하고 있다.
도 14에 도시한 바와 같이, 본 실시예에 있어서의 고급 컨텐츠 재생 유닛(ADVPL)은 도 30에 도시한 바와 같이 디코더 엔진(DCDEN)을 포함하는 프리젠테이션 엔진(PRSEN)을 포함한다. 디코더 엔진(DCDEN)은 도 37에 도시한 바와 같이 서브 오디오 디코더(SADEC), 서브 비디오 디코더(SVDEC), 메인 오디오 디코더(MADEC), 메인 비디오 디코더(MVDEC) 및 서브-픽처 디코더(SPDEC)의 5개의 서로 다른 디코더를 포함한다.
디코더 엔진:
디코더 엔진은 5가지 종류의 디코더, 즉 서브픽처 디코더, 서브 오디오 디코더, 서브 비디오 디코더, 메인 오디오 디코더 및 메인 비디오 디코더의 집합체이다. 각각의 디코더 모듈은 그 자신의 입력 버퍼 모듈을 갖는다. 서브픽처 디코더, 서브 비디오 디코더 및 메인 비디오 디코더의 경우, 이들 각각은 출력 프레임에 대한 스케일러 기능을 갖는다. 각각의 디코더는 연결된 플레이어의 재생 엔진, 2차 비디오 플레이어 내의 2차 비디오 재생 엔진 또는 1차 비디오 플레이어 내의 DVD 재생 엔진에 의해 연결되고 제어된다(도 37 참조).
각각의 표시 스트림 유형에 대한 디코딩 기능 모듈은 표시 스트림의 현재의 재생 조합에 따라 2차 비디오 플레이어 또는 1차 비디오 플레이어에 연결될 수 있다.
서브픽처 디코더:
서브픽처 디코더는 DVD 재생 엔진으로부터의 요청에 응답하여 서브픽처 스트림을 디코딩하는 일을 맡고 있다. 출력 플레인은 서브픽처 플레인이라 부르며, 이는 고급 자막 플레이어 및 서브픽처 디코더로부터의 출력 간에 배타적으로 공유되어야 한다.
서브 오디오 디코더:
서브 오디오 디코더는 '서브 오디오'라고 하는 오디오 스트림의 디코딩을 지원한다. 서브 오디오의 채널 수는 최대 2 채널이고, 그의 샘플링 레이트는 최대 48 kHz이다. 서브 오디오 디코더의 출력 오디오 스트림은 '서브 오디오 스트림'이라고 한다.
서브 비디오 디코더:
서브 비디오 디코더는 '서브 비디오'라고 하는 비디오 스트림을 지원한다. 서브 비디오 디코더는 필수적인 SD 해상도를 지원하고, 선택적인 HD 해상도를 지원한다. 서브 비디오 디코더의 출력 비디오 플레인은 '서브 비디오 플레인'이라고 한다.
서브 비디오 디코더에서의 스케일링 기능:
서브 비디오 디코더에서의 스케일링 기능은 다음과 같이 3가지 종류의 기능으로 이루어져 있다.
1) 소스 화상 해상도의 예상된 표시 해상도로의 스케일링
소스 화상 해상도가 예상된 표시 해상도와 다른 경우, 서브 비디오의 업-샘플링을 위한 스케일링이 수행되어야 한다.
2) 비정방형 픽셀의 정방형 픽셀로의 스케일링
서브 비디오가 SD인 경우 픽셀 종횡비가 비정방형이기 때문에, 서브 비디오는 정방형 픽셀 이미지를 획득하기 위해 수평으로 스케일링되어야 한다.
3) 첨부물 Z에 정의된 API에 의한 스케일링
이 스케일링은 서브 비디오의 레이아웃에 대응한다. 이 스케일링은 서브 비디오의 종횡비를 변경시키지 않는다. 스케일링 비율은 서브 비디오가 어퍼처로 합성되는 경우 API에 의해 지정되어야 한다.
메인 오디오 디코더:
메인 오디오 디코더는 '메인 오디오'라고 불리우는 최대 7.1 채널 멀티 채널 오디오 및 최대 192 kHz 샘플링 레이트를 지원할 수 있다. 메인 오디오 디코더의 출력 오디오 스트림은 '메인 오디오 스트림'이라고 한다.
메인 비디오 디코더:
메인 비디오 디코더는 '메인 비디오'라고 하는 HD 해상도 비디오 스트림을 지원할 수 있다. 메인 비디오 디코더의 출력 비디오 플레인은 '메인 비디오 플레인'이라고 한다.
메인 비디오 디코더는 메인 비디오 스트림을 디코딩하고 이를 '어퍼처'라고 하는 그래픽 플레인의 지정된 크기로 위치시킨다. 디코딩된 메인 비디오는 스케일러에 의해 스케일링되고 내비게이션 관리자로부터의 위치 및 스케일 정보에 따라 캔버스 상의 적절한 위치에 배치된다. 이 정보는 또한 외측 프레임 컬러 정보도 포함한다. 이것은 캔버스에서 메인 비디오로부터의 외부 영역에 적용된다.
외측 프레임의 디폴트 컬러 값은 "16, 128, 128"(=검정색)이다.
메인 비디오 디코더에서의 스케일링 기능:
메인 비디오 디코더에서의 스케일링 기능은 다음과 같이 3가지 종류의 기능으로 이루어져 있다.
1) 소스 화상 해상도의 예상된 표시 해상도로의 스케일링
소스 화상 해상도가 예상된 표시 해상도와 다른 경우, 메인 비디오의 업-샘플링을 위한 스케일링이 수행되어야 한다.
2) 비정방형 픽셀의 정방형 픽셀로의 스케일링
메인 비디오가 SD인 경우 픽셀 종횡비가 비정방형이기 때문에, 메인 비디오는 정방형 픽셀 이미지를 얻기 위해 수평으로 스케일링되어야 한다.
3) 첨부물 Z에 정의된 API에 의한 스케일링
이 스케일링은 메인 비디오의 레이아웃에 대응한다. 이 스케일링은 메인 비디오의 종횡비를 변경하지 않는다. API에 의해 스케일링 비율을 지정하는 것이 허용되지 않는다. 이 경우에, 디폴트 거동은 전체 화면에 맞도록 메인 비디오를 스케일링하는 것이다. 4:3 소스 자료의 경우, 스케일링-업된 이미지가 어퍼처의 중 간에 배치되도록 좌우측 모두에 수직 측방 패널이 있다. 보다 구체적으로는, 어퍼처의 크기가 1920 x 1080인 경우, 240개 픽셀의 측방 패널이 좌우측 모두에 배치되어 있다. 어퍼처의 크기가 1280 x 720인 경우, 160개 픽셀의 측방 패널이 좌우측 모두에 배치되어 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
서브 오디오 버퍼(SABUF), 서브 비디오 버퍼(SVBUF), 메인 오디오 버퍼(MABUF), 메인 비디오 버퍼(MVBUF) 및 서브-픽처 버퍼(SPBUF)가 각각 이들 디코더에 연결되어 있다. 또한, 서브 비디오 디코더(SVDEC), 메인 비디오 디코더(MVDEC) 및 서브-픽처 디코더(SPDEC)에는 프레임 상의 표시 크기 및 표시 장소를 설정하는 스케일러(SCALER)가 연결되어 있다. 각각의 디코더는 1차 비디오 플레이어(PRMVP) 내의 DVD 재생 엔진(DPBKEN)과 접속됨과 동시에 그에 의해 제어되고, 또한 2차 비디오 플레이어(SCDVP) 내의 2차 비디오 재생 엔진(SVPBEN)과 접속됨과 동시에 그에 의해 제어된다.
1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)는 도 10의 데이터 유형 섹션에 기재된 각종의 데이터를 가지고 있다.
1차 비디오 세트(PRMVS)에 포함되는 각 데이터는 5가지 유형의 스트림으로 멀티플렉싱되고 이들 스트림은 1차 비디오 플레이어(PRMVP) 내의 디멀티플렉서(DEMUX)로부터 출력된다. 각 스트림의 처리 방법에 관해서 이하에 설명한다. 메인 비디오(MANVD)의 데이터가 기록되어 있는 메인 비디오 팩(VM_PCK)은 메인 비디오 버퍼(MVBUF)를 경유하여 메인 비디오 디코더(MVDEC) 내에서 디코딩 처리된다. 메인 오디오(MANAD)의 데이터가 기록된 메인 오디오 팩(AM_PCK)은 메인 오디오 버퍼(MABUF)를 경유하여 메인 오디오 디코더(MADEC) 내에서 디코딩 처리된다. 또한, 서브 비디오(SUBVD)의 데이터가 기록되어 있는 서브 비디오 팩(VS_PCK)은 서브 비디오 버퍼(SVBUF)를 경유하여, 서브 비디오 디코더(SVDEC) 내에서 디코딩 처리된다. 또한, 서브 오디오(SUBAD)의 데이터가 기록된 서브 오디오 팩(AS_PCK)은 서브 오디오 버퍼(SABUF)를 경유하여, 서브 오디오 디코더(MADEC) 내에서 디코딩 처리된다. 마지막으로 서브-픽처(SUBPT)의 데이터가 기록된 서브-픽처 팩(SP_PCK)은 서브 비디오 버퍼(SVBUF)를 경유하여, 서브-픽처 디코더(SPDEC) 내에서 디코딩 처리 된다.
마찬가지로, 2차 비디오 세트(SCDVS)에 포함되는 각 데이터는 2차 비디오 플레이어(SCDVP) 내의 디멀티플렉서(DEMUX)에서 4종류의 스트림으로 디멀티플렉싱되어 출력된다. 각 스트림의 처리 방법에 관해서 이하에 설명한다. 대체 오디오(SBTAD) 또는 대체 오디오 비디오(SBTAV) 내에 포함되는 메인 오디오(MANAD)의 데이터가 기록된 메인 오디오 팩(AM_PCK)은 메인 오디오 버퍼(MABUF)를 경유하여 메인 오디오 디코더(MADEC) 내에서 디코딩 처리된다. 또한, 대체 오디오 비디오(SBTAV) 내의 메인 비디오(MANVD)의 데이터가 기록된 메인 비디오 팩(VM_PCK)은 메인 비디오 버퍼(MVBUF)를 경유하여 메인 비디오 디코더(MVDEC) 내에서 디코딩 처리된다. 또한, 2차 오디오 비디오(SCDAV) 내의 서브 비디오(SUBVD)의 데이터가 기록된 서브 비디오 팩(VS_PCK)은 서브 비디오 버퍼(SVBUF)를 경유하여 서브 비디오 디코더(SVDEC) 내에서 디코딩 처리된다. 마지막으로. 2차 오디오 비디오(SCDAV) 내의 서브 오디오(SUBAD)의 데이터가 기록된 서브 오디오 팩(AS_PCK)은 서브 오디오 버퍼(SABUF)를 경유하여 서브 오디오 디코더(SADEC) 내에서 디코딩 처리된다.
도 37에 도시하는 1차 비디오 플레이어(PRMVP) 내의 DVD 재생 엔진(DPBKEN), 또는 2차 비디오 플레이어(SCDVP) 내의 2차 비디오 재생 엔진(SVPBEN)으로부터의 요청에 응답하여 서브-픽처 디코더(SPDEC)는 서브-픽처 스트림의 디코딩 처리를 한다. 도 39를 사용하여 표시 프레임 상의 각각의 프레임 레이어에 관하여 설명한다. 서브-픽처 디코더(SPDEC)로부터의 출력은 서브-픽처 플레인(SBPCPL) 상에 표시된다. 또한, 본 실시예에 있어서는, 서브-픽처 플레인(SBPCPL) 내에서, 서브-픽처(SUBPT) 및 고급 자막(ADSBT)의 디코딩 결과가 공통으로(양자택일적으로) 표시된다. 고급 자막(ADSBT)은 도 30에 도시하는 고급 자막 플레이어(ASBPL) 내에서 디코딩되어 출력된다.
서브 오디오 디코더(SADEC)는 서브 오디오(SUBAD)라고 불리는 오디오 스트림의 디코딩을 처리한다. 본 실시예에 있어서, 서브 비디오 디코더(SVDEC)는 최대 2채널까지를 지원하고 48 kHz 이하의 샘플 레이트를 설정한다. 이와 같이 서브 오디오 디코더(SADEC)의 성능을 낮게 억제하는 것에 의해, 디코더 엔진(DCDEN)에서의 제조 비용이 감소될 수 있다. 또한, 서브 오디오 디코더(SADEC)에서 출력되는 오디오 스트림은 서브 오디오 스트림(SUBAD)이라고 부르고 있다.
서브 비디오 디코더(SVDEC)는 서브 비디오(SUBVD)라고 불리는 비디오 스트림의 디코딩 처리를 지원한다. 서브 비디오 디코더(SVDEC)는 SD(standard definition)의 해상도의 지원을 필수로 하여, 옵션으로서 HD(high definition)의 해상도도 지원할 수 있다. 서브 비디오 디코더(SVDEC)에서 출력되는 데이터는 서브 비디오 플레인(SBVDPL)(도 39 참조) 상에 표시된다.
서브 비디오 디코더(SVDEC)의 출력측에 연결된 스케일러(SCALER)는 이하의 3가지 기능을 가지고 있다.
1) 스케일러(scaler)는 출력에 필요한 디스플레이 해상도에 대응하여 서브 비디오(SUBVD)의 해상도를 변화시킨다. 도 1에 도시하는 와이드 화면 텔레비젼 모니터(15)에 출력될 때의 이상적인 서브 비디오(SUBVD)의 해상도가 결정될 때, 스케일러(SCALER)는 모든 와이드 화면 텔레비젼 모니터(15)의 해상도에 대응하도록 서브 비디오(SUBVD)의 해상도를 변화시킨다.
2) 표시할 때의 종횡비에 대응하는 스케일링 기능
와이드 화면 텔레비젼 모니터(15) 상에 표시되는 프레임의 종횡비가 원래 서브 비디오(SUBVD)에 의해 표시하여야 할 종횡비와 다른 경우에는, 스케일러(SCALER)는 종횡비 변환을 수행하여 와이드 화면 텔레비젼 모니터(15) 상에 최적의 표시를 하기 위한 처리를 수행한다.
3) API 명령에 기초하는 스케일링 처리
도 39에 도시한 바와 같이, 서브 비디오(SUBVD)로서 광고용의 독립적인 화면(32)이 단일의 프레임의 일부 상에 표시되는 경우, 고급 애플리케이션(ADAPL)에 부합하는 API 명령에 의해, 광고용의 독립적인 화면(32)(서브 비디오(SUBVD))의 크기가 설정될 수 있다. 이와 같이, 본 실시예에 따르면, API 명령에 기초하여, 스케일러(SCALER) 내에서 최적의 표시 프레임 크기가 설정된다. 이 경우에는, 원래 설정되어 있던 서브 비디오(SUBVD)의 종횡비는 변하지 않고 전체의 크기만이 변화된다.
본 실시예에 있어서, 메인 오디오 디코더(MADEC)는 7.1채널까지의 멀티-채널 오디오 및 192 kHz까지의 샘플링 레이트의 오디오의 디코딩을 지원한다. 메인 오디오 디코더(MADEC)에서 디코딩된 데이터를 메인 오디오(MANAD)라고 부른다.
메인 비디오 디코더(MVDEC)는 HD(high definition)의 해상도를 지원할 수 있고, 디코딩된 비디오 정보는 메인 비디오(MANVD)라고 부르고 있다. 이와 같이, 메인 비디오 디코더(MVDEC)에서 고해상도의 디코딩을 구현할 수 있기 때문에, 사용자 요구를 만족시키는 고화질이 달성될 수 있다. 서브 비디오 디코더(SVDEC)가 이 디코더에 부가하여 제공되기 때문에, 동시에 2개의 화면이 표시될 수 있다. 또한, 서브 비디오 디코더(SVDEC)의 디코딩 능력을 제한함으로써, 디코더 엔진(DCDEN)의 가격을 억제할 수 있다. 메인 비디오 디코더(MVDEC)에서 디코딩된 프레임은 메인 비디오 플레인(MNVDPL)(도 39 참조) 상에 표시된다. 메인 비디오 디코더(MVDEC)는 메인 비디오(MANVD)를 디코딩한다. 본 실시예에 있어서, 디코딩된 비디오 정보의 표시 크기는 어퍼처(APTR)(도 40 참조)라고 불리는 그래픽 플레인(GRPHPL)(도 39 참조) 상의 크기와 일치해야 한다. 또한, 본 실시예에서는, 내비게이션 관리자(NVMNG)로부터 공급되는 위치 정보(POSITI) 및 스케일 정보(SCALEI)에 대응하여 (도 41 참조), 디코딩된 메인 비디오(MANVD)는 스케일러(SCALER)에 의해, 어퍼처(APTR) 상의 적정한 크기로 스케일링됨과 동시에 어퍼처(APTR) 상의 적정한 위치에 배치된다. 내비게이션 관리자(NVMNG)로부터 전송되는 스케일 정보의 중에는, 메인 비디오 플레인(MNVDPL)의 프레임의 경계를 표시하는 프레임 부분의 컬러에 대한 정보를 포함된다. 본 실시예에 있어서는, 프레임의 컬러는 디폴트 상태에서 "0, 0, 0"(흑색)으로 설정되어 있다.
메인 비디오 디코더(MVDEC)의 출력측에 연결되어 있는 스케일러(SCALER)는 이하의 3가지 기능을 가지고 있다.
1) 출력에 필요한 디스플레이 해상도에 대응하여 메인 비디오(MANVD)의 해상도를 변화시킨다. 도 1에 도시하는 와이드 화면 텔레비젼 모니터(15)로 출력될 때의 메인 비디오(MANVD)의 이상적인 해상도가 결정될 때, 스케일러(SCALER)는 모든 와이드 화면 텔레비젼 모니터(15)(도 1 참조)에 대응하도록 메인 비디오(MANVD)의 해상도를 변경한다.
2) 표시 시의 종횡비에 대응하는 스케일링 기능
와이드 화면 텔레비젼 모니터(15) 상에 표시되는 화면의 종횡비가 원래 메인 비디오(MANVD)에 의해 표시하여야 할 종횡비와 다른 경우, 스케일러(SCALER)는 와이드 화면 텔레비젼 모니터(15) 상에 최적의 표시를 하도록 종횡비 변환 리를 수행한다.
3) API 명령에 기초하는 스케일링 처리
도 39에 도시한 바와 같이, 메인 비디오(MANVD)(메인 타이틀(31))가 표시되는 경우, 고급 애플리케이션(ADAPL)에 부합하는 API 명령에 의해 메인 비디오(MANVD)(메인 타이틀(31))의 크기가 지정될 수 있다. 이와 같이, 스케일러(SCALER)에서 최적의 프레임 크기가 설정될 때, 원래 설정된 메인 비디오(MANVD) 의 종횡비는 변하지 않고 전체 크기만이 변경된다(특정의 종횡비로의 변환은 API 명령에 따라 금지된다). 이 경우, 메인 비디오(MANVD)는 디폴트 상태에서 전체 화면 상에 표시된다. 예를 들어, 종횡비 = 4:3인 경우에, 그 종횡비를 갖는 프레임이 와이드 화면 상에 표시될 때, 그의 폭이 좁게 되기 때문에, 좁은 폭을 갖는 표시 프레임은 와이드 화면의 중앙에 표시된다. 특히, 어퍼처(APTR)의 크기가 "1920 × 1080" 또는 "1280 × 720"으로 설정되는 경우(와이드 화면 대응)에는, 전체 크기 프레임이 와이드 화면 상에 표시된다.
도 1에 도시한 바와 같이, 정보 기록 및 재생 장치(1)는 고급 컨텐츠 재생 유닛(ADVPL)을 포함하며, 도 14에 도시한 바와 같이 고급 컨텐츠 재생 유닛(ADVPL) 은 AV 렌더러(AVRND)를 포함한다. AV 렌더러(AVRND)는 도 38에 도시한 바와 같이, 그래픽 렌더링 엔진(GHRNEN) 및 오디오 믹싱 엔진(ADMXEN)을 포함한다
AV 렌더러:
AV 렌더러는 2가지 임무를 갖는다. 하나는 프리젠테이션 엔진 및 내비게이션 관리자로부터 오는 그래픽 플레인을 합성하고 합성 비디오 신호를 출력하는 것이다. 다른 하나는 프리젠테이션 엔진으로부터의 PCM 스트림을 믹싱하고 믹싱된 오디오 신호를 출력하는 것이다. AV 렌더러는 그래픽 렌더링 엔진 및 사운드 믹싱 엔진으로 이루어져 있다(도 38 참조).
그래픽 렌더링 엔진:
그래픽 렌더링 엔진은 프리젠테이션 엔진으로부터의 4개의 그래픽 플레인 입력을 수신할 수 있다. 그래픽 렌더링 엔진은 커서 플레인을 가지며, 내비게이션 관리자로부터의 커서 이미지 및 위치 정보에 따라 이를 갱신한다. 그래픽 렌더링 엔진은 내비게이션 관리자로부터의 제어 정보에 따라 이들 5개의 플레인을 합성하고, 이어서 합성 비디오 신호를 출력한다.
오디오 믹싱 엔진:
오디오 믹싱 엔진은 프리젠테이션 엔진으로부터 3개의 LPCM 스트림을 수신할 수 있다. 오디오 믹싱 엔진은 내비게이션 관리자로부터의 믹싱 레벨 정보에 따라 이들 3개의 LPCM 스트림을 믹싱하고, 이어서 믹싱된 오디오 신호를 출력한다.
보다 알기 쉬운 설명이 이하에 제공된다.
그래픽 렌더링 엔진(GHRNEN)은 도 14에 도시하는 내비게이션 관리자(NVMNG)와 프리젠테이션 엔진(PRSEN)에서 오는 정보를 바탕으로 그래픽 플레인(GRPHPL)(도 39 참조) 상에서의 화상의 합성 처리를 수행한다. 오디오 믹싱 엔진(ADMXEN)에서는 프리젠테이션 엔진(PRSEN)에서 오는 오디오 정보(PCM 스트림)를 믹싱하고, 믹싱된 오디오 정보를 출력한다.
사용자에게 표시하는 화면은 도 39에 자세히 설명하는 바와 같이, 커서 플레인(CRSRPL), 그래픽 플레인(GHRHPL), 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL)과 메인 비디오 플레인(MDVDPL)의 5개의 플레인으로 구성되어 있다. 이들 5개의 플레인은 그래픽 렌더링 엔진(GHRNEN) 상에서 합성 처리된다. 도 38에 도시하는 프리젠테이션 엔진(PRSEN)은 그래픽 플레인(GHRHPL), 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL)과 메인 비디오 플레인(MNVDPL)의 각 플레인 상의 화상을 작성하고, 이들을 그래픽 렌더링 엔진(GHRNEN)으로 전송한다. 그 래픽 렌더링 엔진(GHRNEN)은 새로 커서 플레인(CRSRPL)을 작성한다. 그래픽 렌더링 엔진(GHRNEN)은 커서 이미지(CRSIMG)를 작성함과 동시에 내비게이션 관리자(NVMNG)로부터 전송되는 커서의 커서 이미지(CRSIMG)의 위치 정보에 기초하여 커서 플레인(CRSRPL) 상에 커서 이미지(CRSlMG)를 배치한다. 그 결과, 그래픽 렌더링 엔진(GHRNEN)은 내비게이션 관리자(NVMNG)로부터의 제어 정보에 기초하여 5개의 플레인의 합성 처리를 수행하고, 이어서 합성 화상을 비디오 신호로서 출력한다.
오디오 믹싱 엔진(ADMXEN)은 프리젠테이션 엔진(PRSEN)으로부터 보내져오는 최대 3가지 유형의 선형 PCM 스트림을 동시에 수신할 수 있고 또 이들 오디오 스트림을 믹싱할 수 있다. 이때, 오디오 믹싱 엔진(ADMXEN)은 내비게이션 관리자(NVMNG)로부터 보내져오는 믹싱 레벨 정보에 기초하여 각각의 선형 PCM 스트림에 대한 음량을 설정하고, 이어서 믹싱된 스트림을 출력한다.
도 39에 도시한 바와 같이, 표시 화면 상에서는, 프레임이 커서 플레인(CRSRPL), 그래픽 플레인(GRPHPL), 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL)과 메인 비디오 플레인(MNVDPL)의 5개의 프레임 레이어로 구성되어 있다. 본 실시예에 있어서, 커서 플레인(CRSRPL)으로서의 하나의 프레임 레이어는 AV 렌더러(AVRND) 내의 그래픽 렌더링 엔진(GHRNEN)(도 4l 참조) 내에서 작성된다. 도 39에서의 그래픽 플레인(GRPHPL), 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL)과 메인 비디오 플레인(MNVDPL)의 4개의 프레임 레이어는 프리젠테이션 엔진(PRSEN)(도 41 참조) 내에서 작성된다. 그래픽 렌더링 엔진(GHRNEN)에 입력되는 프리젠테이션 엔진(PRSEN) 내에서 작성되는 그래픽 플레인(GRPHPL), 서브-픽처 플레인(SBPCPL), 서브 비디오 플레인(SBVDPL)과 메인 비디오 플레인(MNVDPL)의 4개의 프레임 레이어의 프레임 레이트는 각각 독립적으로 설정될 수 있다. 보다 구체적으로는, 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN)에서 출력되는 비디오 정보, 고급 자막 플레이어(ASBPL)에서 출력되는 비디오 정보, 2차 비디오 플레이어(SCDVP)에서 출력되는 비디오 정보 및 1차 비디오 플레이어(PRMVP)에서 출력되는 비디오 정보는 고유의 프레임 레이트를 가질 수 있다. 도 39에 도시하는 메인 비디오 플레인(MNVDPL)은 도 41 또는 도 30에 도시하는 1차 비디오 플레이어(PRMVP)에서 출력되어 디코더 엔진(DCDEN) 및 스케일러(SCALER)를 거친 뒤 출력으로서 얻어진다. 서브 비디오 플레인(SBVDPL)의 프레임 레이어는 2차 비디오 플레이어(SCDVP)에서 출력되어 디코더 엔진(DCDEN)을 거친 뒤 스케일러(SCALER)의 출력으로서 발생된다. 서브 비디오 플레인(SBVDPL)은 도 41 또는 도 30에 도시된 고급 자막 플레이어(ASBPL)로부터의 출력 및 서브 비디오 디코더(SVDEC)에서 출력되어 스케일러(SCALER)를 거친 프레임 중 하나를 선택함으로써 발생된다. 그래픽 플레인(GRPHPL)은 고급 애플리케이션 프리젠테이션 엔진(AAPEN)의 출력으로서 얻어진다.
이하에 도 39의 예를 이용하여 그래픽 플레인(GRPHPL) 내의 영역 정의에 관해서 설명한다. 도 39의 아래쪽에 도시하는 합성 프레임은 사용자가 보는 화면의 전체 크기 프레임을 나타낸다. 텔레비젼의 화면에 대한 와이드 화면, 표준 화면 등에 따라 최적으로 표시하여야 할 프레임 치수 크기(해상도)가 다르다. 본 실시예에서는, 사용자에게 표시하여야 할 최적의 프레임 크기가 그래픽 플레인(GRPHPL) 에 의해 정의한다. 즉, 그래픽 플레인(GRPHPL) 상에서 사용자에게 표시하는 최적의 프레임 크기는 주사선의 수와 도트 수에 기초하여 설정된다. 이 경우에, 사용자에게 표시되는 최적의 프레임 크기(화소수)는 그래픽 플레인(GRPHPL) 상의 어퍼처(APTR)(그래픽 영역)의 크기로서 정의된다. 따라서, 사용자에게 표시하는 프레임이 고해상도 프레임인 경우에는, 그래픽 플레인(GRPHPL) 상에서의 어퍼처(APTR)(그래픽 영역)의 크기가 커져, 사용자에게 표시하여야 할 프레임 크기(해상도)가 종래의 표준 크기인 경우에는, 어퍼처(APTR)(그래픽 영역)의 크기가 해상도(총 화소수)에 비해 더 작아진다. 도 39에 도시한 예와 달리, 1차 오디오 비디오(PRMAV)의 메인 비디오(MANVD)가 전체 화면 상에, 즉 전체 사용자 프레임에 걸쳐 표시되는 경우에는, 메인 비디오 플레인(MNVDPL) 상의 프레임 크기가 그래픽 플레인(GRPHPL) 상에서의 어퍼처(APTR)(그래픽 영역)의 크기와 완전히 일치한다. 도 39에 도시한 바와 같이, 합성 화면의 아래쪽 영역에 도움말 아이콘(33)으로부터 FF 버튼(38)까지 이르는 고급 애플리케이션(ADAPL)이 함께 표시되는 경우에는, 어퍼처(APTR)(그래픽 영역) 안에 고급 애플리케이션(ADAPL)을 다함께 표시하는 영역(애플리케이션 영역(APPRGN))을 정의함으로써 표시 제어가 용이하게 될 수 있다. 이 때문에, 본 실시예에서는, 고급 애플리케이션(ADAPL)에 포함되는 복수의 엘리먼트를 다함께 표시하는 영역으로서 애플리케이션 영역(APPRGN)이 정의될 수 있다. 본 실시예에 있어서는, 그래픽 플레인(GRPHPL) 상의 어퍼처(APTR)(그래픽 영역) 안에 복수의 애플리케이션 영역(APPRGN)이 설정될 수 있다. 이하의 내용의 상세에 관하여는 도 4O을 이용하여 나중에 설명한다.
도 39는 합성 프레임의 프레임 크기에 대응하여 그래픽 플레인(GRPHPL) 상에 어퍼처(APTR)(그래픽 영역)이 설정될 수 있는 것을 설명했다. 또한, 어퍼처(APTR)(그래픽 영역) 안에 고급 애플리케이션(ADAPL)의 하나 이상의 요소를 표시하는 영역으로서, 하나 이상의 애플리케이션 영역(APPRGN)이 설정될 수 있는 것을 설명했다. 도 40을 사용하여 보다 상세한 설명을 한다.
그래픽 플레인(GRPHPL) 상에는, 캔버스라고 불리는 좌표계(캔버스 좌표계(CNVCRD))가 정의될 수 있다. 본 실시예에 있어서, 그래픽 플레인(GRPHPL) 상에서의 프레임 합성을 가능하게 해주는 직사각형 영역은 캔버스 좌표계(CNVCRD) 내에 정의될 수 있다. 이 직사각형 영역은 어퍼처(APTR)(그래픽 영역)라고 부른다. 본 실시예에서, 캔버스 좌표계(CNVCRD) 상에서의 그래픽 영역의 원점 위치(O, O)는 어퍼처(APTR)(그래픽 영역)의 끝점(원점)의 위치와 일치하고 있다. 따라서, 캔버스 좌표계(CNVCRD) 상에서, 어퍼처(APTR)(그래픽 영역)의 끝점(원점)의 위치는 (0, O)으로 된다. 어퍼처(APTR)(그래픽 영역)의 X-축과 Y-축의 단위는 각각 화소수로 식별된다. 예컨대, 사용자에게 표시하는 프레임의 화소수가 1920 × 1080인 경우에는, 어퍼처(APTR)(그래픽 영역)의 다른 쪽 끝의 대응하는 위치(1920, 1080)가 정의될 수 있다. 어퍼처(APTR)(그래픽 영역)의 크기는 재생 목록(PLLST) 내에 정의될 수 있다. 본 실시예에 있어서, 고급 애플리케이션(ADAPL)은 독자적인 좌표계를 설정할 수 있다. 독자적인 좌표계는 직사각형 영역으로서 캔버스 좌표계(CNVCRD) 내에 설정될 수 있다. 이 직사각형 영역은 애플리케이션 영역(APPRGN)이라고 부른다. 각각의 고급 애플리케이션(ADAPL)은 적어도 1개의 애플리케이션 영역(APPRGN) 을 가질 수 있다. 애플리케이션 영역(APPRGN)의 설정 장소는 캔버스 좌표계(CNVCRD) 상의 X-좌표값 및 Y-좌표값에 의해 지정될 수 있다. 즉 도 4O에 도시한 바와 같이, 애플리케이션 영역(APPRGN#1)의 어퍼처(APTR)(그래픽 영역) 상에서의 배치 장소는 애플리케이션 영역(APPRGN#1)의 끝점(원점)의 캔버스 좌표계(CNVCRD) 내에서의 캔버스 좌표계(CNVCRD) 좌표값으로 설정된다.
본 실시예에서는, 애플리케이션 영역(APPRGN) 내에 고급 애플리케이션(ADAPL) 내의 복수의 엘리먼트(애플리케이션 엘리먼트 또는 자식 엘리먼트)로서 특정한 정지 화상(IMAGE) 등이 배치될 수 있다. 애플리케이션 영역 내의 각 엘리먼트의 배치 장소를 도시하는 방법으로서, 애플리케이션 영역(APPRGN) 내의 독립적인 좌표계의 X-값 및 Y-값이 정의될 수 있다. 즉, 도 4O에 도시한 바와 같이, 애플리케이션 영역(APPRGN#1)은 독자의 애플리케이션 영역내 좌표계를 가지며, 애플리케이션 영역내 좌표값에 의해 각각의 엘리먼트의 배치 장소가 지정될 수 있다. 예컨대, 도 4O에 도시한 바와 같이, 애플리케이션 영역(APPRGN#1)의 크기가 원점(0,0)부터 (x2, y2)까지의 범위에 의해 규정되어 있는 경우, 엘리먼트 예로서 비어있는 직사각형 부분을 배치할 때의 (x1, yl)의 좌표는 애플리케이션 영역(APPRGN) 내의 그 비어있는 직사각형의 위치를 지정할 수 있다. 이와 같이, 복수의 엘리먼트는 독자적인 좌표계(애플리케이션 영역내 좌표계)에 의해 배치될 수 있고, 각각의 엘리먼트의 일부분은 애플리케이션 영역(APPRGN)으로부터 돌출해나올 수 있다. 이 경우에는, 어퍼처(APTR)(그래픽 영역) 안에 배치된 애플리케이션 영역(APPRGN) 내에 포함되는 엘리먼트 부분만이 사용자에 대하여 표시된다.
도 41은 도 38에 도시한 AV 렌더러(AVRND) 내의 그래픽 렌더링 엔진(GHRNEN) 내의 상세 구조와 도 30에 도시한 프리젠테이션 엔진(PRSEN) 내의 각종 엔진 및 플레이어와의 관계를 나타낸 것이다.
비디오 합성 모델:
본 명세서에서의 비디오 합성 모델은 도 41에 도시되어 있다. 이 모델에서는 5개의 그래픽 플레인 입력이 있다. 이들은 커서 플레인, 그래픽 플레인, 서브픽처 플레인, 서브 비디오 플레인 및 메인 비디오 플레인을 말한다. 이들 플레인은 '캔버스'라고 하는 좌표계를 갖는다. 캔버스의 영역은 x 방향으로 -231 내지 231-1이고, y 방향으로 -231 내지 231-1이다. 원점 (0, 0) 및 x-y 축의 방향은 서로 대응한다.
각각의 플레인으로 렌더링될 직사각형 영역이 있다. 이 직사각형 영역은 '어퍼처'라고 부른다.
어퍼처의 원점은 캔버스 좌표계에서 (0, 0)이다. 어퍼처의 크기는 재생 목록에 정의되어 있다.
그래픽 렌더링 엔진으로의 모든 그래픽 입력의 프레임 레이트는 플레이어의 비디오 출력과 동일해야 한다.
커서 플레인:
커서 플레인은 이 비디오 합성 모델에서 그래픽 렌더링 엔진 내의 5개의 그래픽 플레인 중 최상의 플레인이다. 커서 플레인은 그래픽 렌더링 엔진 내의 오버 레이 제어기에 의해 관리된다. 내비게이션 관리자 내의 커서 관리자는 커서 이미지를 오버레이 제어기로 공급하는 일을 맡고 있다. 커서 관리자는 또한 커서 위치를 관리하고 위치 정보를 갱신하여 오버레이 제어기로 보내는 일을 맡고 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에 있어서, 도 39에 도시한 바와 같이, 사용자에게 표시되는 화면은 5개의 프레임 레이어로 구성되어 있으며, 이들 프레임 레이어의 화상은 오버레이 제어기(OVLCTR)에 의해 합성된다. 오버레이 제어기(OVLCTR)로 입력되는 각각의 프레임 레이어의 프레임 레이트(초당 표시되는 프레임의 수)가 각각의 프레임 레이어에 대해 독립적으로 설정될수 있다는 점에 본 실시예의 큰 특징이 있다. 이 특징에 따라, 프레임 레이트에 의해 제약을 받는 일없이, 각각의 프레임 레이어에 대한 최적의 프레임 레이트가 설정될 수 있고, 사용자에 대해 효과적인 프레임이 표시될 수 있다.
도 39에 도시하는 메인 비디오 플레인(MNVDPL)에 관해서는, 1차 비디오 플레이어(PRMVP)의 출력 동화상과 2차 비디오 플레이어(SCDVP)의 출력 동화상 중의 대체 오디오 비디오(SBTAV) 중 어느 하나가 선택되고, 크로마 정보(CRMI)가 고려된 후에 디코더 엔진(DCDEN) 내의 메인 비디오 디코더(MVDEC)에 의해 디코딩된다. 그 후, 스케일러(SCALER)에 의해 디코딩된 출력의 프레임 크기 및 표시 프레임 위치가 설정되고, 디코딩된 출력이 오버레이 제어기(OVLCTR)에 입력된다.
서브 비디오 플레인(SBVDPL)에서는, 1차 비디오 플레이어(PRMVP)에서 출력된 서브 비디오(SUBVD) 및 2차 비디오 플레이어(SCDVP)에서 출력된 서브 비디 오(SUBVD) 중 하나가 크로마 정보(CRMI)를 고려하여 디코더 엔진(DCDEN) 내의 서브 비디오 디코더(SVDEC)에 입력된다. 그 디코더에 의해 디코딩된 출력 동화상의 프레임 상에서의 표시 크기 및 표시 위치는 스케일러(SCALER)에 의해 설정되고, 이 출력 동화상은 크로마 효과 처리(CRMEFT)가 된다. 이어서, 처리된 출력은 메인 비디오 플레인(MNVDPL)을 하부 레이어로서 표시할 수 있도록 해주는 투명도를 나타내는 알파 정보에 대응하여 반투명한 형태로 오버레이 제어기(OVLCTR)에 입력될 수 있다.
서브-픽처 플레인(SBPCPL)에 표시되는 비디오 화상으로서, 고급 자막(ADSBT) 및 1차 오디오 비디오(PRMAV)의 서브-픽처(SUBPT) 중 어느 하나가 표시된다. 즉, 고급 자막(ADSBT)은 고급 자막 플레이어(ASBPL) 내의 레이아웃 관리자(LOMNG)에서 그의 표시 프레임 크기와 표시 위치가 설정된 뒤 스위치 (모듈)(SWITCH)로 입력된다. 1차 오디오 비디오(PRMAV)의 서브-픽처(SUBPT)는 1차 비디오 플레이어(PRMVP)로부터 디코더 엔진(DCDEN) 내의 서브-픽처 디코더(SPDEC)로 입력되고, 그 디코더에 의해 디코딩되고나서, 서브-픽처(SUBPT)의 표시 프레임 크기와 표시 위치가 스케일러(SCALER)에 의해 설정된다. 그 후, 마찬가지로 서브-픽처(SUBPT)는 스위치(SWlTCH)에 입력된다. 본 실시예에서는, 도 41에 도시한 바와 같이, 스위치(SWlTCH)에 의한 선택 처리에 의해 고급 자막(ADSBT) 및 1차 오디오 비디오(PRMAV) 내의 서브-픽처(SUBPT) 중 어느 하나가 선택되고, 오버레이 제어기(OVLCTR)로 입력된다.
그래픽 플레인(GRPHPL)에 대한 출력은 고급 애플리케이션 프리젠테이션 엔 진(AAPEN) 내의 레이아웃 관리자(LOMNG)에 의해 표시 크기와 표시 위치가 설정된 뒤, 직접 오버레이 제어기(OVLCTR)에 입력된다.
커서 플레인(CRSRPL)에 대해서는, 내비게이션 관리자(NVMNG) 내의 커서 관리자(CRSMNG)는 커서 이미지(CRSIMG)와 커서의 표시 위치를 나타내는 위치 정보(POSITI)를 출력하고, 오버레이 제어기(OVLCTR) 내에서 커서의 프레임 레이어가 발생된다. 이하에서 각각의 프레임 레이어에 대한 상세한 설명을 한다.
커서 플레인(CRSRPL)은 5개의 프레임 레이어 중 최상측에 위치하는 프레임 레이어를 가리키고, 그의 프레임은 그래픽 렌더링 엔진(GHRNEN) 내에서 발생된다. 커서 플레인(CRSRPL)의 해상도는 그래픽 플레인(GRPHPL) 상의 어퍼처(APTR)(그래픽 영역)의 해상도와 일치한다(도 39의 설명을 참조). 상술한 바와 같이, 커서 플레인(CRSRPL)은 그래픽 렌더링 엔진(GHRNEN) 내의 오버레이 제어기(OVLCTR) 내에서 발생되고 관리된다. 내비게이션 관리자(NVMNG) 내에 포함되는 커서 관리자(CRSMNG)는 커서 이미지(CRSIMG)를 발생하고 이를 오버레이 제어기(OVLCTR)로 전송한다. 커서 관리자(CRSMNG)는 화면 상의 커서 위치를 나타내는 위치 정보(POSITI)를 관리 및 발생하며, 이를 오버레이 제어기(OVLCTR)로 전송한다. 또한, 커서 관리자(CRSMNG)는 사용자 입력에 응답하여 커서의 위치 정보(POSITI)를 적시에 업데이트하고 업데이트된 정보를 오버레이 제어기(OVLCTR)로 전송한다. 디폴트 상태(초기 상태)에서의 커서 이미지(CRSlMG)와 커서의 위치를 나타내는 X-좌표 및 Y-좌표(핫스폿 XY)는 사용되는 고급 컨텐츠 재생 유닛(ADVPL)에 의존한다. 본 실시예에 있어서, 디폴트 상태(초기 상태)에서의 커서 위치(X, Y)는 (0, 0)(원 점 위치)로 설정된다. 커서 이미지(CRSIMG)와 그의 위치를 가리키는 위치 정보(POSITI)는 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)(도 28 참조)으로부터의 API 명령에 의해 업데이트된다. 본 실시예에 있어서, 커서 이미지(CRSIMG)의 최대 해상도는 256× 256 픽셀로 설정한다. 이 수치 값을 설정함으로써, 어느 정도 표현력을 갖는 커서 이미지(CRSIMG)가 표현될 수 있고, 불필요하게 높은 해상도를 설정하는 것을 방지함으로써 커서 표시 처리 속도가 증가될 수 있다. 커서 이미지(CRSIMG)의 파일 포맷은 PMG(8 비트 컬러 표현)에 의해 설정된다. 본 실시예에 있어서, 커서 이미지(CRSIMG)는 API 명령에 의해 완전히 화면 상에 표시되는 상태와 100% 투명하고 화면 상에는 보이지 않는 상태 중 어느 하나로 전환될 수 있다. 커서 관리자(CRSMNG)로부터 보내어지는 위치 정보(POSITI)에 따라서, 오버레이 제어기(OVLCTR) 내에서 커서 플레인(CRSRPL) 상에 커서 이미지(CRSIMG)가 배치된다. 게다가, 오버레이 제어기(OVLCTR)는 커서 플레인(CRSRPL)보다도 아래쪽의 프레임 레이어의 프레임에 대해 반투명 상태를 나타내는 알파 믹싱의 설정(알파 정보에 기초하는 투명도의 설정)을 행할 수 있다.
본 실시예의 비디오 합성 모델에서 그래픽 플레인(GRPHPL)은 그래픽 렌더링 엔진(GHRNEN) 내에서 발생되는 위에서 2번째의 프레임 레이어에 해당한다. 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 고급 애플리케이션 관리자(ADAMNG)의 제어 하에서, 도 41에 도시하는 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 그래픽 플레인(GRPHPL)의 프레임을 발생한다. 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 고급 애플리케이션 관리자(ADAMNG)는 도 31에 도시하는 고급 애플 리케이션 프리젠테이션 엔진(AAPEN) 내의 그래픽 디코더(GHCDEC)와 폰트 렌더링 시스템(FRDSTM)을 제어하여 그래픽 플레인(GRPHPL)의 프레임의 일부를 발생한다. 최종적으로, 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내의 레이아웃 관리자(LOMNG)는 그래픽 플레인(GRPHPL)의 합성 프레임을 발생한다. 레이아웃 관리자(LOMNG)는 그로부터 출력되는 프레임의 출력 비디오 크기 및 표시 위치를 설정한다. 레이아웃 관리자(LOMNG)로부터 출력되는 프레임 레이트(초당 프레임 수)는 예를 들어 메인 비디오(MANVD), 서브 비디오(SUBVD) 등의 비디오 화상의 프레임 레이트에 상관없이 독자적으로 설정될 수 있다. 본 실시예에서, 애니메이션 효과는 애니메이션 등의 그래픽 이미지의 연속으로서 표시될 수 있다.
도 31에 도시되는 레이아웃 관리자(LOMNG)가 그래픽 플레인(GRPHPL) 상의 프레임을 설정할 때, 레이아웃 관리자(LOMNG)는 개개의 구성 프레임에 대한 알파 정보(알파 값)의 조건을 설정할 수 없다. 본 실시예에서, 알파 값은 그래픽 플레인(GRPHPL) 내의 각각의 그래픽 이미지(개개의 구성 프레임)에 대해 설정될 수 없지만, 그래픽 플레인(GRPHPL) 전체에 대한 알파값은 설정될 수 있다. 따라서, 아래쪽 프레임에 대한 투명도(알파 값)는 그래픽 플레인(GRPHPL) 상의 모든 곳에서 일정하게 설정된다.
본 실시예의 비디오 합성 모델의 서브-픽처 플레인(SBPCPL)은 그래픽 렌더링 엔진(GHRNEN)에 의해 발생된 위에서 세 번째 프레임 레이어에 대응한다. 서브-픽처 플레인(SBPCPL)은 고급 자막 플레이어(ASBPL) 또는 디코더 엔진(DCDEN) 내의 서브-픽처 디코더(SPDEC)에 의해 발생된다(도 41 참조). 1차 비디오 세트(PRMVS)는 지정된 표시 프레임 크기를 갖는 서브-픽처(SUBPT)의 이미지를 포함한다. 서브-픽처(SUBPT)의 이미지의 표시 크기가 지정될 때, 서브-픽처 디코더(SPDEC)는 서브-픽처(SUBPT)의 이미지의 크기를 스케일러(SCALER)에 의해 직접 변경하지 않으며, 그 이미지는 그래픽 렌더링 엔진(GHRNEN)으로 직접 전송된다. 예를 들어 도 39를 사용하여 기술한 바와 같이, 합성 프레임의 표시 크기는 그래픽 플레인(GRPHPL) 상의 어퍼처(APTR)(그래픽 영역)의 크기에 의해 규정된다. 메인 비디오 플레인(MNVDPL) 상의 메인 비디오(MANVD)가 전체 화면 크기를 갖도록 합성 프레임 상에 표시되는 경우, 메인 비디오(MANVD)의 표시 크기는 어퍼처(APTR)(그래픽 영역)의 크기와 일치한다. 이 경우에, 서브-픽처(SUBPT)의 표시 크기는 어퍼처(APTR)(그래픽 영역)의 크기에 기초하여 자동으로 결정된다. 이러한 경우에, 서브-픽처 디코더(SPDEC)의 출력 프레임은 스케일러(SCALER)에 의해 처리되지 않고 직접 그래픽 렌더링 엔진(GHRNEN)으로 전송된다. 이와 반대로, 도 39에 도시한 바와 같이, 메인 비디오 플레인(MNVDPL) 상의 메인 타이틀(31)의 표시 크기가 어퍼처(APTR)(그래픽 영역)의 크기보다 상당히 더 작을 경우, 서브-픽처(SUBPT)의 프레임 크기는 그에 따라 변경될 필요가 있다. 상기한 바와 같이, 서브-픽처(SUBPT)의 이미지의 적절한 표시 크기가 설정되지 않은 경우, 서브-픽처 디코더(SPDEC)의 출력 측에 연결되어 있는 스케일러(SCALER)는 어퍼처(APTR)(그래픽 영역)의 최적의 표시 크기 및 표시 위치를 설정하고 이어서 이들을 그래픽 렌더링 엔진(GHRNEN)으로 전송한다. 그러나 본 실시예는 상기 설명에 한정되지 않는다. 서브-픽처의 적정한 표시 크기가 알려져 있지 않은 경우(지정되지 않은 경우), 서브-픽처(SUBPT)는 어퍼처(APTR)(그래픽 영 역)의 좌측 상부 코너에 정렬되도록 표시될 수 있다. 본 실시예에서, 도 41에 도시하는 바와 같이, 서브-픽처 플레인(SBPCPL)의 그래픽 렌더링 엔진(GHRNEN)으로 전송되는 프레임의 프레임 레이트는 비디오 출력의 프레임 레이트와는 관계없이 독자적으로 설정될 수 있다. 이와 같이, 서브-픽처(SUBPT) 및 고급 자막(ADSBT) 또는 고급 애플리케이션(ADAPL)을 표시하는 서브-픽처 플레인(SBPCPL) 및 그래픽 플레인(GRPHPL)의 프레임 레이트는 메인 비디오 플레인(MNVDPL) 및 서브 비디오 플레인(SBVDPL)의 프레임 레이트와 관계없게 독자적으로 설정되기 때문에, 프리젠테이션 엔진(PRSEN)의 높은 처리 효율화가 달성될 수 있다. 이러한 이유는 메인 비디오 플레인(MAVDPL) 및 서브 비디오 플레인(SBVDPL)이 초당 50개 내지 60개 필드 변화되지만, 서브-픽처 플레인(SBPCPL)이나 그래픽 플레인(GRPHPL) 상에 표시되는 프레임은 비교적 느린 변화 속도를 갖는다. 예컨대, 어떤 경우에는 동일한 프레임이 그래픽 플레인(GRPHPL) 상에 10초 동안 표시된다. 이때, 비디오 플레인의 프레임 레이트에 따른 프레임 레이트(초당 50개 내지 60개 필드)로 AV 렌더러(AVRND)로 화상이 전송될 때, 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 및 고급 자막 플레이어(ASBPL)에 대한 부담이 너무 과중하게 된다. 따라서, 프레임 전송 레이트를 독자적으로 설정함으로써, 이들 엔진 및 플레이이에 대한 부담이 크게 감소될 수 있다. 고급 자막 플레이어(ASBPL)는 고급 애플리케이션(ADAPL)의 서브셋에 대응하는 서브-픽처 플레인(SBPCPL)의 프레임을 제공할 수 있다. 상기한 바와 같이, 각각의 프레임 레이어를 합성함으로써 합성 프레임을 발생하는 오버레이 제어기(OVLCTR)로 전송될 서브-픽처 플레인(SBPCPL)으로서, 고급 자막 플레이어(ASBPL) 및 서브-픽처 디코더(SPDEC) 중 하나가 사용된다. 본 실시예에서는, 내비게이션 관리자(NVMNG)로부터 전송되는 오버레이 정보(OVLYI)에 기초하여, 프리젠테이션 엔진(PRSEN)으로부터 공급되는 서브-픽처 플레인(SBPCPL) 상에 표시되는 프레임이 그래픽 렌더링 엔진(GHRNEN) 내의 스위치 모듈(SWITCH)에 의해 선택된다. 본 실시예에서, 서브-픽처 플레인(SBPCPL) 상에 표시되는 프레임의 투명도도 역시 그의 하부 레이어로서의 서브 비디오 플레인(SBVDPL) 및 메인 비디오 플레인(MNVDPL)의 프레임이 그 플레인으로부터 들여다보이도록 설정될 수 있다. 본 실시예에서, 투명도를 나타내는 알파 값(알파 정보)이 서브-픽처 플레인(SBPCPL)에 대해 설정될 수 있고, 서브-픽처 플레인(SBPCPL) 내의 어디에서나 일정한 알파 값(알파 정보)이 설정된다.
본 실시예의 비디오 합성 모델의 경우, 서브 비디오 플레인(SBVDPL)은 그래픽 렌더링 엔진(GHRNEN)에 의해 발생되는 위에서 네 번째 프레임 레이어에 해당한다(도 39 참조). 서브 비디오 플레인(SBVDPL)은 디코더 엔진(DCDEN) 내의 서브 비디오 디코더(SVDEC)에서 디코딩된 비디오 화상을 표시한다. 내비게이션 관리자(NVMNG)로부터 전송된 스케일 정보(SCALEI) 및 위치 정보(POSITI)에 기초하여, 서브 비디오 디코더(SVDEC)의 출력 측에 연결된 스케일러(SCALER)는 서브 비디오 플레인(SBVDPL) 상의 서브 비디오(SUVBD)의 프레임 크기 및 표시 위치를 설정하고, 최종적인 표시 비디오 크기를 출력한다(도 41 참조). 디폴트(초기값)에 있어서, 스케일 정보(SCALEI)에 의해 표시되는 스케일링 비율은 1로 설정된다(크기가 축소되지 않고 어퍼처(APTR)(그래픽 영역) 크기 전체에 표시된다). 또한, 디폴트(초기 값)에 있어서는, 위치 정보(POSITI)는 X-위치 = "0" 및 Y-위치 = "0"(어퍼처(APTR)(그래픽 영역)의 원점 위치)을 포함하도록 설정되고, 알파 값은 100% 투명하도록 설정된다. 본 실시예는 이것에 한정되지 않으며, 알파 값은 100% 표시(투명도 = 0%)로 설정될 수 있다. 알파 값, 스케일 정보(SCALEI) 및 위치 정보(POSITI)의 값은 API 명령에 의해 변경될 수 있다. 새로운 타이틀이 표시되는 경우, 이들 값은 디폴트값(초기값)으로 설정된다. 본 실시예에서, 서브 비디오 플레인(SBVDPL)의 출력 프레임 레이트는 고급 컨텐츠 재생 유닛(ADVPL)이 비디오 출력의 프레임 레이트(메인 비디오 플레인(MNVDPL)의 프레임 레이트)와 관계없이 독자적으로 설정될 수 있다. 이와 같이, 예를 들어, 서브 비디오 플레인(SBVDPL)의 프레임 레이트를 감소시킴으로써, 스트림이 네트워크 서버(NTSRV)로부터 전송될 때 로딩 시의 연속성이 보장될 수 있다. 크로마 정보(CRMI)가 서브 비디오 스트림(SUBVD)에 설정되어 있는 경우, 그래픽 렌더링 엔진(GHRNEN) 내에서 크로마 효과 처리(CRMEFT)에 의해 서브 비디오(SUBVD) 내의 비디오 객체의 윤곽이 추출될 수 있다. 비디오 화상이 예를 들어 청색을 배경으로 하고 있는 사람의 화상을 포함하는 경우, 크로마 키 처리에 의해 청색 부분을 투명하게 하고 청색 이외의 컬러로 된 사람 등이 불투명하게 하며 청색 부분 상에 다른 프레임을 중첩하도록 설정할 수 있다. 예를 들어, 도 39의 각각의 프레임 레이어의 설명도를 사용하는 예의 경우에, 예를 들어 메인 비디오 플레인(MNVDPL)의 프레임이 어퍼처(APTR)(그래픽 영역)의 전체 프레임 크기를 갖도록 표시되고, 서브 비디오 플레인(SBVDPL) 상의 프레임은 이전이 프레임 상에 중첩하도록 표시되는 경우에 대해 이하에서 살펴본다. 이 때, 서브 비디오 플레인(SBVDPL) 상의 프레임이 특정의 사람이 청색을 배경으로 하고 있는 비디오 화상을 포함하는 경우, 서브 비디오 플레인 상의 사람만이 크로마 컬러를 청색으로 설정함으로써, 즉 청색 부분만을 투명하도록 설정함으로써 아래쪽 레이어인 메인 비디오 플레인(MNVDPL) 상의 비디오 화상 상에 중첩되도록 표시될 수 있다. 크로마 키(크로마 효과(CRMEFT)) 기술을 이용함으로써, 서브 비디오 플레인(SBVDPL) 상상의 특정의 객체의 윤곽을 추출하고 투명한 배경 컬러를 설정하여 추출된 객체를 아래쪽 레이어인 메인 비디오 플레인(MNVDPL) 상에 중첩하는 처리가 행해질 수 있다. 상기한 바와 같이, 본 실시예에서, 크로마 정보(CRMI)는 2차 비디오 플레이어(SCDVP) 또는 1차 비디오 플레이어(PRMVP)에 대응하는 서브 비디오 플레이어 모듈에 적용될 수 있다. 크로마 효과(CRMEFT)로부터의 출력 비디오 화상에 대해 2개의 알파 값(알파 정보)이 설정된다. 즉, 한쪽의 알파 값은 100% 가시의 상태로 설정되고, 이면에 존재하는 서브 비디오 플레인(SBVDPL)의 비디오 화상은 들여다볼 수 없다. 상기 예에서, 청색의 배경에 존재하고 청색과 다른 컬러를 갖는 객체(사람) 등은 이 알파 값을 갖는다. 다른쪽 알파 값은 100% 투명으로 설정되고, 상기 예에서 청색의 배경은 이 값을 갖는다. 이 부분은 100% 투명도로 되고, 아래쪽 레이어인 메인 비디오 플레인(MNVDPL)의 프레임은 들여다볼 수 있다. 본 실시예는 이러한 특정의 값으로 한정되지 않으며, 100%와 0% 사이의 중간값이 알파값으로서 설정될 수 있다. 가장 아래쪽 레이어인 메인 비디오 플레인(MNVDPL)과 중첩하는 서브 비디오 플레인(SBVDPL) 내의 비디오 화상의 각 위치에서의 알파 값(알파 정보)의 중간값은 내비게이션 관리자(NVMNG)로부터 전송되는 오버레이 정 보(0VLYI)에 의해 설정되고, 실제로는 그 정보의 값에 기초하여 그래픽 렌더링 엔진(GHRNEN) 내의 오버레이 제어기(OVLCTR)에 의해 설정된다.
본 실시예의 비디오 합성 모델에서, 메인 비디오 플레인(MNVDPL)은 그래픽 렌더링 엔진(GHRNEN) 내에서 합성되는 가장 아래쪽 프레임 레이어에 대응한다. 메인 비디오 플레인(MNVDPL)의 비디오 화상은 디코더 엔진(DCDEN) 내의 메인 비디오 디코더(MVDEC)에 의해 디코딩된 비디오 화상을 포함한다. 내비게이션 관리자(NVMNG)로부터 전송되는 스케일 정보(SCALEI)와 위치 정보(POSITI)에 기초하여, 메인 비디오 디코더(MVDEC)의 출력단에 연결된 스케일러(SCALER)는 메인 비디오 플레인(MNVDPL) 상의 표시 프레임 크기와 표시 위치를 설정한다. 메인 비디오 플레인(MNVDPL) 상의 메인 비디오 프레임의 디폴트(초기값)인 크기와 표시 장소는 어퍼처(APTR)(그래픽 영역)의 크기와 일치한다. 본 실시예에 있어서의 어퍼처(APTR)(그래픽 영역)의 크기 정보는 도 21에 도시한 바와 같이 재생 목록(PLLST) 파일 내의 구조 정보(CONFGI) 내에 규정되어 있고, 화면의 종횡비가 원래의 상태로 유지되는 형태로 지정된다. 예컨대, 메인 비디오 플레인(MNVDPL) 상에 표시되는 비디오 화상의 종횡비가 4:3이며, 어퍼처(APTR)(그래픽 영역)의 지정된 종횡비가 16:9로 지정된 경우, 메인 비디오 플레인(MNVDPL)의 비디오 화상의 어퍼처(APTR)(그래픽 영역) 안에서의 표시 위치는 표시 프레임의 높이가 어퍼처(APTR)(그래픽 영역)의 높이와 일치하도록 설정되고, 화면의 가로 방향에서는 어퍼처(APTR)(그래픽 영역)의 중앙 위치에 전체 프레임에 대해 폭이 좁은 프레임이 표시된다. 재생 목록 파일(PLLST) 내의 구조 정보(CONFGI)에 의해 지정된 비디오 표현 색이 메인 비디오 플레인(MNVDPL)에 설정된 표현 색과 다른 경우에는, 메인 비디오 플레인(MNVDPL)에서의 디폴트(초기값)로서의 표시 컬러 조건은 구조 정보(CONFGI)로 변환되지 않고, 원래의 디폴트 컬러가 사용된다. 메인 비디오 플레인(MNVDPL) 내에서의 표시 크기, 표시 위치, 및 표시 컬러, 종횡비 등의 값은 API 명령에 의해 변경될 수 있다. 재생 목록(PLLST) 내의 다른 타이틀로 점프하는 경우에는, 점프 이전에 비디오 크기, 비디오 표시 위치, 표시 컬러, 및 종횡비 등의 정보 값은 디폴트(초기값)로 설정된다. 그 후, 다음 타이틀의 재생 개시 시에 비디오 크기, 표시 위치, 표현 컬러 및 종횡비 등의 값은 재생 목록(PLLST)에 의해 설정된 지정된 값으로 변경된다.
본 실시예의 정보 기록 및 재생 장치(1)는 고급 컨텐츠 재생 유닛(ADVPL)을 포함한다(도 1 참조). 도 14에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADVPL)은 AV 렌더러(AVRND)를 포함하며, 도 38에 도시한 바와 같이, AV 렌더러(AVRND)는 오디오 믹싱 엔진(ADMXEN)을 포함한다. 도 42는 오디오 믹싱 엔진(ADMXEN)과 이 엔진(ADMXEN)의 입력측에 연결되어 있는 프리젠테이션 엔진(PRSEN) 사이의 관계를 도시하는 오디오 믹싱 모델을 나타낸 것이다.
오디오 믹싱 모델:
본 명세서에서의 오디오 믹싱 모델이 도 42에 도시되어 있다. 이 모델에는 3가지 오디오 스트림 입력이 있다. 이들은 효과 오디오, 서브 오디오 및 메인 오디오이다. 샘플링 레이트 변환기는 각각의 사운드/오디오 디코더의 출력으로부터의 오디오 샘플링 레이트를 최종적인 오디오 출력의 샘플링 레이트로 조정한다.
3가지 오디오 스트림 간의 정적 믹싱 레벨은 내비게이션 관리자로부터의 믹 싱 레벨 정보에 따라 오디오 믹싱 엔진 내의 사운드 믹서에 의해 처리된다. 최종적인 출력 오디오 신호는 플레이어에 따라 다르다.
효과 오디오 스트림:
효과 오디오 스트림은 일반적으로 그래픽 버튼이 클릭될 때 사용된다. 단일 채널(모노) 및 스테레오 채널 WAV 포맷이 지원된다. 사운드 디코더는 파일 캐쉬로부터 WAV 파일을 판독하고 내비게이션 관리자로부터의 요청에 응답하여 LPCM 스트림을 오디오 믹싱 엔진으로 전송한다. 2개 이상의 스트림이 동시에 존재하지 않는다. 한 스트림이 표시되고 있는 중에 다른 스트림의 표시가 요청되는 경우, 현재의 스트림의 표시가 정지되고 다른 스트림의 표시가 시작된다.
서브 오디오 스트림:
서브 오디오 스트림의 2개의 소스가 있다. 하나는 2차 오디오 비디오 내의 서브 오디오 스트림이고, 다른 하나는 1차 오디오 비디오 내의 서브 오디오 스트림이다. 2차 오디오 비디오는 타이틀 타임라인에 동기되거나 동기되지 않을 수 있다. 2차 오디오 비디오가 서브 비디오 및 서브 오디오로 이루어져 있는 경우, 2차 오디오 비디오가 타이틀 타임라인과 동기되어 있는지에 상관없이 이들은 서로 동기되어야 한다. 1차 오디오 비디오 내의 서브 오디오의 경우, 이는 타이틀 타임라인과 동기되어야 한다.
메인 오디오 스트림:
메인 오디오 스트림의 3개의 소스가 있다. 첫 번째 것은 대체 오디오 비디오 내의 메인 오디오 스트림이다.
그 다음 것은 대체 오디오 내의 메인 오디오 스트림이다. 마지막 것은 1차 오디오 비디오 내의 메인 오디오 스트림이다. 서로 다른 표시 객체 내의 모든 메인 오디오 스트림은 타이틀 타임라인에 동기되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 3가지 서로 다른 유형의 오디오 스트림, 즉 효과 오디오(EFTAD), 서브 오디오(SUBAD) 및 메인 오디오(MANAD)(도 10 참조)가 오디오 믹싱 엔진(ADMXEN)에 입력된다. 이들 3가지 서로 다른 유형의 오디오 스트림 중에서, 효과 오디오(EFTAD)는 도 42에 도시하는 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내의 사운드 디코더(SNDDEC)로부터의 출력으로서 공급된다. 서브 오디오 스트림(SUBAD)은 디코더 엔진(DCDEN) 내의 서브 오디오 디코더(SADEC)로부터의 출력으로서 공급된다. 메인 오디오 스트림(MANAD)은 디코더 엔진(DCDEN) 내의 메인 오디오 디코더(MADEC)로부터의 출력으로서 공급된다. 본 실시예에서, 이들 오디오 스트림의 샘플링 주파수는 일치할 필요가 없으며, 이들 오디오 스트림은 서로 다른 샘플링 주파수(샘플링 레이트)를 가질 수 있다. 서로 다른 샘플링 주파수를 갖는 오디오 스트림을 믹싱할 때에, 오디오 믹싱 엔진(ADMXEN)은 각각의 오디오 스트림에 대응하는 샘플링 레이트 변환기(SPRTCV)를 포함한다. 즉, 샘플링 레이트 변환기(SPRTCV)는 오디오 디코더(SNDDEC, SADEC, MADEC)로부터의 출력 시의 샘플링 주파수(샘플링 레이트)를 최종적인 오디오 출력의 샘플링 주파수(샘플링 레이트)로 변경하는 기능을 갖는다. 본 실시예에서, 도 42에 도시한 바와 같이, 믹싱 레벨 정보(MXLVI)는 내비게이션 관리자(NVMNG)로부터 오디오 믹싱 엔진(ADMXEN) 내의 사 운드 믹서(SNDMIX)로 전송되고, 3가지 서로 다른 유형의 오디오 스트림의 믹싱 시의 믹싱 레벨은 전송된 정보에 기초하여 사운드 믹서(SNDMIX)에서 설정된다. 최종적인 오디오 출력(AOUT)의 출력 다이나믹 레인지는 사용되는 고급 컨텐츠 재생 유닛(ADVPL)에 의해 독자적으로 설정될 수 있다.
본 실시예의 오디오 믹싱 모델에서의 3가지 서로 다른 유형의 오디오 스트림의 처리 방법 및 내용에 관하여 이하에 설명한다.
효과 오디오 스트림(EFTAD)(도 10 참조)은 기본적으로 사용자가 그래픽 버튼을 클릭할 때 사용되는 오디오 스트림이다. 도 16을 사용하여 이하에서 사용예를 설명한다. 도 16에 도시한 바와 같이, 고급 애플리케이션(ADAPL)이 화면 상에 표시되고, 도움말 아이콘(33)이 그 안에 표시된다. 예를 들어, 사용자가 도움말 아이콘(33)을 클릭하면(지정하면), 사용자에게 도움말 아이콘(33)의 클릭을 알려주기 위한 수단으로서 도움말 아이콘(33)을 누른 직후에 특정의 오디오가 출력되며, 따라서 도움말 아이콘(33)을 클릭한 사실을 사용자에게 명확하게 나타낼 수 있다. 사용자에게 클릭한 것을 알려주는 효과 사운드는 효과 오디오(EFTAD)에 해당한다. 본 실시예에서, 효과 오디오(EFTAD)는 단일 채널(모노) 또는 스테레오-채널(2-채널) WAV 포맷을 지원한다. 본 실시예에서, 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내의 사운드 디코더(SNDDEC)는 내비게이션 관리자(NVMNG)로부터 전송된 제어 정보(CTRLI)의 정보 내용에 따라서 효과 오디오 스트림(EFTAD)을 발생하고, 이를 오디오 믹싱 엔진(ADMXEN)으로 전송한다. 이 효과 오디오 스트림(EFTAD)의 사운드 소스는 파일 캐쉬(FLCCH) 내에 WAV 파일로서 사전에 저장되어 있다. 고급 애플리케이션 프리젠테이션 엔진(AAPEN) 내의 사운드 디코더(SNDDEC)는 이 WAV 파일을 판독하고, 이를 선형 PCM 포맷으로 변환하며, 변환된 파일을 오디오 믹싱 엔진(ADMXEN)으로 전송한다. 본 실시예에서, 효과 오디오(EFTAD)는 동시에 2개 이상의 스트림을 표시할 수 없다. 본 실시예에서, 하나의 효과 오디오 스트림(EFTAD)이 표시되고 있는 동안에 그 다음 효과 오디오 스트림(EFTAD)의 표시 출력 요청이 발행되는 경우, 그 다음에 지정된 효과 오디오 스트림(EFTAD)이 우선적으로 출력된다. 도 16을 사용하여 구체적인 예에 대해 설명한다. 예를 들어, 사용자가 FF 버튼(38)을 누르고 있는 경우를 살펴본다. 즉, 효과(FF) 버튼(38)을 누르고 있을 때 그 사실을 사용자에게 표시하기 위해 대응하는 효과 오디오(EFTAD)가 몇 초 동안 계속하여 울리는 경우에 대해 이하에서 살펴본다. 사용자가 FF 버튼(38)을 누른 직후 효과 오디오(EFTAD)의 울림이 끝나기 이전에 재생 버튼(35)을 누르는 경우, 재생 버튼(35)의 누르는 것을 알려주는 효과 오디오(EFTAD)는 효과 오디오(EFTAD)의 울림이 끝나기 이전에 그 대신에 출력된다. 그 결과, 사용자가 화면 상에 표시된 고급 애플리케이션(ADAPL)의 복수의 이미지 객체를 계속하여 누를 때, 사용자에 대한 신속한 응답이 표시될 수 있고 따라서 사용자의 편의성을 크게 향상시킬 수 있다.
본 실시예에서, 서브 오디오 스트림(SUBAD)은 2개의 서브 오디오 스트림(SUBAD), 즉 2차 오디오 비디오(SCDAD) 내의 서브 오디오 스트림(SUBAD) 및 1차 오디오 비디오(PRMAV) 내의 서브 오디오 스트림(SUBAD)을 지원한다.
2차 오디오 비디오(SCDAV)는 타이틀 타임라인(TMLE)과 동기하여 표시될 수 있거나 비동기적으로도 표시될 수 있다. 2차 오디오 비디오(SCDAV)가 서브 비디오(SUBVD) 및 서브 오디오(SUBAD) 둘 다를 포함하고 있는 경우, 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 2차 오디오 비디오(SCDAV)가 타이틀 타임라인(TMLE)과 동기되어 있는지 여부에 상관없이 서로 동기되어야만 한다. 본 실시예에서, 서브 오디오 스트림(SUBAD)의 기본 스트림 내의 메타 데이터 제어 정보도 서브 오디오 디코더(SADEC)에 의해 처리된다.
본 실시예에서, 메인 오디오 스트림(MANAD)으로서, 3가지 서로 다른 유형의 메인 오디오 스트림(MANAD), 즉 대체 오디오 비디오(SBTAV) 내의 메인 오디오 스트림(MANAD), 대체 오디오(SBTAD) 내의 메인 오디오 스트림(MANAD) 및 1차 오디오 비디오(PRMAV) 내의 메인 오디오 스트림(MANAD)이 이용가능하다. 서로 다른 재생 표시 객체 내에 포함된 모든 메인 오디오 스트림(MANAD)은 타이틀 타임라인(TMLE)과 동기되어 있어야만 한다.
도 43은 본 실시예에서의 네트워크 서버(NTSRV) 및 영속적 저장 장치(PRSTR)로부터의 데이터 공급 모델을 나타낸 것이다.
네트워크 및 영속적 저장 장치 데이터 공급 모델
영속적 저장 장치는 임의의 고급 컨텐츠 파일을 저장할 수 있다. 네트워크 서버는 1차 비디오 세트를 제외한 임의의 고급 컨텐츠 파일을 저장할 수 있다. 네트워크 관리자 및 영속적 저장 장치 관리자는 파일 액세스 기능을 제공한다. 네트워크 관리자는 또한 프로토콜 레벨 액세스 기능도 제공한다.
내비게이션 관리자 내의 파일 캐쉬 관리자는 네트워크 관리자 및 영속적 저 장 장치 관리자를 경유하여 네트워크 서버 및 영속적 저장 장치로부터 직접 고급 스트림 파일을 가져올 수 있다. 내비게이션 관리자 내의 파서는 시동 시퀀스에서 재생 목록을 제외하고는 네트워크 서버 및 영속적 저장 장치로부터 직접 고급 내비게이션 파일을 판독할 수 있다. 파일은 파서에 의해 판독되기 이전에 한꺼번에 파일 캐쉬에 저장되어야 한다.
고급 애플리케이션 프리젠테이션 엔진은 네트워크 서버 또는 영속적 저장 장치로부터 파일 캐쉬로 파일을 복사하는 방법을 가지고 있다. 고급 애플리케이션 프리젠테이션 엔진은 파일 캐쉬에 존재하지 않는 파일을 가져오기 위해 파일 캐쉬 관리자를 호출한다. 파일 캐쉬 관리자는 요청된 파일이 파일 캐쉬 상에 캐싱되어 있는지 여부를 파일 캐쉬 테이블로 비교한다. 그 파일이 파일 캐쉬에 존재하는 경우, 파일 캐쉬 관리자는 파일 데이터를 파일 캐쉬로부터 직접 고급 애플리케이션 프리젠테이션 엔진으로 전달한다. 파일 캐쉬에 그 파일이 존재하지 않는 경우, 파일 캐쉬 관리자는 그 파일을 그의 원래의 저장 장소로부터 파일 캐쉬로 가져오고, 이어서 그 파일 데이터를 고급 애플리케이션 프리젠테이션 엔진으로 전달한다.
2차 비디오 플레이어는 TMAP 및 S-EVOB 등의 2차 비디오 세트의 파일을 네트워크 관리자 및 영속적 저장 장치 관리자를 경유하여 네트워크 서버 및 영속적 저장 장치로부터는 물론 파일 캐쉬로부터 직접 가져올 수 있다. 일반적으로, 2차 비디오 플레이어 엔진은 스트리밍 버퍼를 사용하여 네트워크 서버로부터 S-EVOB를 가져온다. 2차 비디오 플레이어 엔진은 S-EVOB 데이터의 일부를 스트리밍 버퍼에 한번에 저장하고 이를 2차 비디오 플레이어 내의 디멀티플렉서 모듈로 피드시킨다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에서, 고급 컨텐츠 파일(ADVCT)은 영속적 저장 장치(PRSTR)에 저장될 수 있다. 또한, 1차 비디오 세트(PRMVS)를 제외한 고급 컨텐츠(ADVCT)는 네트워크 서버(NTSRV)에 저장될 수 있다. 본 실시예에서, 도 43의 데이터 액세스 관리자(DAMNG) 내의 네트워크 관리자(NTMNG) 및 영속적 저장 장치 관리자(PRMNG)는 고급 컨텐츠(ADVCT)와 연관된 여러 가지 파일에 대한 액세스 처리를 실행한다. 게다가, 네트워크 관리자(NTMNG)는 프로토콜 레벨에서의 액세스 기능을 갖는다. 내비게이션 관리자(NVMNG) 내의 파일 캐쉬 관리자(FLCMNG)는 네트워크 관리자(NTMNG) 또는 영속적 저장 장치 관리자(PRMNG)를 경유하여 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR)로부터 고급 애플리케이션(ADAPL)과 연관된 고급 스트림 파일을 직접 획득할 때에 제어를 한다. 파서(PARSER)는 고급 컨텐츠 재생 유닛(ADVPL)의 시동 시에 재생 목록 파일(PLLST)의 내용을 직접 판독할 수 있다. 이를 위해, 재생 목록 파일(PLLST)은 정보 저장 매체(DISC)에 저장되어야만 한다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 예를 들어, 재생 목록 파일(PLLST)은 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV) 등에 저장될 수 있으며, 그곳으로부터 직접 판독될 수 있다. 본 실시예에서, 내비게이션 관리자(NVMNG) 내의 파서(PARSER)는 고급 내비게이션 파일(도 11 참조)로 표시되는 고급 내비게이션 디렉토리(ADVNV) 아래에 위치하고 또 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR)로부터 획득되는 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 스크립트 파일(SCRPT) 등의 파일을 직접 재생할 수 없다.
즉, 본 실시예는 파서(PARSER)가 고급 내비게이션 파일(ADVNV)(예를 들어, 디렉토리(ADVNV) 아래에 있는 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 스크립트 파일(SCRPT) 등의 파일)을 재생할 때 이들 파일이 파일 캐쉬(FLCCH) 내에 일시적으로 기록되어 있고 파서(PARSER)가 고급 내비게이션 파일(ADVNV)을 파일 캐쉬(FLCCH)로부터 재생하는 것을 전제로 하고 있다. 본 실시예는 또한 고급 엘리먼트(ADVEL)(도 11에 도시하는 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD), 폰트 파일(FONT), 기타의 파일(OTHER) 등의 파일)가 파일 캐쉬(FLCCH)에 사전에 저장되어 있는 것을 전제로 하고 있다. 즉, 고급 엘리먼트(ADVEL)를 포함하는 고급 컨텐츠(ADVCT)는 데이터 액세스 관리자(DAMNG) 내의 네트워크 관리자(NTMNG) 또는 영속적 저장 장치 관리자(PRMNG)를 경유하여 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR)로부터 사전에 전송되고, 파일 캐쉬(FLCCH)에 사전에 저장된다. 이어서, 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 파일 캐쉬(FLCCH) 내에 저장된 고급 엘리먼트(ADVEL)를 판독한다. 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR) 내의 여러 가지 파일을 파일 캐쉬(FLCCH)로 복사하도록 제어를 한다. 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 요구된 파일(또는 요구된 정보 중에서 모자라는 파일)을 파일 캐쉬(FLCCH) 내에 저장하도록 내비게이션 관리자(NVMNG) 내의 파일 캐쉬 관리자(FLCMNG)를 제어한다. 이 제어로, 파일 캐쉬 관리자(FLCMNG)는 고급 애플리케이션 프리젠테이션 엔진(AAPEN)으로부터 요청된 파일이 파일 캐쉬(FLCCH)에 일시 저장되어 있는지를 알아보기 위해 파일 캐쉬(FLCCH) 내에 저장되어 있는 리스트를 나타내는 파일 캐쉬 테이블의 내용을 확인한다. 본 실시예에 대한 설명에서, 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN)은 요구된 고급 컨텐츠(ADVCT)를 파일 캐쉬(FLCCH) 내에 사전에 저장하도록 내비게이션 관리자(NVMNG) 내의 파일 캐쉬 관리자(FLCMNG)를 제어한다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 예를 들어, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 재생 목록(PLLST) 내의 리소스 정보(RESRCI)의 내용을 해석할 수 있고 그 결과에 관해 파서(PARSER)에 보고할 수 있으며, 파서(PARSER)는 요구된 고급 컨텐츠(ADVCT)를 파일 캐쉬(FLCCH)에 사전에 저장하도록 리소스 정보(RESRCI)에 기초하여 파일 캐쉬 관리자(FLCMNG)를 제어할 수 있다. 그 결과, 요구된 파일 모두가 파일 캐쉬(FLCCH)에 일시적으로 저장되어 있는 경우, 파일 캐쉬 관리자(FLCMNG)는 요구된 파일 데이터를 파일 캐쉬(FLCCH)로부터 고급 애플리케이션 프리젠테이션 엔진(AAPEN)으로 직접 전송한다. 이와 반대로, 요구된 파일 모두가 파일 캐쉬(FLCCH)에 저장되어 있지는 않은 경우, 파일 캐쉬 관리자(FLCMNG)는 요구된 파일을 그의 원래의 저장 장소(네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR))로부터 판독하고 이를 파일 캐쉬(FLCCH)로 전송한다. 그 후에, 요구된 파일 데이터는 고급 애플리케이션 프리젠테이션 엔진(AAPEN)으로 전송된다. 2차 비디오 플레이어(SCDVP)는 타임 맵 파일(STMAP)(도 11 참조) 및 2차 비디오 세트 파일(SCDVS)의 2차 고화질 비디오 객체 파일(S-EVOB)을 네트워크 관리자(NTMNG) 또는 영속적 저장 장치 관리자(PRMNG)를 경유하여 네트워크 서버(NTSRV) 또는 영속적 저장 장치(PRSTR)로부터 파일 캐쉬(FLCCH)로 전송하도록 제 어한다. 네트워크 서버(NTSRV)로부터 판독된 2차 고화질 객체 데이터(S-EVOB)는 스트리밍 버퍼(STRBUF)에 일시적으로 저장된다. 그 후에, 2차 비디오 플레이어(SCDVP) 내의 2차 비디오 플레이어 엔진(SVPBEN)은 스트리밍 버퍼(STRBUF)로부터의 저장된 2차 고화질 비디오 객체 데이터(S-EVOB)를 재생한다. 스트리밍 버퍼(STRBUF) 내에 저장된 2차 고화질 비디오 객체 데이터(S-EVOB) 중 일부는 2차 비디오 플레이어(SCDVP) 내의 디멀티플렉서(DEMUX)로 전송되어 디멀티플렉싱된다.
본 실시예에서, 고급 컨텐츠(ADVCT)의 재생 시에, 모든 사용자 입력 이벤트는 먼저 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)에 의해 처리된다. 도 44는 본 실시예에서의 사용자 입력 처리 모델을 나타낸 것이다.
사용자 입력 모델:
모든 사용자 입력 이벤트는 고급 컨텐츠가 재생되고 있는 동안 처음에 프로그래밍 엔진에 의해 처리되어야 한다.
사용자 인터페이스 장치를 통한 사용자 조작 신호는 사용자 인터페이스 엔진 내의 각각의 장치 제어기 모듈로 입력된다. 사용자 조작 신호 중 어떤 것은 정의된 이벤트, "인터페이스 리모콘 이벤트"의 "U/I 이벤트"로 해석될 수 있다. 해석된 U/I 이벤트는 프로그래밍 엔진으로 전송된다.
프로그래밍 엔진은 프로그램가능 거동을 실행하는 일을 맡고 있는 ECMA 스크립트 프로세서를 가지고 있다. 프로그램가능 거동은 각각이 고급 애플리케이션 내의 스크립트 파일에 의해 제공되는 ECMA 스크립트의 설명에 의해 정의된다. 스크립트 내에 정의되어 있는 사용자 이벤트 핸들러는 프로그래밍 엔진에 등록되어 있 다.
ECMA 스크립트 프로세서가 사용자 입력 이벤트를 수신할 때, ECMA 스크립트 프로세서는 사용자 입력 핸들러가 고급 애플리케이션의 등록된 스크립트 내의 현재의 이벤트에 해당하는지를 검색한다.
존재하는 경우, ECMA 스크립트 프로세서는 이를 실행한다. 존재하지 않는 경우, ECMA 스크립트 프로세서는 본 명세서에서 정의되어 있는 디폴트 이벤트 핸들러 스크립트를 검색한다. 대응하는 디폴트 이벤트 핸들러 코드가 존재하는 경우, ECMA 스크립트 프로세서는 이를 실행한다. 존재하지 않는 경우, ECMA 스크립트 프로세서는 그 이벤트를 폐기한다.
보다 알기 쉬운 설명이 이하에 제공된다.
예를 들어, 키보드, 마우스, 리모콘 등의 여러 가지 사용자 인터페이스 드라이브에 의해 발생되는 사용자 조작(UOPE) 신호는 도 28에 도시하는 바와 같이 사용자 인터페이스 엔진(UIENG) 내의 각종의 장치 제어기(예를 들어, 리모콘 제어기(RMCCTR), 키보드 제어기(KBDCTR), 마우스 제어기(MUSCTR) 등)에 의해 사용자 인터페이스 이벤트(UIEVT)로서 입력된다. 즉, 각각의 사용자 조작 신호(UOPE)는 도 44에 도시한 바와 같이, 사용자 인터페이스 엔진(UIENG)을 통해 사용자 인터페이스 이벤트(UIEVT)로서 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)으로 입력된다. 여러 가지 스크립트 파일(SCRPT)의 실행을 지원하는 ECMA 스크립트 프로세서(ECMASP)는 고급 애플리케이션 관리자(ADAMNG) 내의 프로그래밍 엔진(PRGEN) 내에 포함되어 있다. 본 실시예에서, 고급 애플리케이션 관리 자(ADAMNG) 내의 프로그래밍 엔진(PRGEN)은 도 44에 도시한 바와 같이 고급 애플리케이션 스크립트(ADAPLS)의 저장 장소 및 디폴트 이벤트 핸들러 스크립트(DEVHSP)의 저장 장소를 포함한다. 도 45는 본 실시예에서의 사용자 입력 이벤트의 리스트를 나타낸 것이다.
디폴트 입력 핸들러:
사용자 입력 이벤트에 대한 디폴트 입력 핸들러의 정의가 도 45에 정의되어 있다.
사용자 입력 이벤트가 고급 애플리케이션에 의해 소모되지 않는 경우, 디폴트 입력 핸들러는 이하의 스크립트에 의해 정의되는 행동을 구현해야 한다.
가상 키 코드: 사용자 입력 장치에 응답하여 플레이어에 의해 생성되는 가상 키 코드.
명령어: 가상 키 코드에 대한 명령어
디폴트 입력 핸들러: 디폴트 행동을 정의하는 스크립트
필수/선택: 가상 키 코드가 "필수적"인 경우, 플레이어는 이 코드를 전송할 수 있는 사용자 입력 장치를 제공해야 한다.
값: 사용자 입력 이벤트에 대해 스크립트에서 사용되는 값
보다 알기 쉬운 설명이 이하에 제공된다.
도 45에 도시한 바와 같이, 예를 들어, 화면 상에서 커서를 이동시키기 위한 간단한 조작 또는 이러한 간단한 조작의 조합을 사용자 입력 이벤트라고 부르며, FF 재생 등의 일련의 조작의 조합 처리는 입력 핸들러라고 부른다. 가상 키 코드 (입력 핸들러 코드)는 사용자 입력 이벤트 및 입력 핸들러에 대응하여 설정된다. 본 실시예에서, 도 45에 도시한 디폴트 입력 핸들러 코드 및 사용자 입력 이벤트에 대응하는 복수의 가상 키 코드의 정보는 프로그래밍 엔진(PRGEN) 내의 디폴트 이벤트 핸들러 스크립트(DEVHSP) 내에 사전에 기록되어 있다. 네트워크 서버(NTSRV), 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR)로부터 가져오는 고급 애플리케이션(ADAPL)의 스크립트 파일(SCRPT)(도 11 참조) 내에 기록되어 있는 정보는 도 44에 도시한 바와 같이 프로그래밍 엔진(PRGEN) 내의 고급 애플리케이션 스크립트 기록 영역(ADAPLS)에 기록된다. 사용자 인터페이스 이벤트(UIEVT)의 수신 시에, ECMA 스크립트 프로세서(ECMASP)는 그 사용자 인터페이스 이벤트(UIEVT)에 포함된 이벤트 핸들러 코드(디폴트 입력 핸들러 코드 또는 사용자 입력 이벤트에 대응하는 가상 키 코드)를 해석하고, 사용자 인터페이스 이벤트(UIEVT) 내에 기술된 이벤트 핸들러 코드 모두가 고급 애플리케이션 스크립트 기록 영역(ADAPLS) 내에 등록되어 있는 이벤트 핸들러 코드에 대응하고 있는지 알아보기 위해 검색을 한다. 사용자 인터페이스 이벤트(UIEVT) 내에 기술된 모든 이벤트 핸들러 코드가 고급 애플리케이션 스크립트 기록 영역(ADAPLS) 내에 등록된 이벤트 핸들러 코드에 대응하고 있는 경우, ECMA 스크립트 프로세서(ECMASP)는 그의 내용에 따라 실행 처리를 즉각 시작한다. 사용자 인터페이스 이벤트(UIEVT) 내에 기술된 이벤트 핸들러 코드가 고급 애플리케이션 스크립트 기록 영역(ADAPLS) 내에 등록되어 있지 않은 이벤트 핸들러 코드를 포함하고 있는 경우, 대응하는 이벤트 핸들러 코드를 찾기 위해 디폴트 이벤트 핸들러 스크립트(DEVHSP)를 검색한다. 부족한 이벤트 핸들러 코드의 모든 정보가 디폴트 이벤트 핸들러 스크립트(DEVHSP) 내에 저장되어 있는 경우, ECMA 스크립트 프로세서(ECMASP)는 고급 애플리케이션 스크립트 기록 영역(ADAPLS) 및 디폴트 이벤트 핸들러 스크립트(DEVHSP) 내에 등록되어 있는 이벤트 핸들러 코드를 사용하여 사용자 인터페이스 이벤트(UIEVT)의 내용에 따라 실행 처리를 수행한다. 사용자 인터페이스 이벤트(UIEVT) 내에 포함된 이벤트 핸들러 코드가 디폴트 이벤트 핸들러 스크립트(DEVHSP) 내에 등록되어 있지 않은 경우, ECMA 스크립트 프로세서(ECMASP)는 사용자 인터페이스 이벤트(UIEVT)의 내용을 무시하고 사용자 인터페이스 이벤트(UIEVT)의 실행을 무효로 한다.
도 45는 도 44의 설명에서 기술된 이벤트 핸들러 및 이벤트 핸들러 코드의 내용을 나타낸 것이다. 도 45는 디폴트 이벤트 핸들러 스크립트(DEVHSP) 내에 사전에 등록되어 있는 이벤트 핸들러 및 가상 키 코드의 내용을 나타낸 것이며, 도 44를 사용하여 설명한 사용자 이벤트 핸들러는 도 45에서의 디폴트 입력 핸들러에 대응하고, 도 44를 사용하여 설명한 디폴트 이벤트 핸들러 코드는 도 45에서의 가상 키 코드에 대응한다. 도 45에서의 명령어는 가상 키 코드에 대응하는 실행 내용을 나타내며, 그의 상세한 내용은 이하의 기능 개요에서 설명한다.
도 45에 도시한 바와 같이, 디폴트 입력 핸들러를 갖는 이벤트는 15개의 서로 다른 유형의 가상 키 코드에 대응한다. 가상 키 코드가 VK_PLAY"인 경우, 디폴트 입력 핸들러는 "playHandler"이고, 값은 "OxFA"이며, 이 이벤트는 정상 속도 재생 시에 설정된다. 가상 키 코드가 "VK_PAUSE"인 경우, 디폴트 입력 핸들러는 "pauseHandler"이고, 값은 "0xB3"이며, 이 이벤트는 일시 정지 및 재생 시에 설정 된다. 가상 키 코드가 "VK_FF"인 경우, 디폴트 입력 핸들러는 "fastForwardHandler"이고, 값은 "0xC1"이며, 이 이벤트는 빨리 감기 재생 시에 설정된다. 가상 키 코드가 "VK_FR"인 경우, 디폴트 입력 핸들러는 "fastReverseHandler"이고, 값은 "0xC2"이며, 이 이벤트는 고속 되감기 재생 시에 설정된다. 가상 키 코드가 "VK_SF"인 경우, 디폴트 입력 핸들러는 "slowForwardHandler"이고, 값은 "0xC3"이며, 이 이벤트는 저속 재생 시에 설정된다. 가상 키 코드가 "VK_SR"인 경우, 디폴트 입력 핸들러는 "slowReverseHandler"이고, 값은 "0xC4"이며, 이 이벤트는 저속 되감기 재생 시에 설정된다. 가상 키 코드가 "VK_STEP_REV"인 경우, 디폴트 입력 핸들러는 "stepPreviousHandler"이고, 값은 "0xC5"이며, 이 이벤트는 이전 단계로 되돌아갈 때에 설정된다. 가상 키 코드가 "VK_STEP_NEXT"인 경우, 디폴트 입력 핸들러는 "stepNextHandler"이고, 값은 "0xC6"이며, 이 이벤트는 다음 단계로 점프 시에 설정된다. 가상 키 코드가 "VK_SKIP_PREV"인 경우, 디폴트 입력 핸들러는 "skipPreviousHandler"이고, 값은 "0xC7" 이며, 이 이벤트는 이전의 챕터를 재생할 시에 설정된다. 가상 키 코드가 "VK_SKIP_NEXT"인 경우, 디폴트 입력 핸들러는 "skipNextHandler"이고, 값은 "0xC8"이며, 이 이벤트는 다음 챕터를 재생할 시에 설정된다. 가상 키 코드가 "VK_SUBTITLE_SWITCH"인 경우, 디폴트 입력 핸들러는 "switchSubtitleHandler"이고, 값은 "0xC9"이고, 이 이벤트는 자막의 표시 유무의 설정 시에 설정된다. 가상 키 코드가 "VK_SUBTITLE"인 경우, 디폴트 입력 핸들러는 "changeSubtitleHandler"이고, 값은 "0xCA"이며, 이 이벤트는 자막 트랙을 변경할 시에 설정된다. 가상 키 코드가 "VK_CC"인 경우, 디폴트 입력 핸들러는 "showClosedCaptionHandler"이고, 값은 "0xCB"이며, 이 이벤트는 클로즈드 캡션(closed caption)을 표시할 시에 설정된다. 가상 키 코드가 "VK_ANGLE"인 경우, 디폴트 입력 핸들러는 "changeAngleHandler"이고, 값은 "0xCC"이며, 이 이벤트는 앵글을 전환할 시에 설정된다. 가상 키 코드가 "VK_AUDIO"인 경우, 디폴트 입력 핸들러는 "changeAudioHandler"이고, 값은 "0xCD"이며, 이 이벤트는 오디오 트랙을 전환할 시에 설정된다.
디폴트 입력 핸들러를 갖지 않는 이벤트에 대해서도, 가상 키 코드에 대해 값 및 명령어가 설정될 수 있다. 가상 키 코드가 "VK_MENU"인 경우에, 값은 "0xCE"이고, 이 이벤트는 메뉴를 표시할 시에 설정된다. 가상 키 코드가 "VK_TOP_MENU"인 경우에, 값은 "0xCF"이고, 이 이벤트는 톱 메뉴를 표시할 시에 설정된다. 가상 키 코드가 "VK_BACK"인 경우에, 값은 "0xDO"이고, 이 이벤트는 이전의 프레임 또는 재생 시작 위치로 복귀할 시에 설정된다. 가상 키 코드가 "VK_RESUME"인 경우에, 값은 "0xD1"이고, 이 이벤트는 메뉴로부터 복귀할 때 설정된다. 가상 키 코드가 "VK_LEFT"이고, 값은 "0x25"이며, 이 이벤트는 커서를 좌측으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_UP"인 경우에, 값은 "0x26" 이고, 이 이벤트는 커서를 위로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_RIGHT"인 경우에, 값은 "0x27"이고, 이 이벤트는 커서를 우측으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_DOWN"인 경우, 값은 "0x28"이고, 이 이벤트는 커서를 아래로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_UPLEFT"인 경우, 값 은 "0x29"이고, 이 이벤트는 커서를 좌상방으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_UPRIGHT"인 경우에, 값은 "0x30"이고, 이 이벤트는 커서를 우상방으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_DOWNLEFT"인 경우에, 값은 "0x31"이고, 이 이벤트는 커서를 좌하방으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_DOWNRIGHT"인 경우에, 값은 "0x32"이고, 이 이벤트는 커서를 우하방으로 이동시킬 시에 설정된다. 가상 키 코드가 "VK_TAB"인 경우에, 값은 "0x09"이고, 이 이벤트는 탭을 사용할 시에 설정된다. 가상 키 코드가 "VK_A_BUTTON"인 경우에, 값은 "0x70"이고, 이 이벤트는 A 버튼을 누를 시에 설정된다. 가상 키 코드가 "VK_B_BUTTON"인 경우에, 값은 "0x71"이고, 이 이벤트는 B 버튼을 누를 시에 설정된다. 가상 키 코드가 "VK_C_BUTTON"인 경우에, 값은 "0x72"이고, 이 이벤트는 C 버튼을 누를 시에 설정된다. 가상 키 코드가 "VK_D_BUTTON"인 경우에, 값은 "0x73"이고, 이 이벤트는 D 버튼을 누를 시에 설정된다. 가상 키 코드가 "VK_ENTER_BUTTON"인 경우에, 값은 "0x0D"이고, 이 이벤트는 OK 버튼을 누를 시에 설정된다. 가상 키 코드가 "VK_ESC"인 경우에, 값은 "0x1B"이고, 이 이벤트는 취소 시에 설정된다. 가상 키 코드가 "VK_0"인 경우에, 값은 "0x30"이고, "0"이 설정된다. 가상 키 코드가 "VK_1"인 경우에, 값은 "0x31"이고, "1"이 설정된다. 가상 키 코드가 "VK_2"인 경우에, 값은 "0x32"이고, "2"가 설정된다. 가상 키 코드가 "VK_3"인 경우에, 값은 "0x33"이고, "3"이 설정된다. 가상 키 코드가 "VK_4"인 경우에, 값은 "0x34"이고, "4"가 설정된다. 가상 키 코드가 "VK_5"인 경우에, 값은 "0x35"이고, "5"가 설정된다. 가상 키 코드가 "VK_6"인 경우에, 값은 "0x36"이 고, "6"이 설정된다. 가상 키 코드가 "VK_7"인 경우에, 값은 "0x37"이고, "7"이 설정된다. 가상 키 코드가 "VK_8"인 경우에, 값은 "0x38"이고, "8"이 설정된다. 가상 키 코드가 "VK_9"인 경우에, 값은 "0x39"이고, "9"가 설정된다. 가상 코드 키가 "VK_MOUSEDOWN"인 경우에, 값은 "0x01"이고, 이 이벤트는 지정된 엘리먼트의 입력을 비활성화시킬 때에(최전면이 아닌 플레인으로 이동시킬 때에) 설정된다. 가상 코드 키가 "VK_MOUSEUP"인 경우에, 값은 "0x02"이고, 이 이벤트는 지정된 엘리먼트의 입력을 활성화시킬 때에(최전면 플레인으로 이동시킬 때에) 설정된다.
본 실시예에서의 기존의 DVD-비디오 또는 표준 컨텐츠(STDCT)에서, 시스템에 의해 사용되는 파라미터를 설정하도록 SPRM(시스템 파라미터)가 정의되어 있다. 그렇지만, 본 실시예에서, 고급 컨텐츠 내비게이션은 어떤 SPRM(시스템 파라미터)도 사용하지 않으며, 도 50 내지 도 53에 도시된 시스템 파라미터는 SPRM(시스템 파라미터)에 대한 대안으로서 설정된다. 고급 컨텐츠(ADVCT)의 재생 시에, SPRM(시스템 파라미터) 값은 API 명령 처리에 의해 검출될 수 있다. 본 실시예에서의 시스템 파라미터로서, 이하의 4가지 서로 다른 유형의 파라미터가 설정될 수 있다. 시스템 파라미터는 정보 기록 및 재생 장치(1) 내의 각각의 고급 컨텐츠 재생 유닛(ADVPL)에 대해 설정된다. 도 46에 도시하는 플레이어 파라미터는 각각의 정보 기록 및 재생 장치(1)에 대해 공통으로 설정될 수 있다. 도 47에 도시하는 프로파일 파라미터는 사용자 프로파일의 데이터를 나타낸다. 도 48에 도시하는 프리젠테이션 파라미터는 화면 상에서의 표시 상태를 나타낸다. 도 49에 도시하는 레이아웃 파라미터는 비디오 표시 시의 레이아웃(도 39 참조)과 연관된 파라미터를 의미한다.
본 실시예에서, 시스템 파라미터는 도 14에 도시하는 데이터 캐쉬(DTCCH) 내에 일시적으로 설정된다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 예를 들어, 시스템 파라미터는 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 파서(PARSER) 내에 설정된 임시 메모리(도시 생략) 내에 설정될 수 있다. 각각의 도면에 대해 이하에서 설명한다.
도 46은 본 실시예에서의 플레이어 파라미터의 리스트를 나타낸 것이다.
본 실시예에서, 플레이어 파라미터는 2개의 객체, 즉 플레이어 파라미터 객체 및 데이터 캐쉬 객체를 포함한다. 플레이어 파라미터는 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)의 비디오 재생 처리를 실행할 시에 필요로 하는 일반적인 파라미터 정보를 의미한다. 플레이어 파라미터 중에서, 네트워크 다운로드 및 영속적 저장 장치(PRSTR)로부터 데이터 캐쉬(DTCCH)로의 데이터 전송과 연관되지 않은 일반적인 파라미터 정보가 플레이어 파라미터에 속한다. 본 실시예에서의 고급 컨텐츠 재생 유닛(ADVPL)에서의 처리는 데이터 캐쉬(DTCCH)로의 데이터 전송 처리를 전제로 한다. 고급 컨텐츠 재생 유닛(ADVPL)에 대해 필요한 파라미터 정보로서, 데이터 캐쉬로의 데이터 전송 처리에 필요한 파라미터는 데이터 캐쉬에 대응하는 플레이어 파라미터로서 정의된다.
플레이어 파라미터 객체 내에는, 13개의 플레이어 파라미터가 설정되어 있다. 플레이어 파라미터의 내용으로서, "majorVersion"은 대응하는 규격의 버전 번호의 정수 값을 의미한다. "minorVersion"은 대응하는 규격의 버전 번호의 소수점 이하의 값을 의미한다. "videoCapabilitySub"는 서브 비디오의 표시 가능을 의미한다. "audioCapabilityMain"은 메인 오디오의 표시 가능을 의미한다. "audioCapabilitySub"는 서브 오디오의 표시 가능을 의미한다. "audioCapabilityAnalog"는 아날로그 오디오의 표시 가능을 의미한다. "audioCapabilityPCM"은 PCM 오디오의 표시 가능을 의미한다. "audioCapabilitySPDIF"는 S/PDIF 오디오의 표시 가능을 의미한다. "regionCode"는 지역 코드를 의미한다. 지역 코드는 세계를 6개의 지역으로 나누고, 각각의 지역에 대해 지역 코드 번호가 설정되어 있음을 의미한다. 비디오 재생 시에, 지역 코드 번호와 일치하는 지역에서만 재생 표시가 허가된다. "countryCode"는 국가 코드를 의미한다. "displayAspectRatio"는 종횡비를 의미한다. 종횡비는 사용자에게 표시되는 비디오 화면의 수평 대 수직 비율을 의미한다. "currentDisplayMode"는 표시 모드를 의미한다. "networkThroughput"는 네트워크 처리용량을 의미한다. 네트워크 처리용량은 네트워크를 경유하여 네트워크 서버(NTSRV)로부터 전송되는 데이터의 전송 레이트를 의미한다.
또한, "dataCacheSize"는 데이터 캐쉬 객체에 설정되고, 그의 내용인 데이터 캐쉬 크기를 의미한다.
도 47은 본 실시예에서의 프로파일 파라미터의 리스트를 나타낸 것이다.
본 실시예에서, 프로파일 파라미터는 프로파일 파라미터 객체를 포함한다. 프로파일 파라미터는 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에 의해 처리되는 프레임 표시 포맷과 연관된 파라미터를 의미 한다. 프로파일 파라미터 객체 내에, 4개의 프로파일 파라미터가 설정되어 있다. 프로파일 파라미터의 내용으로서, "parentalLevel"은 아이들에게 표시될 수 없는 성인용 비디오, 폭력적인/잔혹한 장면을 포함하는 비디오 화상 등에 대해 아이들이 보도록 허용되는 레벨을 지정하는 파라미터를 의미한다. 이 파라미터를 이용함으로써, 예를 들어 시청 제한 레벨이 높은 비디오 화상이 아이들에게 표시될 때, 아이들이 볼 수 있는 장면만을 편집하여 얻어진 비디오 화상이 표시될 수 있다. "menuLanguage"는 메뉴 언어를 의미한다. "initialAudioLanguage"는 초기 오디오 언어를 의미한다. "initialSubtitleLanguage"는 초기 자막 언어를 의미한다.
도 48은 표시 파라미터의 리스트를 나타낸 것이다.
본 실시예에서, 표시 파라미터는 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에 의해 처리되는 표시 프레임 및 표시 오디오와 연관된 파라미터를 의미하며, 3개의 객체, 즉 재생 목록 관리자(PLMNG) 객체, 오디오 믹싱 엔진(ADMXEN) 객체, 및 데이터 캐쉬(DTCCH) 객체를 포함한다. 재생 목록 관리자(PLMNG) 객체는 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG) 내에서의 처리에 필요한 파라미터를 포함한다. 오디오 믹싱 엔진(ADMXEN) 객체는 도 38에 도시하는 AV 렌더러(AVRND) 내의 오디오 믹싱 엔진(ADMXEN)에서의 처리에 필요한 파라미터로 분류될 수 있다. 데이터 캐쉬(DTCCH) 객체는 도 27에 도시하는 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF)에서의 처리에 필요한 파라미터(데이터 캐쉬)로 분류될 수 있다.
재생 목록 관리자(PLMNG) 객체 내에는, 11개의 재생 목록 관리자(PLMNG) 파 라미터가 설정되어 있다. 재생 목록 관리자 파라미터(PLMNG)의 내용으로서, "playlist"에 대해 이하에 기술한다. 재생 목록 파일(PLLST)에는, 파일 이름에 번호가 첨부되어 있다. 재생 목록 파일(PLLST)이 편집 또는 갱신될 때, 그 편집 또는 갱신된 파일은 이전의 첨부된 번호 중에서 가장 큰 번호보다 "1"만큼 더 큰 값을 갖는 번호가 첨부되고, 그 파일이 저장되며, 따라서 최신의 재생 목록 파일(PLLST)을 발생할 수 있다. 고급 컨텐츠 재생 유닛(ADVPL)에 의해 재생될 재생 목록 파일(PLLST)의 첨부된 번호가 파라미터로서 설정되어 있는 경우, 사용자가 원하는 최적의 재생 목록(PLLST)에 기초하여 비디오 재생이 실시될 수 있다. 그렇지만, 본 실시예는 이것에 한정되지 않는다. 다른 실시예로서, 타이틀 ID(titleid) 및 타이틀 타임라인 상에서의 경과 시간(titleElapsedTime)의 조합이 사용자가 재생을 중단한 마지막 위치(사용자가 재생을 종료한 마지막 위치)를 기록하는 데 사용될 수 있다. "titleid"에 관해서, 재생을 중단할 때에(또는 마지막으로 재생된) 타이틀의 식별 정보(타이틀 ID)를 기록함으로써, 사용자는 이전에 재생이 중단되었던 타이틀로부터 재생을 재시작할 수 있다. "titleElapsedTime"은 타이틀 타임라인 상에서의 경과 시간을 의미한다. "currentVideoTrack"은 메인 비디오의 트랙 번호를 의미한다. "currentAudioTrack"은 메인 오디오의 트랙 번호를 의미한다. "currentSubtitleTrack"은 자막의 트랙 번호를 의미한다. "selectedAudioLanguage"는 사용자에 의해 선택되고 재생 시에 음성 출력되는 언어(일본어(JA), 영어(EN), 기타 등등)를 의미한다. "selectedAudioLanguageExtension"은 선택된 오디오 언어의 확장 필드를 의미한다. "selectedSubtitleLanguage"는 사용자에 의해 선택되고 재생 시에 출력되는 자막의 언어(일본어(JA), 영어(EN), 기타 등등)를 의미한다. "selectedSubtitleLanguageExtension"은 선택된 자막 언어의 확장 필드를 의미한다. "selectedApplicationGroup"은 사용자에 의해 선택되고 재생 시에 출력되는 애플리케이션 그룹의 언어(일본어(JA), 영어(EN), 기타 등등)를 의미한다. 예를 들어, 도 16에 도시한 도움말 아이콘(33) 상에 표시되는 문자가 "ヘルプ" 또는 "help" 로 표시되는지에 관한 표시 언어 식별을 나타낸다.
오디오 믹싱 엔진(ADMXEN) 객체 내에는, 10개의 오디오 믹싱 엔진(ADMXEN) 파라미터가 설정되어 있다. 오디오 믹싱 엔진 파라미터(ADMXEN)의 내용으로서, "vo1umeL"은 좌측 채널의 음량을 의미한다. "volumeR"은 우측 채널의 음량을 의미한다. "volumeC"는 중앙 채널의 음량을 의미한다. "volumeLS"는 좌측 서라운드 채널의 음량을 의미한다. "volumeRS"는 우측 서라운드 채널의 음량을 의미한다. "volumeLB"는 좌측 후방 서라운드 채널의 음량을 의미한다. "volumeRB"는 우측 후방 서라운드 채널의 음량을 의미한다. "volumeLFE"는 서브 우퍼 채널의 음량을 의미한다. "mixSubXtoX"는 서브 오디오 다운 믹스 계수(down mix coefficient)(퍼센트)를 의미한다. 예를 들어, 도 16에 도시한 바와 같이, 메인 비디오(MANVD)에 의해 표시되는 메인 타이틀(31) 및 서브 비디오(SUBVD)에 의해 표시되는 광고용의 독립적인 화면(32)이 동시에 표시되어야 하는 경우, 메인 타이틀(31)에 대응한 메인 오디오(MANAD) 및 광고용의 독립적인 화면(32)에 대응한 서브 오디오(SUBAD)를 동시에 음성 출력할 필요가 발생한다. 그때의 메인 오디 오(MANAD) 음량에 대한 서브 오디오(SUBAD)의 출력 음량의 비를 서브 오디오 다운믹스 계수라고 한다. "mixEf1ectXtoX"는 서브 효과 오디오 다운 믹스 계수(퍼센트)를 의미한다. 예컨대, 도 16에 도시한 바와 같이, 사용자가 고급 애플리케이션(ADAPL)에 의해 구성되는 각종 아이콘(33 내지 38)을 누르는 경우가 있다. 사용자가 고급 애플리케이션(ADAPL) 내의 각각의 엘리먼트(아이콘)의 실행을 지시한 것을 나타내는 효과음이 서브 효과 오디오의 일례를 의미한다. 이 경우, 메인 타이틀(31)에 대응한 메인 오디오(MANAD)와 동시에 서브 효과 오디오가 음성 출력될 필요가 있다. 그때의 메인 오디오(MANAD) 음량에 대한 서브 효과 오디오의 출력 음량의 비를 서브 효과 오디오 다운 믹스 계수라고 한다.
데이터 캐쉬(DTCCH) 객체 내에는, "streamingBufferSize"가 설정되어 있고, 그 내용으로서 스트리밍 버퍼 크기를 의미한다. 네트워크 서버(NTSRV)로부터 전송되는 2차 비디오 세트(SCDVS)의 데이터는 스트리밍 버퍼(STRBUF) 내에 일시적으로 저장된다. 이러한 저장을 가능하게 해주기 위해, 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF)의 크기가 미리 할당되어야 한다. 그때에 필요한 스트리밍 버퍼(STRBUF)의 크기는 재생 목록 파일(PLLST) 내의 구조 정보(CONFGI) 내에 규정되어 있다.
도 49는 본 실시예에서의 레이아웃 파라미터의 리스트를 나타낸 것이다. 본 실시예에서, 레이아웃 파라미터는 프리젠테이션 엔진(PRSEN) 객체를 포함한다. 레이아웃 파라미터는 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에 의해 처리되고 사용자에게 표시되는 프레임 상의 레이아웃에 연관되어 있는 파라미터를 의미한다.
프리젠테이션 엔진(PRSEN) 객체 내에는, 16개의 프리젠테이션 엔진(PRSEN) 파라미터가 설정되어 있다. 프리젠테이션 엔진(PRSEN) 파라미터의 내용으로서, "mainVideo.x"는 메인 비디오의 원점 위치의 x-좌표값을 의미한다. "mainVideo.y"는 메인 비디오의 원점 위치의 y-좌표값을 의미한다. "mainVideoScaIeNumerator"는 메인 비디오 스케일링 값의 분자의 값을 의미한다. "mainVideoScaleDenominator"는 메인 비디오의 스케일링 값의 분모의 값을 의미한다. "mainVideoCrop.x"는 서브 비디오 표시 영역의 x-좌표값을 의미한다. "mainVideoCrop.y"는 메인 비디오 표시 영역의 y-좌표값을 의미한다. "mainVideoCrop.width"은 메인 비디오 표시 영역의 폭을 의미한다. "mainVideoCrop.height"는 메인 비디오 표시 영역의 높이를 의미한다. "subVideo.x"는 서브 비디오의 원점 위치의 x-좌표값을 의미한다. "subVideo.y"는 서브 비디오의 원점 위치의 y-좌표값을 의미한다. "subVideoScaIeNumerator"는 서브 비디오 스케일링 값의 분자를 의미한다. "subVideoScaleDenominator"는 서브 비디오 스케일링 값의 분모를 의미한다. "subVideoCrop.x"는 서브 비디오 표시 영역의 x-좌표값을 의미한다. "subVideoCrop.y"는 서브 비디오 표시 영역의 y-좌표값을 의미한다. "subVideoCrop.width"은 서브 비디오 표시 영역의 폭을 의미한다. "subVideoCrop.height"는 서브 비디오 표시 영역의 높이를 의미한다.
이제부터 본 실시예에 있어서의 고급 컨텐츠(ADVCT)의 재생에 사용하는 재생 목록 파일(PLLST)의 설정 방법에 관해서 도 50 및 도 51을 참조하여 설명을 한다. 본 실시예에 있어서, 기본적으로는 재생 목록 파일(PLLST)이 정보 저장 매체(DISC) 내에 존재하는 것으로 가정한다. 초기 단계에서, 고급 컨텐츠(ADVCT)의 재생 처리는 정보 저장 매체(DISC) 내에 저장된 재생 목록 파일(PLLST)을 이용하여 수행된다. 그러나 본 실시예에 있어서는, 이하에 기술하는 방법에 의해 고급 컨텐츠(ADVCT)의 재생용의 재생 목록 파일(PLLST)의 내용이 갱신될 수 있다.
1. 네트워크 서버(NTSRV)는 재생 목록 파일(PLLST)의 내용을 갱신하는 데 사용된다.
2. 사용자가 고급 컨텐츠(ADVCT)의 재생 순서를 독자적으로 편집 또는 작성함으로써 얻어진 재생 목록 파일이 고급 컨텐츠(ADVCT)의 재생 처리를 실행하는 데 사용된다.
상기 1에 기술된 네트워크 서버(NTSRV)는 다운로드된 새로운 재생 목록 파일(PLLST)을 영속적 저장 장치(PRSTR) 내에 저장하는 데 사용될 수 있다. 이어서, 영속적 저장 장치(PRSTR) 내의 재생 목록 파일(PLLST)은 고급 컨텐츠(ADVCT)을 재생하는 데 사용된다. 상기 1 및 2에 기술된 방법 각각에서, 재생 목록 파일(PLLST)(파일 이름)에 순서 번호가 할당되고, 본 실시예에서는 이전이 재생 목록 파일(PLLST) 및 갱신 또는 편집/생성된 새로운 재생 목록 파일(PLLST)의 식별을 가능하게 해주기 위해 가장 높은 번호가 최신의 재생 목록 파일(PLLST)에 설정된다. 그 결과, 동일한 고급 컨텐츠(ADVCT)에 대해 복수의 재생 목록 파일(PLLST)이 존재하더라도, 가장 높은 번호가 부가되어 있는 재생 목록 파일(PLLST)을 이용하는 것에 의해 최신의 고급 컨텐츠(ADVCT)에 대한 재생 방법을 인식할 수 있게 된다.
이제부터, 상기 2의 방법에 관해서 설명한다.
컨텐츠 제공자에 의해 공급되는 고급 컨텐츠(ADVCT)를 사용자가 편집하는 것을 금지하는 경우, 고급 컨텐츠(ADVCT) 내의 재생/표시 객체에 대해 복사 방지 처리(스크램블 처리)가 수행되고, 그에 의해 컨텐츠를 사용자가 편집하는 것을 금지할 수 있다. 게다가, 컨텐츠 제공자가 사용자에 의한 편집을 허가하는 재생/표시 객체를 공급하는 경우에는, 재생/표시 객체에 대하여, 복사 제어 처리(스크램블 처리)가 수행되지 않으며, 그에 따라 사용자에 의한 편집 처리를 허가한다. 컨텐츠 제공자가 편집을 허용하지 않는(복사 제어/스크램블 처리) 재생/표시 객체를 사용자가 편집 처리를 할 때 생성되는 재생 목록 파일(PLLST)은 본 실시예에서는 영속적 저장 장치(PRSTR)에 저장될 수 있다. 상기한 바와 같이, 영속적 저장 장치(PRSTR) 내에 소정의 재생 목록 파일(PLLST)을 기록할 수 있도록 하는 일에 의해, 이하의 효과가 달성될 수 있다.
A) 네트워크 서버(NTSRV)에 저장되어 있는 업데이트된 재생 목록 파일(PLLST)의 다운로드 시간이 불필요하게 길어지기 때문에, 업데이트된 재생 목록 파일(PLLST)에 기초한 재생 개시 시간이 산출될 수 있다.
B) 편집/작성이 허용된 고급 컨텐츠(ADVCT)에 대하여, 사용자가 자유롭게 편집/작성을 하는 경우, 사용자의 기호에 부합하는 고급 컨텐츠(ADVCT)가 재생될 수 있다.
상기 2의 방법과 도 2a 내지 도 2c에 도시하는 본 실시예에 있어서의 효과 간의 관계에 대해 이하에 설명한다.
도 2a 내지 도 2c에 도시한 바와 같이, 이미지 관련 정보의 가공 용이성과 가공된 정보의 송신 용이성을 확보하고 싶다는 사용자 요구에 대하여, 종래의 DVD-비디오 규격에서는 관리 데이터 구조 자체가 비교적 커스템화되어 있기 때문에, 복잡한 편집 처리에 유연하고 용이하게 대처하는 것이 불가능하다. 반면에, 본 실시예에서는, 재생 목록 파일(PLLST)의 기술내용에 XML을 이용하는 동시에 재생 목록 파일(PLLST)의 기술 개념에 타이틀 타임라인(TMLE)의 개념을 도입했다. 게다가, 본 실시예에서는, 이것에 의해서 작성된 재생 목록 파일(PLLST)의 갱신을 가능하게 해주는 것에 의해, 도 2c〔8]에 도시하는 사용자에 의한 재생 목록 파일(PLLST)의 선택적 작성 또는 그 송신이 용이하게 된다. 즉, 상기 2의 방법에 대응하고 도 2c의 (8.1)에 나타낸 사용자에 의한 재생 목록 파일(PLLST)의 선택 또는 작성/편집이 수행될 수 있을 뿐만 아니라, 도 2c의 (8.2)에 도시한 바와 같이 사용자가 선택/작성한 재생 목록 파일(PLLST)을 친구에게 송신하여, 수신한 친구가 재생 목록 파일(PLLST)의 설정 번호의 최적화하는 일에 의해, 수신 측에서도 송신된 재생 목록 파일(PLLST)을 이용할 수 있다.
본 실시예에서는, 갱신된 또는 편집/작성된 새로운 재생 목록 파일(PLLST)은 그의 설정 번호를 증가시켜 영속적 저장 장치(PRSTR) 내에 저장된다. 따라서, 고급 컨텐츠(ADVCT) 재생의 기동 시에는, 도 50에 도시한 바와 같이, 정보 저장 매체(DISC)와 영속적 저장 장치(PRSTR) 내에 존재하는 모든 재생 목록 파일(PLLST)을 검색하여, 가장 높은 설정 번호를 갖는 재생 목록 파일(PLLST)이 추출되고, 이에 의해 최신의 재생 목록 파일(PLLST)에 기초한 재생 제어를 가능하게 해준다.
게다가, 네트워크 서버(NTSRV) 상에 있는 업데이트된 재생 목록 파일(PLLST)을 다운로드하는 경우에는, 도 51에 도시한 바와 같이, 네트워크 서버(NTSRV)로부터 최신의 재생 목록 파일(PLLST)을 다운로드함과 동시에, 그의 설정된 번호를 기존의 재생 목록 파일(PLLST)보다도 큰 값으로 변경한다. 이어서, 이 파일은 영속적 저장 장치(PRSTR) 내에 저장되며, 그에 의해 네트워크 서버(NTSRV) 상에 저장되어 있던 재생 목록 파일(PLLST)의 업데이트 후에 작성된 재생 목록 파일(PLLST)에 기초한 재생이 가능해진다.
<고급 컨텐츠의 시동 순서>
도 50은 디스크 내의 고급 컨텐츠에 대한 시동 순서의 플로우차트를 나타낸 것이다.
1) 디스크 상의 "DISCID.DAT"를 판독한다.
삽입된 HD DVD-비디오 디스크가 디스크 카테고리 2 또는 카테고리 3임을 검출한 후에, 재생 목록 관리자는 이 디스크와 연관된 영속적 저장 영역에 액세스하기 위해 'DISCID.DAT'로부터 PROVIDER_ID, CONTENT_ID 및 SEARCH_FLG를 판독한다.
2) 시스템 파라미터 내의 표시 모드 정보를 판독한다.
재생 목록 관리자는 '표시 모드' 정보를 판독한다. '표시 모드'가 플레이어가 어떤 디스플레이에 연결되어 있음을 가리키는 경우, VPLST 검색 단계로 이동한다. 그렇지 않은 경우, APLST 검색 단계로 이동한다.
3) VPLST 검색 단계
3-1) 연결된 영속적 저장 장치 모두에서 지정된 디렉토리 아래에 있는 VPLST 파일을 검색한다.
SEARCH_FLG가 '0b'인 경우, 재생 목록 관리자는 연결된 영속적 저장 장치 모두에서 제공자 ID 및 컨텐츠 ID에 의해 지정된 영역에서 'VPLST$$$.XPL' 파일을 검색한다. ('$$$'는 '000'에서 '999'까지의 번호를 나타낸다) SEARCH_FLG가 '1b'인 경우, 이 단계를 건너뛴다.
3-2) 디스크 상의 'ADV_OBJ' 디렉토리 아래에서 VPLST 파일을 검색한다.
재생 목록 관리자는 디스크 상의 'ADV_OBJ' 디렉토리 아래에서 VPLST$$$.XPL' 파일을 검색한다. ('$$$'는 '000'에서 '999'까지의 번호를 나타낸다)
3-3) VPLST$$$.XPL을 검출한다.
재생 목록 관리자가 'VPLST$$$.XPL' 파일을 검출하지 않은 경우, APLST 검색 단계로 이동한다.
3-4) 가장 높은 번호를 갖는 VPLST 파일을 판독한다.
재생 목록 관리자는 이전의 VPLST 검색 절차에서 발견된 VPLST 파일들 중에서 가장 높은 번호(상기한 '$$$'로서 기술됨)를 갖는 VPLST 파일을 판독한다. 그 후, "시스템 구성 변경" 단계로 이동한다.
4) APLST 검색 단계
4-1) 연결된 영속적 저장장치 모두에서 지정된 디렉토리 아래에서 APLST 파일을 검색한다.
SEARCH_FLG가 '0b인 경우, 재생 목록 관리자는 연결된 영속적 저장 장치 모 두에서 제공자 ID 및 컨텐츠 ID에 의해 지정된 영역에서 'APLST###.XPL' 파일을 검색한다. ('###'은 '000'에서 '999'까지의 번호를 가리킨다) SEARCH_FLG가 '1b'인 경우, 이 단계를 건너뛴다.
4-2) 디스크 상의 'ADV_OBJ' 디렉토리 아래에서 APLST 파일을 검색한다.
재생 목록 관리자는 디스크 상의 'ADV_OBJ' 디렉토리 아래에서 'APLST###.XPL' 파일을 검색한다. ('###'은 '000'에서 '999'까지의 번호를 가리킨다)
4-3) APLST###.XPL을 검출한다
재생 목록 관리자가 'APLST###.XPL' 파일을 검출하지 않은 경우, 실패 단계로 이동한다.
4-4) 가장 높은 번호를 갖는 APLST 파일을 판독한다.
재생 목록 관리자는 이전의 APLST 검색 절차에서 발견된 APLST 파일들 중에서 가장 높은 번호(상기한 '###'로서 기술됨)를 갖는 APLST 파일을 판독한다. 그리고 '시스템 구성 변경' 단계로 이동한다.
5) 시스템 구성 변경:
플레이어는 고급 컨텐츠 플레이어의 시스템 리소스 구성을 변경한다. 스트리밍 버퍼 크기는 이 단계 동안에 재생 목록에 기술되어 있는 스트리밍 버퍼 크기에 따라 변경된다. 파일 캐쉬 및 스트리밍 버퍼에 현재 있는 모든 파일 및 데이터는 철회된다.
6) 타이틀 타임라인 매핑 및 재생 순서를 초기화한다
재생 목록 관리자는 첫 번째 타이틀의 타이틀 타임라인 상에서 표시 객체가 언제 표시되어야 하는지 및 챕터 진입점이 어디인지를 계산한다.
7) 첫 번째 타이틀 재생의 준비
파일 캐쉬 관리자는 첫 번째 타이틀 재생을 시작하기 위해 사전에 파일 캐쉬에 저장될 필요가 있는 모든 파일을 판독하여 저장해야 한다. 이들은 고급 애플리케이션 관리자에 대한 고급 내비게이션 파일, 고급 애플리케이션 프리젠테이션 엔진에 대한 고급 엘리먼트 파일, 또는 2차 비디오 플레이어에 대한 TMAP/S-EVOB 파일일 수 있다. 이 단계에서, 재생 목록 관리자는 고급 애플리케이션 프리젠테이션 엔진, 2차 비디오 플레이어 및 1차 비디오 플레이어 등의 표시 모듈을 초기화한다.
첫 번째 타이틀 내에 1차 오디오 비디오가 있는 경우, 재생 목록 관리자는 IFO 및 TMAP(들) 등의 1차 비디오 세트에 대한 내비게이션 파일을 지정하는 것 이외에 1차 오디오 비디오의 첫 번째 타이틀의 타이틀 타임라인 상으로의 표시 매핑 정보를 알려준다. 1차 비디오 플레이어는 디스크로부터 IFO 및 TMAP를 판독하고, 이어서 1차 비디오 플레이어와 디코더 엔진 내의 요구된 디코더 모듈 간의 연결을 설정하는 것 이외에 통지된 표시 매핑 정보에 따라 1차 비디오 세트에 대한 재생 제어를 위한 내부 파라미터를 준비한다.
첫 번째 타이틀 내에 2차 오디오 비디오 및 대체 오디오 등의 2차 비디오 플레이어에 의해 재생되는 표시 객체가 있는 경우, 내비게이션 관리자는 TMAP 등의 표시 객체에 대한 내비게이션 파일을 지정하는 것 이외에 타이틀 타임라인의 첫 번째 표시 객체의 표시 매핑 정보를 알려준다. 2차 비디오 플레이어는 데이터 소스 로부터 TMAP를 판독하고, 이어서 2차 비디오 플레이어와 디코더 엔진 내의 요구된 디코딩 모듈 간의 연결을 설정하는 것 이외에 통지된 표시 매핑 정보에 따라 표시 객체에 대한 재생 제어를 위한 내부 파라미터를 준비한다.
8) 첫 번째 타이틀을 재생하기 시작한다
첫 번째 타이틀 재생을 위한 준비 이후에, 고급 컨텐츠 플레이어는 타이틀 타임라인을 시작한다. 타이틀 타임라인 상으로 매핑된 표시 객체는 그의 표시 스케쥴에 따라 표시를 시작한다.
9) 실패:
재생 목록 관리자가 'VPLST$$$.XPL'도 'APLST###.XPL'도 검출할 수 없는 경우, 이 단계로 이동한다. 이 단계에서, 재시작의 거동은 플레이어에 맡겨져 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터 도 50을 참조하여 본 실시예에서의 고급 컨텐츠(ADVCT)의 시동 시퀀스에 대해 설명한다. 기본적으로, 정보 저장 매체(DISC)와 연결된 모든 영속적 저장 장치(PRSTR) 내의 재생 목록 파일(PLLST)이 검색되고, 가장 높은 번호를 갖는 재생 목록 파일(PLLST)이 추출되며, 이 파일에 기초한 재생 처리가 실행된다.
도 5에 도시한 바와 같이, 본 실시예에서, 카테고리 1 내지 카테고리 3으로 분류되는 3가지 종류의 정보 저장 매체(DISC)가 설정되어 있다. 이러한 정보 저장 매체(DISC) 중에서, 고급 컨텐츠(ADVCT)의 정보는 도 5(a) 및 도 5(c)에 도시하는 카테고리 2 및 카테고리 3에 대응하는 정보 저장 매체(DISC)에 기록될 수 있다. 먼저, 정보 저장 매체(DISC)의 카테고리가 판정되고, 고급 컨텐츠(ADVCT)가 기록되 어 있고 카테고리 2 또는 카테고리 3에 대응하는 정보 저장 매체(DISC)가 검출된다.
도 14에 도시한 바와 같이, 내비게이션 관리자(NVMNG)는 본 실시예에 따르면 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)에 존재하고, 재생 목록 관리자(PLMNG)는 내비게이션 관리자(NVMNG) 내에 존재한다(도 28 참조). 재생 목록 관리자(PLMNG)는 정보 저장 매체로부터 시스템 파라미터에 관한 표시 모드 정보를 판독한다(단계 S41). 표시 모드 정보는 재생 목록 관리자(PLMNG)가 "VPLIST$$$.XML" 파일을 판독하는 데 이용된다. 게다가, 본 실시예는 이 구성에 한정되지 않으며, 재생 목록 관리자(PLMNG)는 또한 "VPLIST$$$.XML" 파일도 판독할 수 있다(각각의 "$$$"는 "000"에서 "999"까지의 번호를 의미한다).
본 실시예에서, 정보 저장 매체(DISC)를 재생할 때, 필요한 제공자 ID/컨텐츠 ID 및 검색 플래그는 영속적 저장 장치(PRSTR) 내의 DISCID/DAT에 기록되어 있다. 재생 목록 관리자(PLMNG)는 영속적 저장 장치(PRSTR) 내의 DISCID.DAT 파일을 판독하고, 이 파일로부터 제공자 ID/컨텐츠 ID 및 검색 플래그를 판독한다(단계 S42). 재생 목록 관리자(PLMNG)는 검색 플래그의 내용을 해석하고, 이 검색 플래그가 "1b"인지 여부를 판정한다(단계 S43). 검색 플래그가 "0b"인 경우, 연결된 영속적 저장 장치(PRSTR) 모두의 내용이 검색되고, 제공자 ID 및 컨텐츠 ID에 대응하는 재생 목록 파일(PLLST)이 추출된다(단계 S44). 게다가, 검색 플래그가 "1b"인 경우, 단계(S44)를 건너뛴다. 이어서, 재생 목록 관리자(PLMNG)는 정보 저장 매체(DISC) 내의 디렉토리 "ADV_OBJ" 아래에 존재하는 재생 목록 파일(PLLST)을 검 색한다(단계 S45). 그 후에, 가장 높은 지정된 번호를 갖는 재생 목록 파일(PLLST)이 정보 저장 매체(DISC) 및 영속적 저장 장치(PRSTR) 내에 저장된 재생 목록 파일(PLLST)로부터 추출되고, 재생 목록 관리자(PLMNG)는 추출된 파일의 내용을 재생한다(단계 S46). 그 후에, 고급 컨텐츠 재생 유닛(ADVPL)은 단계(S46)에서 추출된 재생 목록 파일(PLLST)의 내용에 기초하여 시스템 구성을 변경한다(단계 S47). 게다가, 이때에, 재생 목록 파일(PLLST) 내에 기술된 스트리밍 버퍼 크기에 기초하여 스트리밍 버퍼(STRBUF)의 크기가 변경된다. 게다가, 도 27에 도시하는 파일 캐쉬(FLCCH) 및 스트리밍 버퍼(STRBUF) 내에 이미 기록되어 있는 모든 파일 및 모든 데이터 내용이 소거된다. 이어서, 타이틀 타임라인(TMLE)에 따른 객체 매핑 및 재생 순서 초기화가 실행된다(단계 S48). 도 24a 및 도 24b에 도시된 바와 같이, 객체 매핑 정보(OBMAPI) 및 재생 순서 정보(PLSQI)가 재생 목록 파일(PLLST) 내에 기록되고, 재생 목록 관리자(PLMNG)는 이러한 정보를 이용하여 처음으로 표시되는 타이틀에 대응하는 타이틀 타임라인(TMLE) 상에서의 각각의 재생/표시 객체의 재생 타이밍을 계산하고 또한 재생 순서에 기초하여 타이틀 타임라인(TMLE) 상에서의 각각의 캡처 진입점(capture entry point)의 위치를 계산한다. 이어서, 최초로 재생되는 타이틀의 재생 준비가 수행된다(단계 S49). 이제부터, 단계(S49)에서의 처리의 구체적인 내용에 대해 설명한다. 도 28에 도시한 바와 같이, 파일 캐쉬 관리자(FLCMNG)는 내비게이션 관리자(NVMNG) 내에 존재한다. 첫 번째로 재생되는 타이틀을 시작하기 이전에, 파일 캐쉬 관리자(FLCMNG)는 여러 가지 종류의 파일에 대해 필요한 재생 제어를 수행하고, 이들 파일을 파일 캐쉬(FLCCH) 내에 일시적으로 저장한다. 파일 캐쉬(FLCCH)에 일시적으로 저장되는 파일은 고급 애플리케이션 관리자(도 28 참조)에 의해 사용된다. 구체적인 파일 이름으로서, 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 스크립트 파일(SCRPT) 및 기타의 파일이 도 11에 도시하는 고급 내비게이션 디렉토리(ADVNV) 내에 존재한다. 그 밖에도, 파일 캐쉬 내에는 타임 맵 파일(STMAP) 및 2차 비디오 플레이어(SCDVP)(도 35 참조)에 의해 사용되는 2차 비디오 세트의 2차 고화질 비디오 객체 파일(S-EVOB)(도 11 참조), 고급 애플리케이션 프리젠테이션 엔진(AAPEN)(도 30 참조)에 의해 사용되는 고급 엘리먼트 디렉토리(ADVEL) 내에 존재하는 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD), 및 폰트 파일(FONT), 및 기타 파일(OTHER)이 저장되어 있다. 게다가, 이 타이밍에서, 재생 목록 관리자(PLMNG)는 도 30에 도시하는 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN), 2차 비디오 플레이어(SCDVP) 또는 1차 비디오 플레이어(PRMVP) 등의 여러 가지 재생 모듈에 대해 초기화 처리를 실행한다. 이제부터, 단계(S49)에서 설명한 타이틀의 재생 준비의 일부로서 1차 오디오 비디오(PRMAV)에 관한 재생 준비의 방법에 관하여 설명을 한다. 도 24a 및 도 24b에 도시한 바와 같이, 객체 매핑 정보(OBMAPI)는 재생 목록 파일(PLLST) 내에 존재하고, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)는 객체 매핑 정보(OBMAPI) 내에 존재한다. 재생 목록 관리자(PLMNG)는 객체 매핑 정보(OBMAPI) 내의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 정보를 분석하고, 이 정보를 프리젠테이션 엔진(PRSEN) 내의 1차 비디오 플레이어(PRMVP)(도 30 참조)로 전송한다. 게다가, 도 11에 도시한 바와 같이, 1차 비디오 세트(PRMVS)에 관한 관리 파 일로서, 1차 오디오 비디오 디렉토리(PRMAV) 내에 존재하는 비디오 타이틀 세트 정보 파일(ADVTSI), 1차 비디오 세트의 타임 맵 파일(PTMAP) 및 기타가 있으며, 재생 목록 관리자(PLMNG)는 이들 파일의 저장 장소의 정보를 1차 비디오 플레이어(PRMVP)로 전송한다. 정보 저장 매체(DISC)로부터 비디오 타이틀 세트 정보 파일(ADVTSI) 또는 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP)에 대한 재생 제어를 수행한 후에, 1차 비디오 플레이어(PRMVP)는 객체 매핑 정보(OBMAPI)에 기초하여 1차 비디오 세트(PRMVS)에 대한 재생 제어에 필요한 초기 파라미터의 준비를 수행한다. 게다가, 도 36에 도시한 바와 같이, 1차 비디오 플레이어(PRMVP)는 또한 대응하는 디코더 엔진(DCDEN) 내의 비디오 레코더와의 연결을 위한 준비도 수행한다. 게다가, 2차 비디오 플레이어(SCDVP)에 의해 재생되는 대체 오디오 비디오(SBTAV), 대체 오디오(SBTAD) 또는 2차 오디오 비디오(SCDAV)를 재생하는 경우, 마찬가지로 재생 목록 관리자(PLMNG)는 객체 매핑 정보(OBMAPI)에 관한 클립 엘리먼트의 정보를 2차 비디오 플레이어(SCDVP)로 전송하고, 또한 2차 비디오 세트의 타임 맵 파일(STMAP)(도 11 참조)의 저장 위치를 2차 비디오 플레이어(SCDVP)로 전송한다. 2차 비디오 플레이어(SCDVP)는 2차 비디오 세트의 타임 맵 파일(STMAP)의 정보에 관한 재생 제어를 수행하고, 객체 매핑 정보(OBMAPI)의 정보에 기초하여 재생 제어에 관한 초기 파라미터를 설정하며, 도 35에 도시하는 디코더 엔진(DCDEN) 내의 관계된 디코더와의 연결을 위한 준비를 수행한다. 타이틀에 대한 재생 준비의 완료 시에, 정보가 최초로 재생되는 트랙이 준비된다(단계 S50). 이때, 고급 컨텐츠 재생 유닛(ADVPL) 은 타이틀 타임라인(TMLE)의 카운트-업을 시작하고, 객체 매핑 정보(OBMAPI)에 기술된 스케쥴에 따라서 타이틀 타임라인(TMLE)의 진행에 따라 각각의 재생/표시 객체의 재생/표시 처리를 실행한다. 재생이 시작되면, 항상 재생의 종료의 타이밍이 검출되고(단계 S51), 재생 종료 시간에 도달될 때 재생 종료 처리가 수행된다.
<고급 컨텐츠 재생의 갱신 시퀀스>
도 51은 고급 컨텐츠 재생의 갱신 시퀀스의 플로우차트를 나타낸 것이다.
Figure 112006062570134-PAT00086
타이틀 재생
고급 컨텐츠 플레이어 재생 타이틀
Figure 112006062570134-PAT00087
새로운 재생 목록 파일이 존재하는가?
고급 컨텐츠 재생을 갱신하기 위해, 고급 애플리케이션이 갱신 절차를 수행할 필요가 있다. 고급 애플리케이션이 그의 표시를 갱신하려고 시도하는 경우, 디스크 상의 고급 애플리케이션은 스크립트 시퀀스를 사전에 검색하고 갱신해야만 한다. 스크립트는 이용가능한 새로운 재생 목록 파일이 있는지 지정된 데이터 소스, 일반적으로 네트워크 서버를 검색한다.
Figure 112006062570134-PAT00088
재생 목록 파일 다운로드
이용가능한 새로운 재생 목록 파일이 있는 경우, 프로그래밍 엔진에 의해 실행되는 스크립트는 이를 파일 캐쉬 또는 영속적 저장 장치로 다운로드 한다.
Figure 112006062570134-PAT00089
재생 목록 파일이 다음에 사용되는가?
Figure 112006062570134-PAT00090
재생 목록 파일을 영속적 저장 장치 내의 지정된 디렉토리 내에 저장함
소프트 리셋 이전에, 고급 애플리케이션은 다음에 재생 목록 파일이 사용되 는지 여부를 결정한다. 재생 목록 파일이 일시적으로 사용되는 경우, 그 파일은 파일 캐쉬에 저장되어야 한다. 이 경우에, 다음 시동 시퀀스 때에, 현재의 재생 목록 파일이 플레이어에 의해 판독된다. 재생 목록 파일이 다음에 사용되는 경우, 그 파일은 파일 캐쉬에 저장되어야 하고, 영속적 저장 장치 내의 제공자 ID 및 컨텐츠 ID에 의해 지정된 영역에 저장되어야 하며, 다음 번에 이 파일은 플레이어에 의해 판독된다.
Figure 112006062570134-PAT00091
소프트 리셋 발행
고급 애플리케이션은 시동 시퀀스를 재시작하도록 소프트 리셋 API를 발행해야 한다. 소프트 리셋 API는 새로운 재생 목록 파일을 고급 애플리케이션 플레이어에 등록하고, 현재의 파라미터 및 재생 구성 중 일부를 리셋한다. 그 후에, "시스템 구성 변경" 및 이하의 절차가 새로운 재생 목록 파일에 기초하여 실행된다. 고급 컨텐츠 플레이어는 등록된 재생 목록 파일을 파일 캐쉬로 복원한다. 이와 유사한 방식으로, 고급 컨텐츠 플레이어는 등록된 재생 목록과 연관된 할당 정보 파일을 파일 캐쉬로 복원한다.
Figure 112006062570134-PAT00092
타이틀 타임라인 매핑 및 재생 순서를 초기화함
Figure 112006062570134-PAT00093
첫 번째 타이틀 재생을 위한 준비
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터 도 51을 참조하여 본 실시예에서의 고급 컨텐츠의 재생 시에 있어서의 갱신 시퀀스 방법에 관하여 설명한다. 재생 목록 파일(PLLST)의 내용이 주로 네트워크 서버(NTSRV)에서 갱신되는 경우, 사용자 측에 설치된 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)도 역시 이 동작에 따라 재생 목록 파일(PLLST)의 내용을 갱신할 수 있다. 도 51은 고급 컨텐츠 재생 유닛(ADVPL)에 의해 실행되는 재생 목록 파일(PLLST)의 내용을 갱신하는 방법을 나타낸 것이다.
도 5에 도시한 바와 같이, 본 실시예에서, 카테고리 1 내지 카테고리 3으로 분류되는 3가지 유형의 정보 저장 매체(DISC)가 설정되어 있다. 이들 정보 저장 매체(DISC) 중에서, 고급 컨텐츠(ADVCT)의 정보는 도 5의 (b) 및 (c)에 도시되어 있는 카테고리 2 및 카테고리 3에 대응하는 정보 저장 매체(DISC) 내에 포함되어 있다. 먼저, 정보 저장 매체(DISC)의 카테고리가 판정되고, 고급 컨텐츠(ADVCT)가 기록되어 있고 카테고리 2 또는 카테고리 3에 대응하는 정보 저장 매체(DISC)가 검출된다. 이어서, 도 51에서, 도 50의 단계(S41)부터 단계(S45)까지의 처리가 마찬가지로 실행되고, 정보 저장 매체(DISC) 내에 저장된 재생 목록 파일(PLLST) 및 영속적 저장 장치(PRSTR) 내에 기록되어 있는 재생 목록 파일(PLLST)이 검색된다. 이어서, 정보 저장 매체(DISC) 및 영속적 저장 장치(PRSTR) 내에 저장된 재생 목록 파일(PLLST)이 서로 비교되고, 재생 목록 파일(PLLST)에 설정된 번호들 중에서 가장 높은 번호를 갖는 재생 목록 파일(PLLST)이 추출되고, 재생 목록 관리자(PLMNG)는 이 파일의 내용을 재생한다(단계 S61). 이어서, 단계(S61)에서 추출된 재생 목록 파일(PLLST)의 내용에 기초하여 시스템 구성이 변경된다(단계 S62). 본 실시예에서, 시스템 구성은 구체적으로는 다음과 같이 변경된다.
1. 시스템 리소스 구성이 변경된다.
2. 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF)(도 27 참조)의 크기가 변경된다.
... 이 크기는 도 80에서의 (c)에 예시된 재생 목록(PLLST) 내의 구조 정보(CONFGI)에 배치된 스트리밍 버퍼 엘리먼트(STRBUF)의 "사전에 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)(size 속성 정보)"에 따라 변경된다.
3. 도 27에 도시되어 있는 파일 캐쉬(FLCCH) 및 스트리밍 버퍼(STRBUF) 내에 이미 기록되어 있는 모든 파일 및 모든 데이터 내용의 소거 처리 등이 주로 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)(도 28 참조)에 의해 실행된다.
이어서, 단계(S63)에서, 재생 시퀀스의 객체 매핑 및 초기화가 타이틀 타임라인(TMLE)을 따라서 실행된다. 도 24a 및 도 24b에 도시한 바와 같이, 객체 매핑 정보(OBMAPI) 및 재생 순서 정보(PLSQI)는 재생 목록 파일(PLLST) 내에 기록되어 있고, 재생 목록 관리자(PLMNG)는 이러한 정보를 이용하여 첫 번째로 표시되는 타이틀에 대응하는 타이틀 타임라인(TMLE) 상에서의 각각의 재생/표시 객체의 재생 타이밍을 계산하고 또한 재생 순서에 기초하여 타이틀 타임라인(TMLE) 상에서의 각각의 캡처 진입점의 위치를 계산한다. 이어서, 단계(S64)에서 최초로 재생되는 타이틀의 재생 준비가 실행된다. 단계(S64)에서의 처리의 구체적인 내용에 대해 이제부터 설명한다. 도 14에 도시한 바와 같이, 내비게이션 관리자(NVMNG)는 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재하고, 파일 캐쉬 관리자(FLCMNG)는 내비게이션 관리자(NVMNG) 내에 존재한다(도 28 참조). 최초로 재생되는 타이틀의 재생을 시작하기 이전에, 파일 캐쉬 관리자(FLCMNG)는 재생에 필요한 여러 가지 파일을 파일 캐쉬(FLCCH)에 일시적으로 저장한다. 도 11에 도시한 바와 같이, 파일 캐쉬(FLCCH)에 일시적으로 저장되는 파일로서, 고급 내비게이션 디렉토리(ADVNV) 내에 존재하는 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 및 스크립트 파일(SCRPT), 고급 엘리먼트 디렉토리(ADVEL) 내에 존재하는 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD) 및 폰트 파일(FONT), 및 기타의 파일(OTHER)이 있다. 그 밖에도, 파일 캐쉬 내에 저장되는 파일로서는, 2차 비디오 플레이어(SCDVP)에 의해 사용되는 2차 비디오 세트의 타임 맵 파일(STMAP) 및 2차 고화질 비디오 객체 파일(S-EVOB)이 있다. 게다가, 재생 목록 관리자(PLMNG)는, 단계(S64)에 기술하는 "최초로 재생되는 타이틀의 재생 준비"의 타이밍과 동시에, 도 30에 도시한 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN), 2차 비디오 플레이어(SCDVP), 1차 비디오 플레이어(PRMVP), 등의 여러 가지 재생 모듈을 초기화한다. 재생 목록 관리자(PLMNG)에 의해 실행되는 여러 가지 재생 모듈의 초기화의 구체적인 내용에 대해 이제부터 설명한다.
1. 1차 비디오 플레이어(PRMVP)의 초기화 처리
(재생 대상 타이틀 내에서 1차 오디오 비디오(PRMAV)가 재생/표시되어야 하는 경우)
* 이하의 정보가 재생 목록 관리자(PLMNG)로부터 1차 비디오 플레이어(PRMVP)로 전송된다.
Figure 112006062570134-PAT00094
타이틀 타임라인(TMLE) 상에서의 1차 오디오 비디오(PRMAV)의 재생 타이밍 등의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)(도 54a 및 도 54b를 참조)에 기 술된 정보
Figure 112006062570134-PAT00095
1차 비디오 세트의 타임 맵 정보(PTMAP) 또는 고화질 비디오 객체 정보(EVOBI)(도 12 참조) 등의 1차 비디오 세트(PRMVS)에 관한 관리 정보
* 1차 비디오 플레이어는 상기한 정보에 기초하여 초기 파라미터를 설정한다.
* 디코더 엔진(DCDEN) 및 1차 비디오 플레이어(PRMVP)(도 36 참조) 사이의 연결을 위한 준비를 수행한다.
2. 2차 비디오 플레이어(SCDVP)의 초기화 처리
(재생 대상 타이틀 내에서 2차 비디오 세트(SCDVS)가 재생/표시되어야만 하는 경우)
* 내비게이션 관리자(NVMNG)는 이하의 정보를 2차 비디오 플레이어(SCDVP)로 전송한다.
Figure 112006062570134-PAT00096
2차 비디오 세트(SCDVS) 내의 여러 가지 종류의 재생/표시 객체에 관한 타 이틀 타임라인(TMLE) 상에서의 재생 타이밍 등의 2차 오디오 비디오 클립 엘리먼트(SCAVCP)(도 54a 및 도 54b 참조), 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 또는 대체 오디오 클립 엘리먼트(SBADCP)에 기술되어 있는 정보
Figure 112006062570134-PAT00097
2차 비디오 세트의 타임 맵 정보(STMAP)(도 12 참조) 등의 2차 비디오 세트(SCDVS)에 관한 관리 정보
* 2차 비디오 플레이어(SCDVP)는 상기한 정보에 기초하여 초기 파라미터를 설정한다.
* 1차 비디오 플레이어(SCDVP)는 디코더 엔진(DCDEN) 내의 필요한 디코더 모듈과 2차 비디오 플레이어(SCDVP)(도 37 참조) 간의 연결을 위한 준비를 수행한다.
타이틀의 재생을 위한 준비의 완료 시에, 정보가 재생되어야 하는 트랙의 재생이 시작된다(단계 S65). 이때, 고급 컨텐츠 재생 유닛(ADVPL)은 타이틀 타임라인(TMLE)의 타운트-업을 시작하고, 객체 매핑 정보(OBMAPI)에 기술된 스케쥴에 따라서 타이틀 타임라인(TMLE)의 진행에 따라 각각의 재생/표시 객체의 재생/표시 처리를 수행한다. 단계(S65)에서 타이틀이 재생될 때, 사용자가 새로운 갱신된 타이틀을 사용하여 재생을 수행하고자 하는 경우, 재생 목록 파일(PLLST)의 갱신 처리의 실행이 실행된다(단계 S66).
상기한 바와 같이 단계(S66)에서 재생 목록 파일(PLLST)의 갱신 처리의 실행이 시작되는 경우, 그 다음 단계로서 새로운 재생 목록 파일(PLLST)이 존재하는지 여부를 판정하는 검색 처리가 시작된다. 고급 컨텐츠(ADVCT)를 재생하는 방법에 관한 갱신을 수행하기 위해, 고급 애플리케이션(ADAPL)을 사용하는 갱신 처리가 실행되어야 한다. 고급 애플리케이션(ADAPL)을 사용하는 재생 방법에 관한 갱신 프로세싱을 수행하기 위해, 정보 저장 매체(DISC) 내에 기록되어 있는 고급 애플리케이션(ADAPL)은 처음부터 "갱신 처리를 실행하기 위해 최신의 재생 목록(PLLST)을 검사하는" 기능이 설정되어 있는 스크립트 시퀀스(스크립트(SCRPT)에 의해 설정된 처리 프로그램)를 가지고 있어야만 한다. 스크립트 시퀀스는 갱신된 최신의 재생 목록 파일(PLLST)이 저장되어 있는 장소를 검색한다. 일반적으로, 갱신된 최신의 재생 목록 파일(PLLST)이 네트워크 서버(NTSRV)에 저장되어 있는 경우가 종종 있 다. 여기서, 새로운 재생 목록 파일(PLLST)이 네트워크 서버(NTSRV)에 존재하는 경우, 재생 목록 파일(PLLST)의 다운로드 처리가 실행된다(단계 S69). 새로운 재생 목록 파일(PLLST)이 존재하지 않는 경우, 타이틀의 재생이 종료되어야 하는지 여부가 판정되고(단계 S68), 사용자의 요청을 충족시키기 위해 타이틀의 재생이 종료되어야만 하는 경우 종료 처리가 실행된다. 사용자가 이전의 재생 목록 파일(PLLST)에 기초한 재생을 허용하는 경우, 제어는 단계(S65)에서의 타이틀의 연속 재생으로 복귀한다. 이제부터, 재생 목록 파일(PLLST)의 다운로드 처리(단계 S69)에 관하여 설명한다. 도 1에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADVPL)은 본 실시예에서의 정보 기록 및 재생 장치(1) 내에 존재하고, 내비게이션 관리자(NVMNG)는 도 14에 도시한 바와 같이 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재한다. 고급 애플리케이션 관리자(ADAMNG)는 내비게이션 관리자(NVMNG)(도 28 참조) 내에 존재하고, 프로그래밍 엔진(PRGEN)은 고급 애플리케이션 관리자(ADAMNG) 내에 존재한다. 새로운 재생 목록 파일(PLLST)이 네트워크 서버(NTSRV)에 존재하는 경우, 고급 애플리케이션(ADAPL) 내의 스크립트 파일(SCRPT)(스크립트 시퀀스)은 프로그래밍 엔진(PRGEN) 내에서 활성화되고, 최신의 재생 목록 파일(PLLST)이 네트워크 서버(NTSRV)로부터 파일 캐쉬(FLCCH) 또는 영속적 저장 장치(PRSTR)로 다운로드된다. 최신의 재생 목록 파일(PLLST)의 다운로드 처리가 종료되면, 이 재생 목록 파일(PLLST)이 재생을 위해 사용되는지 여부가 판정된다. 사용자가 그 다음 재생을 위해 갱신된 재생 목록 파일(PLLST)을 사용하지 않고 갱신된 재생 목록 파일(PLLST)이 단계(S70)에서 일시적으로 사용되는 경우, 재생 목록 파일(PLLST)은 파일 캐쉬(FLCCH)에 일시적으로 저장된다. 이 경우에, 현재의 재생 목록 파일(PLLST)(갱신 이전)이 그 다음 재생을 위해 판독된다. 게다가, 단계(S70)에서 사용자가 그 다음 재생을 위해 최신의 재생 목록 파일(PLLST)을 사용하도록 요청하는 경우, 단계(S71)에 나타낸 바와 같이 갱신된 재생 목록 파일(PLLST)이 파일 캐쉬(FLCCH)에 저장되어야만 하고 또한 영속적 저장 장치(PRSTR) 내의 제공자 ID 및 컨텐츠 ID에 의해 지정된 특정 영역 내에 저장되어야 한다. 그 결과, 갱신된 재생 목록 파일(PLLST)은 그 다음 재생을 위해 고급 컨텐츠 재생 유닛(ADVPL) 내에서 재생될 준비가 된다. 게다가, 사용자 요청에 따라 영속적 저장 장치(PRSTR) 내에 갱신된 재생 목록 파일(PLLST)을 저장하는 것과 관계없이 단계(S72)에서 소프트 리셋 처리가 수행되어야만 한다. 고급 컨텐츠(ADVCT)의 재생을 시작하는 시퀀스를 재시작하기 위해, 고급 애플리케이션(ADAPL)은 소프트 리셋 API(명령)를 발행해야만 한다. 소프트 리셋 API(명령)는 도 28에 도시하는 고급 애플리케이션 관리자(ADAMNG)(및 도 30에 도시하는 고급 애플리케이션 프리젠테이션 엔진(AAPEN))에 대해 갱신된 재생 목록 파일(PLLST)의 내용을 등록하고 현재의 여러 가지 파라미터 및 재생 구성(재생에 필요한 여러 가지 종류의 구조 정보)을 리셋하는 데 사용된다. 이어서, 갱신된 재생 목록 파일(PLLST)에 기초하여 시스템 구성이 변경되고(단계(S62)와 유사한 처리), 이하의 처리가 실행된다.
* 고급 컨텐츠 재생 유닛(ADVPL)은 일시적으로 저장된 최신의 재생 목록 파일(PLLST)을 파일 캐쉬(FLCCH)에 재차 저장한다.
* 고급 컨텐츠 재생 유닛(ADVPL)은 파일 캐쉬(FLCCH)에 재차 저장된 최신의 재생 목록 파일(PLLST)의 내용에 따라 할당 정보 파일을 재차 저장한다.
소프트 리셋 처리(단계 S72)를 실행한 후에, 단계(S63)에서의 타이틀 타임라인(TMLE)에 기초한 객체 매핑 및 재생 순서의 초기화가 순차적으로 수행된다.
<고급 VTS와 표준 VTS 간의 천이 시퀀스>
디스크 카테고리 유형 3 재생의 경우, 고급 VTS와 표준 VTS 간의 재생 천이를 필요로 한다. 도 52는 이 시퀀스의 플로우차트를 나타낸 것이다.
Figure 112006062570134-PAT00098
고급 컨텐츠 재생
디스크 카테고리 3 디스크 재생은 고급 컨텐츠 재생부터 시작해야 한다. 이 단계 동안에, 사용자 입력 이벤트는 내비게이션 관리자에 의해 처리된다. 1차 비디오 플레이어에 의해 처리되어야만 하는 사용자 이벤트가 일어나는 경우, 재생 목록 관리자는 이들을 1차 비디오 플레이어로 전송하도록 보장해야만 한다.
Figure 112006062570134-PAT00099
표준 VTS 재생 이벤트를 만나는 경우
고급 컨텐츠는 고급 내비게이션 내의 StandardContentPlayer 객체의 재생 함수에 의해 고급 컨텐츠 재생으로부터 표준 컨텐츠 재생으로의 천이를 명시적으로 지정해야만 한다. 재생 시작 위치는 이 함수 및 SPRM의 인수에 의해 결정되어야 한다. 고급 애플리케이션 관리자가 StandardContentPlayer 객체의 재생 함수를 만나게 되면, 고급 애플리케이션 관리자는 재생 목록 관리자에 대해 1차 비디오 플레이어에 대한 고급 VTS의 재생을 서스펜드하도록 요청한다. 이때, 플레이어 상태 머신은 서스펜드 상태로 이동한다. 그 후, 고급 애플리케이션 관리자는 StandardContentPlayer 객체의 재생 함수를 호출한다.
Figure 112006062570134-PAT00100
표준 VTS 재생
재생 목록 관리자가 StandardContentPlayer 객체의 재생 함수를 발행할 때, 1차 비디오 플레이어는 지정된 위치로부터 표준 VTS를 시작하기 위해 점프한다. 이 단계 동안에, 내비게이션 관리자는 서스펜드되어 있고, 따라서 사용자 이벤트는 1차 비디오 플레이어로 직접 입력되어야만 한다. 이 단계 동안에, 1차 비디오 플레이어는 내비게이션 명령에 기초한 표준 VTS 간의 모든 재생 천이를 맡고 있다.
Figure 112006062570134-PAT00101
고급 VTS 재생 명령을 만나는 경우
표준 컨텐츠는 내비게이션 명령의 CallAdvancedContentPlayer에 의해 표준 컨텐츠 재생으로부터 고급 컨텐츠 재생으로의 천이를 명시적으로 지정해야 한다. 1차 비디오 플레이어가 CallAdvancedContentPlayer 명령을 만나는 경우, 이는 표준 VTS의 재생을 중단하고, 이어서 StandardContentPlayer 객체의 play 함수를 호출한 직후의 실행 지점으로부터 재생 목록 관리자를 재개한다. 이때, 플레이어 상태 머신은 재생 상태 또는 일시 정지 상태로 이동한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 6에서, 고급 컨텐츠 재생과 표준 컨텐츠 재생에 의해 얻어지는 천이 관계에 관하여 설명한다. 도 52의 플로우차트는 실제의 천이 시의 도 6에 대응하는 고급 컨텐츠(ADVCT) 재생과 표준 컨텐츠(STDCT) 재생의 천이 관계를 나타낸 것이다.
이 시퀀스의 시작 직후의 초기 상태에서, 단계(S81)에 기술한 바와 같이, 고급 컨텐츠의 재생 처리가 실행된다. 이어서, 표준 컨텐츠(STDCT)의 발생 처리를 만나지 않는 경우(단계 S82), 고급 컨텐츠(ADVCT)의 재생 처리가 종료(단계 S85)될 때까지 고급 컨텐츠(ADVCT)의 재생이 반복되고, 고급 컨텐츠(ADVCT)의 재생의 종료 시에 종료 처리가 시작된다. 표준 컨텐츠(STDCT)의 재생 처리가 고급 컨텐츠(ADVCT)의 재생 동안에 시작되는 경우(단계 S82), 제어가 표준 컨텐츠의 재생(단계 S83)으로 이동된다. 이어서, 고급 컨텐츠(ADVCT)의 재생 명령이 수신(단계 S84)될 때까지 표준 컨텐츠(STDCT)의 재생이 반복된다. 고급 컨텐츠(ADVCT)의 재생 명령은 처리의 끝에서 반드시 수신되어야 하고(단계 S84), 제어가 고급 컨텐츠(ADVCT)의 재생(단계 S81)으로 복귀한 후에 종료 처리가 실행된다. 그 결과, 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)(도 1 참조)이 전체 시퀀스를 통합 관리할 수 있고, 그에 의해 여러 가지 컨텐츠의 전환 제어 및 관리의 복잡함을 피할 수 있다.
도 5의 (c)에 도시된 카테고리 3에 대응하는 정보 저장 매체(DISC) 내의 데이터를 재생하는 경우, 고급 컨텐츠(ADVCT) 및 표준 컨텐츠(STDCT) 둘 모두 재생되는 경우가 있으며, 도 52에 도시하는 양쪽 컨텐츠 간의 천이가 발생한다.
이제부터 각각의 단계에 관하여 상세히 설명한다.
<단계 S81: 고급 컨텐츠(ADVCT)의 재생 처리>
카테고리 3에 대응하는 정보 저장 매체(DISC) 내의 데이터를 재생하는 경우, 고급 컨텐츠(ADVCT)부터 재생이 시작되어야만 한다. 도 1에 도시한 바와 같이, 내비게이션 관리자(NVMNG)는 도 14에 도시하는 바와 같이 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재한다. 1차 비디오 플레이어(PRMAV)는 도 30에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADVPL) 내의 프리젠테이션 엔진(PRSEN)(도 14 참조) 내에 존재한다. 게다가, 재생 목록 관리자(PLMNG)는 도 28에 도시하는 바와 같이, 내비게이션 관리자(NVMNG) 내에 존재한다. 1차 비디오 플레이어(PRMVP)에 의해 처리되어야만 하는 사용자 요청이 있는 경우, 재생 목록 관리자(PLMNG)는 중단없이 정보 저장 매체(DISC) 내에 기록되어 있는 1차 고화질 비디오 객체(P-EVOB)의 데이터 전송을 수행하도록 보장해야만 한다.
<단계 S82: 표준 컨텐츠(STDCT)(표준 비디오 타이틀 세트)가 재생 처리를 만나는 경우>
고급 컨텐츠(ADVCT)의 재생은 고급 내비게이션에서의 CallAdvancedContentPlayer라고 하는 API 명령에 응답하여 표준 컨텐츠(STDCT)의 재생으로 천이되어야만 한다. CallStandardContentPlayer라고 하는 API 명령은 또한 표준 컨텐츠(STDCT)에서의 재생 시작 위치 정보(표준 컨텐츠(STDCT) 내의 어디에서 재생이 시작되어야 하는지를 나타내는 정보)도 지정한다. 도 14에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 및 프리젠테이션 엔진(PRSEN)은 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재한다. 게다가, 고급 애플리케이션 관리자(ADAMNG) 및 재생 목록 관리자(PLMNG)는 도 28에 도시한 바와 같이 내비게이션 관리자(NVMNG) 내에 존재하고, 1차 비디오 플레이어(PRMVP)는 도 30에 도시한 바와 같이 프리젠테이션 엔진(PRSEN) 내에 존재한다. 단계(S81)에서 나타낸 바와 같이, 고급 컨텐츠(ADVCT)의 재생 처리 동안에 단계(S82)에 나타낸 바와 같이 표준 컨텐츠(STDCT)(표준 비디오 타이틀 세트)의 재생 처리를 만나는지 여부를 항상 판정하고 있다. 여기서, 표준 컨텐츠(STDCT)의 재생 처리를 만나는 경우, 고급 애플리케이 션 관리자(ADAMNG)는 CallStandardContentPlayer API 명령의 발행의 필요성을 판정한다. CallStandardContentPlayer API 명령이 발행되어야만 하는 장면을 만나는 경우, 고급 애플리케이션 관리자(ADAMNG)는 고급 컨텐츠(ADVCT)의 재생을 정지하도록 재생 목록 관리자(PLMNG)에 요청한다. 1차 비디오 플레이어(PRMVP)는 이 요청에 응답하여 고급 컨텐츠(ADVCT)의 재생을 중지한다. 이와 동시에, 고급 애플리케이션 관리자(ADAMNG)는 재생 목록 관리자(PLMNG)에 대해 CallStandardContentPlayer API 명령을 호출한다.
<단계 S83: 표준 컨텐츠(STDCT)(표준 비디오 타이틀 세트)의 재생>
재생 목록 관리자가 CallStandardContentPlayer API 명령을 발행하는 경우, 1차 비디오 플레이어(PRMVP)는 고급 컨텐츠(ADVCT)의 재생이 중단되는 위치로부터 표준 컨텐츠(STDCT)의 재생이 시작되는 위치로 점프한다. 도 1에 도시하는 바와 같이, 정보 기록 및 재생 장치(1)는 표준 컨텐츠 재생 유닛(STDPL) 및 고급 컨텐츠 재생 유닛(ADVPL)을 포함한다. 1차 비디오 플레이어(PRMVP)는 본 실시예에서 도 30에 도시하는 고급 컨텐츠 재생 유닛(ADVPL) 내에 존재하지만, 본 실시예는 1차 비디오 플레이어(PRMVP)도 역시 표준 컨텐츠 재생 유닛(STDPL) 내에서도 공유되는 것에 특징이 있다. 따라서, 단계(S83)에서 표준 컨텐츠(STDCT)의 재생 시에, 표준 컨텐츠 재생 유닛(STDPL) 내의 1차 비디오 플레이어(PRMVP)는 표준 컨텐츠(STDCT)를 재생/표시하는 처리를 실행한다. 이 단계 동안에, 내비게이션 관리자(NVMNG)의 서스펜드된 상태가 유지된다. 그 결과, 사용자에 의해 지정된 이벤트는 1차 비디오 플레이어(PRMVP)로 직접 입력된다. 이 단계 동안에, 1차 비디오 플레이 어(PRMVP)는 내비게이션 명령에 기초한 명령에 응답하여 표준 컨텐츠(STDCT) 내에서의 재생의 천이(재생 위치 점프 처리)에 대처한다.
<단계 S84: 고급 컨텐츠(ADVCT)의 재생 명령의 수신 확인>
표준 컨텐츠(STDCT)의 재생 처리로부터 고급 컨텐츠(ADVCT)의 재생 처리로의 천이는 내비게이션 명령의 한 유형인 "CallAdvancedContentPlayer"라고 하는 명령에 의해 지정된다. 1차 비디오 플레이어(PRMVP)가 CallStandardContentPlayer API 명령을 수신하는 경우, 표준 컨텐츠(STDCT)의 재생이 정지된다. 이어서, 재생 목록 관리자(PLMNG)가 고급 컨텐츠(ADVCT)의 재생 처리 동안에 CallStandardContentPlayer API 명령에 응답하여 재생이 중단된 위치로부터 재생을 재시작하는 처리를 실행한다.
<프리젠테이션 클립 엘리먼트 및 객체 매핑 정보>(반복)
이제부터 도 54a 및 도 54b에 도시되어 있는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 태그 내의 데이터 및 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 태그 내의 데이터, 도 55a 및 도 55b에 도시되어 있는 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 태그 내의 데이터 및 대체 오디오 클립 엘리먼트(SBADCP) 태그 내의 데이터, 도 56a 및 도 56b에 도시되어 있는 고급 자막 세그먼트 엘리먼트(ADSTSG) 태그 내의 데이터 및 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내의 데이터에 대해 사용되는 시간 관련 정보에 관하여 도 53을 참조하여 설명한다.
본 실시예에서, 사용자에 대한 각각의 재생/표시 객체의 표시 타이밍은 타이틀 타임라인(TMLE) 상의 표시 시작 시간(TTSTTM) 및 종료 시간(TTEDTM)을 사용하여 재생 목록 파일(PLLST) 내에 기술되어 있다. 이때 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)은 재생 목록 파일(PLLST) 내의 객체 매핑 정보(OBMAPI) 내의 titleTimeBegin 속성 정보의 형태로 기술되어 있다. 게다가, 이와 마찬가지로, 타이틀 타임라인(TMLE) 상에서의 종료 시간(TTENTM)은 titleTimeEnd 속성 정보의 형태로 기술되어 있다. 본 실시예에서의 시작 시간(TTSTTM) 및 종료 시간(TTEDTM) 각각은 타이틀 타임라인(TMLE) 상에서의 카운트 수로서 나타낸다. 타이틀 타임라인(TMLE) 상의 시간을 나타내는 방법으로서, 타이틀 타임라인(TMLE) 상의 시작 시간으로부터의 경과 시간이 "HH:MM:SS:FF"로서 기술된다. 즉, 시간 표시 방법에서의 "HH"는 시간 단위를 의미하고, "00"에서 "23"까지의 값이 사용된다. 게다가, "MM"은 분 단위를 나타내고, "00"에서 "59"까지의 숫자가 사용된다. 또한, "SS"는 초 단위를 의미하며, "00"에서 "59"까지의 값이 사용된다. 게다가, "FF"는 프레임 레이트를 의미한다. 초당 50개 프레임(50 fps: PAL 시스템)인 경우, "00"에서 "49"까지의 카운트 수가 "FF"의 값으로서 사용되고, 이는 "FF"가 "50"에 도달할 때 1초로서 증가된다. 게다가, 프레임 레이트가 60 헤르쯔 시스템(60 fps: NTSC 시스템)인 경우, "00"에서 "59"까지의 값이 카운트 값으로서의 "FF"에 대해 사용된다. 이 경우에, "FF"의 값이 60에 도달할 때 1초가 경과된 것으로 간주되고, 초의 값으로의 캐리가 수행된다. 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)(titleTimeBegin)에서 재생되기 시작되는 재생/표시 객체(1차 고화질 비디오 객체 데이터(P-EVOB), 2차 고화질 비디오 객체 데이터(S-EVOB) 등)에서의 시작 위치는 고화질 비디오 객체 데이터(EVOB) 상에서의 시작 위 치(VBSTTM)(clipTimeBegin 속성 정보)서 나타내어진다. 고화질 비디오 객체 데이터(EVOB) 상에서의 시작 위치(VBSTTM)(clipTimeBegin 속성 정보)의 값은 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 비디오 스트림의 코드 프레임의 표시 시작 시간(표시 시간 스탬프 값)(PTS)에 기초하여 기술된다. 도 12에 도시한 바와 같이, 재생 목록 파일(PLLST)로부터 1차 비디오 세트의 타임 맵(PTMAP) 또는 2차 비디오 세트의 타임 맵(STMAP)을 참조하고, 그에 의해 타임 맵(PTMAP 또는 STMAP)을 통해 고화질 비디오 객체(EVOB)에 액세스한다. 타임 맵(PTMAP 또는 STMAP)은 지정된 시간 정보를 고화질 비디오 객체(EVOB) 내의 상대 어드레스 정보로 변환하는 데 사용된다. 따라서, 고화질 비디오 객체 데이터(EVOB) 상에서의 시작 위치(VBSTTM)(clipTimeBegin 속성 정보)의 값을 시간 정보인 표시 시작 시간(표시 시간 스탬프 값)(PTS)에 기초하여 지정하는 것에 의해 액세스 제어를 용이하게 해주는 효과를 달성할 수 있다.
게다가, 재생/표시 객체인 1차 비디오 세트(PRMVS)의 고화질 비디오 객체 데이터(P-EVOB) 또는 2차 비디오 세트(SCDVS)의 고화질 비디오 객체 데이터(S-EVOB)의 전체 재생 기간(OBTPT)이 정의된다. 본 실시예는 4가지 유형의 시간 정보에 대해 이하의 조건을 정의한다.
titleTimeBegin < titleTimeEnd
titleTimeEnd ≤ titleDuration
이들 조건을 제공함으로써 표시 시간의 오버플로우를 방지하고 시간 관리 제어의 용이성을 보장한다. 관계식에서의 titleDuration에 관한 속성 정보는 도 24a 및 도 24b에 도시하는 타이틀 엘리먼트 속성 정보(TTELEM)에 존재하고, 타이틀 타임라인(TMLE) 상에서의 전체 타이틀의 시간 길이 정보를 의미한다. 게다가, 본 실시예에서, clipTimeBegin + titleTimeEnd -titleTimeBegin ≤ 객체 데이터인 전체 재생 기간(OBTPT)의 조건도 설정되어 있다. 이 조건이 설정되어 있는 경우, 타이틀 타임라인(TMLE) 상에 지정되어 있는 재생 시간 범위가 고화질 비디오 객체 데이터(EVOB)의 전체 재생 기간(OBTPT)을 넘지 않으며, 따라서 안정된 재생/관리를 보장해준다. 1차 비디오 세트(PRMVS)의 고화질 비디오 객체 데이터(P-EVOB) 또는 2차 비디오 세트(SCDVS)의 고화질 비디오 객체 데이터(S-EVOB)에 관해서는, 상기한 바와 같이 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP) 또는 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)을 참조한다(도 12 참조). 고화질 비디오 객체 데이터(EVOB) 상의 시작 위치(VBSTTM)의 정보(clipTimeBegin 속성 정보)는 1차 비디오 세트(PRMVS)의 타임 맵 파일(PTMAP) 또는 2차 비디오 세트(SCDVS)의 타임 맵 파일(STMAP)을 참조함으로써 정보 저장 매체(DISC) 상에서의 재생이 시작되는 위치를 나타내는 물리적인 어드레스 정보로 변환된다. 그 결과, 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 정보 기록 및 재생 유닛(2) 내에 존재하는 광학 헤드(도시하지 않음)가 정보 저장 매체(DISC) 상의 지정된 어드레스 위치에 직접 액세스하고, 이것에 의해 고화질 비디오 객체 데이터(EVOB) 상의 시작 위치(VBSTTM)(clipTimeBegin 속성 정보)로부터 재생이 시작될 수 있다. 게다가, 재생/표시를 수행할 때, 고급 컨텐츠(ADVCT)의 비디오 타이틀 세트 정보 파일(ADVTSI)의 정보는 고급 컨텐츠 재생 유닛(ADVPL) 내의 디코더 엔진(DCDEN)의 여 러 가지 종류의 조건을 설정하는 데 이용될 수 있다.
객체 매핑 정보(OBMAPI)는 타이틀 타임라인(TMLE) 상에서의 여러 가지 재생/표시 객체 각각의 표시 유효 기간을 갖는다. 표시 유효 기간은 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)(titleTimeBegin)으로부터 타이틀 타임라인(TMLE) 상에서의 종료 시간(TTEDTM)(titleTimeEnd)까지의 기간을 의미한다. 타이틀 타임라인(TMLE) 상에서 객체 매핑 정보(OBMAPI)에 복수의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)가 기술되어 있는 경우에, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)는 타이틀 타임라인(TMLE) 상에서 서로 중첩해서는 안 된다. 즉, 본 실시예에서, 도 37에 도시한 바와 같이, 1차 오디오 비디오(PRMAV)에 대응하는 메인 비디오 디코더(MVDEC)가 하나밖에 존재하지 않는다. 따라서, 복수의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 표시 기간이 타이틀 타임라인(TMLE) 상에서 서로 중첩하는 경우, 메인 비디오 디코더 내에서 디코딩될 객체들은 서로 충돌하고, 이들은 안정되게 재생될 수 없다. 따라서, 상기 조건을 설정하는 것에 의해 사용자에 대한 표시 화면의 안정화를 보장할 수 있다. 이와 마찬가지로, 타이틀 타임라인(TMLE) 상에서 객체 매핑 정보(OBMAPI)에 복수의 2차 오디오 비디오 클립 엘리먼트(SCAVCP)를 기술하는 경우에는, 각각의 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 타이틀 타임라인(TMLE) 상에서 서로 중첩되어서는 안 된다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에 의해 관리되는 2차 오디오 비디오(SCDAV)는 도 10에 도시한 바와 같이 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)를 포함한다. 도 37에 도시한 바와 같이, 2차 오디오 비디오를 디코딩하는 서브 비디오 디코 더(SVDEC)가 단지 하나만 있기 때문에, 이들 엘리먼트가 중첩하는 경우, 서브 비디오 디코더(SVDEC)에 혼란이 일어난다. 따라서, 동화상을 안정되게 표시하기 위해 제한이 있다. 복수의 대체 오디오 클립 엘리먼트(SBADCP)가 객체 매핑 정보(OBMAPI) 상에 존재하는 경우, 각각의 대체 오디오 클립 엘리먼트(SBADCP)의 유효 기간은 타이틀 타임라인(TMLE) 상에서 서로 중첩되어서는 안 된다. 복수의 대체 오디오 비디오 클립 엘리먼트(SBAVCP)가 객체 매핑 정보(OBMAPI)에 존재하는 경우, 마찬가지로 각각의 대체 오디오 비디오 클립 엘리먼트(SBAVCP)의 유효 기간이 타이틀 타임라인(TMLE) 상에서 서로 중첩되어서는 안 된다. 게다가, 본 실시예에서, 타이틀 타임라인(TMLE) 상에서의 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 유효 기간은 타이틀 타임라인(TMLE) 상에서의 대체 오디오 비디오 클립 엘리먼트(SBAVCP)이 유효 기간과 중첩되어서는 안 된다. 게다가, 본 실시예에서, 마찬가지로, 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 및 대체 오디오 클립 엘리먼트(SBADCP)의 유효 기간은 타이틀 타임라인(TMLE) 상에서 서로 중첩되어서는 안 된다. 이들 조건을 설정하는 것에 의해 여러 가지 디코더 각각에서 표시되는 재생/표시 객체가 중첩하는 것을 방지할 수 있으며, 사용자에게 표시되는 화면의 안정성을 보장할 수 있다.
사용자에게 표시되는 화면의 안정성을 보장하는 다른 방법으로서, 본 실시예에서, 도 1에 도시하는 정보 기록 및 재생 유닛(2) 내에 존재하는 광학 헤드(도시 하지 않음)의 액세스 빈도를 감소시키기 위해 이하의 고안을 한다. 도 54a 및 도 54b, 도 55a 및 도 55b에서, 재생/표시 객체의 저장 위치(STCTMP)는 여러 가지 클 립 엘리먼트 태그 각각 내에서 src 속성 정보(소스 속성 정보)로서 기록되어 있다. 본 실시예에서, 타이틀 타임라인(TMLE) 상에서 중첩하는 유효 기간을 갖는 복수의 클립 엘리먼트에 기술되어 있는 src 속성 정보의 값이 정보 저장 매체(DISC) 내에 중복되게 설정되지 않도록 제한되어 있다. 즉, 복수의 클립 엘리먼트에 의해 지정된 재생/표시 객체의 유효 기간이 타이틀 타임라인(TMLE) 상에서 중첩되는 경우, 동일한 정보 저장 매체(DISC) 상에서의 액세스 빈도가 증가되고, 재생/표시 객체의 재생 시의 연속성이 보장될 수 없다. 따라서, 본 실시예에서, 상기한 조건이 설정되어 있을 뿐만 아니라, 이하의 고안이 행해진다. 즉, 상기 조건이 설정되어 있더라도 동일한 정보 저장 매체(DISC)에 저장되어 있는 복수의 재생/표시 객체의 표시 기간이 타이틀 타임라인(TMLE) 상에서 중첩하는 경우, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 이외의 클립 엘리먼트에 의해 관리되는 재생/표시 객체는 데이터 캐쉬(DTCCH) 내에 사전에 일시적으로 저장되고, 데이터 캐쉬로부터 데이터가 재생된다. 그 결과, 정보 저장 매체(DISC)에의 액세스의 빈도가 감소될 수 있고, 그에 의해 재생의 연속성을 보장할 수 있다.
본 실시예에서, 재생 목록 파일(PLLST)에 기술되어 있는 정보의 내용으로서, 도 23a의 (a)에 도시되어 있는 바와 같이 구조 정보(CONFGI), 매체 속성 정보(MDATRI) 및 타이틀 정보(TTINFO)가 있다. 도 23a의 (b)에 도시되어 있는 바와 같이, 타이틀 정보(TTINFO)는 첫 번째 재생 타이틀 엘리먼트(FPTELE), 각각의 타이틀에 관한 타이틀 엘리먼트 정보(TTELEM) 및 재생 목록 애플리케이션 엘리먼트(PLAELE)를 포함하며, 타이틀 엘리먼트 정보(TTELEM)는 도 23a의 (c)에 도시한 바와 같이, 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 트랙 내비게이션 정보(TRNAVI) 및 스케쥴링된 제어 정보(SCHECI)를 포함한다. 도 24b의 (c)에 도시되어 있는 바와 같이, 객체 매핑 정보(OBMAPI) 내에는 1차 오디오 비디오 클립 엘리먼트(PRAVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 대체 오디오 클립 엘리먼트(SBADCP), 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 고급 대체 세그먼트 엘리먼트(ADSTSG) 및 애플리케이션 세그먼트 엘리먼트(APPLSG)가 기록될 수 있다. 도 55b(c)는 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 상세한 데이터 구성을 나타낸 것이다. 도 54a(b)에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 태그 내의 데이터 구성은 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 ID 정보(PRAVID) 및 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 속성 정보(PRATRI)로 이루어져 있다. 도 54b의 (c)에 도시되어 있는 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 ID 정보(PRAVID)에 관해서는, "id="이 기술된 다음에, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)의 ID 정보(PRAVID)가 기술된다. 이와 마찬가지로, 도 54b(d)는 2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 구체적인 데이터 구성을 나타낸 것이다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 데이터 구성은 2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 ID 정보(SCAVID) 및 2차 오디오 비디오 클립 엘리먼트(SCAVCP)의 속성 정보(SCATRI)로 이루어져 있다.
<PrimaryAudioVideoClip(1차 오디오 비디오 클립) 엘리먼트>
PrimaryAudioVideoClip 엘리먼트는 1차 오디오 비디오에 대한 프리젠테이션 클립 엘리먼트이다.
PrimaryAudioVideoClip 엘리먼트는 1차 오디오 비디오의 객체 매핑 정보 및 1차 오디오 비디오의 기본 스트림의 트랙 번호 할당을 기술한다. PrimaryAudioVideoClip 엘리먼트는 P-EVOB 또는 P-EVOB의 인터리빙된 블록을 표시 객체로서 참조한다. PrimaryAudioVideoClip 엘리먼트는 타이틀 타임라인 내의 기간 상에서의 표시 객체의 매핑 및 P-EVOB 내의 기본 스트림의 트랙 번호 할당을 기술한다.
PrimaryAudioVideoClip 엘리먼트의 XML 신택스 표현:
<PrimaryAudioVideoClip
id = ID
dataSource = (Disc)
titleTimeBegin = timeExpression
clipTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
seamless = (true | false)
description = string
>
Video *
Audio *
Subtitle *
SubVideo ?
SubAudio *
</PrimaryAudioVideoClip>
src 속성은 P-EVOB를 기술하거나 P-EVOB의 인터리빙된 블록은 이 엘리먼트에 의해 표현된다. titleTimeBegin 및 titleTimeEnd 속성은 각각 P-EVOB(또는 P-EVOB의 인터리빙된 블록)의 유효 기간의 시작 시간 및 종료 시간을 기술한다. clipTimeBegin 속성은 P-EVOB의 시작 위치를 기술한다.
PrimaryAudioVideoClip의 내용은 P-EVOB 내의 기본 스트림에 대한 트랙 번호 할당을 기술하는 Video 엘리먼트, Audio 엘리먼트, Subtitle 엘리먼트, SubVideo 엘리먼트 및 SubAudio 엘리먼트의 리스트이다.
PrimaryAudioVideoClip 엘리먼트는 P-EVOB의 인터리빙된 블록을 참조하는 경우, Video 엘리먼트는 P-EVOB의 인터리빙된 블록의 이용가능한 앵글 번호에 대한 트랙 번호 할당을 기술하고, 인터리빙된 블록 내의 P-EVOB에 앵글 번호가 할당되어야 한다. 그렇지 않은 경우, 대체로 하나의 Video 엘리먼트가 존재할 수 있으며, Video 엘리먼트의 앵글 번호 속성은 "1"이어야 하고, P-EVOB의 VM_PCK 내의 비디오 스트림은 비디오 트랙 번호 '1'에 할당되어야 한다.
Audio 엘리먼트는 P-EVOB의 AM_PCK 내의 어느 오디오 스트림이 이용가능하고 오디오 트랙 번호에 할당되어 있는지를 기술한다.
Subtitle 엘리먼트는 P-EVOB의 SP_PCK 내의 어느 서브-픽처 스트림이 이용가 능하고 자막 트랙 번호에 할당되어 있는지를 기술한다.
SubAudio 엘리먼트는 P-EVOB의 AS_PCK 내의 어느 서브 오디오 스트림이 이용가능하고 서브 오디오 트랙 번호에 할당되어 있는지를 기술한다.
SubVideo 엘리먼트는 P-EVOB의 AV_PCK 내의 서브 비디오 스트림의 이용가능성을 기술한다. SubVideo 엘리먼트가 기술되어 있는 경우, P-EVOB의 서브 비디오 스트림이 활성화되고 서브 비디오 번호 '1'에 할당된다.
(a) dataSource 속성
표시 객체의 데이터 소스를 기술한다. 값이 'Disc'인 경우, P-EVOB는 디스크 내에 있어야 한다. dataSource 속성이 표시되지 않은 경우, dataSource는 'Disc'이어야 한다.
(b) titleTimeBegin 속성
타이틀 타임라인 상에서의 표시 객체의 연속적인 단편의 시작 시간을 기술한다. 이 값은 Datatypes에 기술되어 있는 timeExpression에 기술되어 있어야 한다.
(c) titleTimeEnd 속성
타이틀 타임라인 상에서의 표시 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값으로 기술되어야 한다.
(d) clipTimeBegin 속성
표시 객체 내의 시작 위치를 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값으로 기술되어야 한다. 이 속성값은 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된 프레임의 표시 시작 시간(PTS)이어야 한다. clipTimeBegin은 생략될 수 있다. clipTimeBegin 속성이 표시되지 않은 경우, 시작 위치는 '00:00:00:00'이 되어야 한다.
(e) src 속성
참조될 표시 객체의 인덱스 정보 파일의 URI를 기술한다.
(f) seamless 속성
seamless 플래그를 기술한다. 값이 'true'인 경우, 이것 및 이것 바로 앞에 매핑된 것은 seamless 조건을 만족한다. seamless 조건이 만족되지 않는 경우 값은 'false'가 된다. 이 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(g) description 속성
사람에게 친숙한 텍스트 형식으로 부가의 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 18에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트는 1차 오디오 비디오(PRMAV)에 관한 재생/표시 클립 엘리먼트를 의미한다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에는 1차 오디오 비디오(PRMAV)의 객체 매핑 정보(OBMAPI) 및 1차 오디오 비디오(PRMAV)의 트랙 번호 할당 정보의 내용이 기술되어 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에는 재생/표시 객체로서 1차 고화질 비디오 객체(P-EVOB) 또는 1차 고화질 비디오 객체(P-EVOB)의 인터리빙된 블록에 관한 재생 및 표시 관리 정보가 기술되어 있다. 게다가, 객체 매핑 정보(OBMAPI) 내에는 타이틀 타임라인(TMLE) 상에서의 재생/표시 객체(1차 고화질 비디오 객 체(P-EVOB))의 매핑 상태(도 17의 객체 매핑 정보(OBMAPI)의 일부 참조) 및 1 고화질 비디오 객체(P-EVOB) 내의 여러 가지 종류의 기본 스트림에 관한 트랙 번호 할당 정보가 기술되어 있다. 도 54b(c) 및 (d)에 있어서의 "src 속성 정보(소스 속성 정보)"는 1차 오디오 비디오 클립(PRAVCP)에 의해 관리되는 재생/표시 객체(1차 오디오 비디오(PRMAV)의 1차 고화질 비디오 객체 데이터(P-EVOB))에 대한 인덱스 정보 파일의 저장 위치(SRCTMP) 또는 2차 오디오 비디오 클립(SCAVCP)에 의해 관리되는 재생/표시 객체(2차 오디오 비디오(SCDAV)의 2차 고화질 비디오 객체(S-EVOB))에 대한 인덱스 정보 파일(2차 비디오 세트의 타임 맵 파일(STMAP))의 저장 위치(SCRTMP)를 의미한다. 인덱스 정보 파일의 저장 위치(SRCTMP)는 URI(uniform resource identifier) 포맷에 따라 기술된다.
본 실시예에서, 도 54b의 (c)에 나타내는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에서 참조되어야 하는 재생/표시 객체의 인덱스 정보의 저장 위치(SRCTMP)는 상기한 내용으로 제한되지 않으며, 1차 고화질 비디오 객체 데이터(P-EVOB) 또는 1차 고화질 비디오 객체 데이터(P-EVOB)의 인터리빙된 블록에 대응하는 인덱스 정보 파일(1차 비디오 세트의 타임 맵(PTMAP) 또는 2차 비디오 세트의 타임 맵(STMAP))의 저장 위치를 설정하는 것도 가능하다. 즉, 도 18에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에서 재생/사용될 때 인덱스로서 표시되는 파일 이름은 1차 비디오 세트의 타임 맵 파일(PTMAP)이고, 1차 비디오 세트의 타임 맵 파일(PTMAP)이 기록되는 위치가 "src 속성 정보"에 기록된다. 도 53에 도시한 바와 같이, 타이틀 타임라인(TMLE) 상에서의 시작 시 간(TTSTTM)(titleTimeBegin 속성 정보) 및 타이틀 타임라인(TMLE) 상에서의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)는 각각 1차 고화질 비디오 객체 데이터(P-EVOB) 또는 1차 고화질 비디오 객체 데이터(P-EVOB)(의 인터리빙된 블록)의 유효 기간의 시작 시간 및 종료 시간을 나타낸다. 게다가, 고화질 비디오 객체 데이터(EVOB)에서의 시작 위치(VBSTTM)(clipTimeBegin 속성 정보)는 1차 비디오 세트(PRMVS) 내의 1차 고화질 비디오 객체 데이터(P-EVOB)의 시작 위치(VBSTTM)를 의미하고, 이는 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 존재하는 비디오 스트림의 표시 시작 시간(표시 시간 스탬프 값)(PTS)으로서 나타내어진다(도 53 참조). 3가지 유형의 시간 정보는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 "HH:MM:SS:FF"로서 나타내어지고, "시간:분:초:필드(프레임의 수)"의 형태로 기술된다. 도 10에 도시하는 바와 같이, 1차 오디오 비디오(PRMAV)는 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD) 및 서브-픽처(SUBPT)를 포함한다. 이 구조에 따르면, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)는 메인 비디오 엘리먼트(MANVD), 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD) 및 서브 오디오 엘리먼트(SUBAD)의 리스트로 이루어져 있다. 게다가, 이 리스트는 또한 1차 고화질 비디오 객체 데이터(P-EVOB)에서의 트랙 번호 할당 정보(각각의 기본 스트림에 대한 트랙 번호 설정 정보)도 포함한다. 본 실시예에서, 멀티-앵글 등에 대응하는 각각의 앵글에 대한 복수의 화상 정보 세트가 존재하고 정보 저장 매체(DISC)에 기록되어 있는 경우, 1차 고화질 비디오 객체 데이터의 정보는 인터리빙된 블록의 형태로 저장된다. 인터리빙된 블록을 구성하고 있는 1차 고화질 비디오 객체 데이터(P-EVOB)에 대하여 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에 의해 관리 정보가 기록되어 있는 경우에, 트랙 번호 할당(트랙 번호) 설정 방법은 인터리빙된 블록 내에 표시될 수 있는 앵글 번호 정보에 관하여 메인 비디오 엘리먼트(MANVD) 내에 기술되어 있다. 즉, 후술하는 바와 같이, 메인 비디오 엘리먼트에 대응하는 태그 정보 내에 앵글 번호(도 59c의 (c)에 도시되어 있는 인터리빙된 블록에서 선택되는 앵글 번호 정보(ANGLNM)(angleNumber 속성 정보))가 정의되어 있고, 메인 비디오 엘리먼트(MANVD)의 태그 정보 내에 표시되어야 하는 앵글 번호를 연관시키는 것이 가능하다. 메인 오디오 엘리먼트(MANAD)는 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 어느 오디오 스트림(AM_PCK)이 재생될 수 있는지를 나타내며, 이러한 스트림은 오디오 트랙 번호에 기초하여 설정된다. 게다가, 자막 엘리먼트(SBTELE)는 고화질 비디오 객체 데이터(P-EVOB) 내의 어느 서브-픽처 스트림(SP_PCK)이 재생될 수 있는지를 나타내고, 이 스트림은 자막 트랙 번호에 기초하여 설정된다. 게다가, 서브 오디오 엘리먼트(SUBAD)는 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 어느 서브-픽처 스트림(SP_PCK)이 재생될 수 있는지를 나타내고, 이 스트림은 서브 오디오 트랙 번호에 기초하여 설정된다. 게다가, 서브 비디오 엘리먼트(SUBVD)는 또한 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 서브-비디오 스트림(VS_PCK)의 표시 가능성을 나타낸다. 서브 비디오 엘리먼트(SUBVD)가 재생 목록 파일(PLLST) 내의 객체 매핑 정보(OBMAPI) 내에 기술되어 있는 경우, 1차 비디오 세트(PRMVS)의 고화질 비디오 객체 데이터(P-EVOB) 내의 서브 비디오 스트림은 재생될 수 있다. 이러 한 경우에, 이 스트림은 서브 비디오 번호 "1"로 설정된다.
이제부터 1차 오디오 비디오 클립 엘리먼트 속성 정보(PRATRI) 내의 데이터에 관하여 설명한다. 도 54b의 (c)에 도시한 바와 같이, 각각의 정보는 "dataSource=", "titleTimeBegin=", "c1ipTimeBegin=", "titleTimeEnd=", "src=", "seamless=" 및 "description="의 직후에 기술되어 있다. 도 18에 도시한 바와 같이, 1차 오디오 비디오(RRMAV)는 정보 저장 매체(DISC) 내에 기록되어 있다. 이 구조에 따르면, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서, "Disc"가 기술되어야만 한다. "Disc"가 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 기록되어 있는 경우, 대응하는 1차 오디오 비디오(PRMAV)의 1차 고화질 비디오 객체 데이터(P-EOVB)가 정보 저장 매체(DISC) 내에 기록된다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 기재가 1차 오디오 비디오 클립 엘리먼트 내에서 생략될 수 있다. 그렇지만, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 정보가 기술되어 있지 않은 경우에, 재생/표시 객체가 기록되어 있는 대응하는 데이터 소스(DTSORC)에 관해 정보 "Disc"가 기술되어 있는 것으로 간주된다. 게다가, 도 53에 도시한 바와 같이, 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)(titleTimeBegin) 및 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)(clipTimeBegin)는 시간축 상에서 서로 동기된 시간을 나타낸다. 즉, "HH:MM:SS:FF"의 표기 방법에 기초하여 프레임 카운트 수로 표현되는 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)(titleTimeBegin)과 표시 시작 시간(표시 시간 스탬프 값)(PTS)으로서 표시되는 고화질 비디오 객체 데이 터(EVOB) 내의 시작 위치(VBSTTM) 간의 대응 관계가 상기한 정보로부터 획득될 수 있다. 따라서, 상기한 관계를 이용하여 타이틀 타임라인(TMLE) 상에서의 시작 시간(TTSTTM)(titleTimeBegin)으로부터 타이틀 타임라인(TMLE) 상에서의 종료 시간(TTEDTM)(titleTimeEnd)까지의 유효 기간 내의 타이틀 타임라인(TMLE) 상에서의 임의의 시간을 고화질 비디오 객체 데이터(EVOB)의 비디오 스트림 내의 표시 시작 시간(표시 시간 스탬프 값)(PTC)으로 변환할 수 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에서, 고화질 비디오 객체 데이터(EVOB) 내의 시작 위치(VBSTTM)(clipTimeBegin)의 정보가 생략될 수 있다. 고화질 비디오 객체 데이터(EVOB) 내의 시작 시간(VBSTTM)(clipTimeBegin)의 기재가 생략된 경우에, 1차 비디오 세트(PRMVS) 내의 1차 고화질 비디오 객체 데이터 파일(P-EVOB)의 선두 위치로부터 재생이 시작된다. 본 실시예에서, PrimaryAudioVideoClip에 관한 부가 정보의 기재가 1차 오디오 비디오 클립 엘리먼트 태그 내에서 생략될 수 있다. 게다가, seamless 플래그 정보(seamless 속성 정보)는 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에 의해 관리되는 1차 오디오 비디오(PRMAV)의 매끄러운 재생(중단이 없는 연속적인 재생)이 보장될 수 있는지 여부를 나타내는 정보를 의미한다. 이 값이 "true"인 경우, 이것은 재생 직전에 타이틀 타임라인(TMLE) 상에 매핑된 1차 오디오 비디오(PRMAV)의 재생이 1차 오디오 비디오 클립 엘리먼트(PRAVCP)에 의해 관리되는 다른 1차 오디오 비디오(PRMAV)의 재생으로 직접 전환되는 경우에 이들 화상 간의 경계에서 중단되는 일 없이 화상의 연속적인 원활한 재생이 수행될 수 있음을 보장한다. 게다가, 이 값이 "false"인 경우, 이것은 경계에서의 연속적인 재 생(seamless 조건)이 만족되지 않음을 의미한다. seamless 플래그 정보(SEAMLS)(seamless 속성 정보)의 기재가 생략될 수 있다. 이러한 경우에, 디폴트값인 "false" 값이 자동으로 설정된다.
본 실시예는 객체 매핑 정보(OBMAPI) 내의 각각의 엘리먼트 태그에 기술된 정보가 모두 똑같이 최상단 위치에 배치되어 있는 "ID = ID 정보"로 기술되어 있는 것(도 55a 및 도 55b, 도 56a 및 도 56b 참조)을 특징으로 한다. 그 결과, 복수의 동일한 클립 엘리먼트가 동일한 객체 매핑 정보(OBMAPI) 내에 설정될 수 있을 뿐만 아니라(동일한 클립 엘리먼트가 "ID 정보"에 기초하여 서로 식별될 수 있을 뿐만 아니라), 각각의 클립 엘리먼트도 재생 목록 관리자(PLMNG)(도 28 참조)를 사용하여 용이하게 식별될 수 있고, 그에 의해 재생이 시작되기 이전의 시동 시간을 단축시키는 효과를 달성할 수 있다. 게다가, 도 82에 도시되어 있는 바와 같이, "ID 정보"는 API 명령에 기초하여 필요한 클립 엘리먼트를 지정하는 데 사용될 수 있고, 그에 의해 API 명령 처리를 용이하게 해준다. 이와 동시에, 본 실시예는 또한 객체 매핑 정보(OBMAPI) 내의 각각의 클립 엘리먼트 태그 내에 기술된 모든 정보에서, "description = 부가 정보"가 마지막 위치에 기술되어 있는 것(도 55a 및 도 55b/도 56a 및 도 56b 참조)에 특징이 있다. 그 결과, 재생 목록 관리자(PLMNG)(도 28 참조)에 의한 각각의 클립 엘리먼트에 대한 "부가 정보"의 검색을 용이하게 해준다는 효과가 달성될 수 있다. 게다가, 본 실시예에서, 객체 매핑 정보(OBMAPI) 내의 각각의 클립 엘리먼트 태그 내에 기술되는 정보에서는 클립 엘리먼트 태그의 유형에 관계없이 "titleTimeBegin=[타이틀 타임라인 상의 시작 시 간(TTSTTM)이 최초로 기술되고, "tit1eTimeEnd=[타이틀 타임라인 상의 종료 시간(TTEDTM)이 이 데이터 뒤에 배치되어 있으며, 그에 의해 "clipTimeBegin=[고화질 비디오 객체 데이터에서의 선두 위치로부터의 시작 시간(VBSTTM)]"이 각각의 클립 엘리먼트 태그에 따라 이들 기재 사이에 삽입되어 배치될 수 있다. 3가지 유형의 시간 정보에 대한 기재 순서는 이와 같이 모든 클립 엘리먼트 태그에서 똑같이 사용되며, 그에 의해 재생 목록 관리자(PLMNG)(도 28 참조)에 의한 각각의 클립 엘리먼트 내에서의 관련 정보의 검색의 용이화 및 고속화를 달성할 수 있다.
<SecondaryAudioVideoClip(2차 오디오 비디오 클립) 엘리먼트>
SecondaryAudioVideoClip 엘리먼트는 2차 오디오 비디오에 대한 프리젠테이션 클립 엘리먼트이다. 2차 오디오 비디오는 서브 오디오 및 서브 비디오를 포함하는 2차 비디오 세트의 S-EVOB이다.
SecondaryAudioVideoClip 엘리먼트는 타이틀 내의 2차 오디오 비디오의 객체 매핑 정보, 및 2차 오디오 비디오의 S-EVOB 내의 기본 스트림의 트랙 번호 할당을 기술한다.
2차 오디오 비디오는 디스크 컨텐츠, 네트워크 스트리밍, 또는 영속적 저장 장치나 파일 캐쉬 상의 사전 다운로드된 컨텐츠일 수 있다.
SecondaryAudioVideoClip 엘리먼트의 XML 신택스 표현:
<SecondaryAudioVideoClip
id = ID
dataSource = (Disc | P-Storage | Network | File Cache)
titleTimeBegin = timeExpression
clipTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
preload = timeExpression
sync = (hard | soft | none)
noCache = (true | false)
description = string
>
NetworkSource *
SubVideo ?
SubAudio *
</SecondaryAudioVideoClip>
src 속성은 2차 오디오 비디오의 어느 S-EVOB가 이 엘리먼트로 표시되는지를 기술한다. titleTimeBegin 및 titleTimeEnd 속성은 각각 S-EVOB의 유효 기간의 시작 시간 및 종료 시간을 기술한다. clipTimeBegin 속성은 S-EVOB의 시작 위치를 기술한다.
2차 오디오 비디오는 1차 비디오 세트 내의 서브 비디오 및 서브 오디오와 배타적으로 사용될 수 있다. 따라서, SecondaryAudioVideoClip 엘리먼트의 유효 기간에서, 1차 비디오 세트 내의 서브 오디오 및 서브 비디오가 비활성인 것으로 취급된다.
SecondaryAudioVideoClip 엘리먼트의 내용은 S-EVOB 내의 기본 스트림에 대한 트랙 번호 할당을 기술하는 SubVideo 엘리먼트 및 SubAudio 엘리먼트로 이루어져 있다. SubVideo 엘리먼트 또는 SubAudio 엘리먼트 중 적어도 하나는 기술되어 있다.
서브 비디오 트랙 번호는 '1'이다.
SubVideo 엘리먼트를 갖는 SecondaryAudioVideoClip 엘리먼트가 존재하는 경우, S-EVOB의 VS_PCK 내의 서브 비디오 스트림은 이용가능하고 2차 비디오 디코더에 의해 디코딩된다.
SubAudio 엘리먼트를 갖는 SecondaryAudioVideoClip 엘리먼트가 존재하는 경우, S-EVOB의 AS_PCK 내의 서브 오디오 스트림이 이용가능하고 2차 오디오 디코더에 의해 디코딩된다.
NetworkSource 엘리먼트는 dataSource 속성값이 'Network'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우에만 이 엘리먼트 내에 표시될 수 있다. NetworkSource 엘리먼트는 네트워크 처리용량 설정에 따라 선택되는 스트리밍 소스를 기술한다.
(a) dataSource 속성
프리젠테이션 객체의 데이터 소스를 기술한다. 값이 'Disc'인 경우, S-EVOB는 디스크 내에 있어야 한다. 값이 'P-Storage'인 경우, S-EVOB는 사전-다운로드된 컨텐츠로서 영속적 저장 장치 내에 있어야 한다. 값이 'Network'인 경우, S- EVOB는 네트워크 서버로부터 스트리밍으로서 공급되어야 한다. 값이 'FileCache'인 경우, S-EVOB는 파일 캐쉬 내에 공급되어 있어야 한다. dataSource 속성이 표시되어 있지 않은 경우, dataSource는 'P-Storage'이어야 한다.
(b) titleTimeBegin 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(c) titleTimeEnd 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(d) clipTimeBegin 속성
프리젠테이션 객체에서의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다. 이 속성값은 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된 프레임의 표시 시작 시간(PTS)이어야 한다. clipTimeBegin은 생략될 수 있다. clipTimeBegin 속성이 표시되어 있지 않은 경우, 시작 시간은 '00:00:00:00'이 되어야 한다.
(e) src 속성
참조될 프리젠테이션 객체의 인덱스 정보 파일의 URI를 기술한다.
(f) preload 속성
플레이어가 프리젠테이션 객체를 프리페치(prefetch)하기 시작하는, 타이틀 타임라인 상의 시간을 기술한다. 이 속성은 생략될 수 있다.
(g) sync 속성
sync 속성값이 'hard'인 경우, 2차 오디오 비디오는 하드-동기된 객체이다. sync 속성값이 'soft'인 경우, 2차 오디오 비디오는 소프트-동기된 객체이다. sync 속성값이 'none'인 경우, 2차 오디오 비디오는 비동기된 객체이다. 이 속성은 생략될 수 있다. 디폴트값은 'soft'이다.
(h) noCache 속성
noCache 속성값이 'true'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브가 프리젠테이션 객체에 대한 HTTP 요청 내의 Cache-Control 및 Pragma 둘 다 내에 포함되어 있어야 한다. noCache 속성값이 'false'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브는 Cache-Control이나 Pragma 헤더에 포함되어서는 안 된다. dataSource 속성값이 'Network'가 아닌 경우, noCache 속성은 없어야 한다. noCache 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(i) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 이하에서 도 54b의 (d)에 도시하는 2차 오디오 비디오 클립 엘리 먼트(SCAVCP)에서의 데이터 구성에 관하여 설명한다. 도 18에 도시한 바와 같이, 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 2차 오디오 비디오(SCDAV)에 대한 재생/표시 클립 엘리먼트를 나타낸다. 2차 오디오 비디오(SCDAV)는 2차 비디오 세트(SCDVS)의 2차 고화질 비디오 객체 데이터(S-EVOB) 내에 존재하고, 서브 비디오 스트림(SUBVD) 및 서브 오디오 스트림(SUBAD)을 포함한다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 2차 오디오 비디오(SCDAV)의 객체 매핑 정보(OBMAPI)를 나타낸다. 동시에, 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 또한 2차 오디오 비디오(SCDAV)의 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 각각의 기본 스트림의 트랙 번호 할당 정보를 나타낸다. 도 18에 도시한 바와 같이, 2차 오디오 비디오(SCDAV)는 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV) 및 파일 캐쉬(FLCCH) 내에 기록되어 있을 수 있다. 따라서, 2차 오디오 비디오(SCDAV)는 정보 저장 매체(DISC) 또는 네트워크 서버(NTSRV) 내에 기록되어 있을 뿐만 아니라 영속적 저장 장치(PRSTR) 또는 파일 캐쉬(FLCCH) 내에 사전에 다운로드되어 있을 수 있다. 도 54b의 (d)에 도시하는 SRC 속성 정보(소스 속성 정보)는 2차 고화질 비디오 객체 데이터(S-EVOB)에 관한 인덱스 정보 파일의 저장 위치(SRCTMP)를 나타낸다. 도 18에 도시하는 바와 같이, 2차 오디오 비디오(SCDAV)를 재생/사용할 때 인덱스로서 참조되는 파일(인덱스 정보 파일)은 2차 비디오 세트 내이 타임 맵 파일(STMAP)을 의미한다. 게다가, 타이틀 타임라인 상에서의 시작 시간(TTSTTM)(titleTimeBegin) 및 타이틀 타임라인 상에서의 종료 시간(TTEDTM)(titleTimeEnd)은 각각 2차 고화질 비디오 객체 데이터(S-EVOB)의 유효 기간에서의 시작 시간 및 종료 시간을 나타낸다. 게다가, 도 53에 도시하는 바와 같이, 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)(clipTimeBegin)는 시간 정보 형태의 2차 고화질 비디오 객체 데이터(S-EVOB)의 시작 위치를 나타낸다. 3가지 유형의 시간 정보도 마찬가지로 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에서의 "HH:MM:SS:FF"인 "시간:분:초:필드(프레임의 수)"의 형태로 표현된다. 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 1차 오디오 비디오 세트 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)에 대해 선택적으로 사용되며, 이들은 동시에 재생될 수 없다. 서브 비디오(SUBVD) 또는 서브 오디오(SUBAD) 중 하나만이 재생될 수 있다. 따라서, 객체 매핑 정보(OBMAPI)에서, 타이틀 타임라인(TMLE) 상에서의 1차 비디오 세트(PRMVS) 내의 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)의 유효 기간, 및 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에 기술되어 있는 유효 기간은 이들 유효 기간이 타이틀 타임라인(TMLE) 상에서 서로 중첩되지 않도록 배치되어야 한다. 이와 같이 객체 매핑 정보(OBMAPI) 상에 제한을 설정하는 것에 의해 고급 컨텐츠 재생 유닛에서의 재생/표시 처리의 충돌을 피할 수 있고 사용자에게 화상을 안정되게 표시할 수 있다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)는 서브 비디오 엘리먼트(SUBVD) 및 서브 오디오 엘리먼트(SUBAD)를 포함한다. 게다가, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내의 서브 비디오 엘리먼트(SUBVD) 및 서브 오디오 엘리먼트(SUBAD)는 2차 비디오 세트 고화질 비디오 객체 데이터(S-EVOB) 내의 각각의 기본 스트림에 대한 트랙 번호 할당 정보를 나타낸다. 도 10에 도시한 바와 같이, 서브 비디오(SUBVD) 및 서브 오디오(SUBAD)는 2차 오디오 비디오(SCDAV) 내에 포함될 수 있다. 반면에, 본 실시예에서, 적어도 하나의 서브 비디오 엘리먼트(SUBVD) 또는 하나의 서브 오디오 엘리먼트(SUBAD)만이 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술될 수 있다. 게다가, 본 실시예에서, 서브 비디오 트랙 번호 및 서브 오디오 트랙 번호 둘 다에 "1"이 설정되어야만 한다. 서브 비디오 엘리먼트(SUBVD)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술되어 있는 경우, 이것은 서브 비디오 스트림이 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 VS_PCK(2차 비디오 팩) 내에 존재하는 것을 의미하고, 서브 비디오 스트림은 2차 비디오 레코더(도 37 참조)에 의해 레코딩 처리되어야만 한다. 게다가, 마찬가지로, 서브 오디오 엘리먼트(SUBAD)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술되어 있는 경우, 이것은 서브 오디오 스트림이 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 AS_PCK(2차 오디오 팩) 내에 포함되어 있는 것을 의미하고, 이 서브 오디오 스트림은 2차 비디오 플레이어(SCDVP)에 대응하는 디코더(도 37 참조)에 의해 레코딩 처리되어야만 한다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)를 나타내는 데이터 소스 속성 정보의 내용은 네트워크 서버(NTSRV)를 의미한다. "dataSource= Network"가 기술되어 있는 경우, 네트워크 소스 엘리먼트(NTSELE)는 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술되어 있어야만 한다. 게다가, 이때 참조되어야 하는 표시/재생 객체의 인덱스 정보 파일 저장 위치(SCRTMP)를 나타내는 src 속성 정보의 값으로서, "http" 또는 "https"로부터 시작하는 주소 정보의 값이 기술되어 있어야만 한다. 네트워크의 처리용량(데이터 전송 레이트)에 따라 선택되어야만 하는 스트리밍 소스의 내용은 네트워크 소스 엘 리먼트(NTSELE)에 기술되어 있다. 그 결과, 사용자의 네트워크 환경(네트워크 전송 속도)에 따라 최적의 화상 정보가 사용자에게 제공될 수 있다는 효과가 달성될 수 있다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 내용이 기술되어 있는 데이터 소스 속성 정보의 중에서 "dataSource="의 뒤에 "Disc", "P-Storage", "Network" 또는 "FileCache" 중 어느 하나의 정보가 기술된다. 이 값으로서 "Disc"이 기술되어 있는 경우, 2차 고화질 비디오 객체 데이터(S-EVOB)는 정보 저장 매체(DISC) 내에 기록되어 있어야 한다. 이 값이 "P-Storage"로서 기술되어 있는 경우, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)가 영속적 저장 장치(PRSTR) 내에 기록되어 있음을 의미한다. 데이터 소스 속성 정보로서 "Network"가 기술되어 있는 경우, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)가 네트워크 서버(NTSRV)로부터 공급되는 스트리밍임을 의미한다. 게다가, 데이터 소스 속성 정보의 값으로서 "FiIeCache"가 기술되어 있는 경우, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)의 정보가 파일 캐쉬(FLCCH) 내에 저장되어 있음을 의미한다. 본 실시예에서, src(소스) 속성 정보의 기술이 생략될 수 있지만, 이러한 경우에 디폴트값인 "P-Storage"의 값이 자동으로 설정된다(이는 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)는 영속적 저장 장치(PRSTR) 내에 저장되어 있음을 의미한다).
본 실시예에서, 고화질 비디오 객체 데이터 내의 시작 위치(VBSTTM)(clipTimeBegin)의 정보의 기재가 생략될 수 있다. 고화질 비디오 객체 데이터 내의 시작 위치(VBSTTM)(clipTimeBegin)의 정보의 기재가 생략되어 있는 경 우, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)의 선두 위치로부터 재생이 시작되는 것을 의미한다. 참조되어야 하는 재생/표시 객체의 인덱스 정보 파일 저장 위치(SRCTMP)가 URI(uniform resource identifier)의 형태로 기록되어 있는 src 속성 정보에 정보가 기술되어 있다. 도 12 또는 도 18에 도시되어 있는 바와 같이, 2차 고화질 비디오 객체(S-EVOB)에 대해서는 재생 목록 파일(PLLST)로부터 2차 비디오 세트 내의 타임 맵 파일(STMAP)이 참조된다. 따라서, 본 실시예에서, 참조되어야 하는 재생/표시 객체의 인덱스 파일 정보의 저장 위치(SRCTMP)는 2차 비디오 세트 내의 타임 맴 파일(STMAP)의 저장 위치를 의미한다. 이어서, 재생/표시 객체의 가져오기가 시작되는 타이틀 타임라인 상에서의 시간(PRLOAD)의 정보(preload 속성 정보)는 고급 컨텐츠 재생 유닛(ADVPL)이 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인(TMLE) 상에서의 시간을 나타낸다(도 35a 참조). 게다가, 본 실시예에서, 이 정보의 기재가 생략될 수 있다. 게다가, 재생/표시 객체의 동기 속성 정보(SYNCAT)를 나타내는 sync(동기) 속성 정보의 값으로서, 2차 오디오 비디오 클립 엘리먼트 태그(SCAVCP) 내에는 "hard", "soft", "none"의 3가지 유형 중 하나를 선택할 수 있다. 이 값으로서 "hard"를 선택한 경우에는, 이것은 2차 오디오 비디오(SCDAV)가 하드 동기 객체임을 의미한다. 이 값이 설정되면, 대응하는 2차 오디오 비디오(SCDAV)의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)이 되어도 데이터 캐쉬(DTCCH) 내에 2차 오디오 비디오(SCDAV)의 로딩이 완료하지 않는 경우에는, 일시적으로 타이틀 타임라인(TMLE) 상에서의 시간 진행을 정지되고(사용자에 대하여 화면 정지 상태가 표시되는 기간 ), 로딩 종료 후에 타이틀 타임라인(TMLE) 상에서의 시간 진행이 재시작된다. 또한, 동기 속성 정보(src 속성 정보)의 값이 "soft"인 경우에는, 이것은 소프트 동기 객체를 의미한다. 이 값이 설정되면, 대응하는 2차 오디오 비디오(SCDAV)의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTiIneBegin)이 되어도 데이터 캐쉬(DTCCH) 내에 2차 오디오 비디오(SCDAV)의 로딩이 완료하지 않는 경우에는, 2차 오디오 비디오(SCDAV)를 표시하지 않고 타이틀 타임라인(TMLE) 상의 시간 진행이 진행하고, 로딩이 완료한 후에만 (타이틀 타임라인 상의 시작 시간(TTSTTM)보다 뒤의 시간에) 2차 오디오 비디오(SCDAV)의 재생이 시작된다. sync 속성 정보가 "none"인 경우에는, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)가 타이틀 타임라인(TMLE)와 동기하지 않고, 비동기의 상태로 재생이 수행됨을 의미한다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 태그 내에서 sync 속성 정보(SYNCAT)의 기술이 생략될 수 있고, 이 기술이 생략되는 경우, sync 속성 정보 값은 디폴트값인 "soft"로 설정된다. no-cache 속성 정보(NOCACH)를 나타내는 no-cache 속성 정보는 "true" 또는 "false"의 어느 하나인 값이 기술된다. no-cache 속성 정보(NOCACH)는 HTTP의 통신 프로토콜에 관한 정보이다. 이 값이 "true"의 경우에는, 이것은 HTTP의 GET 요청 메시지 내에 Cash-Control 헤더와 Pragma 헤더가 포함되어야만 함을 의미한다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에 관한 부가 정보를 나타내는 discription 속성 정보 내에는, 사용자가 종종 사용하는 텍스트 포맷으로 데이터가 기술되어 있다. 부가 정보의 기술은 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에서 생략될 수 있다.
도 23a의 (a)에 도시한 바와 같이, 재생 목록 파일(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI), 타이틀 정보(TTINFO)가 존재한다. 도 23a의 (b)에 도시한 바와 같이, 타이틀 정보(TTlNFO) 내에는 하나 이상의 타이틀 각각에 대해 타이틀 엘리먼트 정보(TTELEM)가 존재한다. 도 23a의 (c)에 도시한 바와 같이, 하나의 타이틀에 대응하는 타이틀 엘리먼트 정보(TTELEM) 내에는 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 트랙 내비게이션 정보(TRNAVI), 및 스케쥴링된 제어 정보(SCHECI)가 존재한다. 도 55a 및 도 55b에 도시한 바와 같이, 객체 매핑 정보(OBMAPI) 내에는 대체 오디오 비디오 클립 엘리먼트(SBAVCP)와 대체 오디오 클립 엘리먼트(SBADCP)가 존재한다. 이제부터, 도 55b의 (c)에 도시되어 있는 대체 오디오 비디오 클립 엘리먼트(SBAVCP)에서의 데이터 구성에 대해 이하에 설명을 한다.
<SubstituteAudioVideoClip(대체 오디오 비디오 클립) 엘리먼트>
SubstituteAudioVideoClip 엘리먼트는 대체 오디오 비디오에 대한 프리젠테이션 클립 엘리먼트이다. 대체 오디오 비디오는 오디오 및 비디오를 포함하는 2차 비디오 세트의 S-EVOB이다.
SubstituteAudioVideoClip 엘리먼트는 타이틀 내의 대체 오디오 비디오의 객체 매핑 정보, 및 대체 오디오 비디오의 S-EVOB 내의 기본 스트림의 트랙 번호 할당을 기술한다.
대체 오디오 비디오는 디스크 컨텐츠, 네트워크 스트리밍, 또는 영속적 저장 장치나 파일 캐쉬 상의 사전-다운로드된 컨텐츠일 수 있다.
SubstituteAudioVideoClip 엘리먼트의 XML 신택스 표현:
<SubstituteAudioVideoClip
id = ID
dataSource = (Disc | P-Storage | Network | FileCache)
titleTimeBegin = timeExpression
clipTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
preload = timeExpression
sync = (hard | none)
noCache = (true | false)
description = string
>
NetworkSource *
Video ?
Audio *
</SubstituteAudioVideoClip>
src 속성은 이 엘리먼트에 의해 대체 오디오 비디오의 어느 S-EVOB가 표시되는지를 기술한다. titleTimeBegin 및 titleTimeEnd 속성은 각각 S-EVOB의 유효 기간의 시작 시간 및 종료 시간을 기술한다. clipTimeBegin 속성은 S-EVOB의 시작 위치를 기술한다.
SubstituteAudioVideoClip 엘리먼트의 내용은 S-EVOB 내의 기본 스트림에 대한 트랙 번호 할당을 기술하는 Video 엘리먼트 및 Audio 엘리먼트를 포함한다.
Video 엘리먼트가 SubstituteAudioVideoClip 엘리먼트 내에 존재하는 경우, S-EVOB의 VS_PCK 내의 Video 스트림이 이용가능하고 지정된 비디오 트랙 번호에 할당된다.
Audio 엘리먼트가 SubstituteAudioVideoClip 엘리먼트 내에 존재하는 경우, S-EVOB의 AM_PCK 내의 Audio 스트림은 이용가능하고 지정된 오디오 트랙 번호에 할당된다.
NetworkSource 엘리먼트는 dataSource 속성값이 'Network'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우에만 이 엘리먼트 내에 표시될 수 있다. NetworkSource 엘리먼트는 네트워크 처리용량 설정에 따라 선택되는 스트리밍 소스를 기술한다.
(a) dataSource 속성
프리젠테이션 객체의 데이터 소스를 기술한다. 값이 'Disc'인 경우, S-EVOB는 디스크 내에 있어야 한다. 값이 'P-Storage'인 경우, S-EVOB는 사전-다운로드된 컨텐츠로서 영속적 저장 장치 내에 있어야 한다. 값이 'Network'인 경우, S-EVOB는 네트워크 서버로부터 스트리밍으로서 공급되어야 한다. 값이 'FileCache'인 경우, S-EVOB는 파일 캐쉬 내에 공급되어 있어야 한다. dataSource 속성이 표시되어 있지 않은 경우, dataSource는 'P-Storage'이어야 한다.
(b) titleTimeBegin 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(c) titleTimeEnd 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(d) clipTimeBegin 속성
프리젠테이션 객체에서의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다. 이 속성값은 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된 프레임의 표시 시작 시간(PTS)이다. clipTimeBegin은 생략될 수 있다. clipTimeBegin 속성이 표시되어 있지 않은 경우, 시작 시간은 '00:00:00:00'이 된다.
(e) src 속성
참조될 프리젠테이션 객체의 인덱스 정보 파일의 URI를 기술한다.
(f) preload 속성
플레이어가 프리젠테이션 객체를 프리페치(prefetch)하기 시작하는, 타이틀 타임라인 상의 시간을 기술한다. 이 속성은 생략될 수 있다.
(g) sync 속성
sync 속성값이 'hard'인 경우, 2차 오디오 비디오는 하드-동기된 객체이다. sync 속성값이 'none'인 경우, 2차 오디오 비디오는 비동기된 객체이다. 이 속성은 생략될 수 있다. 디폴트값은 'hard'이다.
(h) noCache 속성
noCache 속성값이 'true'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브가 프리젠테이션 객체에 대한 HTTP 요청 내의 Cache-Control 및 Pragma 둘 다 내에 포함되어 있어야 한다. noCache 속성값이 'false'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브는 Cache-Control이나 Pragma 헤더에 포함되어서는 안 된다. dataSource 속성값이 'Network'가 아닌 경우, noCache 속성은 없어야 한다. noCache 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(i) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 18에 도시된 바와 같이, 대체 오디오 비디오(SBTAV)에 관한 재생/표시 클립 엘리먼트는 대체 오디오 비디오 클립(SBAVCP)이라고 부른다. 도 10에 도시한 바와 같이, 대체 오디오 비디오(SBTAV)는 2차 비디오 세트(SCDVS) 내에 포함되어 있고, 대체 오디오 비디오(SBTAV) 내에 메인 비디오(MANVD)와 메인 오디오(MANAD)의 정보가 포함되어 있다. 대체 오디오 비디오 클립 엘리먼트(SBAVCP)는 타이틀 내의 대체 오디오 비디오(SBTAV)에 관한 객체 매핑 정보(OBMAPI)를 나타낸다. 또한, 대체 오디오 비디오 클립 엘리먼트(SBAVCP)는 대체 오디오 비디오(SBTAV)의 2차 고화질 비디오 객체 데이터(S-EVOB) 내에 포함되는 각각의 기본 스트림에 관한 트랙 번호 할당 정보도 나타내고 있다. 도 l8에 도시한 바와 같이, 대체 오디오 비디오(SBTAV)는 원래의 기록 장소로서 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV), 또는 파일 캐쉬(FLCCH) 내에 기록될 수 있다. 대체 오디오 비디오(SBTAV)에 관한 재생 객체인 2차 고화질 비디오 객체 데이터(S-EVOB)의 재생/사용 시에 인덱스로서 참조되는 파일 이름은 2차 비디오 세트 내의 타임 맵 파일(STMAP)이다. 따라서, 대체 오디오 비디오 클립(SBAVCP) 태그 내에 기술되는 src 속성 정보(소스 속성 정보)로서, 2차 비디오 세트 내의 타임 맵 파일(STMAP)이 기록되어 있는 저장 장소(SRCTMP)의 정보가 URI(uniform resource identifier)의 형식으로 기술된다. 도 55a의 (b)에 도시한 바와 같이, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에는 메인 비디오 엘리먼트(MANVD)와 메인 오디오 엘리먼트(MANAD)가 포함되어 있다. 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내의 메인 비디오 엘리먼트(MANVD)와 메인 오디오 엘리먼트(MANAD) 각각 내에, 대응하는 2차 비디오 객체 데이터(S-EVOB) 내에서의 각각의 기본 스트림의 트랙 번호 할당 정보(트랙 번호 설정 정보)에 관한 설명이 기술되어 있다. 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에 메인 비디오 엘리먼트(MANVD)에 관한 기술이 존재하는 경우에는, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 메인 비디오 팩(VM_PCK) 내의 비디오 스트림이 존재하고 비디오 엘리먼트 스트 림이 재생될 수 있음을 의미한다. 또한, 동시에, 2차 고화질 비디오 객체 데이터(S-EVOB)의 메인 비디오 팩(VM_PCK) 내의 각각의 비디오 스트림에 따라 지정된 비디오 트랙 번호가 설정되어 있다. 또한, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에 메인 오디오 엘리먼트(MNAD)에 관한 기술이 존재하는 경우에는, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)의 메인 오디오 팩(AM_PCK) 내에 오디오 스트림이 존재하고, 또한 오디오 스트림이 재생가능함을 의미한다. 또한, 2차 고화질 비디오 객체 데이터(S-EVOB)의 메인 오디오 팩(AM_PCK) 내의 각각의 오디오 스트림에 대해, 지정된 오디오 트랙 번호가 설정되어 있다. 게다가, 도 55b의 (c)에 도시하는 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내의 재생/표시 객체가 기록되어 있는 데이터 소스(DTS0RC)(dataSource 속성 정보)의 값으로서 "Network"가 지정되어 있는 경우에는, 도 55a의 (b)에 도시한 바와 같이, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에 네트워크 소스 엘리먼트(NTSELE)의 기술이 존재한다. 또한, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 "Network"인 경우에는, 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 장소(SRCTMP)(SRC 속성 정보)의 값이 "http" 또는 "https"로부터 시작되는 어드레스 정보(경로)로 파일 이름이 기술된다. 또한, 도 63b의 (c)에 도시한 바와 같이, 네트워크 소스 엘리먼트(NTSELE) 내에는, 지정된 네트워크의 처리용량(네트워크 경로에 있어서의 데이터 전송 레이트의 허용 최소값)에 기초하여 선택되는 스트리밍 소스(대체 오디오 비디오(SBTAV) 내의 메인 비디오(MANVD) 또는 메인 오디오(MANAD)의 컨텐츠)이 기술되어 있다. 그 결과, 사용자의 네트워크 경로(예컨대, 광 케이 블/ADSL 또는 모뎀 등을 사용하는 각각의 네트워크 경로에 따라 데이터 전송 레이트가 변함)에 기초하는 최적의 데이터 소스(메인 비디오(MANVD) 또는 메인 오디오(MANAD))를 로딩하는 일이 가능해진다. 예컨대, 광 케이블을 이용하여 고속의 데이터 통신이 설정될 수 있는 네트워크 환경에서는, 메인 비디오(MANVD)로서 고해상도의 화상이 전송될 수 있다. 게다가, 이와 반대로, 데이터 전송 레이트가 낮은 모뎀(전화선) 등을 사용하는 네트워크 환경의 경우에, 고해상도의 메인 비디오(MANVD)의 영상을 다운로드하는 경우에는 아주 긴 다운로드 시간이 필요하여진다. 따라서, 데이터 전송 레이트가 낮은 모뎀 등을 사용하는 네트워크 환경의 경우, 해상도를 대폭 떨어뜨린 메인 비디오(MANVD)가 다운로드될 수 있다. 복수의 네트워크 소스 엘리먼트(NTSELE)에 대응하는 다운로드 대상인 데이터 또는 파일을 선택하는 일에 의해, 사용자의 네트워크 환경에 최적인 네트워크 소스를 다운로드할 수 있다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)(dataSource 속성 정보)는 재생/표시 객체인 대체 오디오 비디오(SBTAV)의 데이터 소스가 기록되어 있는 장소의 영역을 나타낸다. 도 18에 도시한 바와 같이, 대체 오디오 비디오(SBTAV)가 원래 기록되어 있는 장소로서는, 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV) 또는 파일 캐쉬(FLCCH)가 존재한다. 이것에 따라, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 "Disc", "P-Storage", "Network" 및 "FileCache" 중 어느 하나가 기록되어 있다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 "Disc"가 설정된 경우에는, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)가 정보 저장 매체(DISC) 내에 기록되어 있음을 의미한다. 또한, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 "P-Storage"인 경우에는, 2차 고화질 비디오 객체 데이터(S-EVOB)는 미리 다운로드된 컨텐츠로서 영속적 저장 장치(PRSTR) 내에 기록되어야만 한다. 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 "Network"의 경우에는, 2차 고화질 비디오 객체 데이터(S-EVOB)가 네트워크 서버(NTSRV)로부터 스트리밍으로서 공급되어야만 한다. 게다가, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 "FileCache"인 경우에는, 대응하는 2차 고화질 비디오 객체 데이터(S-EVOB)는 파일 캐쉬(FLCCH)로 공급되어야만 한다. 대체 오디오 비디오 클립 엘리먼트의 속성 정보(SVATRI) 내에 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 기술되어 있지 않은 경우에는, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 디폴트값인 "P-Storage"의 값이 자동으로 설정된다. 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보) 및 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)는 각각 타이틀 타임라인(TMLE) 상에서의 재생/표시 객체인 대체 오디오 비디오(SBTAV)(2차 고화질 비디오 객체 데이터(S-EVOB))의 시작 시간(TTSTTM) 및 종료 시간(TTEDTM)을 나타낸다. 게다가, 이들 시간은 "HH:MM:SS:FF" 형태의 시간 정보로서 표시된다. 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)는 도 53에 도시한 바와 같이 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)에 따라 표시가 시작되는 2차 고화질 비디오 객체 데이터(S-EVOB)(대체 오디오 비디오(SBTAV))에서의 위치를 나타내고, 그의 값은 2차 고화질 비디오 객체(S-EVOB) 내 의 비디오 스트림의 표시 시작 시간(표시 시간 스탬프 값)(PTS)에 의해 지정된다. 타이틀 타임라인 상의 시작 위치(TTSTTM)의 값과 고화질 비디오 객체 데이터(EVOB)에서의 시작 위치(VBSTTM) 간의 대응 관계를 이용하여, 유효 기간 내의 임의의 위치에서의 타이틀 타임라인(TMLE) 상에서의 값으로부터 비디오 스트림 내의 표시 시작 시간(표시 시간 스탬프 값) PTS를 산출할 수 있다. 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에서 고화질 비디오 객체 데이터(EVOB)에서의 시작 위치(VBSTTM)의 정보의 기술이 생략될 수 있다. 이와 같이 대체 오디오 비디오 클립 엘리먼트의 속성 정보(SVATRI) 내에서 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)의 기재가 생략되어 있는 경우, 대응하는 2차 고화질 비디오 객체 데이터(S-EVOB)의 선두 위치로부터 재생이 시작된다. 재생/표시 객체인 대체 오디오 비디오(SBTAV)(2차 고화질 비디오 객체(S-EVOB))가 참조되어야만 하는 인덱스 정보 파일의 저장 장소(SRCTMP)(SRC 속성 정보)는 URI(uniform resource identifier)의 형식으로 기술된다. 도 18에 도시한 바와 같이, 인덱스로서 참조되는 파일은 2차 비디오 세트에서의 타임 맵 파일(STMAP)이 기록되어 있는 장소를 나타낸다. 또한, 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)(preload 속성 정보)은 타이틀 타임라인 상의 시작 시간(TTSTTM)과 동일한 시각 또는 그것보다도 선행하는 시각으로 설정되고, 대체 오디오(SBTAD)를 사용자에게 표시하기 전에 데이터 캐쉬(DTCCH) 내에 로딩하는 때인 로딩 시작 시간을 나타낸다. 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)의 기술이 대체 오디오 비디오 클립 엘리먼트의 속성 정보(SVATRI)로부 터 생략될 수 있다. 게다가, 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)의 값으로서는 "hard" 또는 "none" 중 어느 하나의 값이 설정된다. 이 값이 "hard"인 경우에는, 대응하는 대체 오디오 비디오(SBTAV)는 하드 동기된 객체를 나타낸다. 이제부터, 사용자에게 동화상을 표시할 때에 새로운 대체 오디오 비디오(SBTAV)를 데이터 캐쉬(DTCCH) 내에 로딩할 필요가 생긴 경우에 관해서 설명한다. 이 경우에는, 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)으로부터 대체 오디오 비디오(SBTAV)가 데이터 캐쉬(DTCCH) 내에 로딩된다. 타이틀 타임라인 상의 시작 시간(TTSTTM) 이전에 로딩이 완료되거나 또는 로딩 도중에라도 타이틀 타임라인 상의 종료 시간(TTEDTM)까지 대체 오디오비디오(SBTAV)를 연속적으로 재생/표시할 수 있는 경우에는, 타이틀 타임라인 상의 시작 시간(TTSTTM)으로부터 대체 오디오 비디오(SBTAV)의 재생/표시를 시작한다. 이와 반대로, 로딩 처리가 제시간에 완료될 수 없는 경우 또는 재생/표시 객체의 동기 속성 정보(SYNCAT)의 값이 "hard"로 설정되어 있는 경우에는, 타이틀 타임라인(TMLE) 상의 시간 진행(카운트-업)을 일시적으로 정지하고, 사용자에 대하여 동화상을 정지한 상태로 유지한다. 그 동안에, 대체 오디오 비디오(SBTAV)를 데이터 캐쉬(DTCCH) 내에 계속하여 로딩한다. 데이터 캐쉬(DTCCH)로의 로딩 처리가 종료한 때 또는 로딩 도중에도 타이틀 타임라인 상의 종료 시간(TTEDTM)까지 대체 오디오 비디오(SBTAV)가 연속적으로 재생/표시할 수 있는 상태에 도달한 때에, 타이틀 타임라인(TMLE) 상의 시간 진행(카운트-업)이 재개됨과 동시에 사용자에게 표시하고 있는 동화상이 움직이기 시작하고, 그리고 대체 오디오 비디오(SBTAV)를 사용 자에게 표시하는 동기 처리가 시작된다. 또한, 재생/표시 객체의 동기 속성 정보(SYNCAT)가 "none"인 경우에는, 이는 비동기 객체를 의미하며, 대체 오디오(SBTAD)는 타이틀 타임라인(TMLE) 상의 진행과는 독립적으로(비동기 상태) 사용자에 대해 표시될 수 있다. 대체 오디오 비디오 클립 엘리먼트의 속성 정보(SVATRI) 내에서 재생/표시 객체의 동기 속성 정보(SYNCAT)의 기재가 생략될 수 있다. 이 경우에는, 디폴트값인 "hard"가 자동으로 설정된다. 게다가, no-cache 속성 정보(NOCACH)는 HTTPT의 통신 프로토콜에 관한 정보이며, "true" 또는 "false" 중 어느 하나의 값이 설정된다. "true"인 경우에는, HTTP의 GET 요청 메시지 내에 Cach-Contro1 헤더와 Pragma 헤더가 포함될 필요가 있다. 또한, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값이 "Network"로 기재되어 있고 no-cache 속성 정보(NOCACH)가 "false"fh 지정된 경우에는, 이것은 HTTP의 GET 요청 메시지 내에 Cach-Contro1 헤더와 Pragma 헤더가 포함되지 않음을 의미한다. 또한, no-cache 속성 정보(NOCACH)의 기술이 생략될 수 있지만, 이 경우에는 디폴트값인 "false"의 값이 자동으로 설정된다. SubstituteAudioVideoClip에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되어 있다. 또한, 대체 오디오 비디오 클립(SBAVCP)에 관한 부가 정보의 기재가 생략될 수 있다.
<SubstituteAudioClip(대체 오디오 클립) 엘리먼트>
SubstituteAudioClip 엘리먼트는 대체 오디오에 대한 프리젠테이션 클립 엘리먼트이다. 대체 오디오는 2차 비디오 세트의 S-EVOB 내에 있으며, 1차 비디오 세트 내의 메인 오디오(들)에서 선택가능한 메인 오디오이다.
SubstituteAudioClip 엘리먼트는 타이틀 내의 대체 오디오의 객체 매핑 정보 및 대체 오디오의 S-EVOB 내의 기본 스트림의 트랙 번호 할당을 기술한다. 대체 오디오는 디스크로부터, 네트워크로부터 스트리밍으로서, 또는 영속적 저장 장치나 파일 캐쉬로부터 사전-다운로드된 컨텐츠로서 공급될 수 있다.
SubstituteAudioClip 엘리먼트의 XML 신택스 표현:
<SubstituteAudioClip
id = ID
dataSource = (Disc | P-Storage | Network | FileCache)
titleTimeBegin = timeExpression
clipTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
preload = timeExpression
sync = (hard | soft)
noCache = (true | false)
description = string
>
NetworkSource *
Audio +
</SubstituteAudioClip>
src 속성은 대체 오디오의 어느 S-EVOB가 이 엘리먼트로 표시되는지를 기술한다. titleTimeBegin 및 titleTimeEnd 속성은 각각 S-EVOB의 유효 기간의 시작 시간 및 종료 시간을 기술한다. clipTimeBegin 속성은 S-EVOB의 시작 위치를 기술한다.
SecondaryAudioClip 엘리먼트의 내용은 S-EVOB의 AM_PCK 내의 메인 오디오 스트림에 대한 트랙 번호 할당을 기술하는 하나의 Audio 엘리먼트이어야 한다.
NetworkSource 엘리먼트는 dataSource 속성값이 'Network'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우에만 이 엘리먼트 내에 표시될 수 있다. NetworkSource 엘리먼트는 네트워크 처리용량 설정에 따라 선택되는 스트리밍 소스를 기술한다.
(a) dataSource 속성
프리젠테이션 객체의 데이터 소스를 기술한다. 값이 'Disc'인 경우, S-EVOB는 디스크 내에 있어야 한다. 값이 'P-Storage'인 경우, S-EVOB는 사전-다운로드된 컨텐츠로서 영속적 저장 장치 내에 있어야 한다. 값이 'Network'인 경우, S-EVOB는 네트워크 서버로부터 스트리밍으로서 공급되어야 한다. 값이 'FileCache'인 경우, S-EVOB는 파일 캐쉬 내에 공급되어 있어야 한다. dataSource 속성이 표시되어 있지 않은 경우, dataSource는 'P-Storage'이어야 한다.
(b) titleTimeBegin 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어 야 한다.
(c) titleTimeEnd 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(d) clipTimeBegin 속성
프리젠테이션 객체에서의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다. 이 속성값은 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된 프레임의 표시 시작 시간(PTS)이어야 한다. clipTimeBegin은 생략될 수 있다. clipTimeBegin 속성이 표시되어 있지 않은 경우, 시작 시간은 '0'이 되어야 한다.
(e) src 속성
참조될 프리젠테이션 객체의 인덱스 정보 파일의 URI를 기술한다.
(f) preload 속성
플레이어가 프리젠테이션 객체를 프리페치(prefetch)하기 시작해야 하는, 타이틀 타임라인 상의 시간을 기술한다. 이 속성은 생략될 수 있다.
(g) sync 속성
sync 속성값이 'hard'인 경우, 2차 오디오 비디오는 하드-동기된 객체이다. sync 속성값이 'soft'인 경우, 2차 오디오 비디오는 소프트-동기된 객체이다. 이 속성은 생략될 수 있다. 디폴트값은 'soft'이다.
(h) noCache 속성
noCache 속성값이 'true'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브가 프리젠테이션 객체에 대한 HTTP 요청 내의 Cache-Control 및 Pragma 둘 다 내에 포함되어 있어야 한다. noCache 속성값이 'false'이고 dataSource 속성값이 'Network'인 경우, 'no-cache' 디렉티브는 Cache-Control이나 Pragma 헤더에 포함되어서는 안 된다. dataSource 속성값이 'Network'가 아닌 경우, noCache 속성은 없어야 한다. noCache 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(i) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 10에 도시한 바와 같이, 대체 오디오(SBTAD)는 2차 비디오 세트(SCDVS) 내의 2차 고화질 비디오 객체 데이터(S-EVOB) 내에 존재한다. 게다가, 대체 오디오(SBTAD)는 메인 오디오(MANAD)의 정보를 포함하며, 이 정보 및 1차 비디오 세트(PRMVS) 내의 메인 오디오가 선택적으로(양자 택일적으로) 표시/재생된다. 즉, 본 실시예에서, 1차 비디오 세트(PRMVS) 내의 메인 오디오(MANAD) 및 대체 오디오(SBTAD) 내의 메인 오디오(MANAD)는 사용자에게 동시에 표시/재생될 수 없다. 대체 오디오 클립 엘리먼트(SBADCP)는 타이틀 내의 대체 오디오(SBTAD)에 관한 객체 매핑 정보(OBMAPI)를 나타낸다. 게다가, 동시에, 대체 오디오 클립 엘리먼 트(SBADCP)는 또한 대체 오디오(SBTAD)의 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 각각의 기본 스트림의 트랙 번호 할당(트랙 번호 설정)의 정보도 나타낸다. 도 18에 도시한 바와 같이, 대체 오디오(SBTAD)는 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 네트워크 서버(NTSRV) 또는 파일 캐쉬(FLCCH) 내에 기록되어 있을 수 있다. 도 55a 및 도 55b에 도시되어 있는 바와 같이, 복수의 메인 오디오 엘리먼트(MANAD)는 대체 오디오 클립 엘리먼트(SBADCP) 내에 포함될 수 있다. 게다가, 이러한 경우에, 2차 고화질 비디오 객체 데이터(S-EVOB)의 메인 오디오 팩(AM_PCK) 내에 포함된 메인 오디오 스트림의 오디오 트랙 번호의 설정 정보는 대체 오디오 클립 엘리먼트(SBADCP) 내의 메인 오디오 엘리먼트(MANAD) 내에 기술된다. 도 55b의 (d)에 도시되어 있는 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 "Network"가 기술되어 있는 경우, 네트워크 소스 엘리먼트(NTSELE)는 대응하는 대체 오디오 클립 엘리먼트(SBADCP) 내에 기술된다. 게다가, 이러한 경우에, 도 55b의 (d)에 도시하는 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 위치(SRCTMP)의 값으로서 "http" 또는 "https"로부터 시작하는 URI(uniform resource identifier)의 정보가 기술된다. 게다가, 정보 기록 및 재생 장치(1)가 연결되어 있는 네트워크 환경에서의 네트워크 처리용량(데이터 전송 레이트)에 기초하여 최적으로 선택되어야 하는 스트리밍 소스의 액세스 목적지 정보가 네트워크 소스 엘리먼트(NTSELE)에 기술되어 있다. 그 결과, 대체 오디오 비디오 클립 엘리먼트(SBAVCP)의 섹션에서 설명한 바와 같이, 정보 기록 및 재생 장치(1)는 표시해야 할 대체 오디오의 정보를 자동으로 최적으로 선택할 수 있다. 도 55b의 (d)에 나타낸 바와 같이, ID 정보(SCAVID)가 대체 오디오 클립 엘리먼트(SBADCP) 태그 내에 기술되는 경우, 동일한 타이틀 내의 타이틀 타임라인(TMLE) 상의 서로 다른 시간에 표시해야 할 복수의 대체 오디오(SBTAD) 세트를 설정할 수 있다. 게다가, 도 82에 도시한 바와 같이, ID 정보(SBADID)가 대체 오디오 클립 엘리먼트(SBADCP)에 제공되는 경우, API 명령에 의해 대체 오디오 클립 엘리먼트(SBADCP)를 참조하는 것이 용이하게 될 수 있으며, 그에 의해 API 명령 처리를 간소화할 수 있다. 게다가, 대체 오디오 클립 엘리먼트(SBADCP) 내의 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 "Disc", "P-Storagc", "Network" 및 "FileCache" 중 어느 하나의 값을 설정하는 것이 가능하다. 이 값으로서 "Disc"가 설정된 경우에는, 이것은 2차 고화질 비디오 객체 데이터(S-EVOB)가 정보 저장 매체(DISC) 내에 저장되어 있음을 의미한다. 또한, 이 값이 "P-Storage"인 경우에는, 대응하는 2차 고화질 비디오 객체 데이터는 사전에 다운로드된 컨텐츠로서 영속적 저장 장치(PRSTR) 내에 기록되어 있다. 또한, 재생/표시 객체가 기록되어 있는 데이터 소스의 값이 "Network"인 경우에는, 2차 고화질 비디오 객체 데이터(S-EVOB)는 네트워크 서버(NTSRV)로부터 전송된 스트리밍으로서 공급된다. 게다가, 이 값이 "FileCache"인 경우에는, 대응하는 2차 고화질 비디오 객체 데이터(S-EVOB)는 파일 캐쉬(FLCCH)로부터 공급된다. 대체 오디오 클립 엘리먼트의 속성 정보(SAATRI) 내에서 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 기술이 없는 경우에는, 재생/표시 객체가 기록되어 있는 데이터 소스(DTSORC)의 값으로서 디폴트값인 "P-Storage"의 값이 자동으로 설정된다. 대체 오디오 클립 엘리먼트(SBADCP) 태그 내에 기술되는 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보) 및 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)는 각각 타이틀 타임라인 상에서의 재생/표시 객체(2차 고화질 비디오 객체 데이터(S-EVOB))의 연속적인 블록에서의 시작 시간 정보 및 종료 시간 정보를 나타낸다. 게다가, 이러한 시간 정보는 "HH:MM:SS:FF"의 형태로 기술된다. 또한, 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)(clipTimeBegin 속성 정보)는 도 53에 도시한 바와 같이 2차 비디오 세트 내의 2차 고화질 비디오 객체 데이터(S-EVOB)의 시작 위치를 나타내고, 비디오 스트림 내의 표시 시작 시간(표시 시간 스탬프 값)(PTS)으로서 표시된다. 게다가, 대체 오디오 비디오 클립 엘리먼트의 속성 정보(SVATRI) 내에서 고화질 비디오 객체 데이터에서의 시작 위치(VBSTTM)의 정보의 기재를 생략할 수 있다. 정보의 기술이 생략되어 있는 경우, 이것은 2차 비디오 세트 내의 고화질 비디오 객체 데이터(S-EVOB)의 선두 위치로부터 재생/표시가 시작됨을 의미한다. 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 위치(SRCTMP)(SRC 속성 정보)는 URI(uniform resource identifier) 포맷으로 기술된다. 도 18에 도시한 바와 같이, 대체 오디오 클립(SBADCP)에서의 객체의 재생/사용 시에 인덱스로서 참조되는 파일은 2차 비디오 세트의 타임 맵 파일(STMAP)을 나타낸다. 따라서, 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 위치(SRCTMP)로서, 2차 비디오 세트에서의 타임 맵 파일(STMAP)의 저장 위치가 기술된다. 게다가, 재생/표시 객체의 가져오기가 시작되는 타이틀 타임라인 상에서의 시간(PRLOAD)(preload 속성 정보)는 타이틀 타임라인(TMLE) 상에서의 대응하는 대체 오디오(SBTAD)를 사용자에게 표시하기 이전에 네트워크 서버(NTSRV)로부터 데이터 캐쉬(DTCCH)로 로딩이 실행되는 때인 로딩 시작 시간을 나타낸다. 게다가, 대체 오디오(STBAD)가 정보 저장 매체(DISC) 또는 네트워크 서버(NTSRV)에 저장되어 있는 경우, 도 25에 도시되어 있는 바와 같이, 대체 오디오(SBTAD)는 데이터 캐쉬(DTCCH)에 사전-로딩되지만, 이 경우에 데이터 캐쉬(DTCCH)로의 다운로드가 시작되는 시작 시간도 역시 재생/표시 객체의 가져오기가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)로서 표시된다. 게다가, 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)로서, 대체 오디오 클립 엘리먼트(SBADCP)에서 "hard" 또는 "soft" 중 어느 하나의 값을 설정할 수 있다. 재생/표시 객체의 동기 속성 정보(SYNCAT)가 "hard"로 설정되어 있는 경우, 대응하는 대체 오디오(SBTAD)는 하드 동기된 객체로서 간주된다. 이제부터 사용자에게 재생/표시 객체를 표시할 때에 새로운 대체 오디오(SBTAD)가 데이터 캐쉬(DTCCH)에 로딩되어야만 하는 경우에 관하여 설명한다. 이 경우에, 재생/표시 객체의 가져오기가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)으로부터 대체 오디오(SBTAD)가 데이터 캐쉬(DTCCH)로 로딩된다. 타이틀 타임라인 상의 시작 시간(TTSTTM) 이전에 로딩이 완료되는 경우, 또는 로딩 도중에라도 타이틀 타임라인 상의 종료 시간(TTEDTM) 이전에 대체 오디오(SBTAD)가 연속적으로 재생되어 출력될 수 있는 경우, 대체 오디오(SBTAD)의 재생 및 출력은 타이틀 타임라인 상의 시작 시간(TTSTTM)으로부터 시작된다. 이와 반대로, 로딩 처리가 제시간에 완료될 수 없 는 경우, 또는 재생/표시 객체의 동기 속성 정보(SYNCAT)의 값이 "hard"로 설정되어 있는 경우, 타이틀 타임라인(TMLE) 상에서의 시간 진행(카운트-업)이 일시적으로 정지한다. 그 동안에, 대체 오디오(SBTAD)를 데이터 캐쉬(DTCCH) 내로 계속 로딩한다. 데이터 캐쉬(DTCCH)에의 로딩 처리가 완료된 경우, 또는 로딩 도중에라도 타이틀 타임라인 상의 종료 시간(TTEDTM) 이전에 대체 오디오(SBTAD)가 연속적인 재생/표시가 가능한 단계에 도달하는 경우, 타이틀 타임라인(TMLE) 상에서의 시간 진행(카운트-업)이 재개되고, 대체 오디오(SBTAD)를 사용자에게 표시하는 동기 처리가 시작된다. 게다가, 재생/표시 객체의 동기 속성 정보(SYNCAT)가 "soft"로서 설정되어 있는 경우, 대응하는 대체 오디오(SBTAD)는 소프트 동기된 객체로서 간주된다. 이제부터, 사용자에게 재생/표시 객체를 표시할 때 새로운 대체 오디오(SBTAD)가 데이터 캐쉬(DTCCH) 내로 로딩되어야만 하는 경우에 관하여 설명을 한다. 이 경우에는, 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상에서의 시간(PRLOAD)으로부터 대체 오디오(SBTAD)를 데이터 캐쉬(DTCCH) 내로 로딩하는 처리가 시작된다. 타이틀 타임라인 상의 시작 시간(TTSTTM) 이전에 로딩이 완료되는 경우, 또는 로딩 도중에라도 타이틀 타임라인 상의 종료 시간(TTEDTM) 이전에 대체 오디오(SBTAD)가 연속하여 재생되어 출력될 수 있는 경우, 타이틀 타임라인 상의 시작 시간(TTSTTM)으로부터 대체 오디오(SBTAD)의 재생 및 출력이 시작된다. 이와 반대로, 로딩 처리가 제시간에 완료될 수 없는 경우, 또는 재생/표시 객체의 동기 속성 정보의 값이 "soft"로서 설정되어 있는 경우, 타이틀 타임라인(TMLE) 상에서의 시간 진행(카운트-업)을 일시적으로 정지시키는 일 없이 현재 로딩되고 있 는 대체 오디오(SBTAD)의 재생 및 출력이 수행되지 않는 상태에서 타이틀 타임라인(TMLE) 상에서의 시간 진행(카운트-업)은 계속된다. 현재 로딩되는 대체 오디오(SBTAD)의 재생 및 출력이 실행되지 않는 상태에서 타이틀 타임라인(TMLE) 상의 시간 진행(카운트-업)을 계속하는 것과 동시에 대체 오디오(SBTAD)를 데이터 캐쉬(DTCCH) 내로의 로딩이 계속된다. 데이터 캐쉬(DTCCH)로의 로딩 처리가 종료한 경우 또는 로딩 도중에라도 타이틀 타임라인 상의 종료 시간(TTEDTM) 이전에 대체 오디오(SBTAD)가 연속적인 재생/표시가 가능한 단계에 도달하는 경우, 대체 오디오(SBTAD)의 재생 및 출력이 시작된다. 이와 같이 재생/표시 객체의 동기 속성 정보(SYNCAT)의 값이 "soft"로 설정되어 있는 경우에는, 타이틀 타임라인 상의 시작 시간(TTSTTM)보다 지연되어 대체 오디오(SBTAD)의 재생 및 출력이 시작될 가능성이 높게 된다. 이 지연을 방지하기 위해, 사용자에게 대체 오디오(SBTAD)를 표시하는 타이밍에 선행하여, 미리 대체 오디오(SBTAD)를 데이터 캐쉬(DTCCH)에 저장하고 타이틀 타임라인(TMLE) 상의 시간 진행(카운트-업)을 중단하는 일 없이 연속하여 데이터 캐쉬(DTCCH)에 저장된 대체 오디오(SBTAD)의 재생이 개시를 하도록 동기된 표시를 수행하는 것(타이틀 타임라인 상의 시작 시간(TTSTTM)으로부터 대체 오디오(SBTAD)의 재생을 시작하는 것)이 바람직하다. 따라서, 소프트 동기된 객체의 경우(sync 속성 정보의 값이 "soft"로 기술된 경우)에는, 타이틀 타임라인 상의 시작 시간(TTSTTM)보다도 선행하는 시간(타이틀 타임라인(TMLE) 상의 작은 카운트 값)이 되도록 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)을 설정할(대체 오디오 클립 엘리먼트(SBADCP) 내에 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)의 정보가 기술될) 필요가 있다. 그러나 대체 오디오 클립 엘리먼트의 속성 정보(SAATRI) 내에서 재생/표시 객체의 동기 속성 정보(SYNCAT)의 정보의 기재가 생략될 수 있다. 이 경우에는, 디폴트값으로서 "soft"가 자동으로 설정된다. 따라서, 재생/표시 객체의 동기 속성 정보(SYNCAT)의 값이 "soft"로 기술되어 있는 경우 또는 그의 기재가 생략되어 있는 경우에는, 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)을 기재하는 것이 바람직하다. 또한, no-cache 속성 정보(NOCACH)는 HTTP의 통신 프로토콜에 관한 정보를 나타낸다. no-cache 속성 정보(NOCACH)가 취할 수 있는 값으로서, "true" 또는 "false" 중 어느 하나의 값을 설정할 수 있다. no-cache 속성 정보(NOCACH)의 값이 "true"인 경우에는, HTTP의 GET 요청 메시지 내에 Cach-Control 헤더와 Pragma 헤더가 포함될 필요가 있다. 게다가, no-cache 속성 정보(NOCACH)의 값이 "faIse"인 경우에는, HTTP의 GET 요청 메시지 내에 Cach-ControI 헤더와 Pragma 헤더는 포함되지 않는다. 게다가, SubstituteAudioClip에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술된다. 또한, 대체 오디오 클립에 관한 부가 정보의 기술이 대체 오디오 클립 엘리먼트의 속성 정보(SAATRI) 내에서 생략될 수 있다.
도 23a의 (a)에 도시한 바와 같이 재생 목록 파일(PLLST) 내에 타이틀 정보(TTINF0)가 존재하고, 도 23a의 (b)에 도시한 바와 같이 타이틀 정보(TTINFO) 내에 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE), 각각의 타이틀에 대한 타이틀 엘리먼트 정보(TTELEM), 및 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 존재한 다. 또한, 도 23a의 (c)에 도시한 바와 같이 각각의 타이틀에 대한 타이틀 엘리먼트 정보(TTELEM) 내에는 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보를 포함함)가 존재한다. 도 56a의 (b)에 도시하는 바와 같이, 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보를 포함함) 내에는, 고급 자막 세그먼트 엘리먼트(ADSTSG)가 존재한다. 이제부터, 고급 자막 세그먼트 엘리먼트(ADSTSG) 내의 데이터 구조에 관해서 설명을 한다.
<AdvancedSubtitleSegment(고급 자막 세그먼트) 엘리먼트>
AdvancedSubtitleSegment 엘리먼트는 타이틀 내의 고급 자막의 객체 매핑 정보 및 자막 트랙 번호에의 할당을 기술한다.
AdvancedSubtitleSegment 엘리먼트의 XML 신택스 표현:
<AdvancedSubtitleSegment
id = ID
titleTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
sync = (hard | soft)
description = string
>
Subtitle +
ApplicationResource *
</AdvancedSubtitleSegment>
src 속성은 이 엘리먼트에 의해 어느 고급 자막 프로파일 마크업 파일이 표현되는지를 기술한다. titleTimeBegin 및 titleTimeEnd 속성은 각각 고급 자막의 유효 기간의 시작 시간 및 종료 시간을 기술한다.
AdvancedSubtitleSegment 엘리먼트는 자막 트랙 번호의 할당을 기술하는 하나 이상의 자막 엘리먼트를 포함한다. 자막 트랙 번호는 메인 비디오에 대한 자막으로서 고급 자막을 선택하는 데 사용된다.
(a) titleTimeBegin 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 시작 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(b) titleTimeEnd 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(c) src 속성
참조될 고급 자막의 매니페스트 파일의 URI를 기술한다.
(d) sync 속성
애플리케이션 시동 모드를 결정하는 하드-싱크 애플리케이션, 또는 소프트-싱크 애플리케이션을 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 'hard'이 다.
(e) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 18에 도시한 바와 같이, 고급 자막 세그먼트 엘리먼트(ADSTSG)는 고급 자막(ADSBT)에 관한 재생/표시 클립 엘리먼트의 정보를 나타낸다. 고급 자막 세그먼트 엘리먼트(ADSTSG)는 타이틀 내에서의 고급 자막(ADSBT)의 객체 매핑 정보(OBMAPI)의 내용을 설명하고 있다. 또한, 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에, 자막의 트랙 번호도 설정되어 있다. 도 18에 도시한 바와 같이, 고급 자막(ADSBT)의 재생/사용 시에 인덱스로서 참조되는 파일 이름은 고급 자막의 매니페스트 파일(MNFSTS)이다. 이에 따라, 도 56b의 (c)에 도시하는 src 속성 정보는 고급 자막 세그먼트 엘리먼트(ADSTSG)에 대응하는 고급 자막(ADSBT)에 관한 마크업 파일(MRKUP)의 파일 이름과 저장 장소(경로)를 나타낸다. 또한, 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin) 및 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd)의 속성 정보는 고급 자막(ADSBT)의 유효 기간에서의 시작 시간 및 종료 시간을 나타낸다. 또한, 도 56a의 (b)에 도시한 바와 같이, 고급 자막 세그먼트 엘리먼트(ADSTSG)는 하나 이상의 자막 엘리먼트(SBTELE)와 하나 이상의 애플리케이션 리소스 엘리먼트(APRELE)의 정보를 포함할 수 있다. 또한, 자막 엘리먼트(SBTELE) 내에, 자막 트랙의 번호가 설정된다. 자막 트랙 번호는 메인 비디오(MANVD)에 대한 자막(텔롭이나 중첩된 자막 등으로 이용됨)으로서 고급 자막(ADSBT)을 선택하는 데 사용된다. 또한, 도 56b의 (c)에 도시하는 참조하여야 할 재생/표시 객체의 매니페스트 파일 저장 장소(SRCMNF)(src 속성 정보)는 URI(uniform resource identifier)의 형식으로 기술된다. 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)는 고급 자막 세그먼트 엘리먼트(ADSTSG)에서의 동기 속성 정보를 의미하지만, 그것은 후술하는 애플리케이션 세그먼트 엘리먼트(APPLSG)에 대한 점프 타이밍 모드의 정의와 일치하고 있다. 고급 애플리케이션(ADAPL)에서의 점프 타이밍 모델은 도 17의 설명문 중에 기술된다. 본 실시예에 있어서, 고급 자막 세그먼트(ADSTSG)에는, 재생/표시 객체의 동기 속성 정보(SYNCAT)로서 "hard" 또는 "soft" 중 어느 하나의 값이 설정된다. 즉, 본 실시예에 있어서는, 고급 자막(ADSBT)의 동기로서 "none"이 설정되지 않고, 고급 자막(ADSBT)은 타이틀 타임라인(TMLE)에 동기하여 표시되어야 한다. 재생/표시 객체의 동기 속성 정보(SYNCAT)의 값으로서 "hard"를 설정한 경우에는, 이것은 하드 동기 점프의 상태를 나타낸다. 즉, 타이틀 타임라인 상의 시작 시간(TTSTTM)에 따라 고급 자막(ADSBT)을 파일 캐쉬(FLCCH) 내로 로딩하고 있는 동안 타이틀 타임라인(TMLE)의 진행(카운트-업)을 일시적으로 정지시키고(대응하는 표시 화면을 일시적으로 정지 상태로 유지하고), 고급 자막(ADSBT)의 로딩 처리가 완료되었을 때 타이틀 타임라인(TMLE)의 진행(카운트-업)을 재개한다. 또한, 이와 반대로, 재생/표시 객체의 동기 속성 정보(SYNCAT)를 "soft"로 설정한 경우에는, 이것은 소프트 싱크 점프의 상태를 의미한다. 즉, 소프트 싱크 점프의 상태란 고급 자막(ADSBT)을 표시하기 이전에 고급 자막(ADSBT)의 파일 캐쉬(FLCCH) 내로의 로딩 처리를 실행하고(완료하고), 그에 의해 타이틀 타임라인(TMLE)의 진행을 정지시키지 않고 매끄럽게 표시할 다음의 고급 자막(ADSBT)의 준비를 종료시키는 동기 방법을 의미한다. 또한, 본 실시예에 있어서, 재생/표시 객체의 동기 속성 정보(SYNCAT)를 "hard"로 설정한 경우라도, 필요한 리소스를 사전에 로딩하기 시작해도 좋다. 그러나 이 경우, 타이틀 타임라인(TMLE) 상의 시간이 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)에 도달하더라도 사전의 로딩이 완료되지 않은 경우, 또는 고급 자막(ADSBT)의 표시가 시작되었더라도 타이틀 타임라인 상의 종료 시간(TTEDTM)까지 연속 표시가 가능한 동안 로딩이 완료되지 않은 경우에는, 타이틀 타임라인(TMLE) 상의 진행(카운트-업)을 일시적으로 정지시켜(대응하는 표시 화면을 일시적으로 정지 상태로 유지시켜) 파일 캐쉬(FLCCH) 내의 로딩량이 특정값을 넘을 때까지 대기한다. 또한, 본 실시예에 있어서, 재생/표시 객체의 동기 속성 정보(SYNCAT)를 "soft"로 설정한 경우에는, 도 65b에 도시한 바와 같은 이러한 동기 처리가 실행될 수 있다. 즉, 타이틀 타임라인 상의 시작 시간으로부터 고급 자막(ADSBT)에 대응하는 리소스의 로딩을 시작하여(타이틀 타임라인 상의 시작 시간(TTSTTM)과 로딩 기간(LOADPE)의 시작 시간을 일치시켜), 고급 자막(ADSBT)에 대응하는 리소스의 로딩 중에도 타이틀 타임라인(TMLE)의 진행(카운트-업)이 계속된다. 파일 캐쉬(FLCCH) 내에 리소스 데이터량이 어느 정도 저장되어 있고 고급 자막(ADSBT)의 연속 표시가 가능하게 된 경우(타이틀 타임라인 상의 시작 시간(TTSTTM)보다도 지연됨), 대응하는 고급 자막(ADSBT)의 재생을 시작한다.
도 56b의 (c)에 도시하는 고급 자막 세그먼트(ADSTSG)에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술된다. 고급 자막 세그먼트(ADSTSG)에 관한 부가 정보의 기술은 고급 자막 세그먼트 엘리먼트의 속성 정보(ADATRI) 내에서 생략될 수 있다.
<ApplicationSegment(애플리케이션 세그먼트) 엘리먼트>
ApplicationSegment 엘리먼트는 고급 애플리케이션에 대한 프리젠테이션 클립 엘리먼트이다. 애플리케이션 엘리먼트는 타이틀 내의 고급 애플리케이션의 객체 매핑 정보를 기술한다.
애플리케이션 엘리먼트의 XML 신택스 표현:
<ApplicationSegment
id = ID
titleTimeBegin = timeExpression
titleTimeEnd = timeExpression
src = anyURI
sync = (hard | soft)
zOrder = nonNegativeInteger
language = positiveInteger
group = positiveInteger
autorun = (true | false)
description = string
>
ApplicationResource *
</ApplicationSegment>
고급 애플리케이션은 타이틀 타임라인의 지정된 기간 상에 스케쥴링되어야 한다. 이 기간은 고급 애플리케이션 유효 기간이다. 타이틀 타임라인 상의 시간이 이 기간에 들어가면, 고급 애플리케이션은 src 속성에 의해 지정된 매니페스트 파일에 따라 유효하게 되어야 한다. 타이틀 타임라인 상의 시간이 이 기간으로부터 빠져나오면, 타이틀 내의 고급 애플리케이션은 종료되어야 한다.
프리젠테이션 객체의 타이틀 타임라인 상의 이 기간은 타이틀 타임라인 상의 시작 시간 및 종료 시간에 의해 결정된다. 타이틀 타임라인 상의 시작 시간 및 종료 시간은 각각 titleTimeBegin 속성 및 titleTimeEnd 속성에 의해 기술된다.
고급 애플리케이션은 애플리케이션의 초기화 정보의 매니페스트 파일에 대한 URI에 의해 참조되어야 한다.
ApplicationSegment 엘리먼트는 이 애플리케이션에 대한 리소스 정보의 정보를 기술하는 ApplicationResource 엘리먼트의 리스트를 포함할 수 있다.
ApplicationSegment 엘리먼트는 애플리케이션 활성화 정보를 기술하는 optional 속성, language 속성, appBlock 속성, group 속성 및 autorun 속성을 가질 수 있다.
(a) titleTimeBegin 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 시작 시간 을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(b) titleTimeEnd 속성
타이틀 타임라인 상에서의 프리젠테이션 객체의 연속적인 단편의 종료 시간을 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값에 기술되어 있어야 한다.
(c) src 속성
애플리케이션의 초기화 정보를 기술하는 매니페스트 파일에 대한 URI를 기술한다.
(d) sync 속성
애플리케이션 시동 모드를 결정하는 하드-싱크 애플리케이션, 또는 소프트-싱크 애플리케이션을 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 'hard'이다.
(e) zOrder 속성
애플리케이션 z-order를 기술한다. 애플리케이션 z-order는 그래픽 플레인 내로의 애플리케이션 z-오더링 및 렌더링에서 사용되는 틱 클럭 주파수에 의해 사용된다.
(f) language 속성
ISO-639에 정의된 2-문자 소문자 심볼로 이루어진 애플리케이션 언어를 기술한다. 이 속성은 생략될 수 있다. language 속성이 없는 경우, 고급 애플리케이 션의 언어는 임의의 언어이다.
(g) appBlock 속성
이 애플리케이션이 속하는 애플리케이션 블록의 인덱스를 기술한다. 이 속성은 생략될 수 있다. 이 속성이 없는 경우, 이 애플리케이션은 어떤 애플리케이션 블록에도 속하지 않는다.
(h) group 속성
고급 애플리케이션이 속하는 고급 애플리케이션 그룹의 인덱스를 기술한다. 이 속성은 생략될 수 있다. group 속성이 없는 경우, 고급 애플리케이션은 어떤 애플리케이션 그룹에도 속하지 않는다.
(i) autorun 속성
이 값이 'true'인 경우, 고급 애플리케이션은 타이틀 타임라인 상의 시간이 유효 기간에 들어갈 때 활성으로 되어야 한다. 이 값이 'false'인 경우, 고급 애플리케이션은 타이틀 타임라인 상의 시간이 유효 기간에 들어갈 때 비활성으로 되어야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'true'이다.
(j) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 18에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG)는 고급 애플리케이션(ADAPL)에 관한 재생/표시 클립 엘리먼트를 의미한다. 애플리케이션 세그먼트(APPLSG)는 타이틀 내에서의 고급 애플리케이션(ADAPL)의 객체 매핑 정보(OBMAPI)의 내용을 설명하고 있다. 고급 애플리케이션(ADAPL)은 타이틀 타임라인(TMLE) 상에서의 특정 시간 범위 내에 스케쥴링되어야 한다. 이 특정 시간 범위를 고급 애플리케이션(ADAPL)의 유효 기간이라고 부른다. 타이틀 타임라인(TMLE) 상의 진행 시간(카운트 값)가 유효 기간에 도달한 때에는, 고급 애플리케이션(ADAPL)은 유효 기간에 들어갔다고 한다. 또한, 고급 애플리케이션(ADAPL)의 타이틀 타임라인(TMLE) 상에서의 유효 기간은 타이틀 타임라인(TMLE) 상에서의 시작 시간 및 종료 시간에 기초하여 설정된다. 즉, 유효 기간의 시작 시간은 도 56b의 (d)에 도시하는 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)에 기초하여 설정되고, 고급 애플리케이션(ADAPL)의 유효 기간의 종료 시간은 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)에 기초하여 각각 설정된다. 또한, 도 12 또는 도 18에 도시한 바와 같이, 고급 애플리케이션(ADAPL)을 참조하는 경우에는, 재생 목록 파일(PLLST)로부터 매니페스트 파일(MNFST)을 참조한다. 고급 애플리케이션의 초기 설정 정보를 포함한 매니페스트 파일 저장 장소(URIMNF)를 나타내는 src 속성 정보(소스 속성 정보)의 값은 URI(uniform resource identifier)의 형식으로 기술된다. 그 결과, 고급 애플리케이션(ADAPL)에서의 초기 상태에 필요한 정보가 획득될 수 있다. 도 56a의 (b)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에는 애플리케이션 리소스 엘리먼트(APRELE)의 리스트가 포함될 수 있다. 애플리케이션 리소스 엘리먼트(APRELE)는 대응하는 고급 애플리케이션(ADAPL)에 대한 리소스 정보(RESRCI)를 나타낸다(도 63c의 (d) 참조). 도 56b의 (d)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그는 언어 속성 정보(LANGAT)(language 속성 정보), 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)(appBlock 속성 정보), 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)(group 속성 정보), 및 오토런 속성 정보(ATRNAT)(autorun 속성 정보)를 포함하지만, 이들 4가지 종류의 속성 정보를 애플리케이션 활성화 정보라고 부른다(애플리케이션 활성화 정보의 사용방법은 도 58을 참조하여 후술한다). 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내에는, 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI)에 선행하여, 애플리케이션 세그먼트 엘리먼트의 ID 정보(APPLID)가 "ID="의 직후에 기술된다. 이와 같이 애플리케이션 세그먼트 엘리먼트의 ID 정보(APPLID)가 설정될 수 있기 때문에, 본 실시예에서는 객체 매핑 정보(OBMAPI) 내에 복수의 애플리케이션 세그먼트 엘리먼트(APPLSG)가 설정될 수 있다. 따라서, 1개의 타이틀의 표시 기간 내에 각각 표시형식이 다른 복수의 고급 애플리케이션(ADAPL)이 표시될 수 있고, 그에 의해 사용자에의 표현 방법을 크게 향상시킬 수 있다. 게다가, 도 82에 도시한 바와 같이, ID 정보(APPLID)를 설정함으로써, API 명령에 기초한 ID 정보(APPLID)를 이용한 특정한 애플리케이션 세그먼트 엘리먼트(APPLSG)의 지정이 용이하게 될 수 있고, 그에 따라 API 명령 처리 제어를 간소화할 수 있다. 또한, 도 56b의 (d)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI) 내의 선두 부분에, 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)의 정보와 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd)의 정보가 기술된다. 도 56b의 (c)로 부터 알 수 있는 바와 같이, 고급 자막 세그먼트 엘리먼트(ADSTSG), 및 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에서는 고급 자막 세그먼트 엘리먼트의 속성 정보(ADATRI) 및 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI)의 각각의 선두 위치에 타이틀 타임라인 상의 시작 시간(TTSTTM)과 종료 시간(TTEDTM)을 먼저 기술하도록 되어 있다. 이와 같이 타이틀 타임라인 상에서의 유효 기간의 시작/종료 시간을 맨 먼저 기술하는 경우, 재생 목록 관리자(PLMNG)(도 28 참조)에 의한 타이틀 타임라인(TMLE) 상에서의 표시 타이밍 설정 처리의 속도가 증가될 수 있다. 본 실시예에 있어서, 고급 애플리케이션(ADAPL)에서는 재생/표시 객체의 동기 속성 정보(SYNCAT)(svnc 속성 정보)로서 "hard" 또는 "soft"의 두 가지 정보 중 하나가 설정될 수 있다. 즉, 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)의 값을 "hard"로 설정한 경우에는, 도 17의 설명 문장으로 기술한 바와 같이 하드 싱크 점프 상태를 나타낸다. 즉, 고급 애플리케이션(ADAPL)을 로딩하고 있는 동안 타이틀 타임라인(TMLE) 상의 진행(카운트-업)이 일시적으로 정지되고, 표시되는 영상(예컨대, 1차 고화질 비디오 객체 데이터(P-EVOB)에 기초하는 영상 정보)의 표시도 일시적으로 정지하여, 정지 화상 상태를 제공한다. 고급 애플리케이션(ADAPL)의 로딩 처리가 종료한 경우에, 타이틀 타임라인(TMLE)의 진행(카운트-업)을 재개시키는 동시에 영상의 움직임을 재개시켜, 대응하는 고급 애플리케이션(ADAPL)을 표시한다. 또한, 재생/표시 객체의 동기 속성 정보(SYNCAT)(svnc 속성 정보)가 "soft"로 설정된 경우에, 이것은 소프트 싱크 점프를 의미한다. 즉, 사전에 고급 애플리케이션(ADAPL)의 로딩 처리가 행해지고, 타이틀 타임라인(TMLE)의 진행(카운 트-업)을 일시 정지하는 일 없이 매끄러운 표시를 실시하면서 로딩이 완료된 고급 애플리케이션(ADAPL)의 표시가 시작될 수 있다. 또한, 본 실시예에 있어서, 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)가 "soft"로 설정된 경우에는, 이 제어는 상기 내용에 한하지 않고, 도 65b에 도시하는 동기 처리가 실행될 수 있다. 즉, 도 65b에 도시하는 동기 처리는 클립 엘리먼트나 세그먼트 엘리먼트 내에 재생/표시 객체의 가져오기를 시작하는 타이틀 타임라인 상의 시간(PRLOAD)(preload 속성 정보)의 기술이 없는 경우에만 배타적으로 사용되며, 이는 클립 엘리먼트나 세그먼트 엘리먼트 내에 설정된 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보의 값)으로부터 클립 엘리먼트나 세그먼트 엘리먼트에 의해 지정되는(관리되는) 재생/표시 객체에서 사용되는 리소스의 파일 캐쉬(FLCCH) 내로의 로딩을 시작한다(타이틀 타임라인 상의 시작 시간(TTSTTM)과 파일 캐쉬(FLCCH) 내로의 로딩 기간(LOADPE)의 시작 시간을 일치시킨다). 이어서, 리소스의 파일 캐쉬(FLCCH) 내로의 로딩 처리와 타이틀 타임라인(TMLE) 상의 시간진행(카운트-업)이 동시에 계속되고, 사용자에게 표시하는 동화상의 진행을 중단시키지 않는 처리가 실행된다. 리소스의 파일 캐쉬(FLCCH) 내로의 로딩 기간(LOADPE)이 종료한 후에만 대응하는 고급 애플리케이션(ADAPL)의 표시 또는 실행을 시작하여, 고급 애플리케이션의 실행 기간(APACPE)에 들어 간다. 상기 실시예는 이하의 특징을 갖는다.
1) 고급 애플리케이션(ADAPL)에서 사용하는 리소스의 파일 캐쉬(FLCCH) 내로의 로딩 중에도 타이틀 타임라인(TMLE) 상의 시간 진행(카운트-업)이 계속하여 진행된다.
2) 고급 애플리케이션(ADAPL)의 표시 또는 실행을 시작하는 고급 애플리케이션의 실행 기간(APACPE)의 시작 시간이 클립 엘리먼트나 세그먼트 엘리먼트 내에 정의된 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)의 값보다 뒤에 온다.
이제부터, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 배치되는 Z-오더 속성(Z-인덱스) 정보(ZORDER)에 관하여 설명을 한다. 도 16에 도시한 바와 같이, 도움말 아이콘(33)으로부터 FF 버튼(38)에 이르는 복수의 버튼을 표시 화면 상에서 사용자에게 표시할 수 있다. 표시 화면 상에 도움말 아이콘(33)으로부터 FF 버튼(38)에 이르는 복수의 버튼을 표시하는 방법으로서, 매니페스트(MNFST)에 의해 고급 애플리케이션(ADAPL)의 표시 영역을 설정한 후에, 각각의 애플리케이션 엘리먼트로서 도움말 아이콘(33), 정지 버튼(34), 재생 버튼(35), FR 버튼(36), 일시 정지 버튼(37) 및 FF 버튼(38)의 표시 장소와 표시 크기를 매니페스트(MNFST)로부터 지정되는 마크업(MRKUP) 내에 설정할 수 있다(도 84 참조). 이 경우, 도움말 아이콘(33)이 1개의 애플리케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 40에 도시하는 그래픽 객체)에 대응하고, 정지 버튼(34)으로부터 FF 버튼(38)에 이르는 각각의 버튼도 서로 다른 애플리케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 40에 도시하는 그래픽 객체)에 따라 설정될 수 있다. 본 실시예에 있어서, 고급 애플리케이션(ADAPL)의 표시 영역 전체를 1개의 고급 애플리케이션(ADAPL)이라고 간주하여 동일한 애플리케이션 세그먼트 엘리먼트(APPLSG)에 기초하여 통합적으로 관리할 수도 있다. 게다가, 본 발명은 그에 한정되지 않으며, 컨텐츠 제공자의 작성 의도에 따라서 정지 버튼(34)으로부터 FF 버튼(38)에 이르는 각각의 버튼이 서로 다른 고급 애플리케이션(ADAPL)이라고 간주하고, 이들은 각각의 버튼에 대응하는 표시 도형이나 그 버튼을 누를 때에 실행되는 스크립트(SCRPT)의 단위로 애플리케이션 세그먼트 엘리먼트(APPLSG)에 기초하여 관리될 수 있다. 이 경우, 정지 버튼(34)으로부터 FF 버튼(38)까지의 각각의 버튼을 동시에 사용자가 입력할 수 있도록(포커스 상태에 있도록) 정지 버튼(34)에 대응하는 고급 애플리케이션(ADAPL)으로부터 FF 버튼(38)에 대응하는 고급 애플리케이션(ADAPL)까지의 고급 애플리케이션을 그룹화할 수 있다. 이와 같이 정지 버튼(34)에 대응하는 고급 애플리케이션(ADAPL)으로부터 FF 버튼(38)에 대응하는 고급 애플리케이션(ADAPL)까지의 고급 애플리케이션을 그룹화한 경우에는, 정지 버튼(34)에 관한 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)(group 속성 정보)의 설정값으로부터 FF 버튼(38)에 관한 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGULT)(group 속성 정보)의 설정값까지의 설정값을 전부 동일한 값으로 설정한다. 도 16에서는, 각각의 애플리케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 40에 도시하는 그래픽 객체)가 서로 다른 위치에 배치되어 있지만, 본 실시예에서는 복수의 애플리케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 4O에 도시하는 그래픽 객체)를 부분적으로 중첩되게 표시할 수 있다. 예컨대, 도 l6에 도시된 실시예에서, 도움말 아이콘(33) 위에 부분적으로 중첩하도록 정지 버튼(34)을 표시할 수 있다. 본 실시예에서는, 복수의 애플리 케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 40에 도시하는 그래픽 객체)를 상기한 바와 같이 부분적으로 중첩하도록 표시할 수 있다. 또한, 각각의 애플리케이션 엘리먼트(컨텐츠 엘리먼트, 또는 도 4O에 도시하는 그래픽 객체)에 따라 고급 애플리케이션(ADAPL)이 연관되는 경우, 복수의 고급 애플리케이션(ADAPL)이 부분적으로 중첩하게 배치되고, 어느 고급 애플리케이션(ADAPL)을 "상측"에 표시할지를 결정하기 위해 제어할 필요가 생긴다. 이 제어를 가능하게 하기 위해서, 각각의 고급 애플리케이션(ADAPL)에 따라 레이어를 설정하고, 그 레이어를 중첩한 상태로 그래픽 플레인(GRPHPL)(도 39 참조) 안에 표시하는 데이터 관리 방법을 채용한다. 즉, "상측"의 레이어로서 설정된 고급 애플리케이션(ADAPL)에 대응하는 그래픽 도형(애플리케이션 엘리먼트, 컨텐츠 엘리먼트, 또는 도 4O에 도시하는 그래픽 객체)이 "아래쪽"의 레이어로서 설정된 고급 애플리케이션(ADAPL)에 대응하는 그래픽 도형보다도 화면 상에서 "상측"에 표시되게 된다. 이에 따라, 각각의 고급 애플리케이션(ADAPL)에 대응하는 레이어 번호를 설정할 수 있다. 즉, 상기 Z-오더 속성(Z-인덱스) 정보(ZORDER)(zOrder 속성 정보)에 기초하여 대응하는 고급 애플리케이션(ADAPL)의 그래픽 플레인(GRPHPL) 상에서의 레이어 번호를 설정한다. 레이어 번호 정보의 값으로서는 "0" 또는 정수값이 설정될 수 있다. Z-오더 속성(Z-인덱스) 정보(ZORDER)(zOrder 속성 정보)는 도 24a의 (b)에 도시한 마크업 내에서 사용되는 틱 클럭의 주파수 정보(TKBASE)(tickBase 속성 정보)에 의해 사용(전환 제어)된다. 다음에 기술되는 언어 속성 정보(LANGAT)(language 속성 정보)는 고급 애플리케이션(ADAPL)에 의해 화면(예컨대, 메뉴 화면 등) 상에 표시되는 문자나 음성 등에 사 용되는 언어를 지정하는 정보이다. 여기서 지정한 언어 내용이 애플리케이션 언어 시스템 파라미터(도 46 내지 도 49 참조)에 의해 지정되어 있는 언어 내용과 다른 경우에는, 이 애플리케이션 세그먼트 엘리먼트(APPLSG)에 의해 지정된 고급 애플리케이션(ADAPL) 비활성 상태(활성이 아닌 상태)으로 된다. 언어 속성 정보(LANGAT)는 ISO-639에 따라 설정된 언어 코드(2-문자 소문자 심볼)로 구성된다. 본 실시예에 있어서는, 언어 속성 정보(LANGAT)의 기술이 애플리케이션 세그먼트 엘리먼트(APPLSG)의 속성 정보(APATRI) 내에서 생략될 수 있다. 이와 같이 언어 속성 정보(LANGAT)의 기술이 생략되는 경우에는, 고급 애플리케이션(ADAPL)의 언어는 상황에 대응하는 임의의 언어로서 설정된다. 또한, 애플리케이션 블록의 속성(인덱스 번호) 정보(APBLAT)(appBlock 속성 정보)는 도 57의 설명문 중에 상세히 설명한 바와 같이 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG)에 의해 지정된 고급 애플리케이션(ADAPL)이 속하는 고급 블록의 인덱스 번호(정수값)를 나타낸다. 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)의 기술은 애플리케이션 세그먼트 엘리먼트 속성 정보(APATRI) 내에서 생략될 수 있다. 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)의 기술이 생략된 경우에는, 이것은 대응하는 고급 애플리케이션(ADAPL)이 애플리케이션 블록 내에 속하지 않고 단독으로 존재하는 것을 의미한다.
상술한 바와 같이, 도 16에 도시하는 정지 버튼(34)에 대응하는 고급 애플리케이션(ADAPL)으로부터 FF 버튼(38)에 대응하는 고급 애플리케이션(ADAPL)까지의 고급 애플리케이션(ADAPL)이 그룹화되고, 그에 의해 사용자 입력에 대응하는 처리 를 간소화할 수 있다. 이와 같이 그룹화된 대상을 "고급 애플리케이션 그룹"이라고 부른다. 본 실시예에서는, 각각의 고급 애플리케이션 그룹에 따라 "인덱스 번호(정수값)"를 설정하고, 그에 의해 각각의 고급 애플리케이션 그룹의 식별을 가능하게 해준다. 인덱스 번호의 값이 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGMT)(group 속성 정보)로서 설정(기술)된다. 컨텐츠 제공자의 의도에 기초하여, 도 16에 도시하는 정지 버튼(34)으로부터 FF 버튼(38)까지의 버튼의 표시가 동시에 시작 또는 종료되거나, 정지 버튼(34)으로부터 FF 버튼(38)까지의 어느 것이라도 사용자에 의해 실행 지정될 수 있다(정지 버튼(34)으로부터 FF 버튼(38)까지를 동시에 포커스 상태로 할 수 있다). 정지 버튼(34)에 대응하는 고급 애플리케이션(ADAPL)으로부터 FF 버튼(38)에 대응하는 고급 애플리케이션(ADAPL)까지로 구성되는 고급 애플리케이션 그룹 전체를 실행 상태(활성 상태)로 설정한 경우에는, 고급 애플리케이션 그룹 내의 모든 고급 애플리케이션(ADAPL)이 동시에 실행 상태(활성 상태)가 된다. 본 실시예에 있어서, 모든 고급 애플리케이션(ADAPL)이 고급 애플리케이션 그룹에 속해 있을 필요는 없다. 애플리케이션 세그먼트 엘리먼트(APPLSG)가 관리하는 고급 애플리케이션(ADAPL)이 고급 애플리케이션 그룹에 속하지 않고 단독으로 존재하는 경우에는, 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGRAT)의 기술이 생략된다.
오토런 속성 정보(ATRNAT)(autorun 속성 정보)의 값으로서 "true" 또는 "false" 중 어느 하나를 설정할 수 있다. 타이틀 타임라인(TMLE)의 카운트 값이 유효 기간(titleTimeBegin(TTSTTM)부터 titleTimeEnd(TTEDTM)까지의 범위)에 들어 가고, 오토런 속성 정보(ATRNAT)의 값이 "true"인 경우에는, 고급 애플리케이션(ADAPL)이 자동으로 시동된다(활성으로 된다). "false"인 경우에는, 이것은 API 명령에 의해 지정을 받지 않는 한 활성 상태가 되지 않음을 의미한다. 또한, 오토런 속성 정보(ATRNAT)의 기술이 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI) 내에서 생략될 수 있다. 이와 같이 오토런 속성 정보(ATRNAT)의 기술이 생략되는 경우에는, 오토런 속성 정보(ATRNAT)의 디폴트값인 "true"가 자동으로 설정된다. 또한 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내에 마지막으로 기술되는 애플리케이션 세그먼트에 관한 부가 정보(description 속성 정보)는 사람이 용이하게 해석할 수 있는 텍스트 포맷으로 기술되어 있다. 부가 정보의 기술이 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI) 내에서 생략될 수 있다.
<애플리케이션 활성화 정보>
ApplicationSegment 엘리먼트는 optional 속성, language 속성, appBlock 속성, group 속성 및 autorun 속성을 가질 수 있다. 이들 속성은 애플리케이션 활성화 정보라도 부른다.
애플리케이션 활성화 정보는 타이틀 타임라인 상의 시간이 애플리케이션의 유효 기간에 들어갈 때 애플리케이션이 활성으로 되어야 하는지 비활성으로 되어야 하는지를 결정한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 56b의 (d)에 도시하는 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내에 선택적인 정보로서 언어 속성 정보(LANGAT), 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT), 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT), 및 오토런 속성 정보(ATRNAT)가 기술될 수 있다. 4가지 유형의 속성 정보는 애플리케이션 활성화 정보(대응하는 애플리케이션을 실행 상태로 설정할지 여부를 설정하는 데 사용되는 판정 정보)라고 불린다. 타이틀 타임라인(TMLE) 상에서의 고급 애플리케이션(ADAPL)의 유효 기간 내에(도 56b의 (d)에 도시하는) 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에서 설정된 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)으로부터 종료 시간(TTEDTM)(titleTimeEnd)까지 애플리케이션 활성화 정보에 기초하여 고급 애플리케이션(ADAPL)이 실행될 수 있는지 여부를 판정하는 것이 가능하다.
<언어 및 애플리케이션 블록>
애플리케이션은 애플리케이션 블록이라고 불리우는 ApplicationSegment 엘리먼트의 세트로부터 메뉴 언어 설정에 의해 선택적으로 활성화될 수 있다.
ApplicationSegment의 애플리케이션 언어는 language 속성에 의해 기술된다.
메뉴 언어는 시스템 파라미터 내에 정의된 메뉴 언어의 값이다.
애플리케이션 블록은 동일한 appBlock 속성값을 갖는 타이틀 내의 ApplicationSegment 엘리먼트의 세트이다. 애플리케이션 블록 내의 모든 ApplicationSegment 엘리먼트는 이하의 조건을 만족해야 한다.
Figure 112006062570134-PAT00102
language 속성이 애플리케이션 블록 내에 존재하고 독자적인 것이어야 한다.
Figure 112006062570134-PAT00103
유효 기간은 애플리케이션 블록 내에서 동일해야 한다.
Figure 112006062570134-PAT00104
autorun 속성은 애플리케이션 블록 내에서 동일해야 한다.
Figure 112006062570134-PAT00105
group 속성은 존재해서는 안 된다.
appBlock 속성은 language 속성이 존재하는 경우에 존재해야 한다.
이하의 표현은 애플리케이션 블록 및 언어의 예이다. 이 예에서, 메뉴 언어가 'en'인 경우, Appl_en, App2_en, App3_en 및 App4_en은 그의 유효 기간 내에 활성화된다.
메뉴 언어가 'fr'인 경우, Appl_fr, App2_fr, App3_en 및 App4_en은 그의 유효 기간 내에 활성화된다.
메뉴 언어가 'ja'인 경우, Appl_ja, App2_ja, App3_en 및 App4_ja은 그의 유효 기간 내에 활성화된다.
메뉴 언어가 'zh'인 경우, Appl_en, App2_zh, App3_en 및 App4_en은 그의 유효 기간 내에 활성화된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 57은 고급 애플리케이션(ADAPL)이 실행될 수 있는지 여부를 판정하는 데 사용되는 기준으로서, 언어 속성 정보(LANGAT)와 애플리케이션 블록의 속성(인덱스 번호) 정보(APBLAT)와의 관계를 나타낸 것이다. 도 57에 나타낸 실시예에서 타이틀의 디폴트 언어가 영어에 설정되고, 도 47에 있어서의 프로파일 파라미터로서 메뉴 언어가 영어로 기록되어 있는 경우에 관하여 설명한다(도 47에 있어서의 프로파일 파라미터는 도 14에 도시하는 내비게이션 관리자(NMVNG) 내에 포함된 메모리 영역 내에 저장되어 있다). 도 57에 도시한 바와 같이, 동일한 메뉴 내용을 서로 다 른 메뉴 언어에 의해 표시하는 고급 애플리케이션의 세트를 제공하는 것이 가능하다. 상기한 바와 같이, 본 실시예에 있어서는, 동일한 메뉴 내용을 갖고 사용자에게 표시할 때의 언어가 서로 다른 고급 애플리케이션(ADAPL)의 세트를 애플리케이션 블록이라고 부르고 있다. 동일한 애플리케이션 블록 내에서 사용자가 이해할 수 있는 언어로 표현된 고급 애플리케이션(ADAPL)을 선택적으로 실행(표시)하는 경우, 서로 다른 언어에 친숙해진 복수의 사람에 대하여 적정한 형태(각각의 사람에 적합한 언어 표현)로 동일한 메뉴 내용을 표시하는 일이 가능해진다. 예컨대, 도 57에 있어서, 애플리케이션 블록 속성(인덱 스번호) 정보(APBLAT)의 값이 1(appblock="1")인 중에는 메뉴 언어가 영어로 되어 있는 고급 애플리케이션(ADAPL#1_en)(영어), 메뉴 언어가 불어로 표시되는 고급 애플리케이션(ADAPL#1_fr)(불어) 및 메뉴 언어가 일본어로 표시되는 고급 애플리케이션(ADAPL#1_ja)(일본어)의 3 종류의 애플리케이션이 있으며, 사용자가 이해하기 쉬운 언어에 따라서 적절한 고급 애플리케이션(ADAPL)을 선택하고 실행(표시)할 수 있다. 애플리케이션 세그먼트 엘리먼트(APPLSG)에서의 메뉴에 표시되는 언어 내용은 도 56b의 (d)에 도시하는 언어 속성 정보(LANGAT)에 기초하여 설정되어 있다. 또한, 사용자에게 표시하여야 할 메뉴 언어 내용은 시스템 파라미터에서 메뉴 언어(도 47 참조)의 값에 기초하여 설정되어 있다. 동일한 타이틀 내에서 애플리케이션 블록은 복수의 애플리케이션 세그먼트 엘리먼트(APPLSG)의 조합 (세트) 구성을 갖는다. 또한, 동일한 애플리케이션 블록 내에서는 애플리케이션 세그먼트 엘리먼트(APPLSG0 태그 내에서의 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT) 는 동일한 값에 기초하여 설정된다. 따라서, 각각의 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내의 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)의 값을 참조하는 것에 의해, 각각의 애플리케이션 세그먼트 엘리먼트(APPLSG)가 어떤 애플리케이션 블록에 속해 있는가를 알 수 있다. 동일한 1개의 애플리케이션 블록내에서, 모든 애플리케이션 세그먼트 엘리먼트(APPLSG)는 이하의 조건을 만족해야 한다.
(1) 정상 상태에서 도 56b의 (d)에 도시하는 언어 속성 정보(LANGAT)는 선택적인 정보로서 설정되어 있지만, 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG)가 애플리케이션 블록 내에 존재하고 있는 경우에는, 언어 속성 정보(LANGAT)는 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 기술되어야만 한다. 또한, 동일한 애플리케이션 블록 내에 속하는 서로 다른 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 언어 속성 정보(LANGAT)의 서로 다른 값이 설정되어야 한다.
… 즉, 동일한 애플리케이션 블록 내에서 각각의 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 언어 속성 정보(LANGAT)의 값을 독자적으로 설정하는 경우, 재생 목록 관리자(PLMNG)(도 28 참조)가 사용할 수 있는(실행/표시할 수 있는) 애플리케이션 세그먼트 엘리먼트(APPLSG)의 선택 및 추출이 용이하게 될 수 있다.
(2) 동일한 애플리케이션 블록 내에 속하는 서로 다른 애플리케이션 세그먼트 엘리먼트(APPLSG) 사이에서 유효 기간(타이틀 타임라인 상에서의 시작 시간(TTSTTM)으로부터 타이틀 타임라인 상의 종료 시간(TTEDTM)까지의 기간)은 전부 가 서로 일치해야 한다.
… 그 결과, 표시 언어에 상관없이 모든 고급 애플리케이션(ADAPL)에서 사용자에의 표시 기간이 모두 서로 같게 되고, 그에 의해 재생 목록 관리자(PLMNG)의 타이틀 타임라인(TMLE) 상의 시간 관리가 용이하여진다.
(3) 동일한 애플리케이션 블록 내에 속하는 모든 서로 다른 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내의 오토런 속성 정보(ATRNAT)는 전부 동일한 값으로 설정해야 한다.
… 예컨대, 도 57에 도시하는 애플리케이션 블록 "1" 중에서 고급 애플리케이션(ADAPL#1_en)(영어)의 오토런 속성 정보(ATRNAT)를 "true"로 설정한 경우에는, 불어 및 일본어에 대응하는 고급 애플리케이션(ADAPL)에서의 오토런 속성 정보(ATRNAT)의 값도 "true"로 설정해야 한다. 또한, 애플리케이션 블록 "2"에 포함되는 고급 애플리케이션(ADAPL#2_en)(영어)의 오토런 속성 정보(ATRNAT)를 "false"로 한 경우에는, 불어, 일본어, 중국어의 대응하는 고급 애플리케이션(ADAPL)의 오토런 속성 정보(ATRNAT)의 설정값도 "false"로 설정해야 한다.
… 각각의 고급 애플리케이션(ADAPL)에 따라 오토런 속성 정보(ATRNAT)의 값이 서로 다른 경우, 특정 언어로 표시하는 고급 애플리케이션은 자동으로 시동되고, 다른 언어로 표시하는 고급 애플리케이션은 자동으로 시동되지 않으며, API 명령을 발행하지 않는 한 실행 상태로 제어가 천이하지 않는다. 이러한 경우, 재생 목록 관리자(PLMNG)의 관리/제어가 매우 번잡하게 된다. 상기한 조건을 설정하는 것에 의해 번잡함이 회피되며, 재생 목록 관리자(PLMNG)의 관리/제어를 간소화할 수 있다.
(4) 애플리케이션 블록 내에 포함되는 애플리케이션 세그먼트 엘리먼트(APPLSG) 태그 내에서 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)의 기술이 생략되어야만 한다.
… 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)는 사용자 옵션을 포함하는 APl 명령을 사용하여 동시에 실행 상태(활성)로 설정할 수 있는 고급 애플리케이션(ADAPL)을 그룹화함으로써 획득된다. 동일한 블록 내의 특정한 고급 애플리케이션(ADAPL)을 그룹화시키면, API 명령에 응답하여 특정한 언어 메뉴를 갖은 애플리케이션만이 시동되고, 그에 의해 그 언어를 이해하지 못한 사용자에게 위화감을 주게 된다. 따라서, 본 실시예에 있어서, 애플리케이션 블록에 포함되는 고급 애플리케이션(ADAPL)과 고급 애플리케이션 그룹에 포함되는 고급 애플리케이션(ADAPL)을 완전히 분리하는 것에 의해(동일한 고급 애플리케이션(ADAPL)이 애플리케이션 블록과 고급 애플리케이션 그룹의 양쪽에 포함되지 않음) 특정한 언어만 이해할 수 있는 사용자에 대해 잘못된 언어로 메뉴를 표시하는 오동작을 회피할 수 있다.
또한, 본 실시예에 있어서는, 도 56b의 (d)에 도시하는 언어 속성 정보(LANGAT)가 재생 목록(PLLST) 내에 기술되어 있는 경우에는, 애플리케이션 블록의 속성(인덱스 번호) 정보(APBLAT)도 기술해야 한다. 즉, 도 57에 도시한 바와 같이, 고급 애플리케이션(ADAPL#3_en)(영어)이 1개밖에 존재하지 않더라도(일본어나 불어 등의 메뉴 언어에 대응하는 고급 애플리케이션(ADAPL)을 갖지 않음), 이 애플리케이션은 애플리케이션 블록 "3" 내에 단독으로 존재하도록 정의되어 있다. 이와 같이 고급 애플리케이션(ADAPL) 내에 언어 코드가 설정되어 있는 경우에, 반드시 애플리케이션 블록을 구성하도록 설정하는 것에 의해 재생 목록 관리자(PLMNG)(도 28 참조)에서 사용자가 표시하여야 할(실행/사용해야 할) 고급 애플리케이션(ADAPL)의 선택 처리가 용이하게 될 수 있다.
도 57의 실시예에 있어서, 타이틀의 디폴트 언어를 영어로 설정한 경우에는, 각각의 유효 기간 내에서 실행/표시될 애플리케이션으로서 고급 애플리케이션(ADAPL#1_en)(영어), 고급 애플리케이션(ADAPL#2_en)(영어), 및 고급 애플리케이션(ADAPL#3_en)(영어)가 선택된다. 또한, 타이틀의 디폴트 언어를 일본어로 설정한 경우에는, 각각의 유효 기간 내에 고급 애플리케이션(ADAPL#1_ja)(일본어) 및 고급 애플리케이션(ADAPL#2_ja)(일본어)만이 실행/표시될 고급 애플리케이션으로서 추출되고, 고급 애플리케이션(ADAPL#3_en)(영어)의 표시 기간 내에, 대응하는 일본어의 메뉴 언어가 없기 때문에, 고급 애플리케이션(ADAPL)의 표시가 행하여지지 않는다.
<애플리케이션 활성화 정보>
도 56b의 (d)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트의 속성 정보(APATRI) 내에는 선택적인 속성 정보로서 언어 속성 정보(LANGAT), 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT), 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT), 및 오토런 속성 정보(ATRNAT)의 4 종류의 속성 정보가 존재한다. 이들 4 종류의 속성 정보를 애플리케이션 활성화 정보(대응하는 애플리케이션 이 실행되는지 여부를 설정하는 데 사용되는 판정 정보)라고 부른다. 타이틀 타임라인(TMLE) 상에서의 고급 애플리케이션(ADAPL)의 유효 기간(도 56b의 (d)에 도시하는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에서 설정된 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)부터 종료 시간(TTEDTM)(titleTimeEnd)까지의 기간) 내에 고급 애플리케이션(ADAPL)이 실행될 수 있는지 여부를 판정하는 데 애플리케이션 활성화 정보를 사용하는 것이 가능하다. 도 58은 타이틀 타임라인(TMLE) 상에서의 표시 시간이 고급 애플리케이션(ADAPL)의 유효 기간 내에 있는 경우, 대응하는 고급 애플리케이션(ADAPL)이 유효한지 여부를 판정하는 기준을 나타낸 것이다. 도 1에 도시한 바와 같이, 본 실시예에 있어서의 정보 저장 매체(DISC) 내에는 고급 컨텐츠 재생 유닛(ADVPL)이 존재한다. 게다가, 고급 컨텐츠 재생 유닛(ADVPL) 내에는 도 14에 도시한 바와 같이, 내비게이션 관리자(NVMNG)와 프리젠테이션 엔진(PRSEN)이 존재한다. 또한, 내비게이션 관리자(NVMNG) 내에는, 도 28에 도시한 바와 같이 재생 목록 파일(PLLST)의 내용을 해석하는 재생 목록 관리자(PLMNG)와 고급 애플리케이션(ADAPL)의 처리를 제어하는 고급 애플리케이션 관리자(ADAMNG)가 존재한다. 먼저, 도 56b의 (d)에 도시하는 애플리케이션 세그먼트 엘리먼트(APPLSG)의 내용을 재생 목록 관리자(PLMNG)가 해석한다. 재생 목록 관리자(PLMNG)은 도 58에 도시하는 고급 애플리케이션(ADAPL)의 유효성을 판단한다. 본 실시예는 이 구성에 한정되지 않고, 다른 실시예로서 재생 목록 관리자(PLMNG)가 도 56b의 (d)에 도시하는 애플리케이션 세그먼트 엘리먼트(APPLSG)의 내용을 추출할 수 있고 이 추출의 결과를 고급 애플리케이션 관리자(ADAMNG)로 보 내고, 고급 애플리케이션 관리자(ADAMNG)는 도 58에 기초하여 고급 애플리케이션(ADAPL)의 유효성을 판별할 수 있다. 여기서, 고급 애플리케이션(ADAPL)의 표시의 무효성이 판정되면, 사용자에 대하여 고급 애플리케이션(ADAPL)의 표시 (및 이 표시에 기초하는 실행 처리)는 행해지지 않는다. 이와 반대로, 재생 목록 관리자(PLMNG)(또는 고급 애플리케이션 관리자(ADAMNG))에서 고급 애플리케이션(ADAPL)의 유효성이 판정되면, 고급 애플리케이션 관리자(ADAMNG)는 도 30에 도시하는 프리젠테이션 엔진(PRSEN) 내의 고급 애플리케이션 프리젠테이션 엔진(AAPEN)을 제어하고, 그에 의해 대상으로서의(유효라고 판단됨) 고급 애플리케이션(ADAPL)의 표시 및 실행 처리가 시작된다.
도 58에 도시한 바와 같이, 고급 애플리케이션(ADAPL)의 유효성 판별이 시작되면, 우선 처음에 오토런 속성 정보(ATRNAT)가 "false"인지 여부가 판정된다(단계 S91).
도 56b의 (d)에 기술되어 있는 오토런 속성 정보(ATRNAT)가 "false"라고 판정된 경우에는, 고급 애플리케이션(ADAPL)은 무효인 것으로 간주되고(단계 S97), 사용자에의 표시 및 실행 처리는 전혀 행해지지 않고, 그에 따라 제어를 종료한다. 그렇지만, 이 상태에서도, API(애플리케이션 인터페이스 명령)이 대응하는 고급 애플리케이션(ADAPL)을 유효한 상태로 변경하는 데 사용될 수 있다. 다음에, 단계(S91)의 판정에 있어서, 오토런 속성 정보(ATRNAT)가 "false"가 아닌 경우 ("true"라고 지정된 경우)에는, 도 56b의 (d)에 기술된 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGRAT)가 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 기술되어 있는지 여부가 판정된다(단계 S92). 여기서, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGRAT)가 기술되어 있는 경우에는, 기술되어 있는 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGRAT)가 유효한지 여부가 판정된다(단계 S93). 여기서, 기재되어 있는 고급 애플리케이션 그룹의 속성(인덱스 번호) 정보(APGRAT)가 유효한 경우에는, 고급 애플리케이션(ADAPL)은 유효한 것으로 간주된다(단계 S98). 이 경우에는, 대응하는 고급 애플리케이션(ADAPL)의 표시 화면이 사용자에게 표시됨과 동시에, 사용자 행동에 대응하는 고급 애플리케이션(ADAPL)의 실행 처리가 시작된다. 또한, 사용자 요구에 기초한 API 명령이 입력된 경우, 또는 타이틀 타임라인(TMLE) 상의 고급 애플리케이션(ADAPL)의 유효 기간이 만료된 경우에는, 처리가 종료된다. 여기서, 단계(S93)의 판정 시에 규정되어 있는 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)가 무효인 경우에는, 고급 애플리케이션(ADAPL)은 무효인 것으로 간주된다(단계 S97). 그렇지만, 이 경우에도, 사용자에 의한 입력이나 특정한 스크립트에 기초하는 API 명령에 응답하여 유효한 애플리케이션 그룹이 선택 또는 변경될 수 있다. 단계(S97)에서 기술하는 고급 애플리케이션(ADAPL)이 무효인 것으로 간주되는 경우, API 명령에 기초한 유효성을 제공하는 애플리케이션 그룹 변경처리(또는 다른 선택 처리)에 의해, 단계(S93)에서의 유효성이 변경되고 단계(S98)에 도시한 바와 같이 고급 애플리케이션(ADAPL)이 유효한 것으로 변경되는 경우가 있다. 오토런 속성 정보(ATRNAT)과 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)의 판정 이외에, 이하에 기술하는 바와 같이 언어 속성 정보(LANGAT)를 사용한 애플리케이션(ADAPL)의 유효성에 대한 판정이 행해진다. 즉, 단계(S91)에 기초하는 오토런 속성 정보(ATRNAT)가 "true"이고 또한 단계(S92)에 기술하는 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT)가 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 기술되어 있지 않은 경우, 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)와 언어 속성 정보(LANGAT)가 기술되어 있는지 여부가 판정된다(단계 S94). 단계(S94)에 기술한 바와 같이 애플리케이션 블록 속성(인덱스 번호) 정보(APBLAT)와 언어 속성 정보(LANGAT)가 기술되어 있는 경우에는, 언어 속성 정보(LANGAT)가 메뉴 언어로 지정되어 있는지 여부가 판정된다(단계 S95). 정보 기록 및 재생 장치(1) 내에 고급 컨텐츠 재생 유닛(ADVPL)이 존재한다는 사실에 관해서는 이미 설명하였다. 고급 컨텐츠 재생 유닛(ADVPL)은 시스템 파라미터의 정보를 일시적으로 저장할 수 있는 메모리 영역을 가지고 있다. 도 47은 고급 컨텐츠 재생 유닛(ADVPL) 내에 일시적으로 저장되는 시스템 파라미터 중 프로파일 파라미터의 리스트를 나타낸 것이다. 도 47에 도시한 바와 같이, 프로파일 파라미터 내에 메뉴 언어를 지정하는 파라미터가 포함되어 있다. 단계(S95)에 기술하는 메뉴 언어란 도 47에 도시하는 프로파일 파라미터 내의 메뉴 언어를 의미한다. 내비게이션 관리자(NVMNG)는 메뉴 언어로 지정된 언어 정보와 도 56b의 (d)에 설정되어 있는 언어 속성 정보(LANGAT)가 일치하고 있는지 여부를 판정하고, 일치하고 있는 고급 애플리케이션(ADAPL)에 대하여 언어 정보가 유효하다고 설정된다(단계 S98). 이때, 언어 속성 정보(LANGAT)가 메뉴 언어와 일치하지 않는 경우에는, 타이틀 엘리먼트 내의 언어 속성 정보(LANGAT)는 디폴트 상태의 언어 속성(LANGAT)를 갖는 다. 또한, 애플리케이션 블록 내의 애플리케이션 세그먼트 엘리먼트(APPLSG)가 메뉴 언어의 언어 속성 정보(LANGAT)를 갖지 않는 경우(단계 S96)에는, 자동으로 대응하는 고급 애플리케이션(ADAPL)이 프로파일 파라미터로서 간주되고, 고급 애플리케이션(ADAPL)이 유효한 것으로 간주된다(단계 S98). 또한, 그렇지 않은 경우에는, 고급 애플리케이션(ADAPL)은 무효인 것으로 간주된다(단계 S97). 또한, 단계(S94)에 도시한 바와 같이, 애플리케이션 블록과 언어 속성 정보(LANGAT)가 기술되어 있지 않은 경우에는, 자동으로 고급 애플리케이션(ADAPL)이 무효힌 것으로 간주되고(단계 S97), 사용자에의 표시나 실행 처리를 하지 않고 제어는 종료 단계로 진행한다.
재생 목록(PLLIST) 내의 데이터 구성으로서, 도 23a의 (a)에 도시한 바와 같이, 타이틀 정보(TTlNFO)가 존재하고, 도 23a의 (b)에 도시한 바와 같이, 타이틀 정보(TTINF0) 내에는 각각의 타이틀에 따라 설정된 타이틀 엘리먼트 정보(TTELEM)가 기술되어 있다. 도 23a의 (c)에 도시한 바와 같이, 1개의 타이틀 엘리먼트 정보(TTELEM) 세트 내에는 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 트랙 내비게이션 정보(TRNAVI)와 스케쥴링된 제어 정보(SCHECI)가 존재한다. 도 59a 내지 도 59c는 객체 매핑 정보(OBMAPI) 내에 존재하는 메인 비디오 엘리먼트(MANVD), 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD) 및 서브 오디오 엘리먼트(SUBAD) 내의 데이터 구조를 나타낸 것이다.
도 10에 도시한 바와 같이, 1차 오디오 비디오(PRMAV)는 메인 비디 오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD)와 서브-픽처(SUBPT)를 포함할 수 있다. 이 구성에 따라, 도 59b의 (b)에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에는 메인 비디오 엘리먼트(MANVD), 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD) 및 서브 오디오 엘리먼트(SUBAD)의 정보가 기술되어 있을 수 있다. 도 59b의 (b)에 각각의 엘리먼트를 1개씩 기재하고 있지만, 본 발명은 이에 한정되지 않는다. 예컨대, 대응하는 1차 오디오 비디오(PRMAV) 내에 서브 비디오(SUBVD)와 서브 오디오(SUBAD)가 존재하지 않는 경우에는, 이들 구성요소가 없음에 따라 서브 비디오 엘리먼트(SUBVD)와 서브 오디오 엘리먼트(SUBAD)의 기술이 생략될 수 있다. 또한, 동일한 1차 오디오 비디오(PRMAV) 내에 복수의 메인 오디오(MANAD) 세트가 존재하는 경우에는, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 각각의 트랙에 대한 복수의 메인 오디오 엘리먼트(MANAD)가 기술될 수 있다. 도 10에 도시한 바와 같이, 본 실시예에서는, 대체 오디오 비디오(SBTAV)는 메인 비디오(MANVD)와 메인 오디오(MANAD)를 포함할 수 있다. 이러한 구성에 따라, 도 59b의 (b)에 도시한 바와 같이, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에는 메인 비디오 엘리먼트(MANVD)와 메인 오디오 엘리먼트(MANAD)가 기술될 수 있다. 게다가, 도 10에 도시한 바와 같이, 대체 오디오 비디오(SBTAV)의 객체의 기록 장소로서 네트워크(네트워크 서버(NTSRV))를 통한 경로가 기록되어 있는 경우에는, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 마찬가지로, 대체 오디오(SBTAD)와 2차 오디오 비디오(SCDAV)도 네트워크 서버(NTSRV) 내에 기록되는 경우에는, 이 구성에 따라 대체 오디오 클립 엘리먼트(SBADCP) 및 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 또한, 도 10에 도시한 바와 같이, 본 실시예에서는, 대체 오디오(SBTAD) 내에 메인 오디오(MANAD)가 포함될 수 있고, 2차 오디오 비디오(SCDAV) 내에는 서브 비디오(SUBVD)와 서브 오디오(SUBAD)가 포함될 수 있다. 따라서, 이 구조에 따라, 대체 오디오 클립 엘리먼트(SBADCP) 내에 메인 오디오 엘리먼트(MANAD)가 기술될 수 있고, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 서브 비디오 엘리먼트(SUBVD)와 서브 오디오 엘리먼트(SUBAD)가 기술될 수 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에서 설명한 바와 같이, 각각의 클립 엘리먼트 내에 복수의 트랙이 존재하는 경우에는, 각각의 트랙마다 각각의 엘리먼트가 복수개 기술되어 있. 메인 비디오 엘리먼트(MANVD) 내의 데이터 구조가 도 59c의 (c) 내에 도시되어 있고, 메인 오디오 엘리먼트(MANAD) 내의 데이터 구조는 도 59c의 (d)에 도시되어 있다. 게다가, 자막 엘리먼트(SBTELE) 내의 데이터 구조는 도 59c의 (e) 내에 도시되어 있고, 서브 비디오 엘리먼트(SUBVD) 내의 데이터 구조는 도 59c의 (f)에 도시되어 있으며, 서브 오디오 엘리먼트(SUBAD) 내의 데이터 구조는 도 59c의 (g)에 도시되어 있다. 도 59c의 (c)부터 (g)까지에 도시하는 각각의 엘리먼트 태그 내의 정보는 엘리먼트 태그의 종류에 상관없이 똑같이 이하의 특징을 가지고 있다.
(1) "track=[트랙 번호(TRCKAT)"가 각각의 엘리먼트 태그 내의 선두 부분에 기술되어 있다. 트랙 번호를 각각의 엘리먼트 태그 내의 맨 처음에 기술하는 경 우, 각각의 엘리먼트 태그에 대한 트랙 번호의 식별이 용이하게 될 수 있고 고속으로 식별이 행해질 수 있다.
(2) 각각의 엘리먼트 태그 내의 마지막 부분에 똑같이 "description=[부가 정보]"가 기술된다. 도 54a 및 도 54b, 도 56a 및 도 56b에 도시한 바와 같이, 각각이 클립 엘리먼트 내에서도 "description=[부가 정보]"가 가장 마지막으로 기술되어 있고, 그에 의해 각각의 엘리먼트 태그 내에서의 배치를 똑같게 할 수 있다. "description=[부가 정보]"의 배치 위치가 이와 같이 똑같기 때문에, 도 28에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)에서 "description=[부가 정보]"의 장소가 용이하게 추출될 수 있고, 그에 따라 재생 목록(PLLST) 내의 데이터 해석의 용이화와 고속화를 도모할 수 있다.
(3) 트랙 번호 정보(TRCKAT)와 부가 정보의 사이에 "mediaAttr=[미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)]"가 기술(배치)된다.
(4) 트랙 번호 정보(TRCKAT)와 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)와의 사이에 "streamNumber=[스트림 번호]" 또는 "angleNumber=[앵글 번호 정보(ANGLNM)]"가 기술(배치)된다.
상기 (3) 및 (4)에 기술된 바와 같은 데이터 배치의 공통화를 꾀하는 경우, 재생 목록 관리자(PLMNG)를 사용하는 것에 의한 각각의 엘리먼트 태그 내에서의 관련 정보의 검색의 용이화와 고속화를 달성될 수 있다. 이제부터, 이하에서 각각의 객체 엘리먼트 내의 데이터 구조에 대해 설명을 한다.
<Video 엘리먼트>
Video 엘리먼트는 P-EVOB의 VM_PCK 내의 메인 비디오 스트림에 대한 비디오 트랙 번호 할당을 기술한다.
Video 엘리먼트의 XML 신택스 표현:
<Video
track = positiveInteger
angleNumber = positiveInteger
mediaAttr = positiveInteger
description = string
/>
Video 엘리먼트는 PrimaryAudioVideoClip 엘리먼트 내에 및 SubstituteAudioVideoClip 엘리먼트 내에 존재할 수 있다. Video 엘리먼트가 P-EVOB의 인터리빙된 블록을 참조하는 PrimaryAudioVideoClip 엘리먼트 내에 존재하는 경우, Video 엘리먼트는 인터리빙된 블록 내의 어느 P-EVOB가 이용가능한지와 P-EVOB 내의 메인 비디오에 대한 비디오 트랙 번호 할당을 기술한다. 그렇지 않은 경우, P-EVOB 내의 메인 비디오가 이용가능한 것으로 취급되고 비디오 트랙 번호 '1'에 할당되어야 한다.
(a) track 속성
비디오 트랙 번호를 기술한다. 비디오 트랙 번호는 1 내지 9의 정수이어야 한다.
(b) angleNumber 속성
프리젠테이션 클립이 P-EVOB의 인터리빙된 블록을 참조하는 경우, 인터리빙된 블록 내의 어느 P-EVOB가 이용가능하고 비디오 트랙 번호에 대해 선택되는지를 기술한다. 그렇지 않은 경우, angleNumber 속성은 생략되어야 한다. 부모 엘리먼트가 PrimaryAudioVideoClip 엘리먼트인 경우, 최대 angleNumber는 '9'이다. 부모 엘리먼트가 SubstituteAudioVideoClip 엘리먼트인 경우, streamNumber는 '1'이어야 한다. 디폴트값은 '1'이다.
(c) mediaAttr 속성
비디오 스트림에 대한 미디어 속성 정보의 미디어 속성 인덱스를 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 1이다.
(d) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
우선 먼저 메인 비디오 엘리먼트(MANVD) 내의 데이터 구조에 대해 설명을 한다. 1차 고화질 비디오 객체(P-EVOB) 내에 존재하는 메인 비디오 팩(Vm_PCK)에서의 각각의 메인 비디오(MANVD) 스트림에 따라 설정되는 비디오 트랙 번호에 관한 정보는 메인 비디오 엘리먼트(MANVD) 내에 기재된다. 본 실시예에 있어서, 메인 비디오 엘리먼트(MANVD)는 1차 오디오 비디오 클립 엘리먼트(PRAVCP)와 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내에 기술될 수 있다. 1차 고화질 비디오 객 체(P-EVOB)의 인터리빙된 블록을 참조하고 있는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 메인 비디오 엘리먼트(MANVD)가 존재하고 있는 경우에는, 메인 비디오 엘리먼트(MANVD)는 인터리빙된 블록 내에 1차 고화질 비디오 객체가 존재함을 의미한다. 또한, 동시에, 메인 비디오 엘리먼트(MANVD) 내에는 1차 고화질 비디오 객체(P-EVOB) 내의 메인 비디오(MANVD)에 대한 비디오 트랙 번호의 설정 정보가 기술되어 있다. 1차 고화질 비디오 객체(P-EVOB)가 인터리빙된 블록을 형성하지 않는 경우에는, 1차 고화질 비디오 객체(P-EVOB) 내의 메인 비디오(MANVD)가 단독으로 존재하고 메인 비디오(MANVD)의 트랙 번호는 "1"로 설정된다. 도 59c의 (c)에 기술된 트랙 번호 정보(TRCKAT)는 대응하는 메인 비디오 엘리먼트(MANVD)에 의해 지정되는 비디오 트랙 번호의 정보를 의미한다. 본 실시예에 있어서는, 비디오 트랙 번호는 양의 정수 1부터 9까지 중 어느 하나로 설정되어야만 한다. 트랙 번호 정보(TRCKAT)의 값은 트랙 내비게이션 정보(TRNAVI)의 비디오 트랙 엘리먼트(VDTRK) 태그 내에서의 비디오 트랙 번호(VDTKNM)(도 62b의 (d) 참조)에 대응한다. 즉, 트랙 번호 할당 정보(객체 매핑 정보(OBMAPI))에서의 메인 비디오 엘리먼트(MANVD) 태그 내에 기술되는 메인 비디오(MANVD)의 속성 정보나 앵글 번호 정보와 트랙 내비게이션 정보(TRNAVI)에서의 비디오 트랙 엘리먼트(VDTRK) 태그 내에 기술된 사용자 선택 가부 정보와의 사이의 관계는 일치한 값을 갖는 트랙 번호 정보(TRCKAT)와 비디오 트랙 번호(VDTKNM)를 통해 알 수 있다. 도 59c의 (c)에 도시하는 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)는 인터리빙된 블록 내에 1차 고화질 비디오 객체 데이터(P-EVOB)가 존재함을 의미한다. 또한, 인터리 빙된 블록에서 선택되는 앵글 번호 정보(ANGLNM)에 기초하여 대응하는 표시 클립이 1차 고화질 비디오 객체(P-EVOB)의 인터리빙된 블록을 참조하는 경우에는, 인터리빙된 블록은 표시될 비디오 트랙 번호를 선택하는 데 필요한 정보로서 이용된다. 즉, 인터리빙된 블록 내에 1차 고화질 비디오 객체(P-EVOB)가 존재하는 경우에, 각각의 메인 비디오 스트림에 따라 트랙 번호 정보(TRCKAT)와 동시에 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)를 설정하는 것에 의해, 플레이어가 사용자 요구에 응답하여 사용자에게 표시하는 앵글의 선택이 용이하여진다. 대응하는 메인 비디오(MANVD)가 인터리빙된 블록 내에 존재하지 않는 경우에는, 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)(angleNumber 속성 정보)의 기재가 생략된다. 메인 비디오 엘리먼트(MANVD)가 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 기술되어 있는 경우에는, 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)로서 최대 "9"까지 설정될 수 있다. 또한, 메인 비디오 엘리먼트(MANVD)가 대체 오디오 클립 엘리먼트(SBADCP) 내에 기술되어 있는 경우에는, 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)의 값은 "1"로 설정된다. 본 실시예에 있어서, 인터리빙된 블록 내에서 선택되는 앵글 번호 정보(ANGLNM)의 디폴트값은 "1"로 설정된다. 도 59c의 (c)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)는 대응하는 메인 비디오 스트림에 대한 미디어 속성 정보(MDATRI)의 미디어 속성 인덱스 번호의 값을 나타낸다. 도 79a의 (a)에 도시한 바와 같이 재생 목록(PLLST) 내에 미디어 속성 정보(MDATRI)가 존재하고, 미디어 속성 정보(MDATRI) 내에 비디오에 대한 비디오 속 성 항목 엘리먼트(VABITM)가 기술되어 있다. 도 59b의 (b)에 도시한 바와 같이 메인 비디오 엘리먼트(MANVD)와 서브 비디오 엘리먼트(SUBVD)에서의 해상도나 화면 표시 크기 등의 속성이 전부 똑같은 경우에는, 도 79a의 (b)에 도시한 바와 같이 미디어 속성 정보(MDATRI) 내에 l 개의 비디오 속성 항목 엘리먼트(VABITM)가 존재하고, 모든 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값이 "1"로 설정되며, 공통인 속성 정보가 참조된다. 반면에, 각각의 메인 비디오 엘리먼트(MANVD)와 서브 비디오 엘리먼트(SUBVD)의 해상도나 표시 화면 크기 등의 속성 정보가 서로 다르고 복수의 속성 정보를 각각 참조하는 경우에는, 도 79a의 (b)에 도시한 바와 같이 각각의 속성 정보에 대응하는 복수의 비디오 속성 항목 엘리먼트(VABITM)가 기술되고, 복수의 비디오 속성 항목 엘리먼트(VABITM) 내의 어느 것이 대응하는지를 나타내는 번호가 도 59c의 (c)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)에 기술된다. 상기한 바와 같이, 본 실시예에 있어서, 재생 목록(PLLST) 내에 기재되는 정보로서 객체 매핑 정보(OBMAPI)가 기술되어 있는 타이틀 정보(TTINFO)와 다른 영역에 미디어 속성 정보(MDATRI)가 통합하여 기술시되어 있는 경우에, 각각의 비디오 엘리먼트에 대한 속성의 검색이 용이하게 될 뿐만 아니라, 공통된 비디오 속성 정보를 서로 다른 비디오 엘리먼트 사이에서 참조하는 것에 의해 재생 목록(PLLST) 내에 기재되는 데이터량도 감소할 수 있다. 본 실시예에 있어서는, 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 기재를 생략하는 것이 가능하다. 이러한 경우에는, 디폴트값인 "1"이 자동으로 설정 된다. 도 59c의 (c)에 도시한 바와 같이, 메인 비디오 엘리먼트 태그 내의 마지막 부분에 비디오 엘리먼트에 관한 부가 정보가 사람에게 친숙한 텍스트 포맷으로 기술된다. 비디오 엘리먼트에 관한 부가 정보의 기재가 메인 비디오 엘리먼트 태그 내에서 생략될 수 있다.
<Audio 엘리먼트>
Audio 엘리먼트는 P-EVOB의 AM_PCK 내의 메인 오디오 스트림에 대한 오디오 트랙 번호 할당을 기술한다.
Audio 엘리먼트의 XML 신택스 표현
<Audio
track = positiveInteger
streamNumber = positiveInteger
mediaAttr = positiveInteger
description = string
/>
P-EVOB 및 S-EVOB 내의 이용가능한 오디오 트랙은 PrimaryAudioVideoClip 엘리먼트 및 SubstituteAudioClip 엘리먼트 내의 Audio 엘리먼트의 리스트에 의해 기술되어야 한다.
Audio 엘리먼트는 오디오 트랙 번호로부터 메인 오디오 스트림으로의 변환 정보를 기술한다.
(a) track 속성
오디오 트랙 번호를 기술한다. 오디오 트랙 번호는 1부터 8까지의 정수이어야 한다.
(b) streamNumber 속성
P-EVOB/S-EVOB의 AM_PCK 내의 어느 오디오 스트림이 오디오 트랙 번호에 할당되는지를 기술한다. 이 속성값은 오디오 stream_id + 1이 되어야 한다. 선형 PCM, DD+, DTS-HD 또는 MLP의 경우, 오디오 stream_id는 sub_stream_id의 최하위 3 비트이다. MPEG-1 오디오/MPEG-2 오디오의 경우, 오디오 stream_id는 패킷 헤더 내의 stream_id의 최하위 3 비트이다. streamNumber는 1부터 8까지의 정수이어야 한다. 디폴트값은 '1'이다.
(c) mediaAttr 속성
오디오 스트림에 대한 미디어 속성 정보의 미디어 속성 인덱스를 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 '1'이다.
(d) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 도 59c의 (d)에 도시하는 메인 오디오 엘리먼트(MANAD) 내의 데이터 구조에 관해서 설명을 한다. 메인 오디오 엘리먼트(MANAD)에는 1차 고화질 비디오 객체(P-EVOB)의 메인 오디오 팩(AM_PCK) 내의 메인 오디오 스트림의 오디오 트랙 번호의 설정에 관한 정보 또는 2차 고화질 비디오 객체(S-EVOB)의 메인 오디 오 팩(AM_PCK) 내의 메인 오디오 스트림에 관한 오디오 트랙 번호의 설정에 관한 정보가 기재되어 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 및 대체 오디오 클립 엘리먼트(SBADCP) 내에서의 오디오 엘리먼트의 리스트에 기초하여, 1차 고화질 비디오 객체(P-EVOB)와 2차 고화질 비디오 객체(S-EVOB) 내에 존재할 수 있는(사용될 수 있는) 오디오 트랙의 정보가 각각 기재된다. 즉, 예컨대, 대응하는 오디오 스트림에 3개의 오디오 트랙이 존재하는 경우에는, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 1로부터 3까지의 각각의 트랙 번호가 설정되어 있는 3개의 메인 오디오 엘리먼트(MANAD)가 기술된다. 메인 오디오 엘리먼트(MANAD)에는 각각의 오디오 트랙 번호로부터 메인 오디오 스트림(MANAD)으로 변환되는 정보가 기술되어 있다. 즉, 도 59c의 (d)에 도시한 바와 같이, 각각의 메인 오디오(MANAD)에 대한 트랙 번호 정보(TRCKAT)로부터 대응하는 오디오 팩의 오디오 스트림 번호(ADSTRN)의 대응 관계를 추출할 수 있다. 지정된 트랙 번호로부터 대응하는 오디오 스트림 번호(ADSTRN)가 추출되는 경우, 고화질 비디오 객체(EVOB) 내에 설정된 오디오 스트림 번호(ADSTRN)의 정보를 이용하여 재생에 필요한 메인 오디오 스트림(MANAD)이 추출될 수 있다. 도 59c의 (d)에 도시하는 트랙 속성 정보는 트랙 번호 정보(TRCKAT)를 나타낸다. 본 실시예에 있어서, 트랙 번호 정보(TRCKAT)의 값으로서 1부터 8까지의 양의 정수 중 하나가 기술될 수 있다. 즉, 본 실시예에 있어서는, 메인 오디오(MANAD)로서 최대 8트랙까지 정보가 기록될 수 있다. 트랙 번호정보(TRCKAT)의 값은 트랙 내비게이션 정보(TRNAVI)의 오디오 트랙 엘리먼트(ADTRK) 태그 내에서의 오디오 트랙 번호(ADTKNM)(도 62b의 (d) 참조)에 대응한 다. 즉, 트랙 번호 할당 정보(객체 매핑 정보(OBMAPI))에서의 메인 오디오 엘리먼트(MANAD) 태그 내에 기술된 메인 오디오(MANAD)의 속성 정보나 오디오 스트림 번호 정보와 트랙 내비게이션 정보(TRNAVI)에서의 오디오 트랙 엘리먼트(ADTRK) 태그 내에 기술된 사용자 선택 가부 정보나 언어 코드 정보와의 사이의 관계는 동일한 값을 갖는 트랙 번호 정보(TRCKAT)와 오디오 트랙 번호(ADTKNM)을 통해 알 수 있다. 또한, 1차 고화질 비디오 객체(P-EVOB) 또는 2차 고화질 비디오 객체(S-EV0B)의 메인 오디오 팩(AM_PCK) 내의 오디오 스트림에는 각각 서로 다른 오디오 트랙 번호가 설정되어 있고, 트랙 번호에 대응하는 오디오 팩의 오디오 스트림 번호(ADSTRN)의 정보가 상기 대응 관계를 나타낸다. 트랙 번호에 대응하는 오디오 팩의 오디오 스트림 번호(ADSTRN)의 값으로서, 오디오 스트림의 ID 번호에 "1"을 가산하여 얻은 값이 설정된다. 선형 PCM, DD+, DTS-HD, 또는 MLP에서 오디오 스트림 ID의 값은 서브 스트림 ID의 의미 있는 하위 3 비트에 표시된다. 또한, MPEG1 오디오, 또는 MPEG2 오디오에 있어서는, 오디오 스트림 ID의 값은 패킷 헤더 내의 스트림 lD의 의미있는(유효한) 하위 3 비트에 의해 정의된다. 본 실시예에 있어서, 오디오 스트림 번호(ADSTRN)의 값은 1부터 8까지의 양의 정수로 설정된다. 오디오 스트림 번호(ADSTRN)의 디폴트값은 "1"로 설정된다. 도 59c의 (d)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)는 오디오 스트림에 대응하는 미디어 속성 정보(MDATRI)의 미디어 속성 인덱스 번호를 나타낸다. 오디오 스트림에 대응하는 미디어 속성 정보(MDATRI)는 도 79a의 (b)에 도시한 바와 같이 재생 목록(PLLST) 내의 미디어 속성 정보(MDATRI) 내의 오 디오 속성 항목 엘리먼트(AABITM) 내에 기재된다. 도 59c의 (b)에 도시한 바와 같이, 객체 매핑 정보(OBMAPI) 내의 메인 오디오 엘리먼트(MANAD)의 오디오 압축 코드나 샘플링 주파수 양자화 비트 수 등의 오디오 속성 정보가 객체 매핑 정보(OBMAPI) 내의 서브 오디오 엘리먼트(SUBAD)의 것과 전부 일치하는 경우에는 도 79a의 (b)에 1개의 공통된 오디오 속성 항목 엘리먼트(AABITM)가 기술된다. 이와 반대로, 도 59a 내지 도 59c에 도시하는 메인 오디오 엘리먼트(MANAD)와 서브 오디오 엘리먼트(SUBAD) 내에 압축 코드 정보나 오디오 샘플링 주파수 등의 복수의 서로 다른 속성 정보가 설정되어 있는 경우에는, 도 79a의 (b)에 서로 다른 오디오 속성의 수에 대응하는 수의 오디오 속성 항목 엘리먼트(AABITM)가 기술된다. 복수의 오디오 속성 항목 엘리먼트(AABITM)가 기술된 경우에는, 각각의 오디오 속성 항목 엘리먼트(AABITM)와의 연관성을 지정할 필요가 있기 때문에, 오디오 속성 항목 엘리먼트(AABITM) 내에 기술된 미디어 인덱스 번호 정보(INDEX)를 지정하는 것에 의해 각각의 메인 오디오 엘리먼트(MANAD) 또는 서브 오디오 엘리먼트(SUBAD)에 대응하는 오디오 속성 항목 엘리먼트(AABITM)를 연관시키는 것이 가능해진다. 상기한 바와 같이, 객체 매핑 정보(OBMAPI)가 기술되어 있는 타이틀 정보(TTINFO)의 장소와 다른 오디오 속성 항목 엘리먼트(AABITM)가 통합되어 기재되어 있는 미디어 속성 정보(MDATRI)의 장소를 설정하는 것에 의해, 오디오 정보 재생 시에 있어서의 오디오 디코더의 설정/관리를 용이하게 할 수 있음과 동시에, 공통의 속성 정보를 갖는 오디오 속성 항목 엘리먼트(AABITM)를 공유시키는 것에 의해, 재생 목록(PLLST) 내의 기재된 정보량을 감소시킬 수 있다. 도 59c의 (d)에 도시하는 오 디오 엘리먼트에 관한 부가 정보는 사람에 친숙한 텍스트 포맷으로 기술되어 있다. 오디오 엘리먼트에 관한 부가 정보의 기술은 메인 오디오 엘리먼트(MANAD) 태그 내에서 생략될 수 있다.
<Subtitle 엘리먼트>
Subtitle 엘리먼트는 P-EVOB의 SP_PCK 내의 서브-픽처 스트림 및 고급 자막에 대한 자막 트랙 번호 할당을 기술한다.
Subtitle 엘리먼트의 XML 표현
<Subtitle
track = positiveInteger
streamNumber = positiveInteger
mediaAttr = positiveInteger
description = string
/>
P-EVOB 내의 이용가능한 서브-픽처 스트림은 PrimaryAudioVideoClip 엘리먼트 내의 Subtitle 엘리먼트의 리스트에 의해 기술되어야 한다.
Subtitle 엘리먼트가 PrimaryAudioVideoClip 엘리먼트 내에 있는 경우, Subtitle 엘리먼트는 자막 트랙 번호로부터 P-EVOB 내의 서브-픽처 스트림으로의 변환 정보를 기술한다.
Subtitle 엘리먼트가 AdvancedSubtitleSegment 엘리먼트 내에 있는 경우, Subtitle 엘리먼트는 지정된 자막 트랙 번호에 할당된 고급 자막의 대응하는 세그 먼트를 기술한다.
(a) track 속성
자막 트랙 번호를 기술한다. 자막 트랙 번호는 1부터 32까지의 정수이어야 한다.
(b) streamNumber 속성
부모 엘리먼트가 PrimaryAudioVideoClip 엘리먼트인 경우, streamNumber는 서브-픽처 스트림 번호 + 1을 기술한다. 서브-픽터 스트림 번호는 표시 유형에 따라 EVOB_SPST_ATRT에 의해 디코딩 스트림 번호로 변환되어야 한다. 디코딩 스트림 번호는 P-EVOB 내의 SP_PCK를 식별한다. streamNumber는 1부터 32까지의 정수이어야 한다. 부모 엘리먼트가 AdvancedSubtitleSegment 엘리먼트인 경우, streamNumber는 생략되어야 한다. 디폴트값은 '1'이다.
(c) mediaAttr 속성
서브-픽처 스트림에 대한 미디어 속성 정보의 미디어 속성 인덱스를 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 '1'이다. 고급 자막에 대한 Subtitle 엘리먼트의 경우, mediaAttr 속성은 무시되어야 한다.
(d) description 속성
사람에게 친숙한 텍스트 포맷으로 부가 정보를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
1차 오디오 클립 엘리먼트(PRAVCP) 내에 자막 엘리먼트(SBTELE)가 존재하는 경우에는, 자막 엘리먼트(SBTELE)의 정보 내에 자막 트랙 번호로부터 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 서브-픽처 스트림으로의 변환 정보가 기술되어 있다. 즉, 도 59c의 (e) 내에 자막의 트랙 번호 정보(TRCKAT)와 트랙 번호에 대응하는 서브-픽처 팩에서의 서브-픽처 스트림 번호(SPSTRN)의 대응하는 정보가 기술되어 있기 때문에, 대응 정보를 이용하여 지정된 서브-픽처의 트랙 번호 정보(TRCKAT)로부터 서브-픽처 팩에서의 서브-픽처 스트림 번호(SPSTRN)의 정보를 알 수 있다. 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에 자막 엘리먼트(SBTELE)가 존재하는 경우에는, 대응하는 고급 자막의 세그먼트가 지정된 자막 트랙 번호로 설정되어 있는 설정 정보가 자막 엘리먼트(SBTELE) 내에 기술된다. 도 59c의 (e)에 도시하는 자막의 트랙 번호 정보(TRCKAT)는 자막의 트랙 번호를 의미하고, 본 실시예에 있어서 자막 트랙 번호는 1부터 32까지의 양의 정수로 설정될 수 있다. 즉, 본 실시예에 있어서, 자막으로는 32개까지의 트랙을 동시에 설정할 수 있다. 트랙 번호 정보(TRCKAT)의 값은 트랙 내비게이션 정보(TRNAVI)의 자막 트랙 엘리먼트(SBTREL) 태그 내에서의 자막 트랙 번호(STTKNM)(도 62b의 (d) 참조)에 대응한다. 즉, 트랙 번호 할당 정보(객체 매핑 정보(OBMAPI))에 있어서의 자막 엘리먼트(SBTELE) 태그 내에 기술한 속성 정보나 서브-픽처 스트림 번호 정보와 트랙 내비게이션 정보(TRNAVI)에서의 자막 트랙 엘리먼트(SBTREL) 태그 내에 기술한 사용자 선택 가부 정보나 언어 코드 정보와의 사이의 관계는, 동일한 값을 갖는 트랙 번호 정보(TRCKAT)와 자막 트랙 번호(STTKNM)을 통해 알 수 있다. 자막 엘리먼트(SBTELE)가 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 존재하는 경우에는, 트랙 번호에 대응하는 서브-픽처 팩에서의 서브-픽처 스트림 번호(SPSTRN)의 값으 로는 서브 스트림 번호에 "1"를 가산하여 얻은 값이 설정된다. 고화질 비디오 객체의 서브-픽처 스트림 속성 정보(EVOB_SPST_ATTR)를 이용하는 것에 의해, 서브-픽처 스트림 번호는 표시 유형에 따라 디코딩되는 스트림 번호로 변환되어야 한다. 또한, 디코딩 스트림 번호는 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 서브-픽처 팩(SP_PCK)과 일대일 관계로 연관되어 있다. 본 실시예에 있어서, 서브-픽처 팩의 서브-픽처 스트림 번호(SPSTRN)는 1부터 32까지의 양의 정수로서 지정되어야 한다. 본 실시예에 있어서, 고급 자막(ADSBT)의 정보는 서브-픽처 팩(SP_PCK) 내에 저장되는 것 같은 멀티플렉싱된 패킹 형태를 취하지 않는다. 따라서, 서브-픽처 팩 내의 서브-픽처 스트림 번호(SPSTRN)가 정의될 수 없다. 그에 따라, 자막 엘리먼트(SBTELE)가 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에 기술되어 있는 경우에는, 서브-픽처 팩의 서브-픽처 스트림 번호(SPSTRN)의 기재는 자막 엘리먼트(SBTELE) 태그 내에서 생략된다. 자막 엘리먼트(SBTELE) 태그 내에 서브-픽처 팩의 서브-픽처 스트림 번호(SPSTRN)의 기술이 생략되어 있는 경우, 디폴트값인 "1"이 자동으로 설정된다. 도 79a의 (b)에 도시한 바와 같이, 재생 목록(PLLST) 내의 미디어 속성 정보(MDATRI) 내에 서브-픽처 속성 항목 엘리먼트(SPAITM)가 존재한다. 미디어 속성 정보(MDATRI) 내에 복수의 서브-픽처 속성 항목 엘리먼트(SPAITM)가 존재하는 경우에는, 서로 다른 서브-픽처의 압축 코드 정보(SPCDC)에 대응하는 개개의 미디어 인덱스 번호 정보(INDEX)가 도 79b의 (e)에 도시한 바와 같이 쌍의 형태로 기술된다. 도 79a의 (b)에 도시하는 미디어 인덱스 번호 정보(INDEX)를 도 59c의 (e)에 기재된 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)에서 지정하는 것에 의해, 대응하는 서브-픽처의 압축 코드 정보(SPCDC)를 연관시킬 수 있다. 상기한 바와 같이, 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM) 정보는 서브-픽처 스트림에 대한 미디어 속성 정보의 인덱스 번호를 지정한다. 본 실시예에 있어서, 자막 엘리먼트(SBTELE) 내에서 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 정보의 기재가 생략될 수 있다. 이러한 경우에는, 디폴트값인 "1"이 자동으로 설정된다. 고급 자막(ADSBT)에서는, 서브-픽처의 압축 코드 정보(SPCDC)는 아무런 의미를 갖지 않는다. 따라서, 자막 엘리먼트(SBTELE)가 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에 기술되어 있는 경우에는, 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값은 무시되어야만 한다. 도 59c의 (e)에 도시하는 자막 엘리먼트(SBTELE)에 관한 부가 정보는 사람에게 친숙한 텍스트 형태로 기술되고, 부가 정보의 기술이 자막 엘리먼트(SBTELE) 태그 내에서 생략될 수 있다.
<SubVideo(서브 비디오) 엘리먼트>
SubVideo 엘리먼트는 P-EVOB의 VS_PCK 내의 서브 비디오 스트림에 대한 또는 S-EVOB의 VS_PCK 내의 서브 비디오 스트림에 대한 서브 비디오 트랙 번호 할당을 기술한다.
SubVideo 엘리먼트의 XML 신택스 표현:
<SubVideo
track = positiveInteger
mediaAttr = positiveInteger
description = string
/>
SubVideo 엘리먼트가 PrimaryAudioVideoClip 엘리먼트에 존재하는 경우, P-EVOB의 VS_PCK 내의 서브 비디오 스트림이 서브 비디오로서 이용가능하다. 그렇지 않은 경우, 이용가능하지 않다.
SubVideo 엘리먼트가 SecondaryAudioVideoClip 엘리먼트에 존재하는 경우, S-EVOB의 VS_PCK 내의 서브 비디오 스트림이 서브 비디오로서 이용가능하다. 그렇지 않은 경우, 이용가능하지 않다.
(a) track 속성
서브 비디오 트랙 번호를 기술한다. 이 번호는 항상 '1'이어야 한다.
(b) mediaAttr 속성
비디오 스트림에 대한 미디어 속성 정보의 미디어 속성 인덱스를 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 '1'이다.
(c) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 도 59c의 (f)에 도시하는 서브 비디오 엘리먼트(SUBVD) 태그 내의 데이터 구조에 대해 설명을 한다. 서브 비디오 엘리먼트(SUBVD)는 1차 고화질 비 디오 객체 데이터(P-EV0B)의 서브 비디오 팩(VS_PCK)에서의 서브 비디오 스트림에 대응하고, 각각의 서브 비디오 스트림에 따라 서브 비디오 트랙 번호 설정 정보가 기재되어 있다. 다른 대안으로서, 2차 고화질 비디오 객체 데이터(S-EV0B)에서의 2차 비디오 팩(VS_PCK) 내에 기록된 서브 스트림의 서브 비디오 트랙 번호의 설정 정보가 서브 비디오 엘리먼트(SUBVD) 내에 기술될 수 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 서브 비디오 엘리먼트(SUBVD)의 기재가 있는 경우에는, 이것은 1차 고화질 비디오 객체 데이터(P-EVOB)의 2차 비디오 팩(VS_PCK) 내에 서브 비디오로서 서브 비디오 스트림이 존재한다(재생될 수 있다)는 것을 의미한다. 다른 경우에, 즉 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 서브 비디오 엘리먼트(SUBVD)가 존재하지 않는 경우에는, 2차 비디오 팩(VS_PCK)의 형태로 서브 비디오 스트림이 기록되어 있지 않다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 서브 비디오 엘리먼트(SUBVD)가 존재하는 경우에는, 이것은 서브 비디오로서 2차 고화질 비디오 객체 데이터(S-EVOB)의 2차 비디오 팩(VS_PCK) 내에 서브 비디오 스트림이 존재한다(사용될 수 있다)는 것을 의미한다. 다른 경우에, 즉 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 서브 비디오 엘리먼트(SUBVD)의 기술이 존재하지 않는 경우에는, 2차 비디오 팩(VS_PCK)의 형태로 서브 비디오 스트림이 존재하지 않게 된다. 도 59c의 (f)에 도시하는 트랙 번호 정보(TPRCKAT)가 서브 비디오 트랙 번호를 나타내지만, 본 실시예에 있어서 서브 비디오 트랙을 복수개 제공하는 것이 금지되어 있고, 따라서 트랙 번호 정보(TRCKAT)는 항상 "1"로 설정되어야 한다. 도 59c의 (f)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)는 도 59b의 (d)에 기재된 비디오 속성 항목 엘리먼트(VABITM) 내의 미디어 인덱스 번호 정보(INDEX)가 기재되어 있고, 이것에 따라 대응하는 서브 비디오의 압축 코드, 종횡비, 해상도, 및 표시 화면 크기 등의 정보를 지정할 수 있다. 도 59c의 (f)에 도시하는 서브 비디오 엘리먼트에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되고, 이 정보의 기술은 서브 비디오 엘리먼트(SUBVD) 태그 내에서 생략될 수 있다.
<SubAudio(서브 오디오) 엘리먼트>
SubAudio 엘리먼트는 P-EVOB의 AS_PCK에서의 서브 오디오 스트림에 대한 또는 S-EVOB의 AS_PCK에서의 서브 오디오 스트림에 대한 서브 오디오 트랙 번호 할당을 기술한다.
SubAudio 엘리먼트의 XML 신택스 표현:
<SubAudio
track = positiveInteger
streamNumber = positiveInteger
mediaAttr = positiveInteger
description = string
/>
SubAudio 엘리먼트가 PrimaryAudioVideoClip 엘리먼트에 존재하는 경우, P-EVOB의 VS_PCK 내의 서브 오디오 스트림이 서브 오디오로서 이용가능하다. 그렇지 않은 경우, 이용가능하지 않다.
SubAudio 엘리먼트가 SecondaryAudioVideoClip 엘리먼트에 존재하는 경우, S-EVOB의 AS_PCK 내의 서브 오디오 스트림이 서브 오디오로서 이용가능하다. 그렇지 않은 경우, 이용가능하지 않다.
P-EVOB 및 S-EVOB 내의 이용가능한 서브 오디오 트랙은 각각 PrimaryAudioVideoClip 엘리먼트 및 SecondaryAudioVideoClip 엘리먼트 내의 SubAudio 엘리먼트의 리스트에 의해 기술되어야 한다.
(a) track 속성
서브 오디오 트랙 번호를 기술한다. 서브 오디오 트랙 번호는 1부터 8까지의 정수이어야 한다.
(b) streamNumber 속성
P-EVOB/S-EVOB 내의 AS_PCK에서의 어느 오디오 스트림이 서브 오디오 트랙 번호에 할당되는지를 기술한다. 이 속성값은 오디오 stream_id + 1이어야 한다. streamNumber는 1부터 8까지가 정수이어야 한다. 디폴트값은 '1'이다.
(c) mediaAttr 속성
오디오 스트림에 대한 미디어 속성 정보의 미디어 속성 인덱스를 기술한다. 이 속성은 생략될 수 있다. 디폴트값은 '1'이다.
(d) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
마지막으로, 도 59c의 (g)에 도시하는 서브 오디오 엘리먼트(SUBAD) 태그 내의 데이터 구조에 대해 설명을 한다. 서브 오디오 엘리먼트(SUBAD)는 1차 고화질 비디오 객체 데이터(P-EVOB)의 2차 오디오 팩(AS_PCK) 내에서의 서브 오디오 스트림에 관한 관리 정보를 나타낸다. 각각의 서브 오디오 스트림에 따라 설정되는 서브 오디오 트랙 번호 설정 정보가 서브 오디오 엘리먼트(SUBAD) 내에 기술되어 있다. 또한, 서브 오디오 엘리먼트(SUBAD)는 2차 고화질 비디오 객체 데이터(S-EVOB)의 2차 오디오 팩(AS_PCK) 내의 서브 오디오 스트림에 관한 관리 정보를 나타내는 경우도 있다. 이러한 경우에는, 각각의 서브 오디오 스트림에 따라 설정되는 서브 오디오 트랙 번호 설정 정보가 서브 오디오 엘리먼트(SUBAD) 내에 기술된다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 서브 오디오 엘리먼트(SUBAD)가 존재하는 경우에, 이것은 서브 오디오로서 1차 고화질 비디오 객체 데이터(P-EVOB)의 2차 오디오 팩(AS_PCK) 내에 서브 오디오 스트림이 존재한다(재생될 수 있다)는 것을 의미한다. 그 밖에도, 2차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 서브 오디오 엘리먼트(SUBAD)가 존재하지 않는 경우에는, 이것은 2차 오디오 팩(AS_PCK) 내에 서브 오디오 스트림이 존재하지 않는 것을 의미한다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 서브 오디오 엘리먼트(SUBAD)가 기술되어 있는 경우에는, 이것은 서브 오디오로서 2차 고화질 비디오 객체 데이터(S-EVOB)의 2차 오디오 팩(AS_PCK) 내에 서브 오디오 스트림이 존재하는(재생될 수 있는) 것을 의미한다. 그 밖에도, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 서브 오디오 엘리먼트(SUBAD)의 기술이 없는 경우에는, 2차 오디오 팩(AS_PCK) 내에 서브 오디오 스트 림이 존재하지 않는다. 또한, 1차 고화질 비디오 객체 데이터(P-EVOB)와 2차 고화질 비디오 객체 데이터(S-EVOB) 내에서 사용될 수 있는 서브 오디오 트랙은 각각 1차 오디오 비디오 클립 엘리먼트(PRAVCP)와 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내의 서브 오디오 엘리먼트(SUBAD)의 리스트로서 기술된다. 도 59c의 (g)에 도시하는 트랙 번호 정보(TRCMT)는 서브 오디오 트랙 번호를 나타내고, 본 실시예에 있어서는 서브 오디오 트랙 번호로서 1부터 8까지의 양의 정수가 기재되어야 한다. 트랙 번호 정보(TRCKAT)의 값은 트랙 내비게이션 정보(TRNAVI)의 오디오 트랙 엘리먼트(ADTRK) 태그 내에서의 오디오 트랙 번호(ADTKNM)(도62b의 (d) 참조)에 대응한다. 즉, 트랙 번호 할당 정보(객체 매핑 정보(OBMAPI))에 있어서의 서브 오디오 엘리먼트(SUBAD) 태그 내에 기술된 서브 오디오(SUBAD)의 속성 정보나 서브 오디오 스트림 번호 정보와, 트랙 내비게이션 정보(TRNAVI)에서의 오디오 트랙 엘리먼트(ADTRK) 태그 내에 기술된 사용자 선택 가부 정보나 언어 코드 정보와의 사이의 관계는, 동일한 값을 갖는 트랙 번호 정보(TRCKAT)와 오디오 트랙 번호(ADTKNM)에 의해 연관된다. 도 59c의 (g)에 도시한 바와 같이, 트랙 번호와 서브 오디오 팩 내의 서브 오디오 스트림 번호(SASTRN)는 일대일 대응 관계를 갖는다. 즉, 1차 고화질 비디오 객체 데이터(P-EVOB) 또는 2차 고화질 비디오 객체 데이터(S-EVOB) 내에 멀티플렉싱되어 있는 2차 오디오 팩(AS_PCK) 내에 기록된 각각의 오디오 스트림에 따라 각각의 서브 오디오 트랙 번호가 설정되고, 서브 오디오 트랙 번호는 서브 오디오 엘리먼트(SUBAD) 내에 기술되어 있다. 트랙 번호에 대응하는 서브 오디오 팩의 서브 오디오 스트림 번호(SASTRN)의 정보는 오디오 스트림 ID의 값에 "1"를 가산하여 얻은 정보로서 설정된다. 또한, 서브 오디오 팩의 서브 오디오 스트림 번호(SASTRN)의 값으로서는 1부터 8까지의 양의 정수가 설정되어야 한다. 본 실시예에 있어서, 2차 오디오 비디오(SCDAV) 내에는 서브 오디오(SUBAD)의 트랙은 1개밖에 제공될 수 없다. 따라서, 서브 오디오 엘리먼트(SUBAD)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술되어 있는 경우에는, 서브 오디오 팩의 서브 오디오 스트림 번호(SASTRN)의 기술이 생략되어야만 하거나 "1"의 값이 설정되어야만 한다. 본 실시예에 있어서, 서브 오디오 팩의 오디오 스트림 번호(SASTRN)의 디폴트값으로 "1"이 설정된다. 도 79b의 (c)에 도시한 바와 같이, 오디오 속성 항목 엘리먼트(AABITM) 내에는 미디어 인덱스 번호 정보(INDEX)가 기술되고, 미디어 인덱스 번호(INDEX)를 지정하는 일에 의해, 대응하는 오디오의 압축 코드 정보(ADCDC)나 샘플링 주파수(ADSPRT), 또는 양자화 비트 수(SPDPT) 등의 오디오 속성 정보가 연관될 수 있다. 도 59c의 (g)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트 인덱스 번호(MDATNM)의 값으로서 도 79b의 (c)에 기술한 미디어 인덱스 번호 정보(INDEX)의 값을 설정하는 것에 의해, 각각의 서브 오디오 엘리먼트(SUBAD)에 따라 오디오 속성 정보를 연관시킬 수 있다. 도 59c의 (g)에 도시하는 서브 오디오 엘리먼트에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되고, 서브 오디오 엘리먼트(SUBAD) 태그 내에서 부가 정보의 기재가 생략될 수 있다.
<트랙 번호 할당 엘리먼트 및 트랙>
타이틀 타임라인에서 객체 매핑 정보에 의해 할당되는 각각의 프리젠테이션 객체는 하나 이상의 기본 스트림을 갖는다. 재생 목록 파일은 각각의 프리젠테이션 객체 내의 어느 기본 스트림이 프리젠테이션 클립 엘리먼트 유효 기간에서 활성화되는지를 기술한다.
트랙은 타이틀 재생 동안에 API 또는 사용자에 의해 선택되는 프리젠테이션 객체 내의 기본 스트림에 대한 논리적 개체이다. 트랙은 타이틀마다의 트랙 번호에 의해 식별된다.
앵글을 선택하는 비디오 트랙, 메인 오디오를 선택하는 오디오 트랙, 자막을 선택하는 자막 트랙, 서브 비디오를 선택하는 서브 비디오 트랙, 및 서브 오디오를 선택하는 서브 오디오 트랙의 5가지 유형의 트랙이 있다. 트랙, 프리젠테이션 객체 및 기본 스트림 간의 관계는 도 60에 도시되어 있다.
ApplicationSegment 엘리먼트를 제외한 프리젠테이션 클립 엘리먼트는 트랙 번호 할당 정보를 기술하는 트랙 번호 할당 엘리먼트라고 부르는 엘리먼트의 리스트를 포함할 수 있다. 트랙 번호 할당 엘리먼트는 도 60에 도시되어 있다.
각각의 트랙에 대해, 트랙 번호는 재생 목록 파일에 의해 할당되어야 한다. 트랙 번호는 양의 정수이어야 한다.
트랙 번호는 API 또는 트랙 내비게이션 정보에 의해 기술되는 사용자 내비게이션으로부터의 트랙 선택에 의해 사용된다.
비디오 트랙 번호는 메인 비디오 앵글 선택에서 사용된다. 오디오 트랙 번호는 메인 오디오 선택에서 사용된다. 자막 트랙 번호는 서브-픽처 및 고급 자막 선택에서 사용된다. 서브 비디오 트랙 번호 및 서브 오디오 트랙 번호는 서브 비 디오의 선택 및 서브 오디오의 선택에서 사용된다.
트랙 번호 할당 정보는 타이틀 타임라인 상의 각각의 시간에 대해 트랙 번호로부터 프리젠테이션 객체 내의 기본 스트림으로의 변환 정보를 기술한다.
프리젠테이션 객체 내의 기본 스트림으로의 트랙 번호 할당은 대응하는 프리젠테이션 클립 엘리먼트에 기술되어 있어야 한다. 비디오 트랙 번호의 할당은 Video 엘리먼트에 의해 기술되어야 한다. 오디오 트랙 번호의 할당은 Audio 엘리먼트에 의해 기술되어야 한다. 자막 트랙 번호의 할당은 Subtitle 엘리먼트에 의해 기술되어야 한다. 서브 비디오 트랙 번호의 할당은 SubVideo 엘리먼트에 의해 기술되어야 한다. 서브 오디오 트랙 번호의 할당은 SubAudio 엘리먼트에 의해 할당되어야 한다.
각각의 유형의 트랙 및 타이틀 타임라인 내의 각각의 시간에 대해, 트랙 번호는 프리젠테이션 클립의 기본 스트림에 고유하게 할당되어야 한다.
서브 비디오 트랙 번호는 '1'이어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
모든 재생/표시 대상 객체의 재생 기간은 객체 매핑 정보(OBMAPI)에 의해 타이틀 타임라인(TMLE) 상에서 설정되어 있다. 또한, 각각의 재생/표시 객체는 "1"개 이상의 기본 스트림으로 구성되어 있다. 예컨대, 도 10에 도시한 바와 같이, 1차 오디오 비디오(PRMAV)의 재생/표시 대상 객체인 1차 고화질 비디오 객체(P-EVOB)는 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD), 및 서브-픽처(SUBPT) 등의 기본 스트림로 구성되어 있다. 또한, 각각 의 재생/표시 객체 내의 각각의 기본 스트림이 어떤 타이밍에 표시되어 유효 기간에 들어가는 지는 도 59c의 (b)에 도시하는 재생 목록 파일(PLLST) 내에 기술되어 있다. 도 60에 도시한 바와 같이, 재생/표시 객체 내에서의 각각의 기본 스트림에 따라 설정되는 논리적인 식별 단위를 트랙이라고 부른다. 예컨대, 제10도에 도시한 바와 같이, 메인 오디오(MANAD)는 1차 오디오 비디오(PRMAV), 대체 오디오(SBTAD), 또는 대체 오디오 비디오(SBTAV) 내에 존재할 수 있다. 각각의 메인 오디오(MANAD)의 식별 단위에 따라 메인 오디오 트랙(MATRK)과 연관될 수 있다. 특정한 타이틀의 재생 중에 APl 명령 또는 사용자 지정에 기초하여 표시/재생하여야 할 트랙이 선택되고, 선택된 트랙이 사용자에게 표시/재생된다. 각각의 트랙은 타이틀에서의 각각의 트랙 번호에 의해 다른 트랙과 구분될 수 있다. 본 실시예에서는, 도 60도에 도시한 바와 같이, 메인 비디오 트랙(MVTRK), 메인 오디오 트랙(MATRK), 자막 트랙(SBTTRK), 서브 비디오 트랙(SVTRK), 서브 오디오 트랙(SATRK)으로 이루어지는 5 종류의 트랙을 정의하는 것이 가능하다. 고급 컨텐츠 재생 유닛(ADVPL) 내에서 트랙 번호를 지정하는 일에 의해, 특정한 메인 비디오(MANVD), 메인 오디오(MANAD), 서브 비디오(SUBVD), 서브 오디오(SUBAD) 및 서브-픽처(SUBPT)를 선택하는 일이 가능해진다. 도 60은 재생/표시 객체와 이 객체에 대응하는 기본 스트림 및 각각의 트랙 사이의 관계를 나타낸 것이다. 이 관계는 도 10에 도시하는 리스트의 내용에 대응하고 있다. 도 59c의 (c) 내지 (g)에 도시한 바와 같이, 본 실시예에서는, 각각의 엘리먼트 태그 내에 트랙 번호 정보(TRCKAT)가 기술될 수 있다. 따라서, 이들 엘리먼트 각각은 트랙 번호 설정 엘 리먼트(트랙 번호 할당 엘리먼트)라고 불린다. 도 59의 (c) 내지 (g)에 도시한 바와 같이, 각각의 트랙에 따라 각각의 트랙 번호가 재생 목록 파일(PLLST) 내에(트랙 번호 정보(TRCKAT)로서) 설정되어 있다. 또한, 트랙 번호(TRCKAT)는 "1" 이상의 양의 정수로 설정되어야만 한다. 트랙 번호(TRCKAT)는 APl 명령 또는 사용자 지정에 기초하여 트랙 번호가 선택되고, 선택된 번호는 사용자에게 표시/재생되는 트랙을 선택하는 데 이용된다. 트랙 번호(TRCKAT)는 도 62b의 (d)에 도시하는 각종 트랙 번호에 대응한다. 도 62b의 (d)에 도시하는 트랙 내비게이션 정보 내에는 트랙의 선택에 필요한 정보가 기술되어 있다. 따라서, 고급 컨텐츠 재생 유닛(ADVPL)에서(도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)에서), 트랙 내비게이션 정보를 이용하여 API 명령 또는 사용자 설정에 기초하여 트랙을 선택한다. 구체적으로는, 비디오 트랙 번호(VDTKNM)(도 62b 또는 도 62c 참조)는 메인 비디오(MANVD) 내의 사용자에게 표시되는 비디오 앵글을 선택하는 데 사용될 수 있다. 또한, 오디오 트랙 번호(ADTKNM)는 메인 오디오(MANAD) 내의 트랙을 선택하는 데 사용될 수 있다. 또한, 자막 트랙 번호(STTKNM)를 지정하는 일에 의해, 서브-픽처(SUBPT) 또는 고급 자막(ADSBT)의 소정의 트랙을 선택할 수 있다. 또한, 서브 비디오 트랙 번호와 서브 오디오 트랙 번호는 서브 비디오(SUBVD)와 서브 오디오(SUBAD)의 트랙을 선택하는 데 사용될 수 있다. 도 59c의 (d)에는 트랙 번호 정보(TRCMT)와 트랙 번호에 대응하는 오디오 팩의 오디오 스트림 번호(ADSTRN)와의 대응 정보가 기술되어 있고, 도 59c의 (e)에 도시한 바와 같이, 트랙 번호 정보(TRCKAT)와 트랙 번호에 대응하는 서브-픽처 팩의 서브-픽처 스 트림 번호(SPSTRN)의 대응 정보가 기술되어 있다. 상기한 예로부터 알 수 있는 바와 같이, 트랙 번호 설정 정보(트랙 번호 할당 정보) 내에는 각각의 트랙 번호(TRCKAT)로부터 표시/재생 객체 내의 각각의 기본 스트림을 연관시키는 정보가 기술되어 있다. 재생/표시 객체 내에 기록되어 있는 각각의 기본 스트림에 대응하는 트랙 번호 설정 정보(트랙 번호 할당)는 재생/표시 객체를 관리하는 표시/재생 클립 엘리먼트(예를 들어, 1차 오디오 비디오 클립 엘리먼트(PRAVCP)) 내의 자식 엘리먼트(예컨대, 메인 비디오 엘리먼트(MANVD)) 내에 기술되어 있다. 즉, 도 59c의 (c)에 도시한 바와 같이, 메인 비디오 엘리먼트(MANVD) 내의 트랙 번호 정보(TRCKAT)(track 속성 정보)의 값으로서, 트랙 내비게이션 정보(TRNAVI) 내의 대응하는 비디오 트랙 엘리먼트(VDTRK)의 비디오 트랙 번호(VDTKNM)의 값(도 62b의 (d) 참조)이 기술되어 있다. 또한, 도 59c의 (d)에 도시한 바와 같이, 메인 오디오 엘리먼트(MANAD) 내의 트랙 번호 정보(TRCKAT)(track 속성 정보)의 값으로서, 트랙 내비게이션 정보(TRNAVI) 내의 대응하는 오디오 트랙 엘리먼트(ADTRK)의 오디오 트랙 번호(ADTKNM)의 값(도 62b의 (d) 참조)이 기술되어 있다. 게다가, 도 59c의 (e)에 도시한 바와 같이, 자막 엘리먼트(SBTELE) 내의 트랙 번호 정보(TRCKAT)(track 속성 정보)의 값으로서, 트랙 내비게이션 정보(TRNAVI) 내의 대응하는 자막 트랙 엘리먼트(SBTREL)의 자막 트랙 번호(STTKNM)의 값(도 62b의 (d) 참조)이 기술되어 있다. 마찬가지로, 도 59c의 (g)에 도시한 바와 같이, 서브 오디오 엘리먼트(SUBAD) 내의 트랙 번호 정보(TRCKAT)(track 속성 정보)의 값으로서, 트랙 내비게이션 정보(TRNAVI) 내의 대응하는 오디오 트랙 엘리먼트(ADTRK)의 오디 오 트랙 번호(ADTKNM)의 값(도 62b의 (d) 참조)이 기술되어 있다. 또한, 본 실시예에 있어서는, 서브 비디오 트랙 번호(도 59c의 (f) 내의 서브 비디오 트랙에 대응하는 트랙 번호 정보(TRCKAT)는 "1"로 설정되어야 한다. 또한, 본 실시예에 있어서는, 각각의 재생/표시 클립 엘리먼트 내에서의 서로 다른 기본 스트림 각각에 따라 서로 다른 (독자적인) 트랙 번호가 설정되어야 한다. 예컨대, 복수의 서로 다른 재생/표시 클립 엘리먼트 상에서 지정한 타이틀 타임라인 상의 유효 기간이 서로 중복되는 경우에는, 유효 기간이 중복된 시간대에서, 다른 재생/표시 클립 엘리먼트에 속하는 기본 스트림들 사이에서 트랙 번호가 중복하지 않도록 트랙 번호가 설정되어야만 한다. 본 실시예에서는, 트랙 유형(비디오/오디오/자막 등의 기본 스트림의 내용을 나타내는 유형)이 서로 다른 기본 스트림들 사이에서는 동일한 트랙 번호가 설정될 수 있다.
도 61a 내지 도 61c는 트랙 번호 할당 정보의 설명의 예를 나타낸 것이다. 도 61a 내지 도 61c에 기술된 각각의 기본 스트림에 있어서 설정된 트랙 번호 설정 방법은 도 60에 도시한 관계에 기초하고 있다. 도 61c의 (c)의 예에 있어서, 1차 오디오 비디오(PRMAV)에 관한 타임 맵(PTMAP)의 정보는 정보 저장 매체(DISC) 내에 AVMAP001.MAP라는 파일 이름으로 저장되어 있다. 본 실시예에 있어서는, 대응하는 1차 고화질 비디오 객체 데이터(P-EVOB)의 파일 이름 및 저장 장소도 타임 맵 파일(PTMAP)과 일치한다(단지 파일 이름의 확장자만이 "MAP"와 "EVO"처럼 서로 다르다). 즉, 1차 오디오 비디오(PRMAV)에 대응하는 1차 고화질 비디오 객체 데이터(P-EVOB)가 기록되어 있는 파일 이름은 AVMAP001.EVO라는 파일 이름으로 되어 있 다. 도 61c의 (c)에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 "c1ipTimeBegin="00:00:0O:00"이 기록되어 있기 때문에, 재생 목록(PLLST)에서 재생되는 경우에는 1차 고화질 비디오 객체 데이터(P-EVOB) 파일의 선두 위치로부터 재생이 시작된다. 재생 목록(PLLST)에서는, 타이틀 타임라인(TMLE)의 최초의 위치로부터 10분 21초 경과할 때까지 재생이 수행된다. 1차 오디오 비디오(PRMAV) 내에 존재하는 메인 비디오(MANVD)는 멀티-앵글화되어 있고, 앵글 번호가 "1"인 비디오는 비디오 트랙 번호 "1"로 설정되고, 앵글 번호 "2"인 비디오는 비디오 트랙 번호 "2"로 설정된다. 1차 오디오 비디오(PRMAV) 내에는 오디오 트랙이 3개 존재한다. 스트림 번호가 "0"인 기본 오디오 스트림은 오디오 트랙 번호 "1"로 설정되고, 스트림 번호가 "2"인 기본 오디오 스트림은 오디오 트랙 번호 "2"로 설정되며, 오디오 스트림 번호가 "3"인 기본 오디오 스트림은 오디오 트랙 번호 "3"으로 설정되어 있다. 또한, 동시에, 2개의 자막 트랙이 제공된다. 도 61c의 (c)에 도시된 실시예에서는, 1차 오디오 비디오(PRMAV)의 메인 오디오(MANAD) 대신에 영속적 저장 장치(PRSTR) 내에 저장되어 있는 대체 오디오(SBTAD)를 재생/표시하는 것이 가능하다. 이 예에서의 오디오 트랙 번호가 "4"로 설정되어 있는 경우, 사용자는 오디오 트랙 번호 "1"로부터 오디오 트랙 번호 "4" 중에서 어느 하나를 갖는 메인 오디오(MANAD)를 선택적으로 재생/표시할 수 있다. 또한, 도 61c의 (c)의 실시예에서는, 1차 오디오 비디오(PRMAV)의 표시 타이밍과 완전히 동일한 타이밍에 영속적 저장 장치(PRSTR)에 저장된 고급 자막(ADSBT)이 동시에 표시될 수 있다. 이 경우의 고급 자막(ADSBT)의 트랙 번호는 "3"으로 설정되어 있고, 고급 자막은 사전에 1 차 오디오 비디오(PRMAV) 내에서 설정되고, 서브-픽처(SUBPT)와 함께 선택적으로 표시될 수 있다. 즉, 자막 트랙은 "1"부터 "3"까지 존재하고, 1차 오디오 비디오(PRMAV) 내의 메인 비디오(MANVD)의 특정 앵글을 갖는 메인 비디오(MANVD)를 표시하면서 "l"로부터 "3"까지의 어느 하나의 자막 트랙을 선택적으로 표시할 수 있다.
도 59c의 (c) 내지 (g)에 도시한 트랙 번호 할당 정보는 대응하는 스트림의 스트림 번호와 트랙 번호(TRCKAT) 간의 대응 관계, 및 각각의 트랙 번호(TRCKAT)에 대응하는 미디어 속성 정보(미디어 속성 엘리먼트의 인덱스 번호(MDATNM))에 대한 관계를 나타낸다. 반면에, 도 62b의 (d)부터 도 62b의 (e)에 도시하는 트랙 내비게이션 정보(TRNAVI)의 내용은 사용자가 각각의 트랙번호를 선택하는 데 필요로 하는 정보를 통합 기술하고 있다. 트랙 번호 할당 정보와 트랙 내비게이션 정보(TRNAVI)와의 사이의 정보 링크는 각각의 트랙 번호(TRCKAT)에 기초하여 연관되어 있다. 즉, 도 62b의 (d)에 도시하는 비디오 트랙 번호(VDTKNM), 오디오 트랙 번호(ADTKNM), 및 자막 트랙 번호에는 도 59c의 (c)부터 (d)까지에 도시하는 트랙 정보(TRCKAT)와 동일한 값이 설정되고, 이 동일한 값을 이용하여 트랙 번호 할당 정보 및 트랙 내비게이션 정보(TRNAVI)를 링크시킬 수 있다. 이제부터, 도 62a 내지 도 62c를 참조하여, 재생 목록(PLLST) 내에서의 트랙 내비게이션 정보(TRNAVI)가 기재되어 있는 장소에 관하여 설명을 한다. 도 62a 내지 도 62c에 도시한 바와 같이, 재생 목록(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI)와 타이틀 정보(TTINF0)가 존재한다. 도 62a의 (b)에 도시한 바와 같이, 타이틀 정 보(TTINFO) 내에는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE), 각각의 타이틀에 관한 타이틀 엘리먼트 정보(TTELEM), 및 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 존재한다. 도 62a의 (c)에 도시한 바와 같이, 트랙 내비게이션 정보(TRNAVI)는 각각의 타이틀에 대한 타이틀 엘리먼트 정보(TTELEM) 내에 존재한다.
상기한 바와 같이, 재생 목록 파일(PLLST) 내의 타이틀 엘리먼트 정보(TTELEM) 내에 트랙 내비게이션 정보(TRNAVI)가 존재한다. 트랙 내비게이션 정보(TRNAVI)는 도 62c의 (e)에 도시한 바와 같이 트랙 내비게이션 리스트 엘리먼트로 구성되어 있다. 트랙 내비게이션 정보(TRNAVI) 내에는 사용자에 의해 선택될 수 있는 메인 비디오 트랙(MVTRK), 메인 오디오 트랙(MATRK), 서브 오디오 트랙(SATRK), 및 자막 트랙(SBTTRK)에 관한 리스트가 기술되어 있다. 도 62b의 (d)에 도시한 바와 같이, 트랙 내비게이션 정보(TRNAVI) 내에는 사용자에 의해 선택될 수 있는 메인 비디오 트랙(MVTRK)에 관한 속성 정보가 비디오 트랙 엘리먼트(VDTRK) 내에 기술되어 있다. 또한, 마찬가지로, 사용자에 의해 선택될 수 있는 메인 오디오 트랙(MATRK), 및 서브 오디오 트랙(SATRK)에 관한 속성 정보가 오디오 트랙 엘리먼트(ADTRK) 내에 기록되고, 사용자가 선택가능한 자막 트랙(SBTTRK)에 관한 속성 정보가 자막 트랙 엘리먼트(SBTREL) 내에 기술되어 있다. 도 62b의 (d)에 도시한 바와 같이, 비디오 트랙 엘리먼트(VDTRK), 오디오 트랙 엘리먼트(ADTRK) 및 자막 트랙 엘리먼트(SBTREL) 모두 내에 사용자-선택이 가능한지 여부를 나타내는 플래그(USIFLG)(selectable 속성 정보)가 존재하고 있다. 사용자-선택이 가능한지 여부를 나타내는 플래그(USIFLG)(selectable 속성 정보)에 표시된 값은 대응하는 트랙이 사용자에 의해 선택될 수 있는지 여부를 나타낸다. 즉, "selectable="의 뒤에 기술되는 값이 "true"인 경우에, 이것은 대응하는 트랙이 사용자에 의해 선택될 수 있음을 의미한다. "selectable="의 뒤에 기재되는 값이 "false"인 경우에, 이것은 대응하는 트랙이 사용자에 의해 선택될 수 없음을 의미한다. 이와 같이, selectable 속성 정보의 값이 "true"로 설정된 메인 비디오 트랙(MVTRK), 메인 오디오 트랙(MATRK), 서브 오디오 트랙(SATRK), 및 자막 트랙(SBTTRK)은 사용자 선택가능 트랙(user selectable track)이라고 불린다. 도 44에 도시한 바와 같이, 고급 애플리케이션 관리자(ADAMNG) 내에 디폴트 이벤트 핸들러(관리자) 스크립트(DEVHSP)의 저장 장소가 존재한다. 도 45는 디폴트 이벤트 핸들러(관리자) 스크립트(DEVHSP) 내에 저장되어 있는 디폴트 입력 핸들러(관리자) 내용을 나타낸 것이다. 도 45에 도시한 바와 같이, 디폴트 입력 핸들러(관리자) 이름 changeSubtitleHandIer(가상 키 코드는 VK_SUBTITLE임)는 자막 트랙 변경인 사용자 입력 이벤트를 의미한다. 또한, 디폴트 입력 핸들러(관리자) 이름 changeAudioHandler(가상 키 코드는 VK_AUDI0임)는 오디오 트랙의 전환에 관한 사용자 입력 이벤트를 의미한다. 디폴트 이벤트 핸들러(관리자)에 의해 정의된 사용자 조작에 기초하여 사용자 선택가능 트랙이 선택된다. 또한, 도 62c의 (e)에 도시한 바와 같이, "selectable="의 값이 "false"로 설정된 트랙은 사용자 선택불가능 트랙(user non-selectable track)으로 부르고 있다. 게다가, 메인 오디오 트랙(MATRK), 및 서브 오디오 트랙(SATRK)에 관해서는, 오디오 트랙 엘리먼트(ADTRK) 내에 기술되는 오디오 언어 코드와 오디오 언어 코드 확장 기술 자(ADLCEX)(langcode 속성 정보)에 기초하여 오디오 언어 코드와 언어 코드 확장 기술자의 정보가 설정된다. 또한, 자막 트랙(SBTTRK)에 관해서도, 자막 트랙 엘리먼트(SBTREL) 내의 자막 언어 코드와 자막 언어 코드 확장 기술자(STLCEX)(langcode 속성 정보)에 기초하여 언어 코드와 언어 코드 확장 기술자의 정보가 설정된다. 언어 코드와 언어 코드 확장 기술자는 트랙을 선택하는 API 명령에 의해 이용된다. 또한, 자막 트랙 엘리먼트(SBTREL) 내에 기술되는 강제 화면 출력을 나타내는 플래그(FRCFLG)(forced 속성 정보) 속성의 값이 "true"로 설정된 경우에는, 대응하는 자막 트랙(SBTTRK)(서브-픽처(SUBPT))는 사용자의 의사에 관계없이 강제적으로 화면에 출력되어야 한다. 반대로, 강제 화면 출력을 나타내는 플래그(FRCFLG)(forced 속성 정보)의 값이 "false"로 설정된 경우에는, 대응하는 자막(서브-픽처(SUBPT))은 반드시 화면으로 출력될 필요는 없고, 사용자 선택에 의해 표시가 수행되는지 여부가 설정될 수 있다. 예컨대, 사용자 선택에 의해 자막이 표시되지 않도록 되어 있는 경우, 컨텐츠 제공자의 의도에 의해 특정한 영역만 강제적으로 자막을 화면에 표시하는 것에 의해, 사용자에의 표현력을 향상시키는 경우가 있다. 이러한 경우에, 강제 화면 출력을 나타내는 플래그(FRCFLG)(forced 속성 정보)의 값을 "true"로 설정하는 것에 의해, 컨텐츠 제공자의 사용자에의 표현력을 향상시킬 수 있다. 또한, 각각의 트랙 엘리먼트에 따라 텍스트 포맷으로 기술된 부가 정보가 기술될 수 있고, 이 부가 정보는 각각의 트랙에 대한 식별에도 이용될 수 있다.
<TrackNavigationList(트랙 내비게이션 리스트) 엘리먼트)>
TrackNavigationList 엘리먼트는 타이틀 내에서의 트랙 정보를 기술한다. 트랙 정보 엘리먼트 내에 기술되어 있는 타이틀에 대한 트랙 정보는 트랙에 대한 모든 속성을 기술한다.
TrackNavigationList 엘리먼트의 XML 신택스 표현:
<TrackNavigationList>
VideoTrack *
AudioTrack *
SubtitleTrack *
</TrackNavigationList>
TrackNavigationList의 내용은 VideoTrack 엘리먼트, AudioTrack 엘리먼트 및 SubtitleTrack 엘리먼트의 리스트로 구성되어 있다. 이들 엘리먼트는 트랙 내비게이션 정보 엘리먼트라고 불린다.
보다 알기 쉬운 설명이 이하에 제공된다.
트랙 내비게이션 리스트 엘리먼트는 타이틀 내의 트랙 정보를 설명한다. 트랙 내비게이션 리스트의 내용은 비디오 트랙 엘리먼트(VDTRK), 오디오 트랙 엘리먼트(ADTRK), 및 자막 트랙 엘리먼트(SBTREL)의 리스트로 구성되어 있으며, 이들 엘리먼트는 트랙 내비게이션 정보 엘리먼트(TRNAVI)라고 불린다. 또한, 타이틀 내의 트랙 정보는 비디오 트랙 엘리먼트(VDTRK), 오디오 트랙 엘리먼트(ADTRK) 및 자막 트랙 엘리먼트(SBTREL) 내에 기술되어 있다. 또한, 비디오 트랙 엘리먼트(VDTRK), 오디오 트랙 엘리먼트(ADTRK) 및 자막 트랙 엘리먼트(SBTREL)는 트랙에 대한 속성 정보도 나타낸다.
<VideoTrack(비디오 트랙) 엘리먼트>
VideoTrack 엘리먼트는 비디오 트랙의 속성 리스트를 기술한다.
VideoTrack 엘리먼트의 XML 신택스 표현:
<VideoTrack
track = positiveInteger
selectable = (true | false)
description = string
/>
(a) track 속성
표시되는 비디오 트랙의 비디오 트랙 번호를 기술한다. 비디오 트랙 번호는 1부터 9까지의 정수이어야 한다.
(b) selectable 속성
트랙이 사용자 조작에 의해 선택될 수 있는지 여부를 기술한다. 이 값이 "true"인 경우, 트랙은 사용자 조작에 의해 선택가능하게 되어야 하고, 그렇지 않은 경우 트랙이 사용자 조작에 의해 선택가능하게 되어서는 안 된다. 이 값은 생략될 수 있다. 디폴트값은 "true"이다.
(c) description 속성
사람에게 친숙한 텍스트 형식으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터 도 62b의 (d) 및 도 62c의 (e)에 도시하는 비디오 트랙 엘리먼트(VDTRK)에 관하여 설명을 한다. 비디오 트랙 엘리먼트(VDTRK)는 메인 비디오 트랙(MVTRK)의 속성 정보 리스트를 나타낸다. 비디오 트랙 엘리먼트(VDTRK) 내의 비디오 트랙 번호(VDTKNM)(track 속성 정보)는 각각의 비디오 트랙을 식별하기 위한 비디오 트랙 번호(VDTKNM)를 나타낸다. 본 실시예에 있어서는, 비디오 트랙 번호(VDTKNM)의 값으로서 1로부터 9까지의 양의 정수가 설정되어야만 한다. 즉, 본 실시예에 있어서는, 9개까지의 메인 비디오 트랙(MVTRK)이 설정될 수 있고, 이들 트랙 중 하나를 사용자가 선택할 수 있다. 9개까지 사용자가 선택할 수 있는 메인 비디오 트랙(MVTRK)을 설정하는 것에 의해, 컨텐츠 제공자의 사용자에 대한 표현력을 대폭 향상시킬 수 있다. 게다가, 사용자 선택가능 여부를 나타내는 플래그(USIFLG)(selectable 속성 정보)는 대응하는 메인 비디오 트랙(MVTRK)이 사용자 조작에 의해 선택될 수 있는지 여부를 나타낸다. 사용자 선택가능 여부를 나타내는 플래그(USIFLG)의 값이 "true"인 경우에는, 이것은 대응하는 메인 비디오 트랙(MVTRK)이 사용자 조작에 의해 선택될 수 있음을 의미한다. 이 플래그의 값이 "false"인 경우에는, 이것은 대응하는 메인 비디오 트랙이 사용자 조작에 의해 선택될 수 없음을 의미한다. 비디오 트랙 엘리먼트(VDTRK) 내에서 사용자 선택가능 여부를 나타내는 플래그(USIFLG)의 기술이 생략될 수 있다. 이 경우에, 디폴트값인 "true"가 자동으로 설정된다. 비디오 트랙에 관한 속성 정보가 사람에게 친숙한 텍스트 포맷으로 기술되지만, 부가 정보의 기술이 비디오 트랙 엘리먼트(VDTRK) 내에서 생략될 수 있다.
<AudioTrack(오디오 트랙) 엘리먼트>
AudioTrack 엘리먼트는 오디오 트랙의 속성 리스트를 기술한다.
AudioTrack 엘리먼트의 XML 신택스 표현:
<AudioTrack
track = positiveInteger
selectable = (true | false)
langcode = langCode
description = string
/>
(a) track 속성
표시되는 오디오 트랙의 오디오 트랙 번호를 기술한다. 오디오 트랙 번호는 1부터 8까지의 정수이어야 한다.
(b) selectable 속성
트랙이 사용자 조작에 의해 선택가능한지 여부를 기술한다. 이 값이 "true"인 경우, 트랙은 사용자 조작에 의해 선택가능해야 하고, 그렇지 않은 경우에, 트랙은 사용자 조작에 의해 선택가능하지 않아야 한다. 이 값은 생략될 수 있다. 디폴트값은 "true"이다.
(c) langcode 속성
이 오디오 트랙 번호에 대한 특정의 코드 및 특정의 코드 확장을 기술한다. 이 속성값은 Datatypes에 정의된 langCode 데이터 유형이어야 한다.
(d) description 속성
사람에게 친숙한 텍스트 포맷으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터 도 62c의 (d) 및 도 62c의 (e)에 도시하는 오디오 트랙 엘리먼트(ADTRK)에 관하여 설명을 한다. 오디오 트랙 엘리먼트(ADTRK)는 메인 오디오 트랙(MATRK) 및 서브 오디오 트랙(SATRK)의 속성 리스트를 나타내고 있다. 오디오 트랙 엘리먼트(ADTRK) 내의 오디오 트랙 번호(ADTKNM)(track 속성 정보)로서, 각각의 오디오 트랙을 식별하는 데 이용되는 오디오 트랙 번호(ADTKNM)가 설정된다. 사용자 선택가능 여부를 나타내는 플래그(USIFLG)(se1ectable 속성 정보)는 대응하는 메인 오디오 트랙(MATRK) 또는 서브 오디오 트랙(SATRK)이 사용자 조작에 의해 선택될 수 있는지 여부를 나타낸다. 사용자 선택가능 여부를 나타내는 플래그(USIFLG)의 값이 "true"인 경우에는, 이것은 대응하는 오디오 트랙이 사용자 조작에 의해 선택될 수 있음을 의미한다. 이 값이 "false"인 경우에는, 사용자 조작에 의해 대응하는 오디오 트랙이 선택될 수 없다. 오디오 트랙 엘리먼트(ADTRK) 내에서 사용자 선택가능 여부를 나타내는 플래그(USIFLG)의 기술이 생략될 수 있다. 이 경우에는, 디폴트값인 "true"가 자동으로 설정된다. 본 실시예에 있어서는, 오디오 트랙 번호(ADTKNM)의 값으로서, 1부터 8까지의 양의 정수가 사용되어야만 한다. 이와 같이 오디오 트랙을 8개 트랙까지 선택가능하게 설정하는 것에 의 해, 컨텐츠 제공자의 사용자에 대한 표현력을 대폭 향상시킬 수 있다. 또한, 오디오 언어 코드와 오디오 언어 코드 확장 기술자(ADLCEX)(langcode 속성 정보)로서, 대응하는 오디오 트랙 번호(ADTKNM)에 대한 특정한 코드 및 특정한 코드 확장 기술자가 기술되어 있다. 여기서, 도 62c의 (e)에 도시한 바와 같이, 일본어를 나타내는 값으로서 "ja"가 사용되고, 영어를 나타내는 값으로서 "en"가 사용된다. 또한, 동일한 일본어 또는 동일한 영어라도 오디오 트랙의 내용이 다른 것으로 가정하면, 오디오 언어 코드와 오디오 언어 코드 확장 기술자(ADLCEX)(langcode 속성 정보)의 값으로서 언어 코드 번호의 뒤에 콜론을 배치하고, 콜론 뒤에 숫자(예를 들어, "ja:01")가 설정될 수 있다. 또한, 오디오 트랙에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되지만, 부가 정보의 기술은 오디오 트랙 엘리먼트(ADTRK) 내에서 생략될 수 있다.
<SubtitleTrack(자막 트랙) 엘리먼트>
SubtitleTrack 엘리먼트는 자막 트랙의 속성 리스트를 기술한다.
SubtitleTrack 엘리먼트의 XML 신택스 표현:
<SubtitleTrack
track =positiveInteger
selectable = (true | false)
forced = (true | false)
langcode = langCode
description = string
/>
(a) track 속성
표시되는 자막 트랙의 자막 트랙 번호를 기술한다. 자막 트랙 번호는 1부터 32까지의 정수이어야 한다.
(b) selectable 속성
트랙이 사용자 조작에 의해 선택가능한지 여부를 기술한다. 이 값이 "true"인 경우, 트랙은 사용자 조작에 의해 선택가능하여야 하고, 그렇지 않은 경우에는 트랙은 사용자 조작에 의해 선택가능하지 않아야 한다. 이 속성은 생략될 수 있다. 디폴트값은 "true"이다.
(c) langcode 속성
이 오디오 트랙 번호에 대한 특정의 코드 및 특정의 코드 확장을 기술한다. 이 속성값은 Datatypes에 정의된 langCode 데이터 유형이어야 한다.
(d) forced 속성
자막 트랙이 강제로 표시될 수 있는지 여부를 기술한다. 이 값이 "true"인 경우, 자막은 강제로 표시되어야 하며, 그렇지 않은 경우 자막이 강제로 표시되어서는 안 된다. 이 속성은 생략될 수 있다. 디폴트값은 "false" 이다.
(e) description 속성
사람에게 친숙한 텍스트 형식으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 자막 트랙 엘리먼트(SBTREL)에 관하여 설명을 한다. 자막 트랙 엘리먼트(SBTREL)는 자막 트랙(SBTTRK)의 속성 리스트를 나타내고 있다. 자막 트랙 번호(STTKNM)(track 속성 정보)는 각각의 자막 트랙(SBTTRK)을 식별하는 데 이용되며, 자막 트랙 번호(STTKNM)의 값으로서 1부터 32까지의 양의 정수가 기술되어야만 한다. 본 실시예에서, 32개의 자막 트랙(SBTTRK)을 설정하는 것에 의해 사용자에 대한 표현력이 대폭 향상될 수 있다. 또한, 사용자 선택가능 여부를 나타내는 플래그(USIFLG)(selectable 속성 정보)는 사용자 조작에 의해 자막 트랙(SBTTRK)이 선택될 수 있는지 여부를 나타낸다. 이 값이 "true"인 경우에는, 이것은 자막 트랙(SBTTRK)이 사용자 조작에 의해 선택될 수 있음을 의미한다. 이 값이 "false"인 경우에는, 이것은 사용자 조작에 의한 선택이 불가능함을 의미한다. 사용자 선택가능 여부를 나타내는 플래그(USIFLG)의 기술이 자막 트랙 엘리먼트(SBTREL) 내에서 생략될 수 있다. 그렇지만, 이 경우에, 디폴트값인 "true"가 자동으로 설정된다. 자막 언어 코드와 자막 언어 코드 확장 기술자(STLCEX)는 해당하는 자막 트랙(SBTTRK)에 관한 특정한 코드와 특정한 코드 확장 기술자를 나타낸다. 또한, 강제 화면 출력에 관한 플래그(FRCFLG)(forced 속성 정보)는 대응하는 자막 트랙(SBTTRK)이 강제적으로 화면에 출력되는지 여부를 나타낸다. 이 값이 "true"인 경우에는, 대응하는 자막 트랙(SBTTRK)은 강제적으로 화면으로 출력되어야 한다. 이 값이 "faIse"인 경우에는, 대응하는 자막 트랙이 반드시 강제적으로 화면으로 출력될 필요는 없다. 이 값(강제 화면 출력을 나타내는 플래그(FRCFLG))의 기술은 대응하는 자막 트랙 엘리먼트(SBTREL) 내에서 생략될 수 있다. 이 경우 에는, 디폴트값인 "false"가 자동으로 설정된다. 또한, 자막 트랙(SBTTRK)에 관한 부가 정보가 사람에게 친숙한 텍스트 포맷으로 기술되지만, 부가 정보의 기술이 자막 트랙 엘리먼트(SBTREL) 내에서 생략될 수 있다.
도 62c의 (e)에 도시한 트랙 내비게이션 리스트의 구체적인 예에 관해서 설명을 한다. 도 62c의 (e)에 있어서는, 3개의 비디오 트랙이 존재한다. 이들 트랙 중에서, 사용자는 트랙 번호 "1"와 "2"를 갖는 메인 비디오 트랙을 선택할 수 있고, 트랙 번호 "3"를 갖는 메인 비디오 트랙(MVTRK)을 선택할 수 없다. 또한, 4개의 오디오 트랙이 설정되어 있다. 도 62c의 (e)에 도시한 실시예에서는, 메인 오디오 트랙(MATRK)과 서브 오디오 트랙(SATRK)의 트랙 번호는 각각의 오디오 트랙 번호(ADTKNM)와 중복하지 않는 형태로 설정되어 있고, 메인 오디오 트랙(MATRK) 및 서브 오디오 트랙(SATRK)에 대해서는 서로 다른 오디오 트랙 번호(ADTKNM)가 설정되어 있다. 그 결과, 재생하여야 할 오디오 트랙으로서 메인 오디오 트랙(MATRK) 및 서브 오디오 트랙(SATRK)이 선택적으로 지정될 수 있다. 오디오 트랙 번호(ADTKNM)가 "1"인 오디오 트랙은 영어(en)로 표시되고, 오디오 트랙 번호(ADTKNM)가 "2" 및 "3"인 오디오 트랙은 일본어(ja)로 표시된다. 오디오 트랙 번호(ADTKNM)가 "1"부터 "3"까지인 오디오 트랙이 사용자에 의해 선택될 수 있지만, 오디오 트랙 번호(ADTKNM)가 "4"인 오디오 트랙은 사용자에 의해 선택될 수 없다. 오디오 트랙 번호(ADTKNM)가 "2" 및 "3"인 오디오 트랙은 마찬가지로 일본어로 표시되지만, 음성 내용이 서로 다르기 때문에, 오디오 언어 코드와 오디오 언어 코드 확장 기술자(ADLCEX)의 값은 "ja:01"과 "ja:02"로서 식별된다. 또한, "1"부 터 "4"까지의 자막 트랙 번호(STTKNM)로 설정된 4개의 자막 트랙(SBTTRK)이 설정되어 있다. 자막 트랙 번호(STTKNM)가 "1"인 자막 트랙(SBTTRK)은 영어(en)로 표시되고 사용자에 의해 선택될 수 있지만, 자막 트랙(SBTTRK)에 대해 강제 화면 출력을 나타내는 플래그(FRCFLG)가 "true"로 설정되어 있다. 따라서, 영어로 표시되는 자막 트랙 번호(STTKNM)가 "1"인 자막 트랙(SBTTRK)은 강제적으로 화면으로 출력되어야만 한다. 또한, 자막 트랙 번호(STTKNM)가 "2"인 자막 트랙(SBTTRK)이 일본어(ja)로 표시되고, 자막 트랙 번호(STTKNM)가 "3"인 자막 트랙(SBTTRK)이 중국어(ch)로 표시된다. 자막 트랙 번호(STTKNM)가 "2" 및 "3"인 자막 트랙(SBTTRK)은 둘 다 사용자에 의해 선택될 수 있다. 반면에, 자막 트랙 번호(STTKNM)가 "4"인 자막 트랙(SBTTRK)은 사용자에 의해 선택될 수 없다.
지금까지 설명한 오디오 트랙 엘리먼트(ADTRK)의 설정(기술) 방법에 따르면, 메인 오디오 트랙(MATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)에 설정된 오디오 트랙 번호(ADTKNM) 및 서브 오디오 트랙(SATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)에 설정된 오디오 트랙 번호(ADTKNM)는 동일한 번호가 서로 중복하지 않도록 설정되어야만 한다. 그 결과, 메인 오디오 트랙(MATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK) 및 서브 오디오 트랙(SATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK) 내에 서로 다른 오디오 트랙 번호(ADTKNM)가 설정된다. 그 결과, 트랙 내비게이션 정보(TRNAVI)를 이용하여 사용자가 특정한 오디오 트랙 번호(ADTKNM)를 선택할 때, 사용자에게 표시/출력되는 음성 정보로서 메인 오디오 트랙(MATRK) 또는 서브 오디오 트랙(SATRK) 중 어느 하나가 선택될 수 있다. 이 실시예에서, 도 62b의 (e)에 도시한 바와 같이, 트랙 내비게이션 리스트 엘리먼트(트랙 내비게이션 정보(TRNAVI)) 내에 메인 오디오 트랙(MATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)와 서브 오디오 트랙(SATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK) 둘 다가 배치(기술)되어 있다. 본 실시예는 상기 예에 한하지 않으며, 이하의 다른 응용예를 채용할 수 있다. 즉, 다른 응용예로서, 메인 오디오 트랙(MATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)만을 설정하고, 서브 오디오 트랙(SATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)를 설정하지 않는 방법이 있다. 이 경우에는, 도 62b의 (d)에 도시하는 오디오 트랙 엘리먼트(ADTRK)에 대응하는 트랙 섹션에는 메인 오디오 트랙(MATRK)만이 기술되고, 서브 오디오 트랙(SATRK)은 삭제된다. 이 응용예에서는, 메인 오디오 트랙(MATRK)에 대응하는 오디오 트랙 엘리먼트(ADTRK)만이 트랙 내비게이션 리스트 엘리먼트(트랙 내비게이션 정보(TRNAVI)) 내에 배치(기술)되고, 표시/출력될 음성 정보로서 사용자는 메인 오디오 트랙(MATRK)만을 선택한다. 이 응용예에서는, 서브 오디오 트랙(SATRK)은 메인 오디오 트랙(MATRK)에 연동하여 자동으로 선택된다. 예컨대, 사용자가 트랙 내비게이션 정보(TRNAVI)를 이용하여 "트랙 번호 3"을 갖는 메인 오디오 트랙(MATRK)을 선택한 경우에는, 사용자에게 표시/출력되는 서브 오디오 트랙(SATRK)으로서 "트랙 번호 3"을 갖는 서브 오디오 트랙(SATRK)이 자동으로 선택된다.
재생 목록(PLLST) 내에 포함되는 객체 매핑 정보(OBMAPI) 내의 네트워크 소스 엘리먼트(NTSELE)의 데이터 구조가 도 62b의 (c)에 도시되어 있다. 또한, 마찬가지로, 객체 매핑 정보(OBMAPI) 내의 애플리케이션 리소스 엘리먼트(APRELE)의 데 이터 구조가 도 63c의 (d)에 도시되어 있다. 고급 컨텐츠 재생 유닛(ADVPL)에 의해 사전에 데이터 캐쉬(DTCCH) 내에 일시적으로 저장되어 있는 리소스가 네트워크 서버(NTSRV) 내에 존재하는 경우에, 객체 매핑 정보(OBMAPI) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 18에 도시한 바와 같이, 원래 기록되어 있는 장소가 네트워크 서버(NTSRV) 내에 존재할 수 있는 재생/표시 대상이 되는 객체 이름으로서, 대체 오디오 비디오(SBTAV), 2차 오디오 비디오(SCDAV), 대체 오디오(SBTAD), 고급 자막(ADSBT) 및 고급 애플리케이션(ADAPL)이 존재한다. 따라서, 원래 기록되어 있는 장소로서 네트워크 서버(NTSRV)를 설정할 수 있는 객체에 대응하는 클립 엘리먼트로서, 대체 오디오 비디오 클립(SBAVCP), 2차 오디오 비디오 클립(SCAVCP), 대체 오디오 클립(SBADCP), 고급 자막 세그먼트(ADSTSG) 및 애플리케이션 세그먼트(APPLSG)가 있다. 이 구성에 따라, 도 63a 내지 도 63c에 도시한 바와 같이, 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 대체 오디오 클립 엘리먼트(SBADCP) 및 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 63a의 (b)에서, 각각의 클립 엘리먼트에 따라 하나의 네트워크 소스 엘리먼트(NTSELE)가 기술되어 있지만, 실제로는 동일한 클립 엘리먼트 내에 복수의 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 67에 도시한 바와 같이, 동일한 클립 엘리먼트 내에 1개 이상의 네트워크 소스 엘리먼트(NTSELE)를 기술하는 것에 의해, 정보 기록 및 재생 장치(1)의 네트워크 환경에 최적인 리소스를 설정할 수 있게 된다.
<NetworkSource(네트워크 소스) 엘리먼트>
NetworkSource 엘리먼트는 네트워크 컨텐츠의 후보, 즉 지정된 네트워크 처리용량 설정에 대한 리소스를 기술한다.
NetworkSource 엘리먼트의 XML 신택스 표현:
<NetworkSource
src = anyURI
networkThroughput = nonNegativeInteger
/>
NetworkSource 엘리먼트는 dataSource 속성값이 'Network'인 경우에만 SecondaryAudioVideoClip 엘리먼트 내에 또는 SubstituteAudioClip 엘리먼트 내에 기술될 수 있다.
NetworkSource 엘리먼트는 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우에만 ApplicationResource 엘리먼트 내에 또는 TitleSource 엘리먼트 내에 기술될 수 있다.
(a) src 속성
networkThroughput 속성에 의해 기술되는 네트워크 처리용량에 대한 네트워크 소스의 URI를 기술한다. 부모 엘리먼트가 SecondaryAudioVideoClip 엘리먼트 또는 SubstituteAudioClip 엘리먼트인 경우, src 속성값은 참조될 Presentation 객체의 TMAP 파일의 URI이어야 한다. 부모 엘리먼트가 ApplicationResource 엘리먼트 또는 TitleResource 엘리먼트인 경우, src 속성값은 아카이브 파일 또는 파일 캐쉬로 로딩될 파일의 URI이어야 한다. src 속성값의 URI 방식은 'http' 또는 'https'이어야 한다.
(b) networkThroughput 속성
이 네트워크 컨텐츠 또는 리소스를 사용하기 위한 최소한의 네트워크 처리용량 값을 기술한다. 이 속성값은 1000 bps의 단위를 갖는 음이 아닌 정수이어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 63b의 (c)에 도시하는 네트워크 소스 엘리먼트(NTSELE)는 데이터 캐쉬(DTCCH)에 일시적으로 저장되는 잠재적인 네트워크 컨텐츠를 나타내고 있다. 또한, 네트워크 소스 엘리먼트(NTSELE) 내에는, 파일 캐쉬(FLCCH) 내에 다운로드하는 때에 잠재적인 네트워크 컨텐츠에 대응하는 리소스를 보증하는 네트워크 처리용량 조건에 관한 정보도 기재되어 있다. 또한, 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내의 SRC 속성 정보에 기술되는 값이 "http" 또는 "https"으로 시작되는 경우에는, 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 소스 엘리먼트 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 63b의 (c)에 나타낸 네트워크 처리용량의 허용 최소값 정보(NTTRPT)는 대응하는 SRC 속성 정보(SRCNTS)에 의해 지정된 저장 장소부터 네트워크 소스(데이터 또는 파일)을 다운로드하는 경우의 네트워크 처리용량(데이터 전송 레이트)에 관하여 네트워크 시스템으로서 허용되는 최소값을 나타내고 있다. 또한, 네트워크 처리용량의 허용 최소값 정보(NTTRPT)의 값은 1O00bps의 단위로 기술된다. 네트워크 처리용량의 허용 최소값 정보(NTTRPT)에 기록되는 값으로서, "O" 또는 자연수의 값이 기록되어야만 한다. 도 63b의 (c)에 도시한 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보에는 네트워크 처리용량의 허용 최소값에 대응하는 네트워크 소스의 저장 장소(SRCNTS)의 값이 기술되고, 이 값은 URI(uniform resource identifier)의 표시 형식에 기초하여 기술된다. 이 네트워크 소스 엘리먼트(NTSELE)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 또는 대체 오디오 클립 엘리먼트(SBADCP) 내에 설정되어 있는 경우에는, 2차 고화질 비디오 객체(S-EVOB)의 타임 맵 파일(STMAP)의 저장 장소가 지정된다. 또한, 네트워크 소스 엘리먼트(NTSELE)가 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내에 설정되어 있는 경우에는, src 속성 정보는 파일 캐쉬(FLCCH)로 로딩되는 파일의 저장 장소를 나타내고 있다. 파일 캐쉬(FLCCH)로 로딩되는 구체적인 파일 내용으로서는, 도 l1에 도시하는 고급 애플리케이션 디렉토리(ADAPL) 내에 포함되는 파일인 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 스크립트 파일(SCRPT), 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD), 폰트 파일(FONT), 및 고급 자막 디렉토리(ADSBT) 내에 포함되는 고급 자막의 매니페스트 파일(MNFSTS), 고급 자막의 마크업 파일(MRKUPS), 및 고급 자막의 폰트 파일(FONTS), 기타 등등이 있다. 도 10 또는 도 25에 도시한 바와 같이, 고급 애플리케이션(ADAPL)과 고급 자막(ADSBT)이 정보 저장 매체(DISC), 영속적 저장 장치(PRSTR), 또는 네트워크 서버(NTSRV) 중 어느 하나에 저장되어 있더라도, 이들이 사전에 파일 캐쉬(FLCCH) 내에 일시적으로 저장되고 파일 캐쉬(FLCCH)로부터 재생/표시되어야만 한다. 이와 같이, 고급 자막(ADSBT)에서 참조(사용)되는 리소스의 저장 장 소(경로), 파일 이름 및 데이터 크기의 정보가 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 내에 기술된다. 또한, 애플리케이션 리소스 엘리먼트(APRELE)는 고급 자막 세그먼트 엘리먼트(ADSTSG) 또는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 기술될 수 있다. 또한, 본 실시예에 있어서, 각각의 컨텐츠에 대해 참조(이용)되는 리소스마다 서로 다른 애플리케이션 리소스 엘리먼트(APRELE)로서 기술되어야만 한다. 예컨대, 도 12 또는 도 11에 도시한 바와 같이, 고급 자막(ADSBT)을 구성하는 컨텐츠로서 고급 자막의 매니페스트(MNFSTS), 고급 자막의 마크업(MRKUPS), 고급 자막의 폰트(FONTS)가 존재하는 경우에는, 도 63a의 (b) 내의 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에 고급 자막의 매니페스트(MNFSTS)에 대응하는 1개의 애플리케이션 리소스 엘리먼트(APRELE), 고급 자막의 마크업(MRKUPS)에 대응하는 애플리케이션 리소스 엘리먼트(APRELE), 및 고급 자막의 폰트(FONTS)에 대응하는 애플리케이션 리소스 엘리먼트(APRELE)가 기술된다. 도 63a의 (b)에서는, 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에 1개의 애플리케이션 리소스 엘리먼트(APRELE)가 기술되고, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 1개의 애플리케이션 리소스 엘리먼트(APRELE)가 기술되어 있다. 그렇지만, 실제로는, 고급 자막(ADSBT)을 구성하는 각각의 컨텐츠에 따라 애플리케이션 리소스 엘리먼트(APRELE)만이 기술되어 있고, 고급 애플리케이션(ADAPL)에서 참조(사용)되는 각각의 리소스에 따라 복수의 애플리케이션 리소스 엘리먼트(APRELE)가 기술된다. 게다가, 도 63c의 (d)에 도시한 바와 같이, 애플리케이션 리소스 엘리먼트(APRELE)에 의해 관리되는 리소스가 네트워크 서버(NTSRV) 내에 저장되어 있는 경우에는, 애플리케이션 리소스 엘리먼트(APRELE) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 67의 예에 도시한 바와 같이, 동일한 컨텐츠(동일 내용을 나타내는 파일)을 나타내는 (데이터 크기가 서로 다른) 복수의 리소스가 네트워크 서버(NTSRV) 내에 저장되어 있는 경우에는, 동일한 애플리케이션 리소스 엘리먼트(APRELE) 내에 1개 이상의 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있고, 정보 기록 및 재생 장치(1)의 네트워크 환경에 대응하는 최적의 리소스가 선택되고 다운로드될 수 있다.
<ApplicationResource(애플리케이션 리소스) 엘리먼트>
ApplicationResource 엘리먼트는 고급 애플리케이션에서 또는 고급 자막에서 사용되는 패키지 아카이브 파일 등의 애플리케이션 관련 리소스 정보를 기술한다.
ApplicationResource 엘리먼트의 XML 신택스 표현:
<ApplicationResource
src = anyURI
size = positiveInteger
priority = nonNegativeInteger
multiplexed = (true | false)
loadingBegin = timeExpression
noCache = (true | false)
description = string
>
NetworkSource *
</ApplicationResource>
ApplicationResource 엘리먼트는 어느 아카이브 데이터 또는 파일이 파일 캐쉬로 로딩되어야 하는지를 결정한다. src 속성은 아카이브 데이터 또는 파일을 참조한다.
플레이어는 애플리케이션 라이프 사이클이 시작되기 이전에 리소스 파일을 파일 캐쉬로 로딩한다.
리소스의 유효 기간은 부모 ApplicationSegment 엘리먼트의 유효 기간으로부터 암시된다.
타이틀 타임라인 상에서의 리소스의 유효 기간의 시작 시간 및 종료 시간은 각각 부모 ApplicationSegment 엘리먼트의 유효 기간의 시작 시간 및 종료 시간이다.
리소스는 1차 비디오 세트 내에 멀티플렉싱되어 있을 수 있다. 이 경우에, loadingBegin 속성은 P-EVOB의 ADV_PCK가 리소스를 포함하고 있는 로딩 기간의 시작 시간을 기술한다.
리소스는 URI에 의해 표시되는 영속적 저장 장치로부터 올 수 있다[도 20]. 이 경우에, loadingBegin 속성은 영속적 저장 장치로부터 리소스를 다운로드하기 위한 로딩 기간의 시작 시간을 기술한다.
리소스는 src 속성의 URI 방식이 'http' 또는 'https'인 경우에 네트워크 서버로부터 올 수 있다. 이 경우에, loadingBegin 속성은 리소스를 다운로드하기 위 한 로딩 기간의 시작 시간을 기술한다.
NetworkSource 엘리먼트는 부모 엘리먼트의 src 속성의 URI 방식이 'http' 또는 'https'인 경우에만 ApplicationResource 엘리먼트 내에 기술될 수 있다. NetworkSource 엘리먼트는 네트워크 처리용량 설정에 따라 선택될 리소스를 기술한다.
(a) src 속성
데이터 캐쉬로 로딩될 아카이브 데이터 또는 파일에 대한 URI를 기술한다.
(b) size 속성
아카이브 데이터 또는 파일의 크기를 바이트 단위로 기술한다. 이 속성은 생략될 수 있다.
(c) priority 속성
활성 애플리케이션 또는 타이틀에 의해 참조되지 않는 리소스의 제거 우선순위를 기술한다. 우선순위는 1부터 231-1까지의 정수이어야 한다.
(d) multiplexed 속성
이 값이 "true"인 경우에, 아카이브 데이터는 타이틀 타임라인의 로딩 기간에 P-EVOB의 ADV_PCK로부터 로딩될 수 있다. 이 값이 "false"인 경우, 플레이어는 지정된 URI로부터 리소스를 사전로딩해야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'true'이다.
(e) loadingBegin 속성
타이틀 타임라인 상의 로딩 기간의 시작 시간을 기술한다. loadingBegin 속성이 존재하지 않는 경우, 로딩 기간의 시작 시간은 연관된 고급 애플리케이션의 유효 기간의 시작 시간이어야 한다.
(f) noCache 속성
noCache 속성값이 'true'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https' 인 경우, 'no-cache' 디렉티브는 리소스 파일에 대한 HTTP 요청 내의 Cache-Control 및 Pragma 둘 다 내에 포함되어 있어야 한다. noCache 속성값이 'false'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우, 'no-cache' 디렉티브가 Cache-Control이나 Pragma 내에 포함되어 있어서는 안 된다. 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우, noCache 속성은 존재하지 않아야 한다. noCache 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(g) description 속성
사람에게 친숙한 텍스트 형식으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
예컨대, 고급 자막(ADSBT) 또는 고급 애플리케이션(ADAPL) 등의 애플리케이션에 의해 참조(사용)되는 리소스에 관한 리소스 정보(RESRCI)가 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE)에 기술된다. 또한, 애플리케이션 리소스 엘리먼트(APRELE)는 파일 캐쉬(FLCCH)에 저장(로딩)하여야 할 리소스의 저 장 장소(경로) 및 파일 이름(데이터 이름)을 나타내고 있다. 리소스의 저장 장소(경로) 및 파일 이름(데이터 이름)은 src 속성 정보 내에 기술된다. 고급 컨텐츠 재생 유닛(ADVPL)은 고급 자막(ADSBT) 또는 고급 애플리케이션(ADAPL) 등의 애플리케이션의 실행이 시작되기 전에 애플리케이션 리소스 엘리먼트(APRELE)에 의해 지정된 리소스 파일을 파일 캐쉬(FLCCH) 내에 저장해야 한다. 또한, 애플리케이션 세그먼트 엘리먼트(APPLSG)의 유효 기간(도 56b의 (d)의 titleTimeBegin/TTSTTM에서부터 titleTimeEnd/TTEDTM까지의 기간) 내에 애플리케이션 리소스 엘리먼트(APRELE)의 유효 기간이 포함되어 있어야만 된다. 애플리케이션 리소스 엘리먼트(APRELE)에 의해 정의된 리소스의 타이틀 타임라인(TMLE) 상에서의 유효 기간 내의 시작 시간은 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG)의 유효 기간의 시작 타이밍을 나타내는 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)과 일치하고, 또한 리소스의 타이틀 타임라인 상에서의 유효 기간의 종료 시간은 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 기재된 유효 기간의 종료 시간을 나타내는 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd)과 일치한다. 도 73a의 (d)에는 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 고급 팩(ADV_PCK)이 멀티플렉싱되어 있는 상태가 도시되어 있다. 상기한 바와 같이, 도 63c의 (d)에 도시한 애플리케이션 리소스 엘리먼트(APRELE)에 의해 나타내어지는 리소스가 1차 비디오 세트(PRMVS) 내에 멀티플렉싱되어 기록될 수 있다. 대상 리소스의 가져오기(로딩)이 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1 oadingBegin)은 대응하는 리소스를 포함하는 1차 고화질 비디오 객체 데이터(P- EVOB)의 고급 팩(ADV_PCK)의 로딩 기간의 시작 시간을 나타내고 있다. 또한, 리소스의 저장 장소로서, 영속적 저장 장치(PRSTR) 내의 장소가 지정될 수 있다. 이 경우에, 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(loadingBegin)은 영속적 저장 장치(PRSTR)로부터 리소스가 다운로드되는 로딩 기간의 시작 시간을 의미한다. 또한, 리소스의 저장 장소로서 네트워크 서버(NTSRV)가 지정될 수도 있다. 이 경우에, src 속성 정보는 "http" 또는 "https"로부터 시작되는 URI(uniform resource identifier)의 형태로 기술된다. 이 경우에, 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1oadingBegin)은 대응하는 리소스를 다운로드하는 로딩 기간의 시작 시간을 나타낸다. 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 내의 src 속성 정보의 값이 "http" 또는 "https"로부터 시작되는 URI(uniform resource identifier)의 형식으로 기술된 경우에는, 이것은 데이터 캐쉬(DTCCH) 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)가 네트워크 서버(NTSRV) 내에 존재함을 의미한다. 또한, 그 경우에는, 애플리케이션 리소스 엘리먼트(APRELE) 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 67에 도시한 바와 같이, 네트워크 소스 엘리먼트(NTSELE)는 네트워크 처리용량의 설정에 따라 선택되어야 하는 리소스 정보를 나타내고 있다. 이제부터, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 태그 내의 각각의 속성 정보에 관해서 설명을 한다. 데이터 캐쉬에 로딩되는 데이터 또는 파일의 크기 정보(DTFLSZ)는 바이트를 단위로 한 양의 정수로 나타내어지고, 애플리케이션 리소스 엘리먼트(APRELE) 태그 내에서 이 정보에 대한 기술이 생략될 수 있다. 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)는 타이틀 또는 실행 중의 고급 애플리케이션으로부터 참조되지 않는 대응하는 리소스를 데이터 캐쉬로부터 삭제하는 경우의 우선순위를 나타내고 있다. 즉, 고급 애플리케이션이 참조(사용)하지 않게 된 애플리케이션 리소스 엘리먼트(APRELE)는 우선순위가 높은 것부터 차례대로 삭제된다. 또한, 이 값으로서 1부터 "231-1"까지의 범위의 양의 정수를 기술할 수 있다. priority 속성 정보에 설정되는 값이 높은 리소스로부터 먼저 삭제된다. 애플리케이션 리소스는 2048 바이트씩 분할되고, 각각의 2048 바이트의 데이터가 고급 팩(ADV_PCK) 내에 패키징되며, 이는 도 73a의 (d)에 도시한 바와 같이 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 멀티플렉스되어 정보 저장 매체(DISC) 내에 기록된다. 애플리케이션 리소스가 멀티플렉스된 형태로 기록되어 있는지를 나타내는 정보는 멀티플렉싱 속성 정보(MLTPLX)(multiplexed 속성 정보)라고 불린다. 멀티플렉싱 속성 정보(MLTPLX)가 "true"인 경우에는, 이것은 타이틀 타임라인 상의 로딩 기간(LOADPE) 중에 저장된 데이터가 1차 고화질 비디오 객체(P-EVOB) 내의 고급 팩(ADV_PCK)으로부터 로딩되는 것을 의미한다. 또한, 멀티플렉싱 속성 정보(MLTPLX)(multiplexed 속성 정보)가 "false"인 경우에는, 이것은 저장된 데이터가 원래 저장되어 있는 장소(SRCDTC)로부터 파일로서 사전로딩되어 야함을 의미한다. 애플리케이션 리소스 엘리먼트(APRELE) 내에서 멀티플렉싱 속성 정보(MLTPLX)의 기재가 삭제될 수도 있다. 대상 리소스의 가져오기(로딩)가 시작 되는 타이틀 타임라인 상의 시간(PRL0AD)(loadingBegin 속성 정보)은 "HH:MM:SS:FF"의 형태로 기술된다. 애플리케이션 리소스 엘리먼트(APRELE) 내에 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)이 기술되어 있지 않는 경우에는, 로딩 기간의 시작 시간은 대응하는 고급 애플리케이션(ADAPL)의 유효 기간의 시작 시간(도 56b의 (d)에 나타낸 타이틀 타임라인 상의 시작 시간(TTSTTM))과 일치해야 한다. 이와 같이 고급 애플리케이션(ADAPL)의 시작 시간에 애플리케이션 리소스의 로딩이 시작되는 경우, 고급 애플리케이션(ADAPL)의 유효 기간 내에서 가장 이른 시간에 애플리케이션 리소스의 로딩이 완료될 수 있고 또 고급 애플리케이션(ADAPL) 내에서의 필요한 타이밍에서 애플리케이션 리소스의 활용 시간이 빨라질 수 있다는 효과가 달성될 수 있다. 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)은 이 시간(PRLOAD)이 기술되어 있는 애플리케이션 리소스 엘리먼트(APRELE)의 부모 엘리먼트(애플리케이션 세그먼트 엘리먼트(APPLSG) 또는 고급 자막 세그먼트 엘리먼트(ADSTSG)) 내에 기술되어 있는 타이틀 타임라인 상의 시작 시간(TTSTTM) 이전의 시간을 나타내야만 한다. 또한, 멀티플렉싱 속성 정보(MLTPLX)가 "true"인 경우는, 도 65a에 도시하는 방법으로 리소스를 파일 캐쉬(FLCCH) 내에 다운로드하기 때문에, 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1oadingBegin 속성 정보)의 기술이 생략되어서는 안 된다.
또한, 노캐쉬 속성 정보(NOCACH)(noCache 속성 정보)가 "true"인 경우는, 이것은 HTTP의 GET 요청 내에 Cach-Contro1 헤더와 Pragma 헤더가 포함되어 있음을 의미한다. 이 정보가 "false"인 경우는, 이것은 HTTP의 GET 요청 내에 Cache-Control 헤더와 Pragma 헤더가 포함되어 있지 않음을 의미한다. 노캐쉬 속성 정보(NOCACH)의 기재가 생략될 수 있고, 이러한 경우에는 디폴트값으로서 "false"가 설정된다. 게다가, 애플리케이션 엘리먼트에 관한 부가 정보를 나타내는 description 속성 정보는 사람에게 친숙한 텍스트 포맷으로 기술되고, 이 속성 정보의 기재가 생략될 수 있다.
이제부터, 본 실시예에서 각종 재생/표시 객체를 타이틀 타임라인(TMLE)의 진행에 따라 예정대로 표시/실행하기 위한 기술적 요점에 대해 기술한다. 본 실시예에 있어서의 기술적 요점은 "타이틀 타임라인(TMLE)의 진행에 따라 표시 또는 실행의 개시를 보증할 수 있는 방식"과 "데이터 캐쉬(DTCCH) 내로의 사전 로딩이 제시간에 수행될 수 없는 대응 방식"으로 분할될 수 있다. 이하에서 본 실시예에 있어서의 기술적 요점에 대해 항목별로 기술한다.
(1) 타이틀 타임라인(TMLE)의 진행에 따라 표시 또는 실행의 개시를 보증할 수 있는 방식
i) 고급 애플리케이션(ADAPL), 고급 자막(ADSBT) 및 일부의 2차 비디오 세트(SCDVS)를 사전에 데이터 캐쉬(DTCCH) 내에 일시적으로 저장하고, 데이터 캐쉬(DTCCH) 내에 일시적으로 저장한 데이터를 사용하여 사용자에의 표시 또는 실행 처리를 수행한다(도 25 참조)
ii) 데이터 캐쉬(DTCCH) 내에 사전에 일시적으로 저장하여야 할 데이터 이름 또는 파일 이름, 및 이러한 데이터 또는 파일의 저장 장소의 정보가 재생 목 록(PLLST) 내의(각종 클립 엘리먼트, 네트워크 소스 엘리먼트(NTSELE), 애플리케이션 리소스 엘리먼트(APRELE), 타이틀 리소스 엘리먼트, 또는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내의) src 속성 정보(소스 속성 정보) 내에 기술되어 있다(도 83 참조).
… 데이터 캐쉬(DTCCH) 내에 사전에 일시적으로 저장하여야 할 데이터 또는 파일 및 이 데이터 또는 파일의 액세스 목적지를 알 수 있다.
iii) 데이터 캐쉬(DTCCH) 내로의 사전 로딩이 시작되는 타이밍이 재생 목록(PLLST) 내의(클립 엘리먼트, 애플리케이션 리소스 엘리먼트(APRELE), 타이틀 리소스 엘리먼트 내의) "대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1oadingBegin 속성 또는 preload 속성)"에 의해 지정된다(도 65a 내지 도 65d, 도 54a 및 도 54b, 도 55a 및 도 55b, 도 63a 내지 도 63c, 및 도 66a 내지 도 66c 참조).
iv) 정보 기록 및 재생 장치(1)의 네트워크 환경에 따라 로딩에 최적인 데이터 또는 파일을 선택할 수 있게 해주는 정보가 재생 목록(PLLST)(네트워크 소스 엘리먼트(NTSELE)) 내에 기술되어 있다(도 67 및 도 68 참조)
(2) 데이터 캐쉬(DTCCH) 내로의 사전 로딩이 제시간에 수행될 수 없는 경우의 대응 방식
v) 재생 목록(PLLST) 내의(클립 엘리먼트 내의, 또는 세그먼트 엘리먼트 내의) "재생/표시 객체의 동기 속성 정보(SYNAT)(sync 속성 정보)" 내에 재생/표시 객체에 따른 대응 방법이 지정된다(도 54a 및 도 54b, 도 55a 및 도 55b, 도 56a 및 도 56b 참조)
Figure 112006062570134-PAT00106
sync = "hard"(하드 동기 속성)인 경우는, 로딩이 완료할 때까지 타이틀 타임라인(TMLE)의 진행을 정지시켜 동화상을 일시적으로 정지 상태로 만든다.
Figure 112006062570134-PAT00107
sync = "soft"(소프트 동기 속성)인 경우는, 타이틀 타임라인(TMLE) 상의 진행은 그대로 계속되고, 로딩이 완료하고 나서(타이틀 타임라인(TMLE) 상에서 지정된 표시 시작 시간(TTSTTM)/titleTimeBegin보다도 지연되어) 재생이 시작된다.
전술한 기술적인 요점을 실행한 경우에는, 파일 캐쉬(FLCCH) 내에서의 리소스 보유 시간으로서 도 64a 및 도 64b에 도시하는 5개의 상태가 있다.
<리소스 상태 머신>
도 64a는 파일 캐쉬 내의 리소스의 상태 머신을 나타낸 것이다. 상태 머신 내에는 비존재(non-exist), 로딩(loading), 준비(ready), 사용(used) 및 이용가능(available)의 5가지 상태가 있다. 이 상태 머신은 파일 캐쉬 내의 모든 파일에 적용된다.
(A) 리소스가 파일 캐쉬 내에 존재하지 않는 경우, 리소스는 비존재(non-exist) 상태에 있다. 타이틀 재생이 시작되기 이전에, 모든 리소스(재생 목록 애플리케이션에 대한 리소스는 제외)는 비존재 상태에 있다. 파일 캐쉬 관리자가 리소스를 폐기하는 경우, 상태 머신은 비존재 상태로 이동한다.
(B) 리소스 로딩이 시작되면, 상태 머신은 로딩 상태로 이동한다. 파일 캐쉬 관리자는 리소스 로딩을 시작하기 이전에 파일 캐쉬 내에 리소스를 저장하기 위한 충분한 메모리 블록을 확보해야 한다. 리소스 정보 내에 loadingBegin 속성이 있는 경우, 로딩 상태는 loadingBegin에서부터 시작한다. loadingBegin 속성이 없는 경우, 로딩은 titleTimeBegin으로부터 시작한다. autorun 속성이 false인 경우 또는 애플리케이션이 선택되지 않은 경우에는, 애플리케이션에 대한 리소스 로딩은 시작되지 않는다. autorun 속성이 로딩 동안에 우연히 false로 되는 경우, 리소스 로딩은 취소되고 이미 로딩된 리소스는 폐기된다.
(C) 리소스 로딩이 완료된 후에, 애플리케이션이 비활성 상태이면(타이틀 타임라인이 유효 기간으로 되기 이전에), 상태 머신은 준비 상태로 이동한다.
(D) 리소스 로딩이 완료된 후에, 애플리케이션이 활성 상태이면(즉, 애플리케이션이 실행되면), 상태 머신은 사용 상태로 이동한다. 리소스가 하나 이상의 활성 애플리케이션에 의해 사용되는 동안, 리소스는 사용 상태에 있다.
(E) 리소스 로딩이 완료된 후에, 리소스가 재생 목록 애플리케이션에 대한 리소스인 경우, 상태 머신은 사용 상태로 이동된다. 재생 목록 애플리케이션이 이용가능한 경우, 리소스는 사용 상태에 있다.
(F) 애플리케이션이 비활성 상태(즉, API에 의해 비활성으로 됨)로 되지만 타이틀 타임라인이 titleTimeEnd에 도달하지 않은 경우, 상태 머신은 준비 상태로 이동한다.
(G) 애플리케이션이 활성 상태로 될 때, 리소스가 현재 준비 상태에 있는 경우, 리소스는 사용 상태로 이동한다.
(H) 리소스를 참조하는 유효한 애플리케이션이 없는 경우, 리소스는 이용가능 상태로 이동한다.
(I) 애플리케이션이 활성으로 되고 리소스가 현재 이용가능 상태에 있는 경우, 리소스는 사용 상태로 이동한다.
(J) 애플리케이션이 유효하게 되고 리소스가 현재 이용가능 상태에 있는 경우, 리소스는 준비 상태로 이동한다.
보다 알기 쉬운 설명이 이하에 제공된다.
5개의 상태로서는, 로딩 기간(LOADPE), 사용 기간(USEDTM), 준비 기간(READY), 파일 캐쉬부터의 데이터를 삭제하기 위한 비존재 기간(N-EXST), 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE)이 존재한다. 타이틀 타임라인(TMLE) 상에서의 시간 진행에 따라 각각의 상태 사이의 천이가 발생한다. 이제부터 도 64a 및 도 64b에 있어서의 상태들 간의 천이에 관해서 설명을 한다.
(A) 파일 캐쉬(FLCCH) 내에 리소스가 저장되어 있지 않은 경우, 대응하는 리소스는 파일 캐쉬부터 데이터를 삭제하기 위해 비존재 기간(N-EXST)의 상태에 들어간다. 재생 목록 애플리케이션 리소스(PLAPRS) 이외의 모든 리소스는 타이틀의 재생을 시작하기 이전에 파일 캐쉬부터 데이터를 삭제하기 위해 비존재 기간(N-EXST)의 상태에 있다. 또한, 이미 파일 캐쉬(FLCCH) 내에 리소스가 저장되어 있었다고 해도, 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 파일 캐쉬 관리자(FLCMNG)가 리소스 삭제 처리를 실행한 후에 리소스는 파일 캐쉬부터 데이터를 삭제하기 위해 비존재 기간(N-EXST)에 들어간다.
(B) 리소스의 로딩이 시작되면, 파일 캐쉬(FLCCH) 내의 데이터 보유 상태는 로딩 기간(LOADPE)의 상태로 천이한다. 도 28에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 내의 파일 캐쉬 관리자(FLCMNG)가 파일 캐쉬(FLCCH) 내에 저장되는 데이터를 관리하고 있다. 리소스의 로딩 개시에 앞서서, 파일 캐쉬(FLCCH) 내에 저장하여야 할 리소스에 대하여 충분한 비어있는 영역을 갖는 메모리 블록이 준비되어야 하고, 파일 캐쉬 관리자(FLCMNG)는 저장하여야 할 리소스에 대응하는 메모리 블록의 비어있는 영역의 설정을 보장한다. 본 실시예에서, 도 66a의 (c) 및 도 66b의 (d)에 도시한 바와 같이, 재생 목록 파일(PLLST) 내의 리소스 정보(RESRCI)의 내용은 타이틀 리소스 엘리먼트의 리스트를 의미한다. 본 발명은 그에 한정되지 않으며, 본 실시예에 있어서의 다른 응용예로서 리소스 정보(RESRCI)의 개념이 확장될 수 있다. 리소스 정보(RESRCI)에 포함되는 정보로서, 도 65b의 (d)에 도시하는 타이틀 리소스 엘리먼트 뿐만 아니라 도 70 및 도 71에 도시하는 애플리케이션 리소스 엘리먼트(APRELE)와 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)의 3 종류의 리소스 엘리먼트가 통합될 수 있고, 이 통합된 엘리먼트는 리소스 정보(RESRCI)라고 불릴 수 있다. 이 응용예에 따른 리소스 정보(RESRC) 내에서, 도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트와 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 내에 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)이 존재하는 경우에는, 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)의 시간(LoadingBegin 속성 정보)으로부터 로딩 기간(LOADPE)이 시작된다. 타이틀 리소스 엘리먼트 또는 애플리케이션 리소스 엘리먼트(APRELE) 내에서 대상 리소스 의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)의 기술이 생략되어 있는 경우에는, 대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)으로부터 로딩 기간(LOADPE)이 시작된다(도 65b 참조). 도 56b의 (d)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 오토런 속성 정보(ATRNAT)의 정보가 존재한다. 오토런 속성 정보(ATRNAT)의 값이 "false"인 경우에는, 대응하는 애플리케이션이 자동으로 실행되지 않고 API 명령이 발행된 후에만 활성(실행) 상태에 들어간다. 이와 같이 오토런 속성 정보(ATRNAT)의 값이 "false"인 경우에는, 대응하는 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 리소스의 로딩이 시작되지 않는다. 도 56a의 (b)에 도시한 바와 같이, 고급 애플리케이션(ADAPL)으로부터 참조(사용)되는 리소스에 관한 정보는 애플리케이션 리소스 엘리먼트(APRELE)의 리스트로서 기술되고, 애플리케이션 리소스 엘리먼트(APRELE)의 리스트는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 배치되어 있다. 따라서, 오토런 속성 정보(ATRNAT)의 값이 "false"인 경우에는, 대응하는 애플리케이션 리소스 엘리먼트(APRELE)에 의해 관리되는 리소스의 로딩은 개시되지 않는다. 지정된 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 리소스의 로딩 기간 동안에 오토런 속성 정보(ATRNAT)가 "false"로 변경된 경우에는, 현재 로딩되는 리소스의 로딩이 취소되고, 이미 파일 캐쉬(FLCCH) 내에 로딩된 리소스가 삭제된다. 또한, 도 57과 관련하여 설명한 바와 같이, 사용하는 언어 정보에 따라서 실행(활성) 상태에 들어가는 고급 애플리케이션(ADAPL)이 선택된다. 게다가, 도 58에 도시한 바와 같이, 애플리케이션 세그먼 트 엘리먼트(APPLSG) 내의 애플리케이션 활성화 정보의 설정값의 조합이 도 58에 도시한 판정에 따라서 고급 애플리케이션(ADAPL)이 유효한지 여부를 판정하는 데 사용된다. 도 57 또는 도 58에 도시하는 절차에 기초하여 고급 애플리케이션(ADAPL)이 무효인 것으로 간주되는 경우에는, 대응하는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에서 지정된 리소스의 로딩이 개시되지 않는다. 확실하게 사용되어야 하는 고급 애플리케이션(ADAPL)이 참조(사용)하는 리소스만을 파일 캐쉬(FLCCH) 내로 로딩하는 것에 의해 파일 캐쉬(FLCCH) 내에 불필요한 리소스의 로딩을 피할 수 있고, 그에 의해 파일 캐쉬(FLCCH) 내의 리소스를 효과적으로 활용할 수 있다.
(C) 지정된 리소스의 파일 캐쉬(FLCCH) 내로의 로딩이 완료될 때, 파일 캐쉬 내의 데이터 저장 상태는 준비 기간(READY)의 상태로 천이된다. 준비 시간(READY)이란 리소스를 참조(사용)하는 애플리케이션이 타이틀 타임라인 상에서 유효 기간(VALPRD/APVAPE)에 도달하기 이전의 상태(사용 기간(USEDTM) 이전의 상태)를 의미한다.
(D) 리소스의 로딩이 완료하고 애플리케이션이 실행/사용 상태에 들어갈 때, 파일 캐쉬(FLCCH) 내의 데이터 저장 상태는 사용 기간(USEDTM)으로 천이한다. 리소스가 하나 이상의 현재 실행되는(활성 상태인) 애플리케이션에 의해 사용되고 있을 경우에는, 리소스는 실행/사용 상태에 있다.
(E) 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 참조(사용)되는 리소스의 로딩이 완료하면, 첫 번째 재생 타이틀(FRPLTT) 이외의 임의의 타이틀의 재생 동안에 리소스는 사용 기간(USEDTM)에 들어간다. 그 이유는, 재생 목록 관련 고급 애플리케이션(PLAPL)이 존재하는 경우에는, 임의의 타이틀 내에서(고급 애플리케이션(ADAPL)이나 타이틀 관련 고급 애플리케이션(TTAPL)에 의해) 리소스를 사용하는 것이 전제가 되기 때문이다.
(F) 현재 사용되는 애플리케이션의 실행이 예컨대 API 명령 등에 의해 중지된 경우에는, 애플리케이션은 비실행 상태에 들어간다. 타이틀 타임라인(TMLE) 상의 위치(시간)가 애플리케이션 세그먼트 엘리먼트(APPLSG) 또는 고급 자막 세그먼트 엘리먼트(ADSTSG) 내에서 지정된 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)(도 56a 및 도 56b 참조)에 도달하지 않는 경우에는, 파일 캐쉬(FLCCH) 내의 데이터 저장 상태는 준비 기간(READY)으로 천이한다.
(G) 파일 캐쉬(FLCCH) 내의 리소스가 현재 준비 기간(READY)에 있고 이 리소스를 참조(사용)하는 애플리케이션이 실행/사용 상태에 들어가는 경우, 리소스는 사용 기간(USEDTM)으로 천이된다.
(H) 파일 캐쉬(FLCCH) 내의 리소스를 참조하는 (복수의) 애플리케이션이 모두 유효하지 않은 경우에는, 리소스는 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능 기간(AVLBLE)의 상태에 들어간다.
(I) 리소스가 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능 기간(AVLBLE)의 상태에 있는 경우, 리소스는 리소스를 참조(사용)하는 애플리케이션이 실행/사용 상태로 천이하면 사용 기간(USEDTM)으로 들어간다.
(J) 리소스가 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능 기간(AVLBLE)의 상태에 있는 경우, 리소스를 참조(사용)하는 애플리케이션이 유효한 상태로 천이할 때 리소스는 준비 기간(READY)에 들어간다.
도 64a 및 도 64b는 파일 캐쉬(FLCCH) 내의 리소스 저장 상태(시간)의 천이를 나타낸 것이다. 도 64a 및 도 64b에 따라, 각각의 파일 캐쉬(FLCCH) 내의 각각의 데이터 저장 상태, 고급 애플리케이션 실행 기간(APACPE) 및 유효 기간(APVAPE) 간의 관계, 및 리소스 정보(RESRCI)에 기초한 고급 애플리케이션(ADAPL)의 로딩/실행 처리 방법을 도 65a 및 도 65b에 도시한다. 도 65a, 도 65b 및 도 65c 각각에서, 공통된 천이 순서로서, 데이터 저장 상태는 파일 캐쉬로부터 데이터를 삭제하기 위해 비존재 기간(N-EXST)으로부터 시작되고, 이어서 로딩 기간(LOADPE), 사용 기간(USEDTM), 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE), 파일 캐쉬로부터 데이터를 삭제하기 위한 비존재 기간(N-EXST)으로 상기한 순서로 천이한다. 또한, 이 천이 순서 도중에 준비 기간(READY)이 삽입된다.
<LoadingBegin을 포함하는 리소스 정보의 상태 머신의 이미지>
도 65a는 리소스 정보와 상태 머신 간의 관계의 예를 나타낸 것이다. 리소스는 loadingBegin 속성을 가지며, 고급 애플리케이션은 그의 유효 기간 내에서 항상 활성 상태에 있다. 동 도면에서, 리소스의 로딩을 완료한 후에, 상태 머신은 준비 상태로 된다. 이어서, 고급 애플리케이션의 활성 기간으로 들어가고, 상태 머신은 사용 상태로 된다. titleTimeEnd에 도달한 후에, 리소스가 파일 캐쉬 관리 자에 의해 폐기되고 비존재 상태로 이동할 때까지 상태 머신은 이용가능 상태로 이동한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 또는 도 66b의 (d)에 도시하는 리소스 정보(RESRCI)인 타이틀 리소스 엘리먼트 내에, 대상 리소스의 가져오기(로딩)이 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)의 정보가 존재한다. 도 66a의 (c)에 도시한 바와 같이, 리소스 정보(RESRCI)란 제한된 의미로는 타이틀 리소스 엘리먼트의 리스트를 의미한다. 그러나 본 실시예는 그에 한정되지 않으며, 타이틀 리소스 엘리먼트, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE), 및 도 69b의 (d)에 도시하는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)를 총칭하여 광의적 의미에서 리소스 정보(RESRCI)라고 부른다. 리소스 정보(RESRCI)(타이틀 리소스 엘리먼트 및 애플리케이션 리소스 엘리먼트(APRELE)) 내에 "대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(loadingBegin 속성 정보)"가 기술되어 있는 경우의 "파일 캐쉬 내에서의 리소스 데이터 저장 상태의 천이" 및 "고급 애플리케이션의 유효 기간(APVAPE)과 고급 애플리케이션 실행 기간(APACPE) 간의 관계"를 도 65a에 도시한다. 일반적으로는, "대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)"보다도 이전인 타이틀 타임라인(TMLE) 상의 시간으로서 "대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(loadingBegin 속성 정보)"가 설정된다. 그 결과, "대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)"로 설정된 시간 이전에 리소스의 로딩이 완료될 수 있고, 예정된 "대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)"부터 예컨대 타이틀 관련 고급 애플리케이션(PLAPL)의 재생/표시/실행이 개시될 수 있다.
이 경우에는, 도 65a에 있어서의 로딩 기간(LOADPE)이 고급 애플리케이션의 유효 기간(APVAPE)보다도 선행한 장소로 설정되어 있기 때문에, 고급 애플리케이션의 유효 기간(APVAPE)과 고급 애플리케이션의 실행 기간(APACPE)이 일치한다. 고급 애플리케이션의 유효 기간(APVAPE) 내에는, 파일 캐쉬(FLCCH) 내의 리소스는 사용 기간(USEDTM)으로 천이한다. 도 65a에 도시한 실시예에서는, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE)를 포함하는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에서 오토런 속성 정보(ATRNAT)가 "true"로 설정되고 있다(도 56b의 (d) 참조). 따라서, 타이틀 타임라인(TMLE) 상의 시간이 "타이틀 타임라인 상의 시작 시간(TTSTTM)"을 넘으면, 대응하는 고급 애플리케이션(ADAPL)은 자동으로 기동하여 유효 상태에 들어간다. 도 65a에 도시한 실시예에서, 파일 캐쉬(FLCCH)에 저장되는 리소스 파일(APMUFL)은 고급 팩(ADV_PCK)의 형태로 분할되고, 이 분할된 파일들은 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 멀티플렉싱되어 저장된다. 이 경우에는, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 내의 멀티플렉싱 속성 정보(MLTPLX)(multip1exed 속성 정보)의 값이 "true"로 설정된다. 도 65a에 도시한 실시예에서, 정보 저장 매체(DISC) 내에 고 급 팩(ADV_PCK)이 멀티플렉싱되어 있는 영역(도 73a의 (e) 참조)은 로딩 기간(LOADPE) 동안에 재생되어 파일 캐쉬(FLCCH) 내로 전송된다. 도 65a에 도시한 실시예의 경우에는, 대응하는 리소스의 로딩 처리가 종료한 뒤, 사용 기간(USEDTM)에 도달하기 이전에 준비 기간(READY)이 존재한다. 본 실시예는 상기한 내용에 한정되지 않으며, 예컨대 네트워크 서버(NTSRV) 내에 멀티플렉싱되지 않은 상태로 저장되어 있는 리소스 파일은 로딩될 수 있다. 이 경우에, "대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)"부터 로딩을 시작하고, 로딩 기간(LOADPE) 동안에 파일 캐쉬(FLCCH) 내로의 로딩이 종료된다.
타이틀 타임라인(TMLE) 상에서 고급 애플리케이션의 실행 기간(APACPE)이 시작하면, 파일 캐쉬(FLCCH) 내의 리소스는 사용 기간(USEDTM)으로 천이한다. 그 후, 타이틀 타임라인(TMLE) 상의 시간이 타이틀 타임라인 상의 종료 시간(TTEDTM)에 도달하면, 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE)의 상태로 천이한다. 이어서, 파일 캐쉬 관리자(FLCMNG)(도 28 참조)에 의해 삭제 처리가 행하여지면, 상태는 파일 캐쉬부터 데이터를 삭제하기 위해 비존재 기간(N-EXST)의 상태로 천이한다.
<LoadingBegin이 없는 리소스의 상태 머신의 이미지>
도 65b는 리소스 정보와 상태 머신 간의 관계의 다른 예를 나타낸 것이다. 리소스는 loadingBegin 속성을 갖지 않으며 고급 애플리케이션은 그의 유효 기간 동안에 활성 상태로 될 수 있다. 동 도면에서, 타이틀 타임라인은 고급 애플리케이션의 titleTimeBegin에 들어가고, 파일 캐쉬 관리자는 그의 원래의 데이터 소스 로부터 리소스를 로딩하기 시작한다. 로딩을 완료한 후에, 상태 머신은 바로 사용 상태로 된다. 그 후, 고급 애플리케이션은 비활성 상태로 되고, 상태 머신은 준비 상태로 된다. titleTimeEnd에 도달된 후에, 상태 머신은 리소스가 파일 캐쉬 관리자에 의해 폐기될 때까지 이용가능 상태로 이동한다.
동일한 리소스와 연관되어 있는 복수의 애플리케이션이 있는 경우, 상태 머신의 상태는 복수의 애플리케이션 간의 각각의 상태의 조합에 의해 정의된다.
(I) 적어도 하나의 애플리케이션이 활성 상태에 있는 경우, 리소스는 사용 상태에 있어야 한다.
(II) 적어도 리소스가 하나의 애플리케이션에 의해 준비 상태로 취급되지만 활성 상태의 애플리케이션이 없는 경우, 리소스는 준비 상태에 있어야 한다.
(III) 파일 캐쉬에 리소스가 있지만 유효하거나 활성 상태의 애플리케이션이 없는 경우, 리소스는 이용가능 상태이어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 65b는 타이틀 리소스 엘리먼트 또는 애플리케이션 리소스 엘리먼트(APRELE) 내에 "대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)"의 기술이 없는 경우의 리소스 정보(RESRCI)와 파일 캐쉬 내에서의 데이터 저장 상태 간의 관계를 나타낸 것이다. 이 경우에는, 타이틀 타임라인(TMLE) 상의 시간이 고급 애플리케이션(ADAPL)의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)에 도달한 경우에, 리소스의 로딩이 시작된다. 그 결과, 로딩 기간(LOADPE)이 고급 애플리케이션의 유효 기 간(APVAPE)과 부분적으로 중복된다. 도 65b에에 도시하는 실시예에서는, 로딩 기간(LOADPE)이 완료한 뒤(로딩이 종료한 뒤)에만 대응하는 고급 애플리케이션(ADAPL)의 실행/사용/처리가 시작된다(고급 애플리케이션의 실행 기간(APACPE)이 시작된다). 따라서 고급 애플리케이션의 유효 기간(APPVAPE) 도중에 실행 기간(APACPE)이 시작된다. 따라서, 파일 캐쉬(FLCCH) 내에서의 리소스의 사용 기간(USEDTM)과 고급 애플리케이션의 실행 기간(ADACPE)이 일치한다. 도 65a에 도시한 예에서는 로딩 기간(LOADPE)과 사용 기간(USEDTM)과의 사이에 준비 기간(READY)이 존재하지만, 도 65b에 도시한 예에서는 로딩 기간(LOADPE)이 직접 사용 기간(USEDTM)으로 천이한다. 그 후, 고급 애플리케이션의 실행 기간(APACPE)이 종료하면, 파일 캐쉬(FLCCH) 내의 리소스는 준비 기간(READY)의 상태로 천이한다. 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd)을 넘으면, 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 상태는 이용가능 기간(AVLBLE)으로 천이한다. 파일 캐쉬 관리자(FLCMNG)가 리소스가 저장되어 있는 파일 캐쉬로부터 데이터 삭제(FLCREM)의 처리를 수행하면, 파일 캐쉬부터 데이터를 삭제하기 위해 현재의 상태는 비존재 기간(N-EXST)의 상태로 천이한다.
동일한 리소스가 복수의 애플리케이션으로부터 참조(사용)되는 경우에는, 파일 캐쉬 내의 데이터 저장 상태는 하기와 같이 정의되며, 이는 복수의 애플리케이션의 각각의 상태의 조합에 의존한다.
(I) 적어도 1개의 애플리케이션이 실행 상태에 있는 경우, 애플리케이션에 의해 참조(사용)되는 리소스는 사용 기간(USEDTM)에 있는 것으로 정의된다.
(II) 적어도 1개의 애플리케이션으로부터 볼 때 리소스가 준비 기간(READY)에 있고 리소스를 참조(사용)하는 모든 애플리케이션이 실행 상태(활성 상태)에 있는 것은 아닌 경우에는, 리소스는 준비 기간(READY)에 있는 것으로 정의된다.
(III) 파일 캐쉬(FLCCH) 내에 리소스가 저장되어 있고, 그 리소스를 참조(사용)하는 유효한 애플리케이션 또는 현재 실행 중인 애플리케이션이 존재하지 않는 경우에는, 리소스는 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능 기간(AVLBLE)에 있는 것으로 정의된다.
<중복된 리소스 정보의 상태 머신의 이미지>
도 65c는 중복된 리소스 정보와 상태 머신 간의 관계의 예를 나타낸 것이다. 2개의 고급 애플리케이션이 동일한 리소스를 참조하는 것으로 가정한다. 리소스의 상태 머신은 각각의 고급 애플리케이션의 조건에 의해 정의된 상태 머신들을 중복시킴으로써 주어진다. 중복된 고급 애플리케이션들 간에 서로 다른 상태가 있는 경우, 가장 강력한 상태가 그 리소스에 적용된다. 상태 머신 순서는 다음과 같다.
사용 > 준비 > 이용가능 > 로딩 > 비존재
로딩 상태는 비존재 상태에만 중복될 수 있는데, 그 이유는 동일한 리소스가 이미 로딩되어 있거나 로딩 중인 동안에 파일 캐쉬 관리자가 재차 그것을 로딩해서는 안 된다.
타이틀이 한쪽에서 다른 쪽으로 점프될 때, 새로운 타이틀에 의해 사용되는 리소스를 제외하고는 파일 캐쉬 내의 모든 나머지 리소스는 이용가능 상태로 이동한다. 이들 리소스에 대한 우선순위는 새로운 타이틀에 의해 정의된다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 65c는 리소스를 참조하는 복수의 고급 애플리케이션의 유효 기간(APVAPE)이 타이틀 타임라인(TMLE) 상에서 서로 중복되는 경우(또는 동일한 리소스를 의미하는 복수의 리소스 정보(RESRCI)가 서로 다른 부모 엘리먼트 내에 존재하고 각각의 리소스 정보(RESRCI) 내에서 지정되는 유효 기간(APVAPE)의 범위가 부분적으로 중복하고 있는 경우)에 있어서의 리소스 정보(RESRCI)와 파일 캐쉬(FLCCH) 내에서의 데이터 저장 상태 간의 관계를 나타낸다. 도 65c는 2개의 서로 다른 고급 애플리케이션(ADAPL)이 동일한 리소스를 참조(사용)하는 경우를 나타낸 것이다. 동일한 리소스를 참조(사용)하는 고급 애플리케이션(ADAPL #1)이 종료한 후에도, 다른 고급 애플리케이션(ADAPL #2)이 실행 기간 내에 있다. 이 리소스를 고급 애플리케이션(ADAPL #1)만이 참조(사용)하는 경우에는, 고급 애플리케이션(ADAPL #1)이 종료하면, 리소스는 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능 기간(AVLBLE)으로 들어간다. 그러나 다른 고급 애플리케이션(ADAPL #2)으로부터 보면, 리소스는 준비 기간(READY) 또는 사용 기간(USEDTM)에 들어간다. 서로 중복된 고급 애플리케이션(ADAPL #1)과 고급 애플리케이션 (ADAPL #2)에 의해 파일 캐쉬(FLCCH) 내의 리소스가 다른 상태에 들어가게 되는 경우에는, 파일 캐쉬 내의 리소스의 저장 상태는 "가장 영향이 강한 상태"로서 표현(적용)된다. 파일 캐쉬 내의 리소스의 각각의 상태에 관한 "영향이 강한 상태"의 우선순위는 다음과 같이 설정된다.
USEDTM > READY > AVLBLE > LOADPE > N-EXST
상기한 우선순위(영향이 강한 상태를 나타내는 순위)를 나타내는 표현식에 있어서, USEDTM은 사용 기간을 나타내고, READY는 준비 기간을 나타낸다. 또한, AVLBLE는 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위해 이용가능한 기간(AVLBLE)을 나타내며, LOADPE는 로딩 기간을 나타내고, N-EXST은 파일 캐쉬로부터의 데이터 삭제 이후의 기간을 나타낸다. 도 65c에 도시한 바와 같이, 고급 애플리케이션(ADAPL #1) 및 고급 애플리케이션(ADAPL #2)의 유효 기간(APVAPE)이 타이틀 타임라인(TMLE) 상에서 중복하고 있는 경우에는, 이것은 리소스의 로딩이 이미 완료되었거나 리소스가 현재 로딩되고 있음을 의미한다(파일 캐쉬 관리자(FLCMNG)가 로딩을 반복하지 않는다). 따라서, 로딩 기간(LOADPE)이 파일 캐쉬로부터 데이터를 삭제하기 위해 비존재 시간(N-EXST)과 중복할 가능성이 있다. 로딩 기간(LOADPE)과 파일 캐쉬로부터 데이터를 삭제하기 위한 비존재 기간(N-EXST)이 중복한 경우에는, 로딩 기간(LOADPE)이 파일 캐쉬로부터 데이터를 삭제하기 위한 비존재 기간(N-EXST)보다도 영향이 강하고(우선순위가 높고), 따라서, 현재 상태가 "로딩 기간(LOADPE)"이라고 간주된다. 또한, 재생 목록 애플리케이션 리소스(PLAPRS), 타이틀 리소스(TTRSRC) 및 애플리케이션 리소스(APRSRC) 각각의 리소스 정보(RESRCI)에 의해 정의되는 리소스로부터 현재 실행/사용 중인 타이틀과 다른 타이틀이 재생되는 경우에는, 현재의 상태는 리소스가 새로운 대상 타이틀에서 사용되지 않는 한 "파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE)" 내에 있다. 이와 같이 고급 컨텐츠 재생 유닛(ADAPL)이 서로 다른 타이틀을 재생한 경우에는, 리소스의 파일 캐쉬(FLCCH) 내에서의 저장 상 태는 새로운 타이틀에서 정의된 상태로 우선적으로 설정된다.
<리소스 로딩>
파일 캐쉬 관리자는 재생 목록 내의 객체 매핑 정보의 리소스 정보에 기초하여 파일 캐쉬로의 리소스 로딩을 제어해야 한다.
파일 캐쉬 관리자는 이들 애플리케이션 세그먼트가 애플리케이션 활성화 정보를 가지고 있지 않은 경우에 고급 애플리케이션 및 고급 자막의 리소스를 로딩한다. 어떤 애플리케이션 세그먼트에 대한 애플리케이션 활성화 정보가 존재하는 경우, 파일 캐쉬 관리자는 선택된 상태에 있고 오토런 속성이 true인 애플리케이션 세그먼트 또는 비활성 상태에 있도록 예정된 애플리케이션 세그먼트의 리소스를 로딩하기 위해서만 필터링한다.
컨텐츠 저작자는 이하의 조건에서의 리소스 크기가 64MB 이하가 되도록 보장해야 한다.
Figure 112006062570134-PAT00108
사용 상태 리소스
Figure 112006062570134-PAT00109
로딩 상태 리소스
Figure 112006062570134-PAT00110
준비 상태 리소스
스트리밍 버퍼가 재생 목록에 기술된 경우, 리소스에 대한 메모리 크기는 스트리밍 버퍼의 크기만큼 감소된다.
보다 알기 쉬운 설명이 이하에 제공된다.
재생 목록(PLLST) 내의 객체 매핑 정보(OBMAPI) 내에 기술된 리소스 정보(RESRCI)에 기초하여, 파일 캐쉬 관리자(FLCMNG)는 대응하는 리소스의 파일 캐 쉬(FLCCH) 내로의 로딩을 제어한다. 도 56b의 (d)에 도시한 바와 같이, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 애플리케이션 활성화 정보(언어 속성 정보(LANGAT), 애플리케이션 블록 속성(인덱스 번호) 정보(APPLAT), 고급 애플리케이션 그룹 속성(인덱스 번호) 정보(APGRAT) 및 오토런 속성 정보(ATRNAT))의 기술이 없는 경우에는, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 지정된 리소스의 로딩 처리가 실행된다. 일반적으로, 리소스의 로딩 처리는 파일 캐쉬 관리자(FLCMNG)가 제어한다. 또한, 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 애플리케이션 활성화 정보가 존재하고 대응하는 고급 애플리케이션(ADAPL)이 이용가능으로 인식되고/선택되고 또한 오토런 속성 정보(ATRNAT)의 값이 "true"인 경우(고급 애플리케이션(ADAPL)이 자동으로 기동되는 경우), 또는 애플리케이션 세그먼트 엘리먼트(APPLSG)에 기술된 대응하는 고급 애플리케이션(ADAPL)이 실행되도록 예정되어 있는 경우에, 파일 캐쉬 관리자(FLCMNG)는 실행될 예정의 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 리소스에 대하여만 로딩 제어를 한다. 이와 같이, 애플리케이션 활성화 정보 또는 오토런 속성 정보(ATRNAT) 등의 정보를 이용하여, 실행될 예정인 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 리소스만을 파일 캐쉬(FLCCH) 내로 로딩한다. 그 결과, 쓸데 없는 리소스의 파일 캐쉬(FLCCH) 내로의 저장이 생략될 수 있고, 파일 캐쉬(FLCCH)가 효과적으로 활용될 수 있다. 또한, 사용 기간(USEDTM) 내에 있는 리소스, 로딩 기간(LOADPE) 내에 있는 리소스및 파일 캐쉬(FLCCH) 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE) 내에 있는 리소스의 합계 리소스 크기가 64 메가바이트 이하가 되도록 컨텐츠 제공자(고급 애플리케이션(ADAPL)의 편집자)는 사용될 리소스의 총 크기를 고려해야 한다. 상기한 제한을 가하는 것에 의해 파일 캐쉬(FLCCH) 내에 리소스를 저장하는 데 사용할 수 있는 데이터 크기를 64 메가바이트 이하로 설정할 수 있고, 그에 의해 고급 컨텐츠 재생 유닛(ADVPL)의 가격을 감소시킬 수 있다(내장된 구조에 필요한 메모리 용량을 감소시킬 수 있다).
<타이틀 타임라인 상에의 리소스 매핑>
도 65d는 타이틀 타임라인 상에서의 리소스 매핑 조건의 예를 나타낸 것이다. 모든 리소스 관련 애플리케이션이 활성화되어 있거나 활성화될 예정인 것으로 가정한다.
타이틀 타임라인이 T0에서 T1으로 점프될 때, 파일 캐쉬 관리자는 T1에서 재생을 시작하기 이전에 리소스 A, C 및 E를 검색해야 한다. 리소스 A와 관련하여, T1이 loadingBegin과 titleTimeBegin 사이에 있는 경우, 이는 정상적인 재생에서는 로딩 상태일 수 있다. T1으로의 점프의 경우에, 이는 준비 상태로 취급되어야 한다. 따라서, 리소스 A 파일 전체가 검색된다.
타이틀 타임라인이 T0에서 T2로 점프되는 경우, 파일 캐쉬 관리자는 리소스 A, B, C 및 E를 검색해야 한다. 타이틀 타임라인이 T0에서 T3로 점프되는 경우, 파일 캐쉬 관리자는 리소스 A, D 및 E를 검색해야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 65d는 타이틀 타임라인(TMLE) 상에서의 리소스 매핑의 예를 나타낸 것이다. 리소스를 참조하는 애플리케이션은 실행 상태에 있거나 또는 실행될 예정인 것으로 가정한다. 타이틀 타임라인(TMLE) 상의 시간이 "TO"로부터 벗어나 있는 경우, 파일 캐쉬 관리자(FLCMNG)는 리소스 A, 리소스 C 및 리소스 E을 판독하고, "T1"으로부터 재생을 시작하도록 제어해야 한다. 시간 "T1"은 리소스 A에 대해서는 로딩 기간(LOADPE) 내에 있고, 대상 리소스의 가져오기(로딩)이 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin)과 타이틀 타임라인 상의 시작 시간TTSTTM(titleTimeBegin)의 사이에 존재한다. 따라서, 리소스 A는 통상의 정상 재생 동안에 로딩 기간(LOADPE)의 상태로 설정될 수 있다. 시간 "T1"은 리소스 A로부터 보면 유효 기간(BALPRD)보다도 선행한 시간이고, 이는 또한 준비 기간(READY)에도 대응한다. 따라서, 리소스 A는 파일 캐쉬 관리자(FLCMNG)에 의해 파일 캐쉬(FLCCH) 내로 전송된다. 또한, 타이틀 타임라인(TMLE) 상의 시간이 "T0"으로부터 "T2"로 이동한 경우에는, 파일 캐쉬 관리자(FLCMNG)는 리소스 A, 리소스 B, 리소스 C 및 리소스 E의 데이터을 판독해야 한다. 그리고 리소스 A, 리소스 B, 리소스 C 및 리소스 E의 데이터(파일)는 참조하는 애플리케이션 상에서 사용된다. 또한, 타이틀 타임라인(TMLE) 상의 시간이 "T0"로부터 "T3"로 이동한 경우에는, 파일 캐쉬 관리자(FLCMNG)는 리소스 A, 리소스 D 및 리소스 E의 데이터을 판독하고 참조하는 애플리케이션에 의해 이용된다.
도 66a의 (a)에 도시한 바와 같이, 재생 목록(PLLIST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI) 및 타이틀 정보(TTINF0)가 존재한다. eh 66a의 (b)에 도시한 바와 같이, 타이틀 정보(TTINFO) 내에는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE), 1개 이상의 타이틀 엘리먼트 정보(TTELEM) 및 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 기술된다. 게다가, 도 66a의 (c)에 도시한 바와 같이, 1개의 타이틀 엘리먼트 정보(TTELEM) 내에는 객체 매핑 정보(OBMAPI), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 트랙 내비게이션 정보(TRNAVI) 및 스케쥴링된 제어 정보(SCHECI)가 배치되어 있다. 도 66b의 (d)에 도시한 바와 같이, 리소스 정보(RESRCI)의 내용으로서 1개 이상의 타이틀 리소스 엘리먼트의 리스트가 기술되어 있다. 이제부터 도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트 내에 기술되는 데이터 구조에 관해서 설명을 한다.
<TitleResource(타이틀 리소스) 엘리먼트>
TitleResource 엘리먼트는 고급 애플리케이션 내에서 또는 고급 자막 내에서 사용되는 패키지 아카이브 파일 등의 타이틀 관련 리소스 정보를 기술한다.
TitleResource 엘리먼트의 XML 신택스 표현:
<TitleResource
src = anyURI
size = positiveInteger
titleTimeBegin = timeExpression
titleTimeEnd = timeExpression
priority = nonNegativeInteger
loadingBegin = timeExpression
noCache = (true | false)
description = string
>
NetworkSource *
</TitleResource>
TitleResource 엘리먼트는 어느 아카이브 데이터 또는 파일이 파일 캐쉬에 로딩되어야 하는지를 결정한다. src 속성은 아카이브 데이터 또는 파일을 참조한다.
플레이어는 애플리케이션 라이프 사이클이 시작되기 이전에 리소스 파일을 파일 캐쉬로 로딩해야 한다.
리소스는 1차 비디오 세트 내에 멀티플렉싱되어 있을 수 있다. 이 경우에, loadingBegin 속성은 P-EVOB의 ADV_PCK가 리소스를 포함하고 있는 로딩 기간의 시작 시간을 기술한다.
리소스는 URI에 의해 표시되는 영속적 저장 장치로부터 올 수 있다[도 20]. 이 경우에, loadingBegin 속성은 영속적 저장 장치로부터 리소스를 다운로드하기 위한 로딩 기간의 시작 시간을 기술한다.
리소스는 src 속성의 URI 방식이 'http' 또는 'https'인 경우에 네트워크 서버로부터 올 수 있다. 이 경우에, loadingBegin 속성은 리소스를 다운로드하기 위한 로딩 기간의 시작 시간을 기술한다.
NetworkSource 엘리먼트는 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우에만 TitleResource 엘리먼트 내에 기술될 수 있다. NetworkSource 엘리먼트는 네트워크 처리용량 설정에 따라 선택될 리소스를 기술한 다.
(a) src 속성
데이터 캐쉬로 로딩될 아카이브 데이터 또는 파일에 대한 URI를 기술한다.
(b) size 속성
아카이브 데이터 또는 파일의 크기를 바이트 단위로 기술한다. 이 속성은 생략될 수 있다.
(c) titleTimeBegin 속성
타이틀 타임라인 상의 리소스의 유효 기간의 시작 시간을 기술한다.
(d) titleTimeEnd 속성
타이틀 타임라인 상의 리소스의 유효 기간의 종료 시간을 기술한다.
(e) priority 속성
활성 애플리케이션 또는 타이틀에 의해 참조되지 않는 리소스의 제거의 우선순위를 기술한다. 우선순위는 1부터 231-1까지의 정수이어야 한다.
(f) multiplexed 속성
이 값이 "true"인 경우에, 아카이브 데이터는 타이틀 타임라인의 로딩 기간에 P-EVOB의 ADV_PCK로부터 로딩될 수 있다. 이 값이 "false"인 경우, 플레이어는 지정된 URI로부터 리소스를 사전로딩해야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'true'이다.
(g) loadingBegin 속성
타이틀 타임라인 상의 로딩 기간의 시작 시간을 기술한다. loadingBegin 속성이 존재하지 않는 경우, 로딩 기간의 시작 시간은 "00:00:00:00"이어야 한다.
(f) noCache 속성
noCache 속성값이 'true'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https' 인 경우, 'no-cache' 디렉티브는 리소스 파일에 대한 HTTP 요청 내의 Cache-Control 및 Pragma 둘 다 내에 포함되어 있어야 한다. noCache 속성값이 'false'이고 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우, 'no-cache' 디렉티브가 Cache-Control이나 Pragma 헤더 내에 포함되어 있어서는 안 된다. 부모 엘리먼트의 src 속성값의 URI 방식이 'http' 또는 'https'인 경우, noCache 속성은 존재하지 않아야 한다. noCache 속성은 생략될 수 있다. 디폴트값은 'false'이다.
(i) description 속성
사람에게 친숙한 텍스트 형식으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
타이틀 리소스 엘리먼트 내에 타이틀에 대응하는 리소스 정보(RESRCI)가 기술되어 있다. 타이틀에 대응하는 리소스 정보(RESRCI)에 의해 지정되는 리소스는 고급 애플리케이션(ADAPL)(타이틀 관련 고급 애플리케이션(TTAPL)을 포함함) 또는 고급 자막(ADSBT) 내에서 사용되는 패키지화된 아카이브 파일 또는 데이터를 의미한다. 도 71에 도시한 바와 같이, 본 실시예에 있어서의 파일 캐쉬(FLCCH)에 일시 적으로 저장되는 리소스는 재생 목록 관련 리소스(PLATRS), 타이틀 리소스(TTRSRC), 및 애플리케이션 리소스(APRSRC)로 분류될 수 있다.
도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트에 의해 관리되는 리소스는 동일한 타이틀 내의 복수의 고급 애플리케이션(ADAPL)에 의해 공유되는 타이틀 리소스(TTRSRC)를 나타낸다. 타이틀 리소스 엘리먼트는 파일 캐쉬(FLCCH)에 로딩하여야 할 아카이브 데이터 또는 아카이브 파일이 저장되는 장소를 나타내고 있다. src 속성 정보(리소스 속성 정보)는 아카이브 데이터 또는 아카이브 파일의 저장 장소(SRCDTC)를 나타내고 있다. 본 실시예에 있어서의 고급 컨텐츠 재생 유닛(ADVPL)은 대응하는 애플리케이션 라이프 사이클이 시작하는 타이밍(대응하는 애플리케이션의 실행 기간(APACPE)) 이전에 리소스 파일의 파일 캐쉬(FLCCH) 내로의 로딩을 종료시켜야만 한다. 리소스는 1차 비디오 세트(PRMVS) 내에 멀티플렉싱되어 저장될 수 있다. 도 73a의 (b)에 도시한 바와 같은 애플리케이션 리소스(APRSRC)(도 73a 및 도 73b는 재생 목록 애플리케이션 리소스(PLAPRS)를 나타내고 있지만, 본 발명은 그에 한정되지 않으며, 타이틀 리소스(TTRSRC)나 타이틀 내에서 사용되는 애플리케이션 리소스(APRSRC)에도 동일한 내용이 적용될 수 있음)는 각각 2048 바이트로 이루어지는 데이터로 분할되고, 도 73a의 (c)에 도시한 바와 같이 2048 바이트 단위로 고급 팩(ADV_PCK)으로 패킹되며, 이 고급 팩(ADV_PCK)은 도 73a의 (d)에 도시한 바와 같이 1차 고화질 비디오 객체 데이터(P-EVOB) 내에 다른 팩과 함께 분산되어 배치된다. 이러한 상황은 멀티플렉싱되어 있다고 말해진다. 이러한 경우에는, 도 65a에 도시한 바와 같이, 대상 리소스의 가져오기(로딩) 가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)에 의해 로딩 기간(LOADPE)의 시작 시간이 지정된다. 그 결과, 대응하는 리소스는 영속적 저장 장치(PRSTR)로부터 파일 캐쉬(FLCCH)로 다운로드될 수 있다. 본 실시예는 그에 한정되지 않고, 리소스는 정보 저장 매체(DISC) 또는 네트워크 서버(NTSRV)로부터 파일 캐쉬(FLCCH) 내로 다운로드될 수 있다. 상기한 바와 같이 네트워크 서버(NTSRV)로부터 리소스를 다운로드하는 경우에는, 도 66b의 (d)에 도시하는 데이터 캐쉬 내로 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)를 나타내는 정보로서 "http" 또는 "https"로부터 시작되는 URI(universal resource identifier) 정보가 기술된다. 이 경우에는, 대상 리소스의 가져오기(로딩)이 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)의 값은 네트워크 서버(NTSRV)로부터 대응한 리소스를 다운로드하는 로딩 기간(LOADPE)의 시작 시간을 나타내고 있다. 대응하는 리소스가 네트워크 서버(NTSRV)로부터 다운로드되고 또한 데이터 캐쉬 내로 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)가 "http" 또는 "https"로부터 시작되는 경우에는, 대응하는 타이틀 리소스 엘리먼트 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 네트워크 소스 엘리먼트(NTSELE)의 정보에 기초하여, 도 67 또는 도 68에 도시한 바와 같이 정보 기록 및 재생 장치(1)의 네트워크 환경에서의 네트워크 처리용량에 따라서 다운로드하여야 할 최적의 리소스를 선택하는 것이 가능하다. 게다가, 데이터 캐쉬로 로딩되는 리소스의 데이터 또는 파일의 크기 정보(DTFLSZ)(size 속성 정보)는 바이트 단위로 한 양의 정수의 형태로 표현되고, 이 정보의 기술은 타이틀 리소스 엘리먼트 내에서 생략될 수 있다. 게다가, 대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(tit1eTimeBegin 속성 정보)은 타이틀 타임라인(TMLE) 상에서의 대응하는 리소스의 유효 기간(VALPRD)의 시작 시간을 나타내고, 이는 "HH:MM:SS:FF"의 형식으로 기술된다. 또한, 대응하는 리소스의 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)은 타이틀 타임라인(TMLE) 상의 대응하는 리소스의 유효 기간(VALPRD)의 종료 시간(TTEDTM)을 나타내고, 이는 "HH:MM:SS:FF"의 형식으로 기술된다. 게다가, 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)는 현재 실행 중인 고급 애플리케이션(ADAPL)에 의해 더 이상 참조되지 않는 대응하는 리소스를 데이터 캐쉬(DTCCH)로부터 삭제하는 경우의 우선순위 정보를 나타내고, 설정된 값이 높은 리소스로부터 먼저 삭제하게 된다. 또한, 이 정보의 값은 O에서 "231-1"까지의 범위 내에 속하는 양의 정수를 기술할 수 있다. 본 실시예에 있어서, 재생 목록 애플리케이션 리소스(PLAPRS)는 첫 번째 재생 타이틀(FRPLTT)의 재생 중에 파일 캐쉬(FLCCH) 내로 다운로드되고, 이는 고급 컨텐츠 재생 유닛(ADVPL)의 사용 동안에 파일 캐쉬(FLCCH) 내에 계속 저장된다. 반면에, 타이틀 리소스(TTRSRC)와 애플리케이션 리소스(APRSRC)는 더 이상 사용되지 않으며, 또한 이들은 나중에 사용될 예정이 없는 때에는 파일 캐쉬(FLCCH)로부터 삭제되고 그에 의해 파일 캐쉬(FLCCH) 내의 공간을 효과적으로 활용함과 동시에 파일 캐쉬(FLCCH)의 크기를 감소시킬 수 있다. 그 결과, 고급 컨텐츠 재생 유 닛(ADVPL)의 가격을 감소시킬 수 있다. 이때의 타이틀 리소스(TTRSRC) 및 애플리케이션 리소스(APRSRC)를 파일 캐쉬(FLCCH)로부터 삭제하는 순서가 대응하는 리소스의 검출을 위한 우선순위 정보(PRIORT)(priority 속성 정보)에 지정된다. 도 64a의 (A)와 관련하여 설명한 바와 같이, 파일 캐쉬 내에 고급 애플리케이션 데이터를 저장하기 위한 이용가능 기간(AVLBLE) 내에 있는 타이틀 리소스(TTRSRC) 및 애플리케이션 리소스(APRSRC)에 관한 우선순위 레벨로서 이하의 관계가 설정되어 있다.
Ptitle_available > Papp_available
상기한 식은 파일 캐쉬(FLCCH) 내에 있는 애플리케이션 리소스(APRSRC)를 타이틀 리소스(TTRSRC)보다도 우선순위에서 먼저 파일 캐쉬(FLCCH) 내에서 삭제되도록 지정하고 있다. 이 지정에 따라서, 대응하는 리소스 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)에 설정되는 최소값은 타이틀 리소스(TTRSRC) 및 애플리케이션 리소스(APRSRC)에 따라 다르도록 설정되어 있다. 즉, 애플리케이션 리소스(APRSRC)를 관리하는 애플리케이션 리소스 엘리먼트(APRELE)(도 63c의 (d) 참조)에서 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)의 설정 최소값이 "1"인 것에 반해, 타이틀 리소스(TTRSRC)를 관리하는 타이틀 리소스 엘리먼트(도 66b의 (d) 참조)에서 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)의 최소값은 "O"이다. 그 결과, 타이틀 리소스 엘리먼트 내의 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)의 값 및 애플리케이션 리소스 엘리먼트(APRELE) 내에서의 값이 각각 최소값으로 설정되어 있는 경우라도, 애플리케이션 리소스 엘리먼트(APRELE) 내의 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(priority 속성 정보)의 값이 더 높게 된다. 따라서, 애플리케이션 리소스(APRSRC)가 파일 캐쉬(FLCCH) 내로부터 다른 리소스보다 먼저 삭제될 수 있게 된다. 그 결과, 파일 캐쉬(FLCCH) 내의 리소스 관리가 효과적으로 행해질 수 있다. 게다가, 멀티플렉싱 속성 정보(MLTPLX)의 값으로서는 "true" 또는 "false" 중 어느 하나가 설정된다. "true"인 경우는, 도 73a의 (d)에 도시한 바와 같이, 리소스 데이터가 1차 고화질 비디오 객체(P-EVOB) 내의 고급 팩(ADV_PCK) 내에 존재하고, 지정된 로딩 기간(LOADPE) 중에 파일 캐쉬(FLCCH) 내로의 다운로드 처리를 완료해야만 한다. 또한, "false"인 경우는, 원래의 저장 장소(SRCDTC)(지정된 URI)로부터 명확한 파일의 형태로 사전 로딩되어야 한다. 이 멀티플렉싱 속성 정보(MLAPLX)의 기술이 생략될 수 있고, 이러한 경우에는 디폴트값인 "true"의 값이 자동으로 설정된다. 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)은 "HH:MM:SS:FF"의 형태로 기술된다. 타이틀 리소스 엘리먼트 내에서 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(LoadingBegin 속성 정보)의 기술이 생략될 수 있다. 이러한 경우에는, 자동으로 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인(TMLE) 상의 시간(PRLOAD)은 대응하는 타이틀의 재생 시작 시간에 대상 리소스의 가져오기(로딩)가 시작되도록 "00:00:00:00"으로 자동으로 설정된다. 게다가, 노캐쉬 속성 정보(NOCACH)의 값이 "true"인 경우는, HTTP의 GET 요청 메시지 내에 Cach-Contro1 헤더와 Pragma 헤더가 포함되어야 한다. 이와 반대로, 이 값이 "false"인 경우는, HTTP의 GET 요청 메시지 내에 Cach-Contro1 헤더와 Pragma 헤더가 포함되지 않는다. 타이틀 리소스 엘리먼트에 대한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되지만, 부가 정보의 기술은 생략될 수 있다. 상기한 바와 같이(도 66b의 (d)에 도시한 바와 같이), 타이틀 소스 엘리먼트 내에 네트워크 소스 엘리먼트(NTSELE)가 기술될 수 있다. 도 66c의 (e)에 도시한 바와 같이, 네트워크 소스 엘리먼트(NTSELE) 내의 데이터 구조는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(NetworkThroughput 속성 정보) 및 네트워크 처리용량의 허용 최소값에 대응하는 네트워크 소스의 저장 장소(SRCNTS)(src 속성 정보)의 세트로서 구성된다. 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(NetworkThroughput 속성 정보)는 대응하는 src 속성 정보(SRCNTS)에 지정된 저장 장소로부터 네트워크 소스(데이터 또는 파일)를 다운로드하는 경우의 네트워크 처리용량(데이터 전송 레이트)과 관계되어 있고, 이는 네트워크 시스템으로서 허용되는 최소값으로 나타내어지고, 100O bps의 단위로 기술된다. 또한, 네트워크 처리용량의 허용 최소값에 대응하는 네트워크 소스의 저장 장소(SRCNTS)(src 속성 정보)는 URI(uniform resource identifier)의 형태로 기술된다. 네트워크 소스 저장 장소(SRCNTS)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 또는 대체 오디오 클립 엘리먼트(SBADCP) 내에 설정되어 있는 경우에는, 이는 2차 고화질 비디오 객체 데이터(S-EVOB)의 타임 맵 파일(STMAP)의 저장 장소를 지정한다. 또한, src 속성 정보가 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내에 설정되는 경우에는, 파일 캐쉬(FLCCH) 내로 로딩되는 매니페스트 파일(MNFST), 마크업 파일(MRKUP), 스크립트 파일(SCRPT), 정지 화상 파일(IMAGE), 효과 오디오 파일(EFTAD), 폰트 파일(FONT) 등의 저장 장소를 지정하고 있다.
이제부터, 도 63c의 (c) 또는 도 66c의 (e)에 도시하는 네트워크 소스 엘리먼트(NTSELE)의 기능과 사용 방법에 관해서 이하에 설명을 한다.
<NetworkSource(네트워크 소스) 엘리먼트 및 네트워크 처리용량 설정에 따른 컨텐츠의 선택>
(I) 데이터 소스가 'Network'인 경우, 프리젠테이션 객체의 소스는 네트워크 처리용량 설정에 따라 네트워크 소스의 리스트로부터 선택될 수 있다. 네트워크 처리용량 설정은 플레이어 파라미터의 네트워크 처리용량에 의해 결정된다(도 46 참조).
네트워크 소스는 그의 src 속성 이외에 프리젠테이션 클립 엘리먼트의 NetworkSource 엘리먼트의 리스트에 의해 기술된다. 각각의 NetworkSource 엘리먼트는 네트워크 컨텐츠의 소스, 및 이 컨텐츠를 사용하기 위한 최소 네트워크 처리용량 값을 기술한다. NetworkSource 엘리먼트의 src 속성 및 networkThroughput 속성은 각각 네트워크 컨텐츠에 대한 TMAP 파일의 URI 및 최소 네트워크 처리용량 값을 기술한다. NetworkSource 엘리먼트의 networkThroughput 값은 프리젠테이션 클립 엘리먼트에서 고유한 값이어야 한다. 프리젠테이션 클립 엘리먼트의 src 속성은 디폴트 속성으로서 취급되며, 이는 프리젠테이션 클립 엘리먼트 내의 어느 NetworkSource 엘리먼트도 네트워크 처리용량 조건을 만족하지 않을 때 선택된다.
시동 시퀀스에서의 타이틀 타임라인 매핑의 초기화 동안에, 재생 목록 관리자는 이하의 규칙에 따라 네트워크 소스를 결정한다.
네트워크 소스 선택 규칙:
플레이어 파라미터의 네트워크 처리용량보다 작거나 같은 최소 네트워크 처리용량 값을 갖는 NetworkSource 엘리먼트를 가져온다.
if(단지 하나의 NetworkSource 엘리먼트가 네트워크 처리용량 제약을 만족함) {
이 엘리먼트에 의해 기술되는 소스를 컨텐츠 소스로서 선택함
} else if (2개 이상의 NetworkSource 엘리먼트가 네트워크 처리용량 제약을 만족함) {
가장 큰 networkThroughput 속성값을 갖는 엘리먼트에 의해 기술된 소스를 컨텐츠 소스로서 선택함
} else{
프리젠테이션 클립 엘리먼트의 src 속성에 의해 기술된 소스를 컨텐츠 소스로서 선택함
}
(II) 리소스가 HTTP/HTTPS 서버 상에 위치하는 경우, 리소스의 소스는 네트워크 처리용량 설정에 따라 네트워크 소스의 리스트로부터 선택될 수 있다. 네트워크 처리용량 설정은 플레이어 파라미터의 네트워크 처리용량에 의해 결정된다(도 46 참조).
네트워크 소스는 그의 src 속성 이외에 리소스 정보 엘리먼트의 NetworkSource 엘리먼트의 리스트에 의해 기술된다. 각각의 NetworkSource 엘리먼트는 네트워크 컨텐츠의 소스 및 이 컨텐츠를 사용하기 위한 최소 네트워크 처리용량 값을 기술한다. NetworkSource 엘리먼트의 src 속성 및 networkThroughput 속성은 각각 리소스 파일 또는 네트워크 컨텐츠에 대한 파일의 URI 및 최소 네트워크 처리용량 값을 기술한다. NetworkSource 엘리먼트의 networkThroughput 값은 리소스 정보 엘리먼트 내에서 고유한 값이어야 한다. 리소스 정보 엘리먼트의 src 속성은 디폴트 속성으로서 취급되며, 이는 리소스 정보 엘리먼트 내의 어떤 NetworkSource 엘리먼트도 네트워크 처리용량 조건을 만족시키지 않는 경우에 선택된다.
시동 시퀀스에서의 타이틀 타임라인 매핑의 초기화 동안에, 재생 목록 관리자는 이하의 규칙에 따라 네트워크 리소스를 결정한다.
네트워크 리소스 선택 규칙:
플레이어 파라미터의 네트워크 처리용량보다 작거나 같은 최소 네트워크 처리용량 값을 갖는 NetworkSource 엘리먼트를 가져온다.
if(단지 하나의 NetworkSource 엘리먼트가 네트워크 처리용량 제약을 만족함) {
이것에 의해 기술되는 리소스를 리소스로서 선택함
} else if (2개 이상의 NetworkSource 엘리먼트가 네트워크 처리용량 제약을 만족함) {
가장 큰 networkThroughput 속성값을 갖는 엘리먼트에 의해 기술된 리소스를 리소스로서 선택함
} else{
리소스 정보 엘리먼트의 src 속성에 의해 기술된 리소스를 리소스로서 선택함
}
선택된 아카이브 파일 또는 파일은 선택된 NetworkSource 엘리먼트의 URI에 관계없이 리소스 정보 엘리먼트의 src 속성에 의해 기술되는 URI에 의해 참조되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 54b의 (d)에 도시하는 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에서 관리되는 2차 오디오 비디오(SCDAV), 도 55b의 (c)에 도시하는 대체 오디오 비디오 클립 엘리먼트(SBAVCP)에서 관리되는 대체 오디오 비디오(SBTAV), 및 도 55b의 (d)에 도시하는 대체 오디오 클립 엘리먼트(SBADCP)에서 관리되는 대체 오디오(SBTAD) 에 관해서는, 네트워크 서버(NTSRV) 내에 저장되어 있는 재생/표시 객체가 재생/표시에 사용되기 위해 데이터 캐쉬(DTCCH)에 저장될 수 있다. 이와 같이 재생/표시 객체가 네트워크 서버(NTSRV) 내에 저장되어 있는 경우에는, 리소스 정보(RESRCI)(애플리케이션 리소스 엘리먼트(APRELE), 또는 타이틀 리소스 엘리먼트) 내에 네트워크 소스 엘리먼트(NTSELE)가 배치될 수 있다. 이 경우에는, 고급 컨텐 츠 재생 유닛(ADVPL)은 네트워크 소스 엘리먼트(NTSELE)의 리스트를 이용하여, 정보 기록 및 재생 장치(1)(도 1 참조)의 네트워크 환경에 최적인 재생/표시 객체를 선택할 수 있다. 또한, 도63c의 (d)에 도시한 바와 같이, 고급 자막 세그먼트 엘리먼트(ADSTSG) 또는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에 존재하는 애플리케이션 리소스(APRSRC)의 "데이터 캐쉬(DTCCH) 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)"의 값, 또는 도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트 내의 "데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)"의 값이 "http" 또는 "https"로부터 시작되는 경우에는, 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내에 네트워크 소스 엘리먼트(NTSELE)가 배치될 수 있다. 네트워크 소스 엘리먼트(NTSELE) 내에는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)의 값이 기술되어 있고, 도 1에 도시하는 고급 컨텐츠 재생 유닛(ADVPL)은 상기한 네트워크 소스 엘리먼트(NTSELE)를 이용하여 정보 기록 및 재생 장치(1)가 존재하는 네트워크 환경 내에서의 네트워크 처리용량의 값에 따라 네트워크 소스 엘리먼트(NTSELE)의 리스트로부터 최적의 리소스를 선택할 수 있다. 도 1에 도시하는 고급 컨텐츠 재생 유닛(ADVPL)은 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경에 기초하는 네트워크 처리용량의 정보를 이하의 절차에 따라 알 수 있다. 즉, 도 68의 단계(S101)에 도시하는 고급 컨텐츠 재생 유닛(ADVPL)의 초기 설정 시에 있어, 단계(S102)에 설명한 바와 같이 사용자는 네트워크 환경의 정보를 입력한다. 구체적으로, 일반 사용자는 네트워크 환경에서의 네트워크 처리용량의 값을 알지 못한다. 그러나 사용자는 정보 기록 및 재생 장치(1)가 연결되고 있는 네트워크가 모뎀을 사용하는 전화 회선인지, 광 케이블을 사용하는 연결인지, 또는 ADSL에 기초하는 네트워크 회선인지를 나타내는 정보를 알고 있다. 따라서, 사용자는 상기한 레벨에서 네트워크 환경 정보를 입력할 수 있다. 그 후, 단계(Sl02)의 결과에 기초하여 고급 컨텐츠 재생 유닛(ADVPL)은 예상되는 네트워크 처리용량을 산출하고(추정하고), 도 46에 도시하는 플레이어 파라미터 내의 네트워크 처리용량 섹션(networkThroughput) 내에 예상되는 네트워크 처리용량 값을 기록한다(단계 S103). 그 결과, 고급 컨텐츠 재생 유닛(ADVPL) 내에 설정된 메모리 영역으로서 기능하는(도 46에 도시된) 플레이어 파라미터에 속하는 네트워크 처리용량 섹션(networkThroughput) 내의 값을 참조하는 것에 의해, 고급 컨텐츠 재생 유닛(ADVPL)은 대응하는 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경(이 환경에 기초하는 네트워크 처리용량의 허용 최소값의 값)을 알 수 있게 된다. 도 67 (b)에 도시하는 실시예에서, 높은 네트워크 처리용량의 값에 대응하고 고선명 영상을 표시하는 2차 고화질 비디오 객체 데이터(S-EVOB)가 저장되어 있는 파일 이름이 S-EVOB_HD.EVO로 결정되고, 이 파일에 대해 사용되는 2차 비디오 세트의 타임 맵 파일(STMAP)의 이름이 S-EVOB_HD.MAP로 결정된다. 객체 파일인 S-EVOB_HD.EVO 및 대응하는 2차 비디오 세트의 타임 맵(STMAP)인 S-EVOB_HD.MAP 파일 둘 다는 네트워크 서버(NTSRV) 내의 동일한 폴더(디렉토리) 내에 배치되어 있다. 또한, 낮은 네트워크 처리용량에 대응하고 해상도가 낮은 2차 고화질 비디오 객체 데이터(S-EVOB)가 기록되어 있는 객체 파일은 S-EVOB_LD.EVO라고 부르고, 이 파일 에 대해 사용되는 2차 비디오 세트의 타임 맵(STMAP)은 S-EVOB_LD.MAP으로 결정된다. 객체 파일인 S-EVOB_LD.EVO 및 대응한 타임 맵 파일(S-EVOB_LD.MAP)도 네트워크 서버(NTSRV) 내의 동일한 폴더(디렉토리) 내에 배치되어 있다. 본 실시예에서는, 재생 목록 파일(PLLST) 내의 각종 클립 엘리먼트 내의 src 속성 정보의 값으로서 2차 고화질 비디오 객체 데이터(S-EVOB)에 대응하는 2차 비디오 세트의 타임 맵의 파일 이름 및 저장 장소(경로)가 기재되어 있다. 본 실시예에서는, 2차 비디오 세트의 타임 맵 파일(STMAP) 및 객체 파일 둘 다를 네트워크 서버(NTSRV) 내의 동일한 폴더(디렉토리) 내에 저장하는 것에 의해, 2차 고화질 비디오 객체 데이터(S-EVOB)의 객체 파일에의 최종적인 액세스를 용이하게 해줄 수 있다. 또한, 본 실시예에서는, 재생 목록 파일(PLLST)로부터의 액세스를 보다 용이하게 해주기 위해, 도 67의 (b)에 도시한 바와 같이 대응하는 객체 파일 이름과 타임 맵 파일 이름이 일치한다(확장자는 식별이 가능하도록 ".EVOB"와 ".MAP"으로서 서로와 다름). 따라서, 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 장소(SRCTMP)(src 속성 정보)에 기술된 저장 장소(경로) 및 파일 이름에 기초하여 데이터 캐쉬(DTCCH)에 저장하여야 할 2차 고화질 비디오 객체 데이터(S-EVOB)의 저장 장소(경로) 및 파일 이름을 알 수 있다. 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 태그, 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 태그, 또는 대체 오디오 클립 엘리먼트(SBADCP) 태그 내에 기술되는 src 속성 정보의 값 및 각각의 클립 엘리먼트 내에 배치된 각각의 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보의 값(참조하여야 할 재생/표시 객체 의 인덱스 정보 저장 장소(SRCTMP))는 서로 다른 값(저장 장소(경로) 및 파일 이름)으로 설정되어 있다. 또한, 마찬가지로, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 내에 기술되어 있는 "데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)"의 값, 도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트 내에 기술되어 있는 "데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)"의 값, 및 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내에 배치된 각각의 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보의 값은 서로 다르다. 즉, 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내에 지정된 "데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)" 이외에도, 네트워크 처리용량의 허용 최소값에 대응하는 네트워크 소스의 저장 장소(SRCNTS)가 설정되어 있다. 각각의 네트워크 소스 엘리먼트(NTSELE) 내에는 네트워크 소스의 저장 장소(SRCNTS)에 의해 지정된 네트워크 소스에 액세스하여 네트워크 소스를 데이터 캐쉬(DTCCH) 내로 다운로드할 때에 보장되는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)가 기술되어 있다. 그런데 도 54b의 (d)에 도시하는 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 도 55b의 (c)에 도시하는 대체 오디오 클립 엘리먼트(SBAVCP), 또는 도 55b의 (d)에 도시하는 대체 오디오 클립 엘리먼트(SBADCP) 내에 배치된 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성값에 네트워크 컨텐츠에 대응하는 2차 비디오 세트의 타임 맵 파일(STMAP)의 URI(uniform resource identifier)가 기술되어 있다. 또한, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 또는 도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트 내에 배치된 네트워크 소스 엘리먼트(NTSELE)에서, src 속성 정보 값으로서 "리소스 파일 또는 네트워크 컨텐츠에 대응하는 파일의 저장 장소"가 URl(uniform resource identifier)의 형식으로 기술되어 있다. 게다가, 도 54b의 (d)에 도시하는 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 도 55b의 (c)에 도시하는 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 또는 도 55b의 (d)에 도시하는 대체 오디오 클립 엘리먼트(SBADCP) 내에 배치된 네트워크 소스 엘리먼트(NTSELE)에서, 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)의 값은 각각의 프리젠테이션 클립 엘리먼트 내에서 독자적인(다른 값들과 다른) 값으로서 설정되어야만 한다. 그렇게 하는 이유는 서로 다른 네트워크 소스 엘리먼트(NTSELE) 내에서 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkSource 속성 정보)의 값이 서로 동일한 경우, 고급 컨텐츠 재생 유닛(ADVPL)은 어느 2차 고화질 비디오 객체 데이터(S-EVOB)에 액세스해야 하는지를 결정할 수 없다. 따라서, 상기한 제한을 제공하는 것에 의해 고급 컨텐츠 재생 유닛(ADVPL)에 의해 액세스되어야만 하는 2차 고화질 비디오 객체 데이터(S-EVOB)(타임 맵(STMAP))의 선택이 용이하게 이루어질 수 있다. 같은 이유로, 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE) 또는 도 66b의 (d)에 도시하는 타이틀 리소스 내에 배치된 네트워크 소스 엘리먼트(NTSELE)에서, 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보값)는 동일한 리소스 정보 엘리먼트 내에서는 독자적으로(서로 다른 네트워크 소 스 엘리먼트(NTSELE)에 따라 서로 다른 값으로) 설정되어야 한다.
게다가, 네트워크 소스 엘리먼트(NTSELE) 내에 기술된 네트워크 처리용량의 허용 최소값 정보(NTTRPT)의 값이 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경에서의 네트워크 처리용량의 조건을 만족하지않는 경우(예컨대, 정보 기록 및 재생 장치(1)의 네트워크 환경이 전화 회선을 이용하고 있기 때문에 네트워크의 처리용량이 아주 낮고 네트워크 소스 엘리먼트(NTSELE) 내에 지정된 네트워크 처리용량의 허용 최소값 정보(NTTRPT)의 값보다도 낮은 경우), 본 실시예에서는 하기의 대응을 장려하고 있다.
각각의 프리젠테이션 클립 엘리먼트(2차 오디오 비디오 클립 엘리먼트(SCAVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 또는 대체 오디오 클립 엘리먼트(SBADCP)) 내에 정의된 src 속성 정보가 디폴트 상태에 있는 소스로서 간주되어, 데이터 캐쉬(DTCCH)에의 다운로드에 이용된다.
파일 캐쉬(FLCCH)에의 다운로드를 위해 네트워크 소스 엘리먼트(NTSELE) 내에 기술된 src 속성 정보에 정의된 장소에의 액세스가 행해지지 않고, 리소스 정보 엘리먼트(애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트) 내에 기술된 src 속성 정보는 파일 캐쉬(FLCCH) 내로 다운로드될 리소스 대상인 디폴트 소스로서 처리된다.
이제부터, 네트워크 소스 엘리먼트(NTSELE)의 정보를 이용한 구체적인 실시예에 관해서 도 67을 참조하여 설명을 한다. 도 67의 (a)에 도시한 바와 같이, 고선명 2차 고화질 비디오 객체 데이터(S-EVOB)가 저장되어 있는 객체 파일인 S- EVOB_HD.EVO를 참조하는 타임 맵 파일(S-EVOB_HD.MAP)이 src 속성 정보로서 설정되어 있는 네트워크 소스 엘리먼트(NTSELE)의 리스트에 의하면, S-EVOB_HD.EVO 파일을 네트워크 경로(50)를 경유하여 다운로드하기 위해서는, 최소한 10O Mbps의 네트워크 처리용량이 보장되어야만 한다. 또한, 해상도가 낮은 2차 고화질 비디오 객체 데이터(S-EVOB)가 기록되어 있는 객체 파일(S-EVOB_LD.EVO)을 참조하는 타임 맵 파일(S-EVOB_LD.MAP)이 src 속성 정보에 의해 지정되어 있는 네트워크 소스 엘리먼트(NTSELE)의 리스트에 의하면, 상기 객체 파일(S-EVOB_LD.EVO)을 네트워크 경로(50)를 통해 다운로드할 때 56 Kbps 이상의 네트워크 처리용량이면 충분할 수 있다. 도 67 (d)에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 도 46에 도시하는 플레이어 파라미터 내의 네트워크 처리용량(networkThroughput) 섹션 내의 정보 기록 및 재생 장치(1)의 네트워크 환경에 기초하는 평균적인 네트워크 처리용량의 정보를 가지고 있다. 따라서, 도 67 (a)에 도시한 네트워크 소스 엘리먼트(NTSELE)의 리스트가 해석되고, 재생 목록 관리자(PLMNG)는 다운로드하기 위해 어느 객체 파일에 액세스해야 하는지를 판정한다. 판정의 결과에 기초하여, 재생 목록 관리자(PLMNG)는 데이터 액세스 관리자(DAMNG) 내의 네트워크 관리자(NTMNG) 및 네트워크 I/O 유닛(7-3)을 통하여 네트워크 서버(NTSRV)에 액세스한다. 그 결과, 설정된 네트워크 서버(NTSRV) 내에 저장되어 있는 객체 파일은 네트워크 I/O 유닛(7-3) 및 데이터 액세스 관리자(DAMNG) 내의 네트워크 관리자(NTMNG)를 경유하여 데이터 캐쉬(DTCCH) 내로 다운로드된다. 이와 같이 다운로드되는 데이터 또는 파일에 관한 데이터, 또는 파일의 저장 장소(또는 액세스 목적지) 정보와 네트워크 처리용량 최소값은 네트워크 소스 엘리먼트(NTSELE)로서 관리 정보(재생 목록 파일(PLLST)) 내에 기록된다. 본 실시예에서는 네트워크 환경에 따라 다운로드되는 데이터 또는 파일이 선택될 수 있다는 특징이 있다. 그 결과, 네트워크 환경에 최적인 네트워크 소스의 다운로드가 가능해진다.
도 68은 도 67 (a)에 도시한 바와 같이 네트워크 소스 엘리먼트(NTSELE)의 리스트가 기술되는 경우에 도 67 (d)에 도시하는 재생 목록 관리자(PLMNG)에 의해 선택되는 최적의 리소스(객체 파일 또는 타임 맵 파일을 포함함)를 선택하는 방법을 나타낸 것이다.
고급 컨텐츠(ADVCT)의 재생을 시작하는 시동 시퀀스 시에, 타이틀 타임라인(TMLE) 내의 매핑 초기 설정이 행해지는 기간 동안에 재생 목록 관리자(PLMNG)가 파일 캐쉬(FLCCH) 내에 다운로드되는 네트워크 리소스를 선택한다. 이 예에서의 기본이 되는 개념에 대해 이하에 설명한다. 우선 먼저, 고급 컨텐츠 재생 유닛(ADVPL)이 초기 설정을 개시할 때(단계 S1O1), 고급 컨텐츠 재생 유닛(ADVPL)은 사용자에 대하여 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경의 정보를 사용자에게 입력하도록 요청을 한다. 네트워크 환경으로서 사용자는 예컨대 모뎀을 사용하는 전화 회선인지, ADSL 회선인지, 또는 광 케이블을 사용하는 네트워크 경로(50)인지를 선택한다. 그 결과, 사용자는 네트워크 환경 정보를 입력한다(단계 S102). 그 결과에 기초하여, 내비게이션 관리자(NVMNG)는 정보 기록 및 재생 장치(1)에 있어서의 예상되는 네트워크 처리용량 값을 산출하여, 이를 도 46 에 도시하는 플레이어 파라미터 내의 네트워크 처리용량 섹션 내에 저장한다(단계 S103). 도 46에 도시하는 플레이어 파라미터는 고급 컨텐츠 재생 유닛(ADVPL) 내의 메모리 영역 내에 저장된다. 그 결과, 고급 컨텐츠 재생 유닛(ADVPL)의 초기 설정이 완료된다(단계 S104). 이어서, 고급 컨텐츠(ADVCT)의 재생이 시작되면, 재생 목록 관리자(PLMNG)는 플레이어 파라미터 내의 네트워크 처리용량 값을 판독한다(단계 S1O5). 이어서, 재생 목록 관리자(PLMNG)가 재생 목록 파일(PLLST) 정보를 판독한다(단계 S106). 다음에, 단계 S107 및 S108에서, 재생 목록 파일(PLLST) 내의 네트워크 소스 엘리먼트(NTSELE)의 내용이 해석되고, 최적의 네트워크 소스 엘리먼트(NTSELE)의 추출 처리가 실행된다. 최적의 네트워크 소스 엘리먼트(NTSELE)의 추출 처리에 관한 구체적인 내용으로서, 단계(S107)에 도시한 바와 같이, 네트워크 처리용량 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)의 값이 플레이어 파라미터 내의 네트워크 처리용량 섹션 내에 기술된 네트워크 처리용량 값 이상의 값을 취하는 네트워크 소스 엘리먼트(NTSELE)만이 추출된다. 추출한 네트워크 소스 엘리먼트(NTSELE)에서, 정보 기록 및 재생 장치(1)에 대응하는 네트워크 처리용량 조건을 만족하는 네트워크 소스 엘리먼트(NTSELE)가 1개만 존재하는 경우에는, 이 네트워크 소스 엘리먼트(NTSELE)를 선택하여 네트워크 소스 엘리먼트(NTSELE) 내에 기술된 src 속성 정보에 액세스하고, 그에 의해 대응하는 리소스, 객체 파일, 또는 타임 맵 파일(STMAP)을 데이터 캐쉬(DTCCH) 내로 다운로드 한다. 또한, 상기한 예와는 달리, 추출된 네트워크 소스 엘리먼트(NTSELE)에서, 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경에 기초하는 네트워크 처리용량 조건을 만족시키는 네트워크 소스 엘리먼트(NTSELE)가 2개 이상(복수개) 존재하는 경우에는, 액세스하여야 할 리소스, 객체 파일 또는 타임 맵 파일에 대하여, 가장 큰 네트워크 처리용량 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)의 값을 갖는 네트워크 소스가 선택되고, 그 선택된 네트워크 소스 엘리먼트(NTSELE) 내에 기술된 src 속성 정보가 액세스되며, 그에 의해 대응하는 네트워크 소스, 객체 파일 또는 타임 맵 파일을 데이터 캐쉬(DTCCH) 내로 다운로드 한다(단계 S107 내지 단계 S109). 또한, 상기한 2개의 조건과는 달리, 정보 기록 및 재생 장치(1)에 대응하는 네트워크 처리용량 조건을 만족시키는 네트워크 소스 엘리먼트(NTSELE)가 추출되지 않은 경우에는, 네트워크 소스 엘리먼트(NTSELE)의 부모 엘리먼트인 프리젠테이션 클립 엘리먼트, 애플리케이션 소스 엘리먼트(APRELE), 또는 타이틀 소스 엘리먼트 내의 src 속성 정보의 값의 형태로 기술된 저장 장소에 액세스하여, 대응하는 리소스, 객체 파일 또는 타임 맵 파일을 데이터 캐쉬(DTCCH)에 저장한다. 또한, 상기한 방법으로 최적의 네트워크 소스 엘리먼트(NTSELE)가 추출되지만 이 추출된 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보 내에 기술된 장소에 액세스하더라도 예상된 리소스 파일이 존재하지 않은 경우에는, 네트워크 소스 엘리먼트(NTSELE)의 정보를 이용하는 대신해서 네트워크 소스 엘리먼트(NTSELE)의 부모 엘리먼트인 애플리케이션 리소스 엘리먼트(APRELE) 또는 타이틀 리소스 엘리먼트 내의 src 속성 정보에 기술된 장소에 액세스하여, 데이터 캐쉬(DTCCH) 내로의 다운로드 처리를 수행한다. 리소스 데이터, 리소스 파일의 다운로드가 종료된 뒤, 데이터 캐쉬(DTCCH) 내에 저장된 데이터 또는 파일을 이용하여 사용자에의 재생/표시를 행한다(단계 S1lO). 고급 컨텐츠(ADVCT)의 재생이 끝나면, 재생 종료 처리가 실행된다(단계 S111).
도 69a의 (a)에 도시한 바와 같이, 재생 목록(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI), 및 타이틀 정보(TTINF0)가 존재한다. 도 69a의 (b)에 도시한 바와 같이, 타이틀 정보(TTINF0) 내에는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)와 1개 이상의 타이틀 엘리먼트 정보(TTELEM)가 존재하고, 타이틀 정보(TTINFO)의 끝에 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 배치되어 있다.
<PlaylistApplication(재생 목록 애플리케이션) 엘리먼트 및 재생 목록 관련 고급 애플리케이션>
TitleSet 엘리먼트 내의 PlaylistApplication 엘리먼트는 재생 목록 관련 고급 애플리케이션의 객체 매핑 정보를 기술한다. 재생 목록 관련 고급 애플리케이션은 특수한 유형의 고급 애플리케이션이다. 재생 목록 관련 애플리케이션의 수명은 재생 목록 내의 모든 타이틀의 타이틀 타임라인 전체이지만, 다른 고급 애플리케이션의 수명은 타이틀의 일부 시간 구간 또는 타이틀 타임라인 전체이다. 재생 목록 관련 고급 애플리케이션 이외의 고급 애플리케이션은 타이틀 관련 고급 애플리케이션이라고 부른다.
재생 목록 관련 고급 애플리케이션의 dataSource는 디스크 또는 영속적 저장 장치이어야 한다. 재생 목록 관련 고급 애플리케이션은 항상 하드-싱크 애플리케이션이다.
재생 목록 관련 고급 애플리케이션 내의 마크업은 타이틀 클럭을 사용해서는 안 된다.
모든 PlaylistApplication 엘리먼트는 동일한 애플리케이션 블록에 속한다. 언어 속성은 재생 목록 내에 존재하고 독자적인 것이어야 한다. 단지 하나의 PlaylistApplication만이 메뉴 언어 시스템 파라미터에 따라 활성화될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
재생 목록 관련 고급 애플리케이션(PLAPL)의 객체 매핑 정보(OBMAPI)는 타이틀 세트 엘리먼트(타이틀 정보(TTINFO)) 내의 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)에 의해 기술된다. 도 70 및 도 71에 도시한 바와 같이, 재생 목록 관련 고급 애플리케이션(PLAPL)은 고급 애플리케이션(ADAPL)의 일종이며, 이는 특수한 유형의 고급 애플리케이션(ADAPL)으로서 분류된다. 재생 목록(PLLST) 내에 정의되는 모든 타이틀 내에서의 타이틀 타임라인(TMLE) 영역 전체에서 재생 목록 관련 고급 애플리케이션(PLAPL)의 수명(유효 기간(APVAPE))이 설정된다. 즉, 도 70에 도시한 바와 같이, 재생 목록 관련 고급 애플리케이션(PLAPL)의 실행(표시) 기간(APACPE)은 첫 번째 재생 타이틀(FRPLTT)을 제외한 재생 목록(PLLIST) 내에 정의되는 모든 타이틀 내의 타이틀 타임라인(TMLE) 전체 상에서 유효하게 되고, 임의의 타이틀 내의 임의의 시간에서 재생 목록 관련 고급 애플리케이션(PLAPL)이 사용될 수 있다. 이 구조와 비교하여, 도 70에 도시한 바와 같이, 타이틀 관련 고급 애플리케이션(TTAPL)은 1개의 타이틀 내의 타이틀 타임라인(TMLE) 전체 상에서 유효하게 되고, 타이틀 관련 고급 애플리케이션(TTAPL)(고급 애플리케이션(ADAPL #B))의 유효 기간(APVAPE)은 대응하는 타이틀 #2 내의 타이틀 타임라인(TMLE) 전체의 설정 기간과 일치한다. 또한, 타이틀 관련 고급 애플리케이션(TTAPL)은 다른 유형(예컨대, 타이틀 #1 또는 타이틀 #3) 내에서는 반드시 유효하게 되는 것은 아니며, 예컨대 타이틀 #1 또는 타이틀 #3의 재생 시에 타이틀 관련 고급 애플리케이션(TTAPL)에 의해 참조(사용)되는 타이틀 리소스(TTRSRC)가 삭제될 수 있는 경우들이 있다. 또한, 재생 목록 관련 고급 애플리케이션(PLAPL)의 유효 기간(APVAPE)과 비교하여, 일반적인 고급 애플리케이션(ADAPL)의 유효 기간(APVAPE)은 특정한 타이틀 내의 특정의 시간 간격에 대응한다. 게다가, 일반적인 고급 애플리케이션(ADAPL)이 참조(사용)하는 애플리케이션 리소스(APRSRC)의 데이터가 고급 애플리케이션(ADAPL)의 유효 기간(APVAPE) 이외의 기간에 파일 캐쉬(FLCCH)로부터 삭제될 수 있는 경우들이 있다. 재생 목록 관련 고급 애플리케이션(PLAPL) 이외의 타이틀의 타이틀 타임라인(TMLE) 내에 유효 기간(APVAPE)을 갖는 고급 애플리케이션(ADAPL #B)은 타이틀 관련 고급 애플리케이션(TTAPL)이라고 불린다. 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 참조되는 리소스인 재생 목록 애플리케이션 리소스(PLAPRS)(데이터 소스)는 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR) 내에 저장되어 있다. 재생 목록 관련 고급 애플리케이션(PLAPL)의 동기 속성 정보(SYNCAT)는 항상 하드 싱크(하드 동기) 형태의 애플리케이션이다. 즉, 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 참조되는(사용되는) 재생 목록 애플리케이션 리소스(PLAPRS)를 파일 캐쉬(FLCCH) 내에 로딩하는 것이 완료될 때까지는 타이틀 타임라인(TMLE)의 진행이 일시적으로 정지되고, 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩이 완료한 뒤에만, 타이틀 타임라인(TMLE)의 진행이 허용된다. 후술하는 첫 번째 재생 타이틀(FRPLTT)의 재생 중에 파일 캐쉬(FLCCH) 내로의 재생 목록 애플리케이션 리소스(PLAPRS)의 다운로드가 완료되는 것으로 가정한다. 따라서, 재생 목록 고급 애플리케이션(PLAPL)이 하드 싱크(하드 동기) 애플리케이션이라고 해도, 첫 번째 재생 타이틀(FRPLTT) 이외의 타이틀 재생 중에 타이틀 타임라인(TMLE)이 거의 정지되지 않는다. 그렇지만, 첫 번째 재생 타이틀(FRPLTT)이 종료하더라도 재생 목록 애플리케이션 리소스(PLAPRS)의 파일 캐쉬(FLCCH) 내로의 로딩이 완료하지 않는 경우에는, 로딩이 완료할 때까지 타이틀의 재생은 정지된다(타이틀 타임라인(TMLE)의 진행이 정지된다). 본 실시예에 있어서, 첫 번째 재생 타이틀(FRPLTT)의 선택 속성(사용자 조작 대응 가부 속성(selectable 속성 정보))는 일시적으로 "false"로 설정되고, 기본적으로 첫 번째 재생 타이틀(FRPLTT)의 재생 중에 사용자에 의한 다른 타이틀으로의 점프나 첫 번째 재생 타이틀(FRPLTT)의 빨리 감기가 실행되지 못하게 된다. 그러나 어떠한 설정 오류에 의해 첫 번째 재생 타이틀(FRPLTT)의 재생 동안 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩의 완료하기 전에 다른 타이틀로의 점프가 행해진 경우에는, 재생 목록 관련 고급 애플리케이션(PLAPL)이 하드 싱크(하드 동기) 애플리케이션이기 때문에, 점프 목적지인 타이틀의 타이틀 타임라인(TMLE)이 재생 목록 애플리케이션 리소스(PLAPRS)의 파일 캐쉬(FLCCH) 내로의 로딩이 완료될 때까지 정지된다. 재생 목록 관련 고급 애플리케이션(PLAPL) 내에서 사용되는 마크업(MRKUP)에 대해 틱 클럭이 사용되어서는 안 된다. 재생 목록(PLLST) 내에 기술되는 모든 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)는 동일한 애플리케이션 블록 내에 속해 있다. 도 69b의 (c)에 도시하는 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내의 언어 속성 정보(LANGAT)(languate 속성 정보)는 기술되어야만 하며(이 정보의 기재가 생략될 수 없으며), 언어 속성 정보(LANGAT)의 값은 동일한 재생 목록(PLLST) 내에서 일의적으로(똑같이) 설정되어야 한다. 예컨대, 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에서 언어 속성 정보(LANGAT)(Ianguage 속성 정보)가 일본어로 설정되어 있는 경우에는, 재생 목록 관련 고급 애플리케이션(PLAPL)은 동일한 재생 목록(PLLST) 내에서 전부 일본어로서 사용되어야 한다. 도 69a의 (b)에서는 1개의 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 기술되어 있지만, 실제로는 언어 속성 정보(LANGAT)(language 속성 정보)에 서로 다른 언어로 각각 설정된 복수의 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 기술되어 있다. 고급 컨텐츠 재생 유닛(ADVPL) 내의 메모리 영역은 도 47에 도시하는 프로파일 파라미터의 정보가 기술되는 영역을 가지고 있다. 도 47에 도시하는 프로파일 파라미터는 메뉴 언어(menulanguage)의 정보가 기록되어 있는 장소를 갖는다. 이 고급 컨텐츠 재생 유닛(ADVPL) 내의 메모리 영역 내에 설정된 메뉴 언어(menulanguage)에 따라, 표시/실행되는 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 선택된다. 즉, 도 47에 도시하는 메뉴 언어(menulanguate)에 기록된 언어 정보와 일치하는 도 69b의 (c)에 도시한 언어 속성 정보(LANGAT)(language 속성 정보)만이 유효한 정보로서 추출되고 표시/실행에 이용된다.
<PlaylistApplication(재생 목록 애플리케이션) 엘리먼트>
PlaylistApplication 엘리먼트는 수명이 전체 타이틀 모두인 특수한 유형의 고급 애플리케이션인 재생 목록 관련 고급 애플리케이션에 대한 객체 매핑 정보를 기술한다.
PlaylistApplication 엘리먼트의 XML 신택스 표현:
<PlaylistApplication
id = ID
src = anyURI
zOrder = nonNegativeInteger
language = language
description = string
>
PlaylistApplicationResource *
</PlaylistApplication>
재생 목록 관련 고급 애플리케이션은 첫 번째 재생 타이틀을 제외하고는 재생 목록 내의 모든 타이틀의 타이틀 타임라인 전체 상에 스케쥴링되어야 한다.
재생 목록 관련 고급 애플리케이션은 애플리케이션의 초기화 정보의 매니페스트 파일에 대한 URI에 의해 참조되어야 한다.
PlaylistApplication 엘리먼트는 이 재생 목록 관련 고급 애플리케이션마다의 리소스 정보의 정보를 기술하는 PlaylistApplicationResource 엘리먼트의 리스트를 포함할 수 있다.
모든 PlaylistApplication 엘리먼트는 동일한 애플리케이션 블록에 속한다. 단지 하나의 PlaylistApplication 엘리먼트만이 메뉴 언어 시스템 파라미터에 따라 활성화될 수 있다.
(a) src 속성
애플리케이션의 초기화 정보를 기술하는 매니페스트 파일에 대한 URI를 기술한다.
(b) zOrder 속성
애플리케이션 z-오더를 기술한다. 애플리케이션 z-오더는 틱 클럭 주파수에 의해 사용된다.
(c) language 속성
ISO-639에 정의된 2-문자 소문자 심볼로 이루어진 애플리케이션 언어를 기술한다. 이 속성은 존재해야만 한다.
(d) description 속성
사람에게 친숙한 텍스트 형태로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
재생 목록 관련 고급 애플리케이션(PLAPL)은 첫 번째 재생 타이틀(FRPLTT)을 제외하고는 모든 타이틀 내의 타이틀 타임라인(TMLE)에 설정된 시간 영역 전부에서 유효하도록 스케쥴링되어 있다. 재생 목록 관련 고급 애플리케이션(PLAPL)을 관리하는 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에 기술되는 src 속성 정 보(소스 속성 정보)는 대응하는 애플리케이션의 초기 설정 정보를 포함하는 매니페스트 파일 저장 장소(URIMNF)로서 지정된다. 즉, 매니페스트 파일(MNFST)의 저장 장소를 검색하기 위해 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)에 의해 참조되는 정보는 재생 목록 관련 고급 애플리케이션(PLAPL)으로서 참조되고, 이 정보는 URI(uniform resource identifier)의 형태로 기술된다. 매니페스트 파일(MNFST)은 대응하는 애플리케이션의 초기 설정 정보를 포함하고 있다. 도 69b의 (c)에 도시한 바와 같이, 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)의 리스트를 포함하고 있다. 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)의 정보는 재생 목록 관련 고급 애플리케이션(PLAPL)에서 사용되는 리소스 정보(RESRCI)에 관해서 기술되어 있다. 도 69b의 (c)에 도시한 바와 같이, 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)가 재생 목록 애플리케이션 ID 정보(PLAPID)를 포함하고 있지만, 도 82에 도시한 바와 같이 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에 재생 목록 애플리케이션 ID 정보(PLAPID)를 제공하는 것에 의해, API 명령을 사용하는 참조가 용이하게 될 수 있다. 게다가, Z-오더 속성(Z-인덱스) 정보(ZORDER)에 관해서는, 그래픽 플레인(GRPHPL) 내에서 애플리케이션 또는 애플리케이션 엘리먼트가 중첩 배치되는 레이어 번호가 지정되고, 이 값으로서 "0" 또는 양의 정수가 설정된다. 또한, 레이어 번호는 검사 클럭의 주파수에 따라 사용(설정 변경)된다. 언어 속성 정보(LANGAT)(language 속성 정보)는 상술한 바와 같이 프로파일 파라미터 내의 메뉴 언어에 따라 복수의 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 중 특정의 것 을 선택하는 때에 이용된다. 또한, 이 정보는 화면(메뉴 화면 등)에 표시되는 문자나 음성 등에 사용되는 언어를 지정하고 있다. 따라서, 언어 속성 정보(LANGAT)(language 속성 정보)의 기술이 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에서 생략될 수 없고, 이는 기술되어 있어야만 한다. 또한, 배치될 수 있는 재생 목록 애플리케이션에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되어 있지만, 부가 정보의 기재는 생략될 수 있다.
<PlaylistApplicationResource(재생 목록 애플리케이션 리소스) 엘리먼트>
PlaylistApplicationResource 엘리먼트는 재생 목록 관련 고급 애플리케이션에서 사용되는 패키지 아카이브 등의 재생 목록 관련 리소스 정보를 기술한다.
PlaylistApplicationResource 엘리먼트의 XML 신택스 표현:
<PlaylistApplicationResource
src = anyURI
size = positiveInteger
multiplexed = (true | false)
description = string
>
PlaylistApplicationResource 엘리먼트는 어느 아카이브 데이터 또는 파일이 파일 캐쉬에 로딩되어야 하는지를 기술한다. src 속성은 디스크 또는 영속적 저장 장치 내의 아카이브 데이터를 참조한다.
플레이어는 대응하는 재생 목록 관련 고급 애플리케이션의 라이프 사이클 이 전에 리소스 파일을 데이터 캐쉬 내로 로딩하여야 한다.
재생 목록 애플리케이션 관련 리소스의 유효 기간은 첫 번째 재생 타이틀을 제외한 재생 목록 내의 모든 타이틀의 타이틀 타임라인 전부이다.
재생 목록 애플리케이션 관련 리소스의 로딩 기간은 첫 번째 재생 타이틀이 표시되는 경우 첫 번째 재생 타이틀의 타이틀 길이이다, 즉 타이틀 1에서는 "00:00:00:00"부터 "00:00:00:00"까지이다.
src 속성은 디스크 또는 영속적 저장 장치를 참조해야 한다. 디스크 또는 영속적 저장 장치는 URI에 의해 식별된다[도 20].
(a) src 속성
데이터 캐쉬 내로 로딩될 아카이브 데이터 또는 파일에 대한 URI를 기술한다. URI는 파일 캐쉬 또는 네트워크의 API 관리된 영역을 참조해서는 안 된다.
(b) size 속성
아카이브 데이터 또는 파일을 바이트 단위로 기술한다. 이 속성은 생략될 수 있다.
(c) multiplexed 속성
이 값이 'true'인 경우, 아카이브 데이터는 로딩 기간에 P-EVOB의 ADV_PCK로부터 로딩될 수 있다. 이 값이 'true'인 경우, 첫 번째 재생 타이틀이 기술되어야 한다. 재생 목록 애플리케이션 관련 리소스의 로딩 기간은 첫 번째 재생 타이틀의 타이틀 길이이다. 이 값이 'false'인 경우, 플레이어는 지정된 URI로부터 리소스를 사전 로딩해야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'true'이다.
(d) description 속성
사람에게 친숙한 텍스트 형식으로 부가 정보를 기술한다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 69b의 (d)에 상세 구조가 도시되어 있는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내에는 재생 목록 애플리케이션 리소스(PLAPRS)에 관한 관리 정보가 기술되어 있다. 재생 목록 관련 고급 애플리케이션(PLAPL) 내에서 사용되는 패키지화된 아카이브 파일 또는 아카이브 데이터는 재생 목록 애플리케이션 리소스(PLAPRS)에 대응한다. 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)는 파일 캐쉬(FLCCH) 내에 다운로드되어야 하는 아카이브 데이터 또는 아카이브 파일을 지정(정의)한다. 데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)를 나타내는 src 속성 정보는 URI(uniform resource identifier)의 형태로 기술되고, 정보 저장 매체(DISC) 또는 영속적 저장 장치(PRSTR) 내에 저장되어 있는 아카이브 데이터 또는 아카이브 파일을 참조할 수 있다. 본 실시예에 있어서, 대응하는 데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보)로서 파일 캐쉬(FLCCH) 내의 API 관리 영역이나 네트워크 내의 장소가 지정되어서는 안 된다. 네트워크 상의 네트워크 서버(NTSRV)에 저장되어 있는 데이터를 지정하지 않게 하는 것에 의해, 재생 목록 애플리케이션 리소스(PLAPRS)를 다운로드 기간(LOADPE) 내에 다운로드 완료하는 일을 보장해준다. 그 결과, 첫 번째 재생 타이틀(FRPLTT) 재생 중에 재생 목록 애플리케이션 리소 스(PLAPRS)의 다운로드가 완료된다. 정보 기록 및 재생 장치(1)의 네트워크 환경에서의 네트워크 처리용량은 사용자의 네트워크 환경에 크게 의존한다. 예컨대, 네트워크 환경에서 데이터가 모뎀(전화 회선)을 사용하여 전송되는 경우에는, 네트워크 처리용량이 아주 낮다. 이러한 네트워크 환경 내에서 재생 목록 애플리케이션 리소스(PLAPRS)의 다운로드를 시도하면, 첫 번째 재생 타이틀(FRPLTT) 재생 중에 다운로드를 완료하는 것이 매우 어렵게 된다. 본 실시예는 네트워크 서버(NTSRV) 부터의 다운로드가 금지되고, 그와 같은 위험이 배제되어 있는 것에 특징이 있다. 또한, 데이터 캐쉬에 로딩되는 데이터 또는 파일의 크기 정보(DTFLSZ)(size 속성 정보)는 바이트 단위로 기술되지만, 속성 정보의 기술이 생략될 수 있다. 게다가, 멀티플렉싱 속성 정보(MLTPLX)의 값이 "true"인 경우에는, 로딩 기간(LOADPE) 내에서 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 고급 팩(ADV_PCK)으로부터 대응하는 아카이브 데이터가 로딩되어야만 한다(도 73a의 (d) 참조). 또한, 이 경우에, ("true"인 경우에), 첫 번째 재생 타이틀(FRPLTT)을 관리하는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)가 재생 목록(PLLST) 내에 기술되어야 한다. 이와 같이 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)가 재생 목록(PLLST) 내에 기술되어 있는 경우에는, 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩 기간(LOADPE)은 첫 번째 재생 타이틀(FRPLTT)의 재생 기간에 대응한다. 또한, 멀티플렉싱 속성 정보(MLTPLX)의 값이 "false"인 경우에는, 고급 컨텐츠 재생 유닛(ADVPL)은 src 속성 정보에 의해 지정된 장소로부터 대응하는 리소스를 사전 로딩해야만 한다. 또한, 멀티플렉싱 속성 정보(MLTPLX)의 기술이 생략될 수 있 지만, 이러한 경우에는 자동으로 멀티플렉싱 속성 정보(MLTPLX)의 값이 "true"로 설정된다. 게다가, 재생 목록 애플리케이션 리소스(PLAPRS)에 관한 부가 정보는 사람에게 친숙한 텍스트 포맷으로 기술되지만, 부가 정보의 기술이 생략될 수 있다.
도 69b의 (c)에 도시하는 데이터 구조를 갖는 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)는 재생 목록 관련 고급 애플리케이션(PLAPL)을 관리한다. 또한, 재생 목록 관련 고급 애플리케이션(PLAPL)이 참조하는(사용하는) 리소스는 도 69b의 (d)에 도시하는 데이터 구조를 갖는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)에 의해 관리되고 있다. 또한, 도 56b의 (c)에 도시하는 데이터 구조를 갖는 고급 자막 세그먼트 엘리먼트(ADSTSG)는 고급 자막(ADSBT)을 관리하고, 도 56b의 (d)에 도시하는 데이터 구조를 갖는 애플리케이션 세그먼트 엘리먼트(APPLSGV)는 고급 애플리케이션(ADAPL)을 관리한다. 또한, 고급 자막(ADSBT) 또는 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 리소스는 애플리케이션 리소스)APRSRC)라고 불리고, 도 63c의 (d)에 도시하는 데이터 구조를 갖는 애플리케이션 리소스 엘리먼트(APRELE)에 의해 관리되고 있다. 또한, 도 66b의 (d)에 도시하는 데이터 구조를 갖는 타이틀 리소스 엘리먼트는 타이틀 리소스(TTLRC)의 관리를 하고 있다. 타이틀 리소스(TTRSRC)는 타이틀 관련 고급 애플리케이션(TTAPL)에 의해 참조(사용)된다. 애플리케이션 세그먼트 엘리먼트(APPLSG)는 타이틀 관련 고급 애플리케이션(TTAPL)을 관리하는 정보에 대응한다. 이제부터, 상기한 재생 목록 애플리케이션 리소스(PLAPRS), 타이틀 리소스(TTRSRC), 및 애플리케이션 리소 스(APRSRC)와의 사이의 관계(차이)에 관해서 도 70 및 도 71을 참조하여 기술한다. 또한, 도 70 및 도 71을 참조하여 재생 목록 관련 고급 애플리케이션(PLAPL), 타이틀 관련 고급 애플리케이션(TTAPL), 및 고급 애플리케이션(ADAPL) 간의 관계(차이)에 대해서도 설명한다. 도 70에 도시하는 실시예에서, 타이틀 #1부터의 재생을 설명하고 있지만, 타이틀 #1 이전에 도 17에 도시하는 첫 번째 재생 타이틀(FRPLTT)이 먼저 설정되어 있는 경우가 많다. 본 실시예에 따르면, 재생 목록 관련 고급 애플리케이션(PLAPL)이 사용되고, 이 애플리케이션(PLAPL)에서 사용되는 재생 목록 애플리케이션 리소스(PLAPRS)를 타이틀 #1의 재생 전에 파일 캐쉬(FLCCH) 내에 로딩 완료시키는 사용 예에 있어서는, 도 17에 도시한 바와 같이 재생 목록(PLLST)의 재생 시작 시에(가장 처음에) 첫 번째 재생 타이틀(FRPLTT)이 재생되어야만 한다. 따라서, 도 70의 설명도는 타이틀 #1의 재생에 앞서서, 첫 번째 재생 타이틀(FRPLTT)이 재생되는 것으로 가정하며, 첫 번째 재생 타이틀(FRPLTT)의 재생 기간을 생략하고 있다. 도 70에 도시한 바와 같이, 재생 목록 관련 고급 애플리케이션(PLAPL)은 첫 번째 재생 타이틀(FRPLTT)을 제외하고는 전체 타이틀 내에서 실행(표시)될 수 있다. 즉, 재생 목록 관련 고급 애플리케이션(PLAPL)의 실행(표시) 기간(APACPE)은 첫 번째 재생 타이틀(FRPLTT)을 제외하고는 전체 타이틀의 재생 기간으로 확산된다. 이것에 비해, 도 70에 도시한 바와 같이 타이틀 관련 고급 애플리케이션(TTAPL)은 동일한 타이틀 내에서만 효과적이다. 따라서, 타이틀 관련 고급 애플리케이션(TTAPL)의 실행(표시) 기간(APACBE)은 동일한 타이틀(도 7O의 실시예에서는 타이틀 #2를 의미함) 내의 타이틀 타임라인(TMLE) 상의 시간 "T3"로부터 타이틀의 종료까지 확산되어 있다. 이 구성에 비해, 도 70에 도시한 바와 같이, 고급 애플리케이션(ADAPL)의 실행(표시) 기간(APACPE)은 동일한 타이틀 내의 한정된 특정 시간에만 설정된다. 본 실시예에 있어서, 재생 목록 관련 고급 애플리케이션(PLAPL)과 타이틀 관련 고급 애플리케이션(TTAPL)은 광의의 고급 애플리케이션(ADAPL)에 속하며, 재생 목록 관련 고급 애플리케이션(PLAPL)과 타이틀 관련 고급 애플리케이션(TTAPL)은 광의의 고급 애플리케이션(ADAPL) 내의 특수한 경우로서 정의된다. 도 71은 각종 고급 애플리케이션(ADAPL)에 의해 참조(사용)되는 각종 리소스 간의 관계를 나타낸 것이다. 재생 목록 애플리케이션 리소스(PLAPRS)는 타이틀에 걸쳐 임의의 고급 애플리케이션(ADAPL)에 의해 똑같이 사용되는 리소스를 의미한다. 재생 목록 애플리케이션 리소스(PLAPRS)는 재생 목록 관련 고급 애플리케이션(PLAPL)뿐만 아니라, 타이틀 관련 고급 애플리케이션(TTAPL)이나 고급 애플리케이션(ADAPL)에 의해 참조(사용)될 수 있다. 재생 목록 애플리케이션 리소스(PLAPRS)는 상술한 바와 같이 첫 번째 재생 타이틀(FRPLTT)의 재생 기간 동안에 파일 캐쉬(FLCCH) 내에 로딩되고, 고급 컨텐츠(ADVCT)가 종료할 때까지 복수의 타이틀의 재생 기간에 걸쳐 파일 캐쉬(FLCCH) 내에 계속 저장되어 있다. 따라서, 재생 목록 애플리케이션 리소스(PLAPRS)는 파일 캐쉬(FLCCH) 내에서 첫 번째 재생 타이틀(FRPLTT)을 제외하고는 전체 타이틀의 재생 기간 동안과 그 재생 기간의 사이(α 위치와 β 위치 사이)에서 유효 기간(APVAPE) 내로 되어 있다. 그 결과, 재생 목록 애플리케이션 리소스(PLAPRS)를 참조(사용)하는 재생 목록 관련 고급 애플리케이션(PLAPL)은 서로 다른 타이틀 사이에서 똑같이 사용(사용자에게 표시)될 수 있다. 재생 목록 애플리케이션 리소스(PLAPRS)를 관리하는 재생 목록(PLLST) 내의 리소스 엘리먼트 이름은 도 69b의 (d)에 도시하는 데이터 구조를 갖는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)가 된다. 본 실시예에 있어서, 재생 목록 애플리케이션 리소스(PLAPRS)가 설정되고 또 이 리소스를 참조(사용)하는 재생 목록 관련 고급 애플리케이션(PLAPL)이 설정되어 있는 경우, 재생 목록 관련 고급 애플리케이션(PLAPL)은 서로 다른 타이틀 사이의 천이 동안에(도 70에서의 α 기간 및 β 기간에) 도중에 사용자에게 연속적으로 재생될 수 있다. 또한, 재생 목록 애플리케이션 리소스(PLAPRS)의 파일 캐쉬(FLCCH) 내로의 로딩 기간은 첫 번째 재생 타이틀(FRPLTT)의 재생 기간을 제외하고는 불필요하고, 따라서 표시 시작이나 표시 전환을 고속으로 행할 수 있다고 하는 효과가 달성될 수 있다. 또한, 타이틀 리소스(TTRSRC)는 타이틀 관련 고급 애플리케이션(TTAPL)과 타이틀 내의 고급 애플리케이션(ADAPL)에 의해 참조(사용)될 수 있을 뿐만 아니라, 동일한 타이틀 내의 복수의 고급 애플리케이션(ADAPL)에 의해 공유될 수 있다. 타이틀 리소스(TTRSRC)를 관리하는 재생 목록(PLLST) 내의 리소스 엘리먼트 이름은 도 66b의 (d)에 도시하는 데이터 구조를 갖는 타이틀 리소스 엘리먼트이다. 이제부터, 타이틀 리소스(TTRSRC)를 파일 캐쉬(FLCCH) 내에 저장하는 타이밍에 관하여 설명한다. 도 66b의 (d)에 도시한 바와 같이, 타이틀 리소스 엘리먼트 내로의 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1oadingBegin 속성 정보)가 설정될 수 있다. 타이틀 리소스 엘리먼트 내로의 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시 간(PRLOAD)(1oadingBegin 속성 정보)가 기술되어 있는 경우에는, 도 65a에 도시된 타이밍에서 로딩이 시작된다. 즉, 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRL0AD)의 값은 대응하는 리소스의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)의 값보다도 이른 시간을 나타내고 있고, 타이틀 리소스(TTRSRC)의 실행 시작 시간보다도 이른 시간에서 로딩이 시작된다. 반면에, 도 66b의 (d)에 도시하는 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(IoadingBegin 속성 정보)의 기술이 생략되어 있는 경우에는, 도 65b에 도시한 바와 같이 타이틀 타임라인 상의 시작 시간(TTSTTM)의 타이밍에 로딩이 시작되고, 로딩의 종료 직후에 타이틀 리소스(TTRSRC)를 참조하는(사용하는) 타이틀 관련 고급 애플리케이션(TTAPL)의 실행 기간(APACPE)이 시작한다. 도 70에 도시한 실시예는 도 65b에 도시한 방법에 기초하여 기술되어 있다. 도 70에 도시한 바와 같이, 타이틀 리소스(TTRSRC)는 타이틀 #2이 종료한 뒤, 파일 캐쉬로부터 데이터를 삭제하기 위한 비존재 기간(N-EXST)의 상태에 들어간다. 즉, 타이틀 리소스(TTRSRC)가 재생 대상 타이틀이 변하지 않는 한 파일 캐쉬(FLCCH) 내에 계속 저장되어 있지만, 재생 대상 타이틀이 변경되면(다른 타이틀로 이동하면) 이는 파일 캐쉬(FLCCH)로부터 삭제된다. 타이틀 리소스(TTRSRC)가 이용되는 경우, 동일한 타이틀 내에서의 연속적인 표시가 가능하게 된다. 또한, 컨텐츠가 복수의 타이틀로 구성되어 있는 경우, 다른 타이틀에 이동될 때 파일 캐쉬(FLCCH)로부터 타이틀이 삭제되고, 그에 의해 파일 캐쉬(FLCCH)를 효과적으로 이용할 수 있다. 게다가, 애플리케이션 리소스(APRSRC)는 각각의 고급 애플리케이션(ADAPL)에 따라 독자적으로 사용되는 리소스이며, 타이틀 내의 특정의 고급 애플리케이션(ADAPL) 내에서만 이용된다. 애플리케이션 리소스(APRSRC)를 관리하는 재생 목록(PLLST) 내의 리소스 엘리먼트 이름에는 도 63c의 (d)에 도시한 바와 같이 애플리케이션 리소스 엘리먼트(APRELE)가 대응한다. 도 63c의 (d)에 도시한 바와 같이, 애플리케이션 리소스 엘리먼트(APRELE) 내에는 대상 리소스의 가져오기(로딩)가 시작되는 타이틀 타임라인 상의 시간(PRLOAD)(1oadingBegin 속성 정보)가 기술될 수 있다. loadingBegin 속성 정보가 기술되어 있는 경우에는, 파일 캐쉬(FLCCH) 내로의 로딩 타이밍은 도 65a에 도시하는 타이밍이다. 반대로, 1oadingBegin 속성 정보가 기술되어 있지 않은 경우에는, 도 65b에 도시하는 타이밍에 파일 캐쉬(FLCCH) 내에 로딩된다. 또한, 이 정보가 기술되어 있는 경우에는, 1oadingBegin 속성 정보의 값은 애플리케이션 리소스 엘리먼트(APRELE)가 속하는 부모 엘리먼트(고급 자막 세그먼트 엘리먼트(ADSTSG) 또는 애플리케이션 세그먼트 엘리먼트(APPLSG)) 내에 설정되어 있는 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin 속성 정보)의 값보다도 이른 시간으로 설정되고 있다. 도 70에 도시하는 애플리케이션 리소스(APRSRC)의 파일 캐쉬(FLCCH) 내로의 로딩 타이밍은 도 65b에 기초하고 있다. 도 70에 도시한 바와 같이, 애플리케이션 리소스(APRSRC)를 참조하는(사용하는) 고급 애플리케이션(ADAPL #C)의 실행(표시) 기간(APACPE)이 종료한 뒤, 파일 캐쉬로부터 데이터를 삭제하기 위한 비존재 기간(N-EXST)이 시작된다. 즉, 애플리케이션 리소스(APRSRC)는 각각의 고급 애플리케이션(ADAPL)의 사용(실행) 이전에 파일 캐쉬(FLCCH) 내에 저장되고, 이는 고급 애플 리케이션(ADAPL)의 사용(실행) 뒤에 파일 캐쉬(FLCCH)로부터 삭제된다. 본 실시예에 있어서, 애플리케이션 리소스(APRSRC)를 이용하는 것에 의해 특정한 고급 애플리케이션(ADAPL)의 사용(실행) 뒤에 대응하는 리소스가 삭제될 수 있기 때문에, 파일 캐쉬(FLCCH)가 효과적으로 이용될 수 있다는 효과가 얻어진다. 그 결과, 필요로 하는 파일 캐쉬(FLCCH)의 메모리 크기가 작게 될 수 있기 때문에 장치가 저렴하게 될 수 있다고 하는 장점이 얻어질 수 있다.
이제부터 도 70 및 도 71에 도시한 내용에 관한 보다 구체적인 내용에 대해 도 72에 도시하는 표시 화면예를 참조하여 설명을 한다. 도 70에 도시한 바와 같이, 타이틀 #2 재생 시에는, 1차 비디오 세트(PRMVS)를 표시하는 데 사용되는 1차 고화질 비디오 객체 데이터(P-EVOB #1)가 재생되고, 재생 목록 관련 고급 애플리케이션(PLAPL)이 동시에 표시되고 있다. 이때의 표시 화면예를 심볼 γ로 나타내고 도 72(a)에 도시되어 있다. 도 72에 도시한 바와 같이, 타이틀 #1(메인 타이틀(31))이 1차 고화질 비디오 객체 데이터(P-EVOB #1)를 나타내고, 화면의 아래쪽에 표시된 정지 버튼(34)부터 FF 버튼(38)까지의 각종 버튼이 배열된 화면이 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 표시되고 있다. 도 72(d)에 도시하는 화면은 도 72(b)에 표시되는 표시 화면(δ)과, 도 72(c)에 표시되는 표시 화면(ε)에 똑같이 표시되고 있다. 즉, 도 72(d)에 도시하는 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 표시되는 화면은 서로 다른 타이틀 사이에서 공유되는 화면이고, 또한, 이 화면에 나타나는 기능도 공유되고 있다. 이 화면을 구성하는 정지 화상(IMAGE), 및 기능을 실현하는 스크립트(SCRPT), 매니페스트(MNFST) 및 마크 업(MRKUP)이 재생 목록 애플리케이션 리소스(PLAPRS)로서 기능한다. 재생 목록 애플리케이션 리소스(PLRELE)를 관리하고 도 69b의 (d)에 도시하는 데이터 구조를 갖는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE)에서, 도 72(d)에 도시하는 예에서 멀티플렉싱 속성 정보(MLTPLX)는 "true"이다. 이 경우, 도 73a 및 도 73b로부터 명백한 바와 같이, 재생 목록 애플리케이션 리소스(PLAPRS)는 첫 번째 재생 타이틀(FRPLTT)을 재생하는 때에 사용되는 1차 고화질 비디오 객체 데이터(P-EVOB #0) 내에 멀티플렉싱되어 저장되고 있다. 재생 목록 애플리케이션 리소스(PLAPRS)를 참조(사용)하는 재생 목록 관련 고급 애플리케이션(PLAPL)을 관리하는 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에는 도 69b의 (c)에 도시한 바와 같이 Z-오더 속성(Z-인덱스) 정보(ZORDER)가 존재하고, 도 72(d)에 도시한 예에서는 이 정보의 값을 "1"로 설정되어 있다. 재생 목록 애플리케이션 리소스(PLAPRS)가 서로 다른 리소스들 사이에서 똑같이 사용(표시)되기 때문에, 예를 들어 타이틀 관련 고급 애플리케이션(TTAPL)에서 표시되는 화면이나, 고급 애플리케이션(ADAPL)에서 표시되는 화면과 표시 화면 상에서 중복되는 경우, 이 리소스의 화면이 이러한 화면의 아래쪽에 표시되도록 하는 것이 바람직하다. 따라서, 도 72(d)에 도시한 실시예에서는, Z-오더 속성(Z-인덱스) 정보(ZORDER)의 값이 낮은 값으로 설정되고 있다. 다음에, 도 70에 도시하는 타이틀 #2의 재생 중에, 타이틀 타임라인(TMLE) 상의 시간이 "T4"로부터 "T2"의 사이에 있을 때는, 1차 비디오 세트(PRMVS)를 표시하는 데 사용되는 1차 고화질 비디오 객체 데이터(P-EVOB #2), 재생 목록 관련 고급 애플리케이션(PLAPL)과 타이틀 관련 고급 애플리케이션(TTAPL)이 동시에 표시된다. 이때의 화면은 표시 화면(ε)으로 나타내고 도 72(c)에 도시되어 있다. 즉, 타이틀 관련 고급 애플리케이션(TTAPL)에 의해 표시되는 화면이 도 72(f)에 도시하는 내비게이션용 애니메이션(55)을 의미한다. 최근의 윈도즈 오피스(Windows Office)에서는, 사용을 지원하기 위해 도움말 애니메이션으로서 돌고래 캐릭터가 나타난다. 마찬가지로, 도 72(f)에 도시하는 내비게이션용 애니메이션(55)에 의해 화면 조작을 안내할 수 있다. 게다가, 본 발명은 그에 한정되지 않으며, 내비게이션용 애니메이션(55)을 이용하여, 타이틀 #2의 메인 타이틀(31)에 표시되는 화면 내용의 설명을 할 수 있다. 내비게이션용 애니메이션(55)은 동일한 타이틀(즉, 타이틀 #2) 내에서 똑같이 사용되는 화면이나 기능을 나타내고 있으며, 타이틀 리소스(TTRSRC)를 사용하고 있다. 타이틀 리소스(TTRSRC)를 관리하는 타이틀 리소스 엘리먼트 내에는 도 66b의 (d)에 도시한 바와 같이 멀티플렉싱 속성 정보(MLTPLX)가 존재하고, 도 72(f)에 도시하는 실시예에서는 이 정보의 값이 "false"로 설정되고 있다. 즉, 이 경우는 타이틀 리소스(TTRSRC)가 고급 팩(ADV_PCK)의 형태로 멀티플렉싱되어 있지 않고, 특정한 파일의 형태로 지정된 장소에 저장되어 있음을 의미한다. 도 70 및 도 71과 관련하여 기술된 바와 같이, 타이틀 리소스(TTRSRC)가 사용되고 있는 타이틀(즉, 타이틀 #2)로부터 다른 타이틀로 재생 장소가 이동되었을 때, 타이틀 리소스(TTRSRC)는 파일 캐쉬(FLCCH)로부터 삭제될 수 있다. 이때의 삭제의 우선순위는 도 66b의 (d)에 도시하는 대응하는 리소스의 삭제에 대한 우선순위 정보(PRlORT)(priority 속성 정보)에 의해 지정되어 있다. 도 66b의 (d)에 도시한 바와 같이, 높은 값을 갖는 리소스부터 우선적으로 삭제가 수행되기 때문 에, 도 72(f)에 도시하는 실시예에 있어서의 "8"의 값은 비교적 먼저 삭제가 수행될 수 있음을 의미한다. 도 72(f)에 도시하는 타이틀 #2의 재생 중에 타이틀 타임라인(TMLE) 상의 시간이 "T3"부터 "T4"까지의 사이에 있는 경우, 1차 비디오 세트(PRMVS)를 표시하는 1차 고화질 비디오 객체 데이터(P-EVOB #2), 재생 목록 관련 고급 애플리케이션(PLAPL), 타이틀 관련 고급 애플리케이션(TTAPL), 및 고급 애플리케이션(ADAPL)의 화면들이 조합되어 표시되고 있고, 이때의 표시 화면(δ)이 도 72(b)에 도시되어 있다. 도 72(e)에 도시한 바와 같이, 고급 애플리케이션(ADAPL)에 의해 표시되는 화면은 언어 선택 메뉴(54)를 나타내고 있다. 도 72(e)에 도시하는 특정한 고급 애플리케이션 내에서만 유효하게 되는 화면이나 기능이 애플리케이션 리소스(APRSRC)을 이용하여 실현되고 있다. 애플리케이션 리소스(APRSRC)를 관리하는 애플리케이션 리소스 엘리먼트(APRELE) 내에는, 도 63c의 (d)에 도시한 바와 같이, 멀티플렉싱 속성 정보(MLTPLX)가 기술될 수 있다. 도 72(e)에 도시하는 실시예에서는, 이 정보의 값이 "falsc"로 설정되어 있고, 이것은 애플리케이션 리소스(APRSRC)가 고급 팩(ADV_PCK)의 형태로 멀티플렉싱되어 저장되어 있는 것이 아니라 특정한 파일로서 단독으로 존재하고 있음을 의미한다. 또한, 애플리케이션 리소스 엘리먼트(APRELE) 내에서 지정되는 대응하는 리소스의 삭제에 대한 우선순위 정보(PRIORT)(prioritv 속성 정보)의 값은 "2"의 값으로 설정되어 있다. 도 63c의 (d)에 도시한 바와 같이, 보다 높은 값을 갖는 리소스로부터 먼저 삭제하기 때문에, "2"의 값은 그의 리소스가 될 수 있으면 장기간 파일 캐쉬(FLCCH) 내에 저장되어 있음을 의미한다. 도 72(f)에 서는 priority 속성값이 "8"로 설정되고 도 72(e)에서는 이 값이 "2"로 설정되어 있기 때문에, priority 속성값만을 단독으로 비교한 경우에 도 72(f)에 도시하는 내비게이션용 애니메이션(55)의 리소스부터 삭제가 수행될 수 있는 것처럼 보인다. 그러나 도 64a와 관련하여 상기한 바와 같이, 애플리케이션 리소스(APRSRC)의 우선순위 레벨이 타이틀 리소스(TTRSRC)의 우선순위 레벨보다 낮기 때문에, 실제로는 도 72(e)에 도시하는 언어 선택 메뉴(54)에 대응하는 애플리케이션 리소스(APRSRC)가 우선적으로 파일 캐쉬(FLCCH)로부터 삭제된다. 애플리케이션 리소스(APRSRC)를 관리하는 애플리케이션 리소스 엘리먼트(APRELE)를 포함하는 부모 엘리먼트인 애플리케이션 세그먼트 엘리먼트(APPLSG) 내에는 오토런 속성 정보(ATRNAT)가 기재될 수 있다. 도 72(e)에 도시하는 실시예에서, 이 정보의 값이 "true"로 설정되어 있고, 도 70에 도시한 바와 같이 타이틀 #2의 재생 개시와 동시에 애플리케이션 리소스(APRSRC)의 로딩이 시작된다. 또한, 도 70에 도시하는 실시예에서는, 애플리케이션 리소스(APRSRC)의 로딩 방법으로서, 도 65 (c)에 도시하는 방법을 채용하고 있다. 또한, 도 72(e)에 도시하는 실시예에서는, 도 56b의 (d)에 포함되는 재생/표시 객체의 동기 속성 정보(SYNCAT)(sync 속성 정보)의 값이 "soft"로 설정되어 있다. 따라서, 도 7O에 도시하는 실시예에 있어서, 타이틀 #2의 재생 시작과 동시에 애플리케이션 리소스(APRSRC)의 로딩이 시작되지만, 로딩 예정 기간(LOADPE)이 종료하는 타이틀 타임라인(TMLE) 상의 시간 "T3"에 도달되어도 애플리케이션 리소스(APRSRC)의 로딩이 완료하지 않는 경우에는 도 72(e)에 도시하는 화면을 사용자에게 표시하지 않고 타이틀 타임라인(TMLE) 상에서의 시간 진행이 계속되고, 로딩 이 종료한 후에만 언어 선택 메뉴(54)가 표시된다. 또한, 도 72(e)의 실시예에서는, 도 56b의 (d)에 도시하는 Z-오더 속성(Z-인덱스) 정보(ZORDER)의 값이 "5"로 설정되고, 이는 도 72(d)에 도시한 동일한 속성 정보의 값 "1"보다도 큰 값으로 되어 있다. 따라서, 표시 화면 상에서 도 72(d)에 도시하는 각종 버튼의 화면과 도 72(e)에 도시하는 언어 선택 메뉴(54)의 화면의 표시 장소가 일부 중복되는 경우에는, Z-오더 속성(Z-인덱스) 정보(ZORDER)의 값이 더 큰 언어 선택 메뉴(54)가 상측에 표시된다. 서로 다른 고급 애플리케이션(ADAPL)에 표시되는 화면이 동일 화면 상에서 중복된 경우, 이와 같이, Z-오더 속성(Z-인덱스) 정보(ZORDER)의 값을 설정하는 일에 의해, 어느 쪽의 화면을 상측에 표시하는지를 자동으로 설정할 수 있고, 그에 의해 컨텐츠 제공자의 사용자에 대하는 표현력을 향상시킬 수 있다.
도 73a의 (a)에 도시하는 첫 번째 재생 타이틀(FRPLTT)은 사용자에 대하여 최초로 재생/표시되는 타이틀을 나타내고 있고, 재생 목록(PLLST) 내에서는 도 74b의 (c)에 도시한 바와 같이 타이틀 정보(TTINFO) 내의 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)에 의해 관리되고 있다. 또한, 재생 목록 관련 고급 애플리케이션(PLAPL)에 관해서는, 도 70에 도시한 바와 같이, 복수의 타이틀에 걸쳐 실행(표시) 기간(APACPE)이 확보되고, 이 애플리케이션은 첫 번째 재생 타이틀(FRPLTT)을 제외하고는 임의의 타이틀 내에 표시/실행될 수 있다. 또한, 재생 목록 관련 고급 애플리케이션(PLAPL)에 의해 참조(사용)되는 리소스를 재생 목록 애플리케이션 리소스(PLAPRS)라고 부른다. 본 실시예는 파일 캐쉬(FLCCH) 내로의 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩이 첫 번째 재생 타이틀(FRPLTT) 재생 동안에 완료 시되는 특징이 있다. 그 결과, 첫 번째 재생 타이틀(FRPLTT) 이외의 임의의 타이틀의 재생의 시작 시간에 재생 목록 관련 고급 애플리케이션(PLAPL)의 표시/실행이 시작될 수 있다. 도 73a의 (a)에 나타낸 실시예에서는, 첫 번째 재생 타이틀(FRPLTT)의 재생 시에 1차 고화질 비디오 객체 데이터(P-EVOB #1)가 재생된다. 이 기간은 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩 기간(LOADPE)으로 된다. 그 결과, 첫 번째 재생 타이틀(FRPLTT)의 재생 종료 시간(타이틀 타임라인(TMLE) 상에서의 시간 "T0")에 파일 캐쉬(FLCCH) 내에의 재생 목록 애플리케이션 리소스(PLAPRS)의 저장이 완료된다. 그 결과, 타이틀 #1의 재생 시작 시간에, 1차 고화질 비디오 객체 데이터(P-EVOB #1)와 동시에 재생 목록 관련 고급 애플리케이션(PLAPL)이 재생될 수 있다. 파일 캐쉬(FLCCH) 내에 저장되는 재생 목록 애플리케이션 리소스(PLAPRS)(도 73a의 (b))의 획득 경로로서, 도 73a에 도시한 바와 같이 경로 A, 경로 B 및 경로 C의 복수개의 경로가 존재한다. 본 실시예에 따른 경로 A에서는, 첫 번째 재생 타이틀(FRPLTT)의 재생에 이용되는 1차 고화질 비디오 객체(P-EVOB #O) 내에 재생 목록 애플리케이션 리소스(PLAPRS)가 멀티플렉싱되어 있다. 즉, 재생 목록 애플리케이션 리소스(PLAPRS)는 각각 2048 바이트로 이루어진 데이터로 분할되고, 각각 2048 바이트씩 고급 팩(ADV_PCK) 내에 패킹된다. 고급 팩(ADV_PCK)은 다른 메인 오디오 팩(AM_PCK), 메인 비디오 팩(VM_PCK), 서브-픽처 팩(SP_PCK), 및 기타 등등과 멀티플렉싱되어 1차 고화질 비디오 객체 데이터(P-EVOB)를 구성한다. 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에서 사용되는 재생 목록 애플리케이션 리소스(PLAPRS)는 도 69b의 (d)에 도시한 바와 같이 재 생 목록 애플리케이션 리소스 엘리먼트(PLRELE)에 의해 관리되고 있다. 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내에는 도 69b의 (d)에 도시한 바와 같이 멀티플렉싱 속성 정보(MLTPLX)가 존재한다. 도 73a의 (b)에 도시하는 재생 목록 애플리케이션 리소스(PLAPRS)의 획득 경로가 경로 A를 통하는지, 후술하는 경로 B 또는 경로 C를 통하는지가 멀티플렉싱된 속성 정보(MLTPLX)의 값에 기초하여 판정될 수 있다. 즉, 멀티플렉싱 속성 정보(MLTPLX)의 값이 "true"인 경우에는, 도 73a 및 도 73b에 도시한 바와 같이 대응하는 재생 목록 애플리케이션 리소스(PLAPRS)를 획득하는 데 경로 A가 사용된다. 멀티플렉싱 속성 정보(MLTPLX)의 값이 "true"인 경우에는, 데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)가 도 73a의 (a)에 도시하는 첫 번째 재생 타이틀(FRPLTT)을 표시하는 1차 고화질 비디오 객체(P-EVOB #0)의 저장 장소를 나타낸다. 이 경우, 첫 번째 재생 타이틀(FRPLTT)의 관리 정보가 표시되고, 도 74b의 (c)에 도시한 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에 1차 오디오 비디오 클립 엘리먼트(PRAVCP)가 배치된다. 재생 목록 애플리케이션 엘리먼트 정보(PLAELE) 내에 배치된 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내의 도 54b의 (c)에 도시되고 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 장소(SRCTMP)(src 속성 정보)에는 도 73a의 (a)에 도시하는 첫 번째 재생 타이틀(FRPLTT)을 표시하는 1차 고화질 비디오 객체 데이터(P-EVOB #0)의 타임 맵(PTMAP)의 저장 장소(경로) 및 파일 이름이 기술된다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 타임 맵(PTMAP)의 저장 장소(경로) 및 파일 이름이 기술되지만, 본 실시예에서는 대응하는 1차 고화질 비디오 객체 데이터(P-EVOB #O)의 저장 장소(경로)가 타임 맵(PTMAP)의 저장 장소(경로)와 일치하고 있고, 1차 고화질 비디오 객체 데이터(P-EVOB #O) 파일의 파일 이름이 타임 맵(PTMAP)과 일치하며(그렇지만, 그의 확장자 ".MAP"과 "EVO"는 서로 다름), 그에 의해 1차 고화질 비디오 객체 데이터(P-EVOB #0) 파일에의 액세스가 용이하게 된다. 또한, 도 69b의 (d)에 나타낸 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내의 멀티플렉싱 속성 정보(MLTPLX)의 값이 "false"인 경우에는, 도 73a에 도시하는 경로 A와는 다른 경로(경로 B 또는 경로 C)가 재생 목록 애플리케이션 리소스(PLAPRS)를 파일 캐쉬(FLCCH) 내로 로딩하는 데 사용된다. 즉, 경로 B에서는, 재생 목록 애플리케이션 리소스 파일(PLRSFL)이 정보 저장 매체(DISC) 내에 저장되어 있고, 첫 번째 재생 타이틀(FRPLTT)을 표시하는 데 사용되는 1차 고화질 비디오 객체(P-EVOB #O)의 재생과 동시에 정보 저장 매체(DISC)로부터 데이터가 재생되고, 이 데이터는 파일 캐쉬(FLCCH) 내에 저장된다. 또한, 경로 C에서는, 영속적 저장 장치(PRSTR) 내에 재생 목록 애플리케이션 리소스 파일(PLRSFL)이 저장되어 있고, 첫 번째 재생 타이틀(FRPLTT) 재생과 동시에 영속적 저장 장치(PRSTR) 내에 저장되어 있는 재생 목록 애플리케이션 리소스 파일(PLRSFL)이 파일 캐쉬(FLCCH) 내로 로딩된다. 재생 목록 애플리케이션 리소스 파일(PLRSFL)이 네트워크 서버(NTSRV) 내에 저장되어 있는 경우에는, 다운로드 도중에 네트워크 장애가 발행하여, 첫 번째 재생 타이틀(FRPLTT)의 재생의 종료 이전에 파일 캐쉬(FLCCH) 내로의 데이터 로딩이 종료되지 못할 수 있다. 따라서, 본 실시예는 재생 목록 애플리케이션 리소스(PLRSFL)의 저장 장소 가 네트워크 서버(NTSRV) 밖으로 설정되어 첫 번째 재생 타이틀(FRPLTT)의 재생 기간 동안에 로딩의 완료를 보증한다는 데 큰 특징이 있다. 본 실시예는 이와 같이 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내에 멀티플렉싱 속성 정보(MLTPLX)가 배치(기술)되어 있는 것에 큰 특징이 있다. 그 결과, 도 36에 도시하는 1차 비디오 플레이어(PRMVP) 내의 디멀티플렉서(DEMUX)의 사전 준비가 행해질 수 있고, 그에 의해 재생 목록 애플리케이션 리소스(PLAPRS)의 로딩 기간(LOADPE)을 단축시킬 수 있다. 게다가, 본 실시예는 첫 번째 재생 타이틀(FRPLTT)에 대하여, 비디오 트랙의 수 및 오디오 트랙의 수를 1로 설정하는 등의 많은 제약조건을 설정하고, 이에 따라 첫 번째 재생 타이틀(FRPLTT)의 재생 기간 동안에 로딩의 종료를 보장하게 된다.
<FirstPlayTitle(즉, 첫 번째 재생 타이틀)>
TitleSet 엘리먼트는 FirstPlayTitle 엘리먼트를 포함할 수 있다. FirstPlayTitle 엘리먼트는 첫 번째 재생 타이틀을 기술한다.
첫 번째 재생 타이틀은 특수한 타이틀이다.
(a) 첫 번째 재생 타이틀은 존재하는 경우 타이틀 1 트랙 이전에 재생되어야 한다.
(b) 첫 번째 재생 타이틀은 단지 하나 이상의 1차 오디오 비디오 및/또는 대체 오디오 비디오로만 이루어져 있다.
(c) 첫 번째 재생 타이틀은 처음부터 타이틀 타임라인의 끝까지 정상 속도로만 재생된다.
(d) 첫 번째 재생 타이틀 동안에는 비디오 트랙 번호 1 및 오디오 트랙 번호 1만이 재생된다.
(e) 재생 목록 애플리케이션 관련 리소스는 첫 번째 재생 타이틀 동안에 로딩될 수 있다.
FirstPlayTitle 엘리먼트에서 이하의 제약들이 충족되어야 한다.
Figure 112006062570134-PAT00111
FirstPlayTitle 엘리먼트는 PrimaryAudioVideoClip 및/또는 SubstituteAudioVideoClip 엘리먼트만을 포함한다.
Figure 112006062570134-PAT00112
SubstituteAudioVideoClip 엘리먼트의 데이터 소스는 파일 캐쉬 또는 영속적 저장장치이어야 한다.
Figure 112006062570134-PAT00113
비디오 트랙 번호 및 오디오 트랙 번호만이 할당될 수 있고, 비디오 트랙 번호 및 오디오 트랙 번호는 '1'이어야 한다. 자막, 서브 비디오 및 서브 오디오 트랙 번호는 첫 번째 재생 타이틀에서는 할당되지 않아야 한다.
Figure 112006062570134-PAT00114
titleNumber, parentalLevel, type, tickBaseDivisor, selectable, displayName, onEnd 및 description 속성이 없다.
첫 번째 재생 타이틀은 재생 목록 애플리케이션 관련 리소스의 로딩 기간 동안에 사용될 수 있다. 첫 번째 재생 타이틀 재생 동안에, PlaylistApplicationResource 엘리먼트 내의 multiplexed 속성이 설정되어 있는 경우 재생 목록 애플리케이션 관련 리소스는 1차 오디오 비디오 내의 P-EVOB로부터 멀티플렉싱된 데이터로서 로딩될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
본 실시예에 있어서 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)는 타이틀 세트 엘리먼트(타이틀 정보(TTINFO)) 내에 존재한다. 즉 도 74a의 (a)에 도시한 바와 같이, 재생 목록(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI), 및 타이틀 정보(TTlNFO)가 존재하고, 도 74a의 (b)에 도시한 바와 같이 타이틀 정보(TTINFO) 내의 최초의 위치에 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)가 배치되어 있다. 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)에는 첫 번째 재생 타이틀(FRPLTT)에 관한 관리 정보가 기술되어 있다. 또한, 도 17에 도시한 바와 같이, 첫 번째 재생 타이틀(FRPLTT)은 특수한 타이틀로서 간주된다. 본 실시예에 있어서, 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)는 이하의 특징을 가지고 있다.
Figure 112006062570134-PAT00115
첫 번째 재생 타이틀(FRPLTT)이 존재하는 경우에는, 타이틀 #1의 재생 이전에 첫 번째 재생 타이틀(FRPLTT)이 재생되어야 한다.
… 즉, 타이틀 #1의 재생에 앞서, 처음에 첫 번째 재생 타이틀(FRPLTT)을 재생하는 일에 의해, 재생 목록 애플리케이션 리소스(PLAPRS)를 다운로드하는 시간을 확보하고 있다.
Figure 112006062570134-PAT00116
첫 번째 재생 타이틀(FRPLTT)은 1개 이상의 1차 오디오 비디오(PRMAV), 및 자막 오디오 비디오(또는 이들 유형의 비디오 중 어느 한쪽)로 구성되어 있어야만 한다.
‥ 이와 같이 첫 번째 재생 타이틀(FRPLTT)을 구성하는 재생/표시 객체의 종류를 한정하는 일에 의해, 첫 번째 재생 타이틀(FRPLTT) 내에의 멀티플렉싱된 고급 팩(ADV_PCK)의 로딩 처리를 용이하게 해준다.
Figure 112006062570134-PAT00117
첫 번째 재생 타이틀(FRPLTT)은 통상의 재생 속도로 타이틀 타임라인(TMLE) 상에서의 시작 위치부터 종료 위치까지 재생을 계속하여야 한다.
… 첫 번째 재생 타이틀(FRPLTT) 모두가 표준 속도로 재생되는 경우, 재생 목록 애플리케이션 리소스(PLAPRS)의 다운로드 시간이 확보될 수 있고, 다른 타이틀 내에서 재생 목록 관련 고급 애플리케이션(PLAPL)의 재생 시작 시간이 단축될 수 있다.
Figure 112006062570134-PAT00118
첫 번째 재생 타이틀(FRPLTT)의 재생 시에 있어서는, 비디오 트랙 번호 1과 오디오 트랙 번호 1만 재생될 수 있다.
…이와 같이, 비디오 트랙의 수 및 오디오 트랙의 수를 한정하는 일에 의해, 첫 번째 재생 타이틀(FRPLTT)을 구성하는 1차 고화질 비디오 객체 데이터(P-EVOB) 내의 고급 팩(ADV_PCK)으로부터의 다운로드를 용이하게 해줄 수 있다.
Figure 112006062570134-PAT00119
재생 목록 애플리케이션 리소스(PLAPRS)는 첫 번째 재생 타이틀(FRPLTT)의 재생 중에 로딩될 수 있다.
게다가, 본 실시예에 있어서는, 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)에 대하여, 이하의 제약을 만족해야 한다.
Figure 112006062570134-PAT00120
첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)는 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 또는 대체 오디오 비디오 클립 엘리먼트(SBAVCP)만을 포함한다.
Figure 112006062570134-PAT00121
대체 오디오 비디오 클립 엘리먼트(SBAVCP)에서 정의된 데이터 소스(DTSORC)는 파일 캐쉬(FLCCH) 또는 영속적 저장 장치(PRSTR) 내에 저장되어 있 다.
Figure 112006062570134-PAT00122
비디오 트랙 번호와 오디오 트랙 번호만이 설정가능하고, 비디오 트랙 번호와 오디오 트랙 번호(ADTKNM) 둘 다는 "1"로 설정되어야 한다. 또한, 첫 번째 재생 타이틀(FRPLTT) 내에서는 자막, 서브 비디오 및 서브 오디오 트랙 번호는 설정하여서는 안 된다.
Figure 112006062570134-PAT00123
첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에는 도 24a의 (b)에 도시하는 타이틀 번호 정보(TTNUM), 시청 제한 레벨 정보(parentaLeve1 속성 정보), 타이틀 유형 정보(TTTYPE), 고급 애플리케이션 관리자 내에서의 처리 클럭의 애플리케이션 틱 클럭에 대한 감쇠비(TICKDB), 선택 속성: 사용자 조작 대응 가부 속성(selectable 속성 정보), 정보 재생 장치가 표시하는 타이틀 이름 정보, 이 타이틀의 종료 후에 표시되어야 하는 타이틀의 번호 정보(onEnd 속성 정보), 및 타이틀에 관한 속성 정보(description 속성 정보)는 기술되지 않는다.
재생 목록 애플리케이션 리소스(PLAPRS)의 로딩 기간(LOADPE)으로서 첫 번째 재생 타이틀(FRPLTT)의 재생 기간이 사용될 수 있다. 도 69b의 (d)에 도시하는 재생 목록 애플리케이션 리소스 엘리먼트(PLRELE) 내의 멀티플렉싱 속성 정보(MLTPLX)가 "true"로 설정되어 있는 경우에는, 도 73a의 (d)에 도시한 바와 같이 1차 오디오 비디오(PRMAV) 내의 1차 고화질 비디오 객체 데이터(P-EV0B)로부터 멀티플렉싱된 고급 팩(ADV_PCK)이 추출되고, 재생 목록 애플리케이션 리소스(PLAPRS)로서 파일 캐쉬(FLCCH) 내에 로딩될 수 있다.
<FirstPlayTitle(첫 번째 재생 타이틀) 엘리먼트>
FirstPlayTitle 엘리먼트는 기본 스트림에 대한 객체 매핑 정보 및 트랙 번호 할당으로 이루어진 고급 컨텐츠에 대한 첫 번째 재생 타이틀의 정보를 기술한다.
FirstPlayTitle 엘리먼트의 XML 신택스 표현:
<FirstPlayTitle
titleDuration = timeExpression
alternativeSDDisplayMode =
(panscanOrLetterbox | panscan | letterbox)
xml:base = anyURI
>
(PrimaryAudioVideoClip |
SubstituteAudioVideoClip) *
</FirstPlayTitle>
FirstPlayTitle 엘리먼트의 내용은 프리젠테이션 클립 엘리먼트의 리스트로 이루어져 있다. 프리젠테이션 클립 엘리먼트는 PrimaryAudioVideoClip 및 SubstituteAudioVideoClip이다.
FirstPlayTitle 엘리먼트 내의 프리젠테이션 클립 엘리먼트는 첫 번째 재생 타이틀에서의 객체 매핑 정보를 기술한다.
첫 번째 재생 타이틀에서의 SubstituteAudioVideoClip 엘리먼트의 dataSource는 파일 캐쉬 또는 영속적 저장 장치 중 하나이어야 한다.
프리젠테이션 클립 엘리먼트는 또한 기본 스트림에 대한 트랙 번호 할당을 기술한다. 첫 번째 재생 타이틀에서, 비디오 트랙 및 오디오 트랙 번호만이 할당되고, 비디오 트랙 번호 및 오디오 트랙 번호는 '1'이어야 한다. 자막, 서브 비디오 및 서브 오디오 등의 다른 트랙 번호 할당은 할당되어서는 안 된다.
(a) titleDuration 속성
타이틀 타임라인의 길이를 기술한다. 이 속성값은 timeExpression에 의해 기술되어야 한다. 모든 프리젠테이션 객체의 종료 시간은 타이틀 타임라인의 시간 길이보다 작아야 한다.
(b) alternativeSDDisplayMode 속성
첫 번째 재생 타이틀 재생 시의 4:3 모니터 상에서의 허용된 표시 모드를 기술한다. 'panscanOrLetterbox'는 팬-스캔 및 레터박스 둘 다를 허용하고, 'panscan'은 팬-스캔만을 허용하며, 'letterbox'는 4:3 모니터에 대해 레터박스만을 허용한다. 플레이어는 허용된 표시 모드로 강제적으로 4:3 모니터로 출력해야 한다. 이 속성은 생략될 수 있다. 디폴트값은 'panscanOrLetterbox'이다.
(c) xml:base 속성
이 엘리먼트에서의 베이스 URI를 기술한다. xml:base의 시맨틱스는 XML-BASE를 따라야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 74b의 (c)에 상세 구조를 도시하는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에는 고급 컨텐츠(ADVCT)에 대한 첫 번째 재생 타이틀(FRPLTT)의 관 리 정보가 기술되어 있다. 또한, 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에는 객체 매핑 정보(OBMAPI)와 기본 스트림에 대한 트랙 번호 설정(트랙 번호 할당 정보)도 구성되어 있다. 즉, 도 74b의 (c)에 도시한 바와 같이, 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에는 1차 오디오 비디오 클립 엘리먼트(PRAVCP)와 대체 오디오 비디오 클립 엘리먼트(SBAVCP)가 기술될 수 있다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP)와 대체 오디오 비디오 클립 엘리먼트(SBAVCP)의 기술 내용은 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보를 포함함)의 일부를 구성하고 있다. 이와 같이, 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE)의 컨텐츠는 표시/재생 클립엘리먼트의 리스트(1차 오디오 비디오 클립 엘리먼트(PMVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP)의 리스트)로 구성되어 있다. 또한, 첫 번째 재생 타이틀(FRPLTT) 내에서의 대체 오디오 비디오 클립 엘리먼트(SBAVCP)에서 사용되는 데이터 소스(DTSORC)는 파일 캐쉬(FLCCH) 또는 영속적 저장 장치(PRSTR) 중 어느 하나에 저장되어 있어야 한다. 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 또는 대체 오디오 비디오 클립 엘리먼트(SBAVCP)로 구성된 재생/표시 클립 엘리먼트는 기본 스트림의 트랙 번호 할당 정보(트랙 번호 설정 정보)를 기재하고 있다. 도 74b의 (c)에 있어서, 타이틀 타임라인 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)(titleDuration 속성 정보)는 "HH:MM:SS:FF"의 포맷으로 기술된다. 첫 번째 재생 타이틀(FRPLTT) 내에 표시되는 재생/표시 객체의 종료 시간은 도 54b의 (c)에 도시한 바와 같이 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내의 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보) 및 도 55b의 (c)에 도시 된 바와 같이 대체 오디오 비디오 클립 엘리먼트(SBAVCP) 내의 타이틀 타임라인 상의 종료 시간(TTEDTM)(titleTimeEnd 속성 정보)에 의해 정의되지만, 모든 타이틀 타임라인 상의 종료 시간(TTEDTM)의 값은 타이틀 타임라인 상에서의 타이틀 전체의 시간 길이 정보(TTDUR)(titleDuration 속성 정보) 내에 설정된 값보다도 작은 값으로 설정되어야 한다. 그 결과, 첫 번째 재생 타이틀(FRPLTT) 내에서 각각의 재생/표시 객체가 모순 없게 표시될 수 있다. 이제부터, 4:3 TV 모니터 상에서의 허용 표시 모드 정보(SDDISP)(alternativeSDDisp1ayMode 속성 정보)에 관하여 설명을 한다. 4:4 TV 모니터 상에서의 허용 표시 모드 정보(SDDISP)는 첫 번째 재생 타이틀(FRPLTT) 재생 시에 있어서의 4:3 TV 모니터에 표시할 때에 허용되는 표시 모드를 나타내고 있다. 이 정보의 값이 "Panscan0rLetterbox"로 설정된 경우에는, 4:3 TV 모니터에 표시하는 때에 팬스캔(panscan) 모드와 레터박스(letterbox) 모드 둘 다가 허용된다. 또한, 이 정보의 값이 "Panscan"으로 설정된 경우에는, 4:3 TV 모니터에 표시되는 때에 팬스캔 모드만이 허용된다. 게다가, 이 값으로서 "Letterbox"로 지정된 경우에는, 4:3 TV 모니터에 표시하는 때에 레터박스의 모드로만 표시가 허용된다. 정보 기록 및 재생 장치(1)는 설정된 허용 표시 모드에 따라 4:3 TV 모니터로 강제적으로 화면 출력을 수행해야 한다. 본 실시예에 있어서는, 속성 정보의 기술이 생략될 수 있지만, 이러한 경우는 디폴트값인 "PanscanOrLetterbox"가 자동으로 설정된다. 또한, 첫 번째 재생 타이틀 엘리먼트 내에서 사용되는 주된(기본) 리소스의 저장 장소(FPTXML)(xml:base 속성 정보)는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE) 내에서 URI(uniform resource identifier)의 형태로 기술된다.
도 75a의 (a)에 도시한 바와 같이, 재생 목록(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI), 및 타이틀 정보(TTINF)가 존재한다. 도 75a의 (b)에 도시한 바와 같이, 타이틀 정보(TTINFO)는 첫 번째 재생 타이틀 엘리먼트 정보(FPTELE), 1개 이상의 타이틀 엘리먼트 정보(TTELEM), 및 재생 목록 애플리케이션 엘리먼트 정보(PLAELE)의 리스트로 구성되어 있다. 게다가, 도 75a의 (c)에 도시한 바와 같이, 타이틀 엘리먼트 정보(TTELEM) 내의 데이터 구조로서 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보를 포함함), 리소스 정보(RESRCI), 재생 순서 정보(PLSQI), 트랙 내비게이션 정보(TRNAVI), 및 스케쥴링된 제어 정보(SCHECI)가 기술되어 있다. 이제부터, 도 75a의 (c)에 도시하는 스케쥴링된 제어 정보(SCHECI)에 관해서 설명을 한다.
<ScheduledControlList(스케쥴링된 제어 리스트) 엘리먼트 및 스케쥴링된 제어>
ScheduledControlList 엘리먼트는 타이틀 재생에서의 이하의 스케쥴링된 제어를 기술한다.
Figure 112006062570134-PAT00124
지정된 시간에서의 타이틀 타임라인의 스케쥴링된 일시 정지
Figure 112006062570134-PAT00125
지정된 시간에서의 고급 애플리케이션에 대한 이벤트 발행
ScheduledControlList 엘리먼트 내에 기술되는 PauseAt 및 Event 엘리먼트의 타이틀 타임라인 내에서의 위치는 ScheduledControlList 엘리먼트 내의 문서 순서에 따라 단조적으로 증가되어야 한다.
이 위치들은 ScheduledControlList 엘리먼트 내의 다른 것들과 같아서는 안 된다.
유의할 점: 이벤트 발행이 스케쥴링되어 있더라도, 고급 애플리케이션은 기술된 시간 이후에 이벤트를 처리할 수 있는데, 그 이유는 스크립트 실행 시간이 보장되지 않기 때문이다.
보다 알기 쉬운 설명이 이하에 제공된다.
스케쥴링된 제어 정보(SCHECI)는 스케쥴링된 제어 리스트 엘리먼트로 구성되어 있다. 스케쥴링된 제어 리스트 엘리먼트 내에는 타이틀 재생 시의 하기의 스케쥴링된 제어에 관한 관리 정보가 기술되어 있다.
Figure 112006062570134-PAT00126
타이틀 타임라인(TMLE) 상의 지정된 시간에서의 스케쥴링된 일시 정지(일시 정지 처리)
Figure 112006062570134-PAT00127
지정된 시간에서의 고급 애플리케이션(ADAPL)에 대한 이벤트 실행 처리
스케쥴링된 제어 리스트 엘리먼트로 구성되는 스케쥴링된 제어 정보(SCHECI)는 도 75b의 (d)에 도시한 바와 같이 포즈-앳(pause-at) 엘리먼트(PAUSEL)와 이벤트 엘리먼트(EVNTEL)의 리스트로 구성되어 있다. 스케쥴링된 제어 리스트 엘리먼트 내에 기술되어 있고 타이틀 타임라인(TMLE)에 기초하여 시간 설정되는 포즈-앳 엘리먼트(PAUSEL)와 이벤트 엘리먼트(EVNTEL)는 각각의 포즈-앳 엘리먼트(PAUSEL)와 각각의 이벤트 엘리먼트(EVNTEL)에 의해 지정된 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)의 진행에 따른 순서에 따라 스케쥴링된 제어 리스트 엘리먼트 내의 선두 위치(맨 앞 부분의 위치)로부터 순차적으로 배치된다. 즉, 스케쥴링 된 제어 리스트 엘리먼트 내에서 맨 앞 부분의 위치로부터 순차적으로 기술되는 포즈-앳 엘리먼트(PAUSEL)와 이벤트 엘리먼트(EVNTEL) 각각에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)의 값은 배치 순서에 따라 순차적인 경과 시간의 증가를 나타낸다. 이와 같이 스케쥴링된 제어 리스트 엘리먼트 내에서 타이틀 타임라인(TMLE) 상에서의 시간 진행에 따라서 포즈-앳 엘리먼트(PAUSEL)와 이벤트 엘리먼트(EVNTEL)가 순차적으로 배치되어 있으면, 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 스케쥴링된 제어 리스트 엘리먼트 내에 기술된 각각의 엘리먼트의 배열 순서로 실행 처리하는 것만으로 타이틀 타임라인(TMLE) 상에서의 시간 진행에 따른 실행 처리를 수행할 수 있다. 그 결과, 재생 목록 관리자(PLMNG)의 스케쥴 관리 처리가 매우 용이하게 행해질 수 있다. 스케쥴링된 제어 리스트 엘리먼트 내에서 서로 다른 포즈-앳 엘리먼트(PAUSEL) 또는 서로 다른 이벤트 엘리먼트(EVNTEL)에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)는 서로 중복해서는 안 된다. 또한, 포즈-앳 엘리먼트(PAUSEL)에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)와 이벤트 엘리먼트(EVNTEL)에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)는 서로 중복해서는 안 된다. 그러한 이유는 예컨대 도 75b의 (d)에 도시하는 기술예에 있어서 포즈-앳 엘리먼트(PAUSEL #1)에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)의 값과 이벤트 엘리먼트(EVNTEL #1)에 의해 지정되는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)의 값이 일치한 경우에는, 도 28에 도시하는 재생 목록 관리자(PLMNG)가 포즈-앳(일시 정지) 처리와 고급 애플리케이션(ADAPL)에 대한 이벤트 실행 처리 중 어느 하나가 선택되어야 하는지를 결정할 수 없고, 재생 목록 관리자(PLMNG)의 처리가 실패한다.
본 실시예에 있어서, 고급 애플리케이션(ADAPL)의 실행 동안(재생 동안) 스크립트(SCRPT)를 기동시켜 복잡한 처리를 수행하는 경우가 있다. 예컨대, 사용자가 고급 애플리케이션(ADAPL)의 실행을 지시하면, 특정 시간이 경과한 뒤에만 실제의 실행을 시작하도록 스크립트(SCRPT)의 지연 시간을 설정할 수 있다. 따라서, 이벤트 엘리먼트(EVNTEL) 내의 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)에서 설정된 시간보다도 늦은 시간에 고급 애플리케이션(ADAPL)이 이벤트의 실행을 시작할 수도 있다.
<ScheduledControlList(스케쥴링된 제어 리스트) 엘리먼트>
ScheduledControlList 엘리먼트는 타이틀에 대한 스케쥴링된 제어 정보를 기술한다. 스케쥴링된 제어 정보는 타이틀 재생의 스케쥴링된 일시 정지 및 이벤트 발행을 정의한다.
ScheduledControlList 엘리먼트의 XML 신택스 표현:
<ScheduledControlList>
(PauseAt | Event) +
</ScheduledControlList>
ScheduledControlList 엘리먼트는 PauseAt 및/또는 Event 엘리먼트의 리스트로 이루어져 있다. PauseAt 엘리먼트는 타이틀 재생에서의 일시 정지의 시간을 기 술한다. Event 엘리먼트는 타이틀 재생에서의 이벤트 발행 시간을 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
스케쥴링된 제어 정보(SCHECI)는 타이틀의 재생에 있어서의 스케쥴링된 일시 정지 처리와 이벤트 실행의 타이밍을 정의하고 있다. 또한, 스케쥴링된 제어 정보(SCHECI)의 내용이 기술되어 있는 스케쥴링된 제어 리스트 엘리먼트는 포즈-앳 엘리먼트(PAUSEL) 또는 이벤트 엘리먼트(EVNTEL)의 리스트로 구성되어 있다. 포즈-앳 엘리먼트(PAUSEL) 내에는 타이틀의 재생 시에 있어서의 일시 정지 처리의 시간이 기술되어 있고, 이벤트 엘리먼트(EVNTEL) 내에는 타이틀의 재생 시에 있어서의 이벤트 실행 개시 시간이 기술되어 있다.
<PauseAt(포즈-앳) 엘리먼트>
PauseAt 엘리먼트는 타이틀 재생에서의 일시 정지 위치를 기술한다.
PauseAt 엘리먼트의 XML 신택스 표현:
<PauseAt
id = ID
titleTime = timeExpression
/>
PauseAt 엘리먼트는 titleTime 속성을 가져야 한다. titleTime 속성의 timeExpression 값은 타이틀 타임라인의 스케쥴링된 일시 정지 위치를 기술한다.
titleTime 속성
타이틀 타임라인 상에서의 일시 정지 위치를 기술한다. 이 값은 Datatypes 내에 정의된 timeExpression 값으로 기술되어야 한다. 일시 정지 위치가 P-EVOB 또는 S-EVOB에 대한 동기된 프리젠테이션 클립 엘리먼트의 어떤 유효 기간 내에 있는 경우, 일시 정지 위치는 P-EVOB(S-EVOB) 내의 비디오 스트림의 코딩된 프레임의 프리젠테이션 시작 시간(PTS)의 대응하는 값이어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 75b의 (e)에는 포즈-앳 엘리먼트(PAUSEL) 내의 데이터 구조가 도시되어 있다. 포즈-앳 엘리먼트(PAUSEL) 내에는 포즈-앳 엘리먼트의 ID 정보(PAUSID)(id 속성 정보)가 존재하고, 도 82에 도시한 바와 같이 API 명령에 의한 포즈-앳 엘리먼트(PAUSEL)의 지정이 용이하게 될 수 있다. 또한, 포즈-앳 엘리먼트(PAUSEL)는 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)(titleTime 속성 정보)를 포함하고 있다. 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)(titleTime 속성 정보)는 타이틀 타임라인(TMLE) 상의 일시 정지 처리 장소를 나타내고 있다. 이 정보의 값은 "HH:MM:SS:FF"(시간: 분: 초: 프레임 수(카운트 값))의 포맷으로 기술된다. 본 실시예에 따르면, 1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)에 속하는 재생/표시 객체에서, 도 53에 도시한 바와 같이, 대응하는 클립 엘리먼트에서의 타이틀 타임라인 상의 시작 시간(TTSTTM)(titleTimeBegin)의 타이밍과 고화질 비디오 객체 데이터(EVOB) 상의 시작 위치(VBSTTM)(cIipTimeBegin)의 타이밍이 일치하고 있다. 따라서, 상기한 정보에 기초하여, 타이틀 타임라인(TMLE) 상의 시간과 1차 고화질 비디오 객체 데이터(P-EVOB) 또는 2차 고화질 비디오 객체 데이터(S-EVOB) 내의 비디오 스트림 상에 설정되는 프리젠테이션 시작 시간(프리젠테이 션 시간 스탬프 값)(PTS)와의 사이의 관계(대응)이 도출될 수 있다. 그 결과, 도 75b의 (e)에서 지정된 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)(titleTime)에 의해 지정된 일시 정지 위치가 재생/표시 객체(고화질 비디오 객체(EVOB))의 유효 기간(VALPRD) 내에 지정되는 경우에는, 일시 정지 위치가 1차 고화질 비디오 객체 데이터(P-EVOB)(또는 2차 고화질 비디오 객체 데이터(S-EVOB)) 내에서의 비디오 스트림의 프리젠테이션 시작 시간(프리젠테이션 시간 스탬프 값)(PTS)의 대응하는 값에 연관된다. 도 28에 도시하는 내비게이션 관리자(NVMNG)의 재생 목록 관리자(PLMNG)는 상기한 관계를 이용하여, 포즈-앳 엘리먼트(PAUSEL) 내의 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)(titleTime 속성 정보)의 값을 프리젠테이션 시작 시간(프리젠테이션 시간 스탬프 값)(PTS)의 값으로 환산하고, 재생 목록 관리자(PLMNG)는 그 환산된 결과를 도 30에 도시하는 프리젠테이션 엔진(PRSEN)으로 전송할 수 있다. 도 30에 도시하는 디코더 엔진(DCDEN)은 프리젠테이션 시작 시간(프리젠테이션 시간 스탬프 값)(PTS)을 이용하여 디코딩 처리를 할 수 있고, 그에 의해 디코더 엔진(DCDEN)의 대응하는 처리가 용이하게 된다.
<Event 엘리먼트>
Event 엘리먼트는 타이틀 재생 시의 이벤트 발행 위치를 기술한다.
Event 엘리먼트의 XML 신택스 표현:
<Event
id = ID
titleTime = timeExpression
/>
Event 엘리먼트는 titleTime 속성을 가져야 한다. titleTime 속성의 Timecode는 타이틀 타임라인의 이벤트 발행 위치를 기술한다.
유의할 점: 고급 애플리케이션은 기술된 시간 이후에 이벤트를 처리할 수 있는 데, 그 이유는 스크립트 실행 시간이 보장되지 않기 때문이다.
(a) titleTime 속성
재생 목록 관리자가 재생 목록 관리자 이벤트를 발행하는, 타이틀 타임라인 상의 시간을 기술한다. 이 값은 timeExpression 값으로 기술되어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 도 75b의 (f)에 도시하는 이벤트 엘리먼트(EVNTEL) 내의 데이터 구조의 설명을 한다. 이벤트 엘리먼트(EVNTEL)의 경우에, 이벤트 엘리먼트의 ID 정보(EVNTID)(id 속성 정보)는 마찬가지로 이벤트 엘리먼트(EVNTEL) 태그 내에서 맨 처음에 기술되어 있고, 도 82에 도시한 바와 같이 API 명령에 기초한 이벤트 엘리먼트(EVNTEL)의 참조가 용이하게 된다 이벤트 엘리먼트(EVNTEL) 내의 타이틀 타임라인 상의 지정 위치(시간) 정보(TTTIME)(titleTime 속성 정보)는, 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)가 재생 목록 관리자이벤트(재생 목록 관리자가 PlaylistManagerEvent를 발행하는 타이틀 타임라인 상의 시간을 기술함)를 실행하는 때인 타이틀 타임라인(TMLE) 상의 시간을 나타내고 있다. 이 값은 "HH:MM:SS:FF"(시간: 분: 초: 프레임 수)의 포맷으로 설정된다.
이제부터, 도 75b의 (e)에 도시하는 데이터 구조를 갖는 포즈-앳 엘리먼트(PAUSEL)의 기능 및 사용예에 관해서, 도 76a 및 도 76b를 참조하여 설명을 한다. 본 실시예에 있어서, 도 75b의 (d)에 도시하는 스케쥴링된 제어 정보(SCHECI)가 존재하지 않는 경우, 사용자에게 표시되고 있는 1차 고화질 비디오 객체 데이터(P-EVOB) 등의 재생/표시 객체에 대한 타이틀 타임라인(TMLE) 상에서의 시간 진행을 정지하려고 한 경우, API 명령을 사용하여 일시 정지를 하려고 시도하여도 API 명령 처리 시에 지연 시간이 발생하고, 프레임(필드) 단위의 정밀도가 좋은 일시 정지 위치를 지정하는 일이 어렵다. 이와 반대로, 본 실시예에 있어서는, 스케쥴링된 제어 정보(SCHECI)를 설정하는 것 및 포즈-앳 엘리먼트(PAUSEL)를 설정하는 것에 의해 동화상의 필드(프레임) 단위의 정확한 일시 정지 위치를 지정할 수 있게 된다. 또한, 고급 자막(ADSBT), 고급 애플리케이션(ADAPL), 재생 목록 관련 고급 애플리케이션(PLAPL), 또는 타이틀 관련 고급 애플리케이션(TTAPL)의 표시 타이밍에 대해 일반적으로 틱 클럭(페이지 클럭, 애플리케이션 클럭)을 사용하는 경우가 많다. 이 경우, 틱 클럭이 타이틀 타임라인(TMLE) 상에서의 진행에 대응하는 미디어 클럭과는 독립적으로 움직이기 때문에, 애플리케이션으로부터 타이틀 타임라인(TMLE)에 대한 일시 정지 지시가 설정되기 어렵다는 문제점이 있었다. 반면에, 스케쥴링된 제어 정보(SCHECI) 내의 포즈-앳 엘리먼트(PAUSEL)를 설정하는 것에 의해 애플리케이션의 표시 타이밍과 타이틀 타임라인(TMLE)의 표시 타이밍 사이의 동기를 달성할 수 있다. 포즈-앳 엘리먼트를 이용하는 사용예가 도 76a의 (a)에 도시되어 있다. 예컨대, 도 76a의 (a)에 있어서의 타이틀 타임라인(TMLE) 상의 시간 "T0"에 있어서 도 76b의 (b)에 도시한 바와 같이, 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)가 메인 타이틀(31)로서 화면에 표시되어 있는 경우를 생각해보다. 컨텐츠 제공자가 메인 타이틀(31) 내의 특정 프레임(특정 필드)에서 메인 타이틀(31)의 표시를 일시 정지하고(정지 화상 상태를 설정하고), 그 일시 정지된 화면의 설명을 제공하는 데 애니메이션을 이용하는 경우가 있다. 이 경우에는, 타이틀 타임라인(TMLE) 상에서의 시간 "T1"에서 메인 타이틀(31)을 일시 정지시켜 정지 화상 상태로 하고, 이와 동시에 도 76b의 (c)에 도시한 바와 같이 해설용 애니메이션(ANIM #1)을 표시하며, 메인 타이틀(31)의 정지 화상 상태를 유지하면서 영상 해설용 애니메이션(ANIM #1)으로 하여금 정지 상태의 메인 비디오(MANVD)의 프레임 내용의 해설을 제공할 수 있게 해준다. 또한, 도 76a의 (a)에 도시한 바와 같이, 시간 "T2"와 시간 "T3"에서도, 마찬가지로 일시적으로 메인 타이틀(31)이 정지될 수 있고(정지 화상 상태로 되고), 동화상 해설용 애니메이션(ANIM #2, #3)이 음성에 의한 해설을 제공하는 동작을 할 수도 있다. 이러한 동작을 가능하게 해주는 타이틀 타임라인(TMLE) 상의 매핑 방법으로서는, 도 76a의 (a)에 도시하는 방법이 채용될 수 있다. 즉, 타이틀 타임라인(TMLE)의 진행에 따라 1차 비디오 세트(PRMVS)의 화면이 1차 고화질 비디오 객체 데이터(P-EVOB)를 사용하여 표시되고, 타이틀 타임라인(TMLE) 상의 시간 "Tl"보다도 약간 선행하는 시간 "Tl-ΔT"에서 고급 애플리케이션(ADAPL)이 활성화되고(실행되기 시작하고), 고급 애플리케이션(ADAPL #1) 내의 마크업(MRKUP)을 사용하여 1차 고화질 비디오 객체 데이터(P-EVOB)의 영상 해설용 애니메이션(ANIM #1)이 표시된다. 영상 해설용 애니메이 션(ANIM #1)의 재생/표시가 완료되면, 스크립트(SCRPT)가 동작하기 시작하고, 그에 의해 타이틀 타임라인(TMLE) 상에서의 시간 진행을 일시 정지로부터 정상 재생으로 전환하는 API 명령(NPLCMD)을 발행한다. 그 결과, 타이틀 타임라인(TMLE) 상에서의 시간 진행이 정상 재생으로 복귀하고, 따라서 시간 진행(카운트-업)이 통상과 같이 재개된다. 또한, 마찬가지로, 고급 애플리케이션(ADAPL #2)도 시간 "T2-ΔTt"에서 활성화된다(실행되기 시작한다). 영상 해설용 애니메이션(ANIM #2)의 재생/표시의 종료 직후에 스크립트(SCRPT)가 동작하기 시작하고, 타이틀 타임라인(TMLE) 상에서의 정상 재생을 허용하는 API 명령(NPLCMD)이 발행되어, 타이틀 타임라인(TMLE) 상에서의 시간 진행을 재개시킨다.
도 77a 및 도 77b는 도 75b의 (f)에 도시한 구조를 갖는 이벤트 엘리먼트(EVNTEL)의 기능의 특징과 구체적인 사용예를 나타낸 것이다. 이벤트 엘리먼트(EVNTEL)의 기본적인 특징은, 도 76b의 (d)에 도시한 포즈-앳 엘리먼트 기능의 특징과 같이, 스케쥴링된 제어 정보(SCHECI) 내의 이벤트 엘리먼트(EVNTEL)에 의해 각종 애플리케이션을 구동하는 틱 클럭이 타이틀 타임라인(TMLE)과 동기되어 있다는 점과, API 명령 처리 시의 지연에 의한 타이밍 어긋남의 대책으로서 동화상의 프레임(필드) 단위의 정밀도로 이벤트 시작 시간이 설정될 수 있다는 점에 있다. 본 실시예에 있어서, 도 l6에 도시한 바와 같이, 자막이나 텔롭 문자(39)가 고급 자막(ADSBT)을 사용하여 표시될 수 있다. 고급 자막(ADSBT)을 이용하여 중첩된 자막이나 텔롭문자(39)를 표시하는 방법으로서, 고급 자막의 마크업(MRKUPS)을 이용하여 표현을 할 수 있다. 그러나 본 실시예의 다른 응용예로서, 도 77a 및 도 77b 에 도시하는 이벤트 엘리먼트(EVNTEL)를 이용하여 자막을 표시하는 일에 의해, 중첩된 자막의 보다 유연한 표시를 수행할 수 있다. 구체적인 중첩된 자막을 표시하는 경우의 타이틀 타임라인(TMLE) 상에서의 매핑 방법은 도 77a의 (a)에 도시되어 있다. 1차 비디오 세트(PRMVS)를 표시하는 1차 고화질 비디오 객체 데이터(P-EVOB)의 타이틀 타임라인(TMLE) 상에서의 표시 진행에 따라 고급 자막(ADSBT)이 배치되고, 각각의 이벤트 실행 타이밍(EVNTPT)에 따라 고급 자막(ADSBT)의 표시가 시작된다(전환된다). 즉, 타이틀 타임라인(TMLE) 상에서의 시간 "T1"로부터 "T2"까지의 기간 동안에 고급 자막(ADSBT #1)이 중첩된 자막으로서 표시되고, 다음에 타이틀 타임라인(TMLE) 상에서의 시간 "T2"로부터 "T3"까지의 기간 내에 고급 자막(ADSBT #2)이 중첩된 자막으로서 표시된다. 도 77b의 (c)에는 본 실시예에 있어서의 고급 자막의 폰트 파일(FONTS) 내의 데이터 구조가 도시되어 있다. 이 파일 내의 선두 위치에 고급 자막 일반 정보(SBT_GI)가 존재하고, 이 정보 내에는 폰트 파일 ID 정보(FTFLID), 폰트의 언어 속성 정보(FTLANG)와 자막 라인 수 정보(FTLN_Ns)가 기록되어 있다. 각각의 자막 검색 포인터(FT_SRPT) 내에는 각각의 자막 정보의 시작 어드레스(FTLN_SA)가 상대 바이트 수의 형태로 기술됨과 동시에 각각의 자막 정보의 데이터 크기(FTLN_SZ)가 바이트 수의 형태로 기술된다. 또한, 자막 정보(FONTDT) 내에는 각각의 라인에 대한 자막 정보(FTLNDT)가 기술된다.
도 78은 도 77a 및 도 77b에 도시되는 예에 기초하여 타이틀 타임라인(TMLE)과 동기하여 고급 자막(ADSBT)을 표시하는 방법을 설명한 플로우차트를 나타낸 것이다. 이 플로우차트는 재생 목록 관리자(PLMNG)(도 28 참조) 내에서 처리된다. 우선 먼저, 고급 자막(ADSBT)의 폰트 파일(FONT)을 파일 캐쉬(FLCCH) 내에 일시적으로 저장한다(단계 S12l). 그 다음에, 표시 대상 자막의 라인 수 카운터를 i = "O"로서 초기화한다(단계 S122). 그 후, 고급 자막(ADSBT)의 유효 기간(VALPRD) 내에 타이틀 타임라인(TMLE) 상의 시간이 존재하는지 여부가 판단된다(단계 S123). 고급 자막(ADSBT)의 유효 기간(VALPRD) 내에 타이틀 타임라인(TMLE) 상의 시간이 존재하는 경우에는, 타이틀 타임라인(TMLE) 상에서의 시간이 이벤트 엘리먼트(EVNTEL)에 의해 지정된 시간(TTTIME)(titleTime)에 도달하였는지 여부가 판단된다(단계 S126). 단계(S126)에서 타이틀 타임라인(TMLE) 상의 시간이 이벤트 엘리먼트(EVNTEL)에 의해 지정된 시간(TTTIME)(titleTime)에 도달하지 않은 경우, 지정된 시간에 도달할 때까지 제어가 대기한다. 게다가, 타이틀 타임라인(TMLE) 상에서의 시간이 이벤트 엘리먼트(EVNTEL)에 의해 지정된 시간(TTTIME)(titleTime)에 도달한 경우에는, 표시하여야 할 자막 정보(FTLNDT)가 고급 자막 플레이어(ASBPL)(도 30 참조)에 이미 입력되어 있는지 여부가 판단된다(단계 S127). 입력되어 있지 않은 경우에는, 제어는 단계(S129)로 점프한다. 또한, 입력되어 있는 경우에는, 표시하여야 할 자막 정보(FTLNDT)가 AV 렌더러(AVRND)(도 30 참조)로 출력된다(단계 S128). 다음에, 라인 수 카운터 "i"의 값에 따라서 파일 캐쉬(FLCCH) 내에 일시 저장된 고급 자막의 폰트 파일(FONTS) 내의 선두 위치로부터 FTLA_SA #i만큼 천이된 위치로부터 FTLN_SA #i의 크기의 데이터가 판독되고, 이 판독된 데이터는 고급 자막 플레이어(ASBPL)로 전송된다(단계 S129). 이어서, 라인 수 카운터 "i"의 값이 "1"만큼씩 증분된다(단계 S130}. 그 후, 제어는 단계(S123)로 되돌아 간다. 단계(S123)에서 타이틀 타임라인(TMLE) 상의 시간이 고급 자막(ADSBT)의 유효 기간(VALPRD)에서 벗어나 있는 경우에는, 타이틀 타임라인(TMLE) 상의 시간이 고급 자막(ADSBT)의 유효 기간(VALPRD)의 뒤에 있는지 여부가 판단된다(단계 S124). 뒤에 있지 않은 경우에는, 제어는 단계(S123)로 되돌아간다. 뒤에 있는 경우에는, 파일 캐쉬부터의 데이터 삭제(FLCREM)가 실행된다(단계 S125).
도 79a의 (a)에 도시한 바와 같이, 재생 목록(PLLST) 내에는 구조 정보(CONFGI), 미디어 속성 정보(MDATRI) 및 타이틀 정보(TTINF0)가 기술되어 있다. 도 79a의 (a)에 도시하는 미디어 속성 정보(MDATRI)에는, 오디오 데이터의 속성을 나타내는 오디오 속성 항목 엘리먼트(AABlTM), 비디오 데이터의 속성 정보를 나타내는 비디오 속성 항목 엘리먼트(VABITM), 및 서브-픽처 데이터의 속성을 나타내는 서브-픽처 속성 항목 엘리먼트(SPAITM)가 기록될 수 있다. 도 79a의 (b)에 도시한 도면에서는 각각의 데이터의 속성 정보에 각각의 항목 엘리먼트가 기술되어 있지만, 본 실시예는 그에 한정되지 않고, 재생 목록(PLLST) 내에 지정된 각각이 재생/표시 객체의 서로 다른 속성 정보에 따라 복수의 속성 항목 엘리먼트가 기술되어 있다. 도 59c의 (c) 부터 (g)에 도시한 바와 같이, 메인 비디오 엘리먼트(MANVD), 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD), 및 서브 오디오 엘리먼트(SUBAD)에 관한 속성 정보에 대하여 도 79a의 (a)에 도시하는 미디어 속성 정보(MDATRI) 내의 각각의 속성 항목 엘리먼트가 지정되어 있는 경우, 각각의 속성 정보가 공유될 수 있다. 재생 목록(PLLST) 내에서 정의되는 각종 재생/표시 객체의 각각의 속성 정보가 미디어 속성 정보(MDATRI) 내 에 통합하여 기술되고, 타이틀 정보(TTINFO) 내의 객체 매핑 정보(OBMAPI)로부터 미디어 속성 정보(MDATRI) 내의 정보가 참조(지정)되는 경우에, 타이틀 정보(TTINF0) 내의 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보를 포함함)에 있어서의 공통적인 미디어 속성 정보에 관한 중복 기술을 피할 수 있다. 그 결과, 객체 매핑 정보(OBMAPI)의 기술된 데이터의 양 및 재생 목록(PLLST) 내에 기재되는 총 정보량을 감소시킬 수 있다. 그 결과, 재생 목록 관리자(PLMNG)(도 28 참조)의 처리가 간소화될 수 있다.
<MediaAttribute(미디어 속성) 엘리먼트 및 미디어 속성 정보>
Title 엘리먼트 내의 MediaAttributeList 엘리먼트는 미디어 속성 엘리먼트라고 불리는 엘리먼트의 리스트를 포함한다.
MediaAttribute 엘리먼트는 기본 스트림에 대한 미디어 속성 정보를 기술한다. 필수적인 속성은 'codec'이고, 나머지 속성은 선택적이다. 미디어 속성값이 기술되어 있는 경우, 미디어 속성값은 EVOB_VTS_ATR 또는 EVOB_ATR 내의 대응하는 값과 동일해야 한다.
미디어 속성 엘리먼트는 mediaAttr 속성으로 트랙 번호 할당 엘리먼트에 의해 참조된다. 미디어 속성 엘리먼트는 index 속성에 의해 기술되는 미디어 속성 인덱스를 갖는다. 미디어 속성 인덱스는 미디어 속성 리스트 엘리먼트 내의 각각의 유형의 미디어 속성에 대해 독자적인 것이어야 한다. 이는 예를 들어 AudioAttributeItem 및 VideoAttributeItem이 특히 1에 대해 동일한 미디어 속성 인덱스를 가질 수 있다. mediaAttr 속성은 생략될 수 있다. 디폴트값은 '1'이다.
보다 알기 쉬운 설명이 이하에 제공된다.
미디어 속성 정보(MDATRl)는 속성 항목 엘리먼트라고 불리는 각각의 엘리먼트의 리스트로 구성되어 있다. 미디어 속성 항목 엘리먼트는 오디오 데이터의 속성 정보를 나타내는 오디오 속성 항목 엘리먼트(AABITM), 비디오 데이터의 속성 정보를 나타내는 비디오 속성 항목 엘리먼트(VABITM), 및 서브-픽처의 속성 정보를 나타내는 서브-픽처속성 항목 엘리먼트(SPAITM) 중 어느 하나에 속한다. 또한, 각각의 미디어 속성 항목 엘리먼트는 고화질 비디오 객체 데이터(EVOB)를 구성하는 각각의 기본 스트림에 관한 미디어 속성 정보(MDATRI)를 나타낸다고 말할 수 있다. 미디어 속성 항목 엘리먼트 내에 기술되어야만 하는 속성 정보는 데이터 코드 정보 또는 압축 코드 정보이고, 기타의 속성 정보에 대한 기술이 미디어 속성 항목 엘리먼트 내에서 생략될 수 있다. 도 12에 도시한 고화질 비디오 객체 정보(EVOBI), 또는 2차 비디오 세트의 타임 맵(STMAP) 내의 속성 정보 기록 영역 내에는 EVOB_VTS_ATR 또는 EVOB_ATR의 정보가 기술되어 있다. 미디어 속성 항목 엘리먼트 내의 각각의 속성 정보의 값은 EVOB_VTS_ATR 또는 EVOB_ATR 내에 설정된 정보 내용과 일치해야 한다. 그 결과, 재생 목록(PLLST) 내의 미디어 속성 정보(MDATRI), 고화질 비디오 객체 정보(EVOBI) 내에 기술된 미디어 속성 정보(MDATRI), 및 2차 비디오 세트의 타임 맵(STMAP) 내에 기술된 미디어 속성 정보(MDATRI)와의 사이의 관계가 통일성을 가질 수 있고, 도 14에 도시하는 고급 컨텐츠 재생 유닛(ADVPL) 내의 프리젠테이션 엔진(PRSEN)에서의 재생/제어 처리의 안정성을 확보할 수 있게 된다. 상술한 바와 같이, 트랙 번호 할당 정보(트랙 번호 설정 정보) 내의 메인 비디오 엘리먼트(MANVD), 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD)와 서브 오디오 엘리먼트(SUBAD)로부터 도 79b의 (c) 내지 (e)의 각각의 미디어 속성 항목 엘리먼트가 참조(지정)된다. 이제부터 이 참조(지정) 방법에 관하여 설명한다. 도 79b의 (c) 내지 (e)에 도시한 바와 같이, 모든 미디어 항목 엘리먼트, 즉 오디오 속성 항목 엘리먼트(AABITM), 비디오 속성 항목 엘리먼트(VABITM), 및 서브-픽처 속성 항목 엘리먼트(SPAIPM)에는 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)가 존재한다. 또한, 도 59c의 (c) 내지 (g)에 도시한 바와 같이, 트랙 번호 할당 정보(객체 매핑 정보(OBMAPI)) 내의 메인 비디오 엘리먼트(MANVD), 및 메인 오디오 엘리먼트(MANAD), 자막 엘리먼트(SBTELE), 서브 비디오 엘리먼트(SUBVD), 서브 오디오 엘리먼트(SUBAD) 내에는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트 인덱스 번호(MDATNM)(mediaAttr 속성 정보)의 기술 섹션이 똑같이 존재하고 있다. 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)(mediaAttr 속성 정보)는 대응하는 미디어 속성 항목 엘리먼트를 참조하기 위해 도 79b의 (c) 내지 (e)에 도시하는 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)를 지정하는 데 사용된다. 연관성을 보증하는 조건으로서, 미디어 속성 정보(MDATRI)(미디어 속성 리스트 엘리먼트) 내의 서로 다른 미디어 속성의 유형(오디오 속성, 비디오 속성, 서브-픽처 속성의 각각의 유형) 각각에 따라 독자적으로(중복하지 않고) 미디어 인덱스 번호 정보(INDEX)(index 속성 정보의 값)가 설정되어야 한다. 본 실시예에 있어서는, 오디오 속성 항목 엘리먼트(AABITM) 내의 미디어 인덱스 번호 정보(INDEX)(index 속성 정보의 값) 및 비디오 속성 항목 엘리먼트(VABITM) 내의 미디어 인덱스 번호 정보(INDEX)(index 속성 정보의 값)이 동일한 값 "1"로 똑같이 설정될 수 있다. 또한, 각각의 미디어 속성 항목 엘리먼트 내에서 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)의 기술이 생략될 수 있다. 이 경우에는, 디폴트값인 "1"이 자동으로 설정된다.
<AudioAttributeItem(오디오 속성 항목) 엘리먼트>
AudioAttributeItem 엘리먼트는 메인 오디오 스트림 및 서브 오디오 스트림의 속성을 기술한다. 이 속성값은 EVOB_VTS_ATR 또는 EVOB_ATR 내의 대응하는 값과 동일해야 한다.
AudioAttributeItem 엘리먼트의 XML 신택스 표현:
<AudioAttributeItem
index = positiveInteger
codec = string
sampleRate = positiveInteger
sampleDepth = positiveInteger
channels = positiveInteger
bitrate = positiveInteger
/>
(a) index 속성
속성에 대한 미디어 인덱스를 기술한다.
(b) codec 속성
코덱을 기술한다. 이 값은 LPCM, DD+, DTS-HD, MLP, MPEG, 또는 AC-3이어야 한다. AC-3는 상호 연동 컨텐츠(Interoperable Content)에 대해서만 기술될 수 있다.
(c) sampleRate 속성
샘플 레이트를 기술한다. 이는 킬로헤르쯔의 수로서 표현된다. 이 속성은 생략될 수 있다.
(d) sampleDepth 속성
샘플 깊이를 기술한다. 이 속성은 생략될 수 있다.
(e) channels 속성
오디오 채널의 번호를 양의 정수로 기술한다. 이는 EVOB_AMST_ATRT에 기술된 동일 값이어야 한다. "0.1ch"은 "1ch"로서 정의된다(예를 들어, 5.1ch의 경우, '6'(6ch)를 입력한다). 이 속성은 생략될 수 있다.
(f) bitrate 속성
비트 레이트를 기술한다. 이는 초당 킬로비트의 수로서 표현된다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 기술된다.
이제부터, 도 79b의 (c)에 도시하는 오디오 속성 항목 엘리먼트(AABITM) 내의 데이터 구조에 관하여 설명을 한다. 오디오 속성 항목 엘리먼트(AABITM)는 메인 오디오 스트림(MANAD)과 서브 오디오 스트림(SUBAD)에 관한 속성 정보에 관해서 기술되어 있다. 상술한 바와 같이, EVOB_VTS_ATR 또는 EVOB_ATR에서 설정된 내용과 오디오 속성 항목 엘리먼트(AABITM) 내에 기술되는 각각의 속성 정보의 값은 일치해야 한다. 상술한 바와 같이, 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)는 도 59c의 (d) 및 (g)에 도시한 바와 같이 메인 오디오 엘리먼트(MANAD)와 서브 오디오 엘리먼트(SUBAD)에 의해 참조된다. 다음에, 오디오 압축 코드 정보(ADCDC)(codex)의 값으로서, 본 실시예에서는 "LPCM(선형 PCM)", "DD+", "DTS-HD", "MLP", "MPEG" 또는 "AC-3"가 선택될 수 있다. 특히, "AC-3"는 상호 연동 컨텐츠에 대하여만 사용된다. 게다가, 오디오 스트림의 샘플 주파수(ADSPRT)(sampleRate 속성 정보)는 오디오 스트림의 샘플 레이트를 나타내며, 이 속성 정보의 기재는 생략될 수 있다. 게다가, 샘플 깊이 정보 또는 양자화 비트 수(SPDPT)(sampleDepth 속성 정보)는 샘플 깊이 정보를 나타내고, 이 속성 정보의 기재는 생략될 수 있다. 게다가, 오디오 채널 수 정보(ADCLN)(channels 속성 정보)는 오디오 채널 수를 나타내고, 그의 값은 양의 정수의 형태로 기술된다. 상술한 바와 같이, 고화질 비디오 객체 정보(EVOBI) 또는 2차 비디오 세트의 타임 맵 내의 속성 정보 기록 영역 내에 존재하는 EVOB_AMST_ATRT에 대해 설정된 내용과 오디오 채널 수 정보(ADCNL)(channels 속성 정보)의 값이 일치해야만 한다. 오디오 채널 수(ADCNL)가 소수 부분 숫자를 갖는 경우에는, 이 속성 정보의 값은 소수점 이하를 반올림한 정수의 형태로 기술해야 한다. 예컨대, 5.1 채널의 경우에는, 소수점 이하를 반올림하여 오디오 채널 수 정보(ADCNL)의 값으로서 "6"이 설정된다. 또한, 이 속성 정보의 기술이 생략될 수도 있다. 게다가, 데이터 비트 레이트(데 이터 전송 레이트) 정보(DTBTRT)를 나타내는 BITRATE 속성 정보의 기술이 오디오 속성 항목 엘리먼트(AABITM) 내에서 생략될 수도 있다.
<VideoAttributeItem(비디오 속성 항목) 엘리먼트>
VideoAttributeItem 엘리먼트는 메인 비디오 스트림 및 서브 비디오 스트림의 속성을 기술한다. 이 속성값은 EVOB_VTS_ATR 또는 EVOB_ATR 내의 대응하는 값과 동일해야 한다.
VideoAttributeItem 엘리먼트의 XML 신택스 표현:
<VideoAttributeItem
index = positiveInteger
codec = string
sampleAspectRatio = (16:9 | 14:3)
horizontalResolution = positiveInteger
verticalResolution = positiveInteger
encodedFrameRate = positiveInteger
sourceFrameRate = positiveInteger
bitrate = positiveInteger
activeAreaX1 = nonnegativeInteger
activeAreaY1 = nonnegativeInteger
activeAreaX2 = nonnegativeInteger
activeAreaY2 = nonnegativeInteger
/>
(a) index 속성
속성에 대한 미디어 인덱스를 기술한다.
(b) codec 속성
코덱을 기술한다. 이 값은 MPEG-2, VC-1, AVC 또는 MPEG-1이어야 한다. MPEG-1은 상호 연동 컨텐츠에 대해서만 기술될 수 있다.
(c) sampleAspectRatio 속성
인코딩된 샘플, 즉 "픽셀"의 형상을 기술한다. 이 속성은 생략될 수 있다.
(d) horizontalResolution 속성
디코딩으로부터 발생될 수 있는 픽셀의 수가 아니라 인코딩된 수평 샘플의 수를 기술한다. 이 속성은 생략될 수 있다.
(e) verticalResolution 속성
디코딩으로부터 발생될 수 있는 픽셀의 수가 아니라 인코딩된 수직 샘플의 수를 기술한다. 이 속성은 생략될 수 있다.
(f) encodedFrameRate 속성
필드가 아니라 프레임 단위로(즉, 60개 필드가 아니라 30개 인터레이스된 프레임) 표현되는 인코딩된 프레임 레이트를 기술한다. 이 속성은 생략될 수 있다.
(g) sourceFrameRate 속성
캡처된 소스 컨텐츠의 대략적인 프레임 레이트를 기술한다. 예를 들어, 영화는 일반적으로 "24"를 나타내지만, 23.976 Hz의 실제 비디오 레이트를 가지며, 29.970 Hz로 반복 필드 플래그를 갖게 인코딩될 수 있다. 이 속성은 생략될 수 있다.
(h) bitrate 속성
각각의 플레이어의 이용가능한 네트워크 대역폭에 기초하여 이용가능한 서로 다른 스트림 간의 애플리케이션 선택을 가능하게 해주기에 적합한 대략적인 평균 비트 레이트를 기술한다. 이는 초당 킬로비트의 수로 표현된다. 이 속성은 생략될 수 있다.
(i) activeAreaX1, activeAreaY1, activeAreaX2, activeAreaY2 속성
단일 컬러가 영상으로 채워지지 않은 인코딩된 영역을 채우는 경우에 인코딩된 프레임 내의 활성 영상 영역을 기술한다. 활성 영상 직사각형은 전체 화면 표시 좌표에 기초하여 지정된다. 이 속성은 생략될 수 있다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 도 79b의 (d)에 도시하는 비디오 속성 항목 엘리먼트(VABITM) 내의 데이터 구조에 관해서 설명을 한다. 비디오 속성 항목 엘리먼트(VABITM)는 메인 비디오 스트림(MANVD)과 서브 비디오 스트림(SUBVD)의 속성 정보에 관해서 기술되어 있다. 상술한 바와 같이, EVOB_VTS_ATR 또는 EVOB_ATR 내에서 설정된 내용과 비디오 속성 항목 엘리먼트(VABITM) 내의 각각의 속성 정보에 설정되는 값이 일치해야 한다. 비디오 속성 항목 엘리먼트(VABITM) 내의 미디어 인덱스 번호 정보(INDEX)(index 속성 정보의 값)은 도 59c의 (c) 또는 (f)에 기술된 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)(mediaAttr 속성 정보의 값)과 일치하고, 메인 비디오 엘리먼트(MANVD) 및 서브 비디오 엘리먼트(SUBVD)에 의해 참조(지정)된다. 게다가, 비디오의 압축 코드 정보(VDCDC)를 나타내는 코덱 속성 정보의 값으로서는, "MPEG-2", "VC-1", "AVC" 또는 "MPEG-1" 중 어느 하나가 선택될 수 있다. MPEG-1은 상호 연동 컨텐츠에 대하여만 사용된다. 또한, 종횡비 정보(ASPRT)(sampIeAspectRatio 속성 정보)는 사용자에게 표시되는 인코딩된 화면 또는 픽셀의 형상(종횡비)을 나타내고 있다. 종횡비 정보(ASPRT)가 취할 수 있는 값으로서, 표준 화면 크기/화면 형상을 나타내는 "4:3" 및 와이드 화면의 형상을 나타내는 "I6:9" 중 어느 하나가 설정된다. 비디오 속성 항목 엘리먼트(VABlTM) 내에서 종횡비 정보(ASPRT)의 기술이 생략될 수 있다. 이어서, 수평 해상도 속성 정보(HZTRL)(horizontalResoIution 속성 정보)는 인코딩된 영상의 수평 방향에서의 샘플 수(화소 수)를 나타내고 있다. 이 값은 디코딩에 의해 작성될 수 있는 픽셀의 수를 나타내지 않는다. HZTRL 이후에 기술되어 있는 수직 해상도속성 정보(VTCRL)(verticalResolution 속성 정보)는 인코딩된 영상의 수직 방향의 샘플 수(화소 수)를 나타내고 있다. 이 값은 디코딩의 결과 얻어질 수 있는 픽셀 수를 나타내지 않는다. 수평 해상도 속성 정보(HZTRL)와 수직 해상도 속성 정보(VTCRL)에 관한 정보의 기술은 생략될 수 있다. 또한, encodedFrameRate 속성 정보는 사용자에 대한 표시 시의 프레임 레이트 속성 정보(ENFRRT)를 나타내고 있다. 이 정보는 인코딩된 프레임 레이트를 나타내며, 그것은 프레임의 수에 의해 표현되며 필드의 수에 의해 표시되지 않는다. 예컨대, NTSC에서의 인터레이스 표시 모드에서는, 1초에 60개 필드가 존재하고, 이는 30개 프레임에 대응한다. 이와 같이 인터레이스 표시 모드의 경우에는 필드의 수와 프레임의 수가 서로 다르지만, 사용자에 대한 표시 시의 프레임 레이트 속성 정보(ENFRRT)는 필드의 수보다는 프레임에 있어서의 프레임 레이트를 나타내고 있다. 또한, 사용자에 대한 표시 시의 프레임 레이트 속성 정보(ENFRRT)의 기술은 생략될 수 있다. 다음에, 기술되는 소스 프레임 레이트 속성 정보(SOFRRT)(sourceFrameRate 속성 정보)는 가져온 소스 컨텐츠의 "대략적인" 프레임 레이트를 나타낸다. 즉, 영화관에서 표시되는 영상 필름의 소스 프레임 레이트는 "24"로서 표시되지만, 실제의 비디오 레이트는 23.976 Hz이다. 또한, 그 영화관에서 표시되는 영상 필름은 29.970 Hz로 반복 필드 플래그를 사용하여 인코딩될 수 있다. 본 실시예에 있어서, 소스 프레임 레이트 속성 정보(SOFRRT)의 값으로서, "23.976" 또는 "29.970"의 값을 기술하지 않고, 대략적인 프레임 레이트로서의 "24" 또는 "30"의 값이 기술된다. 또한, 이 정보의 기술도 생략될 수 있다. 본 실시예에서는, 도 67 및 도 68에 도시한 바와 같이, 고급 컨텐츠 재생 유닛(ADVPL)을 포함하는 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경에 대응하는 네트워크 대역폭에 기초하여, 복수의 네트워크 소스로부터 적정한 네트워크 소스가 선택되고 그 중 한 네트워크로 전송될 수 있다. 데이터 비트 레이트(데이터 전송 레이트) 정보(DTBTRT)(bitrate 속성 정보)는 각각의 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경(네트워크 대역폭)에 따라 선택되는 서로 다른 재생/표시 객체 스트림이 전송되는 경우의 각각의 비트 레이트의 평균값에 대한 근사값을 나타내고 있다. 이제부터, 도 67에 도시하는 예를 참조하여 상기 값(데이터 비트 레이트 정보(DTBTRT)(bitrate 속성 정보))에 관 해서 설명을 한다. 재생 목록(PLLST) 내의 네트워크 소스 엘리먼트(NTSELE)에는, 각각의 네트워크 처리용량에 대응하는 src 속성 정보(리소스의 저장 장소(경로) 및 파일 이름)이 기술된다. 네트워크 소스 엘리먼트(NTSELE)의 리스트를 활용하는 것에 의해 개개의 네트워크 환경에서의 네트워크 처리용량에 대응하는 최적의 객체 파일을 선택할 수 있다. 예컨대, 전화 회선을 이용하는 모뎀 통신의 경우에는, 56 Kbps에 불과한 네트워크 처리용량만이 얻어질 수 있다. 이 경우에는, 재생/표시 객체 스트림이 기록되어 있는 파일로서 S-EVOB_LD.EVO가 네트워크 환경에 최적인 객체 파일이 된다. 또한, 광 통신 등을 이용하는 네트워크 환경의 경우에는, 네트워크 처리용량으로서 1 Mbps가 보장될 수 있다. 이러한 네트워크 처리용량이 높은 네트워크 환경을 갖는 사용자에 대해서는 고선명 영상 정보를 가지고 있는 E-EVOB_HD.EVO 파일의 데이터 전송이 적절하다. 이와 같이 네트워크 환경에 따라 선택되는 최적의 소스가 달라지고, 1 Mbps와 56 Kbps에 대한 평균값의 근사값은 (1000 + 56) ÷ 2 = 528 ≠ 500이 된다. 따라서, "500"의 값이 소스 프레임 레이트 속성 정보(SOFRRT) 내에 기술된다. 상기 설명한 바와 같이, 소스 프레임 레이트 속성 정보(SOFRRT)의 값은 Kbit/s를 단위로 하고 숫자의 형태로 표현된다. 비디오 속성 항목 엘리먼트(VABITM) 내에 기술되는 activeAreaX1 속성 정보부터 activeAreaY2 속성 정보까지의 활성 영역 좌표의 정보는 인코딩 이후 사용자에게 표시되는 프레임 내에서의 활성 이미지 영역을 나타내고 있다. 인코딩되어 사용자에게 표시되는 프레임의 활성 이미지 영역은 이미지에 의해 채워지지 않고, 예컨대 흑색 등의 고정 단색으로 채워진 영역을 포함하고 있다. 예컨대, 텔레비젼 와이드 화면 내에 표준 화면이 표시되는 경우에, 텔레비젼의 와이드 화면의 양측에 흑색 띠가 표시될 수 있는 경우가 있다. 이 예에서는, 표준 화면(이미지 영역)에서보다는 양측의 흑색 띠를 포함한 텔레비젼 와이드 화면에 대응하는 영역이 "인코딩되어 사용자에게 표시되는 프레임에 있어서의 활성 이미지 영역"을 나타내고 있다. 활성 이미지의 정사각형 영역은 전체 화면의 표시 좌표계(도 4O에 도시하는 캔버스 좌표계(CNVCRD))에서의 지정된 영역으로서 정의된다. 또한, 속성 정보의 표시가 생략될 수 있다. 활성 이미지 영역 내에서,
ActiveAreaXl 속성 정보는 어퍼처 내에서의 비디오 표시 화면의 좌측 상단 위치의 X 좌표값(APARX1)을 나타내고,
ActiveAreaY1 속성 정보는 어퍼처 내에서의 비디오 표시 화면의 좌측 상단 위치의 Y 좌표값(APARYI)을 나타내며,
ActiveAreaX2 속성 정보는 어퍼처 내에서의 비디오 표시 화면의 우측 하단 위치의 X 좌표값(APARX2)을 나타내고,
ActiveAreaY2 속성 정보는 어퍼처 내에서의 비디오 표시 화면의 우측 하단 위치의 Y 좌표값(APARY2)을 나타내고 있다.
이제부터, 이 속성 정보에 관한 구체적인 이미지에 관해서 도 84 (c)를 이용하여 설명한다. 도 84(c)에 도시하는 표시 화면 예에 있어서, 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)로 구성되는 메인 타이틀(31)의 화면의 좌측 상단의 좌표 위치는 (Xp1, Yp1)로 나타내고, 메인 타이틀(31)의 우측 하단의 좌표 위치가 (Xp2, Yp2)로 나타내어져 있다. 도 84(a)의 기재예에서는, 미디어 속성 정 보(MDATRI) 내의 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)가 "1"의 값을 갖는 비디오 속성 항목 엘리먼트(VABITM) 내에 좌측 상단과 우측 하단의 좌표값이 기재된다(도 84(c)와의 대응 관계가 파선 β과 파선 γ로 나타내어져 있다). 또한, 도 84(c)에 도시한 바와 같이, 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)의 화면의 좌측 상단의 좌표를 (Xs1, Ys1)로 정의하고 또한 그의 우측 하단의 좌표를 (Xs2, Ys2)로 지정되어 있는 경우를 생각해보자. 도 84(a)의 기술예에서는, 미디어 속성 정보(MDATRI) 내에서 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)의 값이 "2"로 설정되어 있는 비디오 속성 항목 엘리먼트(VABITM) 내에 좌표값이 기술된다. 도 84(c)에 지정된 좌표값과 도 84(a)에 기술된 좌표값 간의 대응 관계가 파선 δ와 파선 ε으로 나타내어져 있다. 이어서, 도 84(a)에 도시한 타이틀 정보(TTINFO) 내의 타이틀 엘리먼트 정보(TTELEM) 내에 포함되어 있는 객체 매핑 정보(0BMAPI)(트랙 번호 할당 정보) 내에서 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내의 메인 비디오 엘리먼트(MANVD)의 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)(mediaAttr 속성 정보)의 값이 "1"로 설정되는 경우, 미디어 인덱스 번호 정보(INDEX)의 값이 일점 쇄선 η로 표시된 관계에 따라 비디오 속성 항목 엘리먼트(VABITM)와 연관된다. 그 결과, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 기술된 메인 비디오 엘리먼트(MANVD)의 표시 화면 영역이 도 84(c)에 도시하는 메인 타이틀(31)의 영역으로서 설정된다. 또한, 마찬가지로, 2차 오디오 비디오 클립 엘리먼트(SCAVCP)에서 서브 비디오 엘리먼트(SUBVD)에서의 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)(mediaAttr 속성 정보)의 값이 "2"로 설정되는 경우, 일점 쇄선 ξ으로 표시된 대응 관계에 나타낸 바와 같이 미디어 인덱스 번호 정보(INDEX)(index 속성 정보의 값)이 "2"로 설정된 비디오 속성 항목 엘리먼트(VABITM)와 링크된다. 그 결과, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술된 서브 비디오 엘리먼트(SUBVD)의 화면 표시 크기가 도 84(c)에 도시하는 2차 비디오 세트(SCDVS) 내의 서브 비디오 엘리먼트(SUBVD)의 영역으로서 설정된다.
<SubpictureAttributeItem(서브-픽처 속성 항목) 엘리먼트>
SubpictureAttributeItem 엘리먼트는 서브-픽처 스트림의 속성을 기술한다. 이 속성값은 EVOB_VTS_ATR 또는 EVOB_ATR 내의 대응하는 값과 동일해야 한다.
SubpictureAttributeItem 엘리먼트의 XML 신택스 표현:
<SubpictureAttributeItem
index = positiveInteger
codec = string
/>
(a) index 속성
속성에 대한 미디어 인덱스를 기술한다.
(b) codec 속성
코덱을 기술한다. 이 값은 2 비트 RLC 또는 8 비트 RLC이다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터, 도 79b의 (e)에 도시하는 서브-픽처 속성 항목 엘리먼트(SPAITM) 내의 데이터 구조에 관하여 기술한다. 서브-픽처 속성 항목 엘리먼트(SPAITM)는 서브-픽처 스트림(서브-픽처 스트림(SUBPT))의 속성 정보를 기술하고 있다. 서브-픽처 속성 항목 엘리먼트(SPAITM) 내에 기술되는 각각의 속성 정보 값은 상술한 바와 같이 EVOB_VTS_ATR 또는 EVOB_ATR 내에 설정된 내용과 일치해야만 한다. 서브-픽처 속성 항목 엘리먼트(SPAlTM) 내의 미디어 인덱스 번호 정보(INDEX)(index 속성 정보)는 도 59c의 (e)에 도시하는 트랙 번호에 대응하는 서브-픽처 팩의 서브-픽처 스트림 번호(SPSTRN)(streamNumber 속성 정보)를 사용하여 참조된다. 또한, 서브-픽처의 압축 코드 정보(SPCDC)(codec 속성 정보)에 대해 설정되는 값으로서는, "2 비트 RLC(런-랭스 압축)" 또는 "8 비트 RLC(런-랭스 압축)" 중 어느 하나가 설정된다.
도 80(a)에 도시한 바와 같이, 재생 목록 파일(PLLST)은 구조 정보(CONFGI)를 포함한다. 구조 정보(CONFGI)에는 시스템적인 구조 파라미터에 관한 정보가 기재되어 있다.
<Configuration 엘리먼트>
Configuration 엘리먼트는 고급 컨텐츠에 대한 시스템 구조의 세트로 이루어져 있다.
Configuration 엘리먼트의 XML 신택스 표현:
<Configuration>
StreamingBuffer
Aperture
MainVideoDefaultColor
NetworkTimeout ?
</Configuration>
Configuration 엘리먼트의 내용은 시스템 구성의 리스트이어야 한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 80(b)는 구조 정보(CONFGI) 내의 데이터 구조를 나타낸 것이다. 구조 정보(CONFGI)는 구조 엘리먼트에 의해 기술되어 있다. 구조 엘리먼트는 고급 컨텐츠(ADVCT)에 관한 시스템 구조의 세트 정보로 구성되어 있다. 또한, 구조 엘리먼트의 내용은 시스템 정보에 관한 정보의 리스트로 구성되어 있다. 시스템 구조에 관한 리스트는 스트리밍 버퍼 엘리먼트(STRBUF), 어퍼처 엘리먼트(APTR), 메인 비디오 디폴트 컬러 엘리먼트(MVDFCL) 및 네트워크 타임-아웃 엘리먼트(NTTMOT)의 각종 엘리먼트로 구성되어 있다.
도 80(c)는 스트리밍 버퍼 엘리먼트(STRBUF) 내의 데이터 구조를 나타낸 것이다. 스트리밍 버퍼 엘리먼트(STRBUF) 내에는 데이터 캐쉬(DTCCH) 내에서의 스트리밍 버퍼(STRBUF)의 필요 크기 정보가 기술되어 있다. 도 25에 도시한 바와 같이, 네트워크 서버(NTSRV) 내에 저장된 2차 비디오 세트(SCDVS)는 고급 컨텐츠 재생 유닛(ADVPL)에 의해 사용자에게 재생/표시되는 이전에 데이터 캐쉬(DTCCH) 내의 스트리밍 버퍼(STRBUF) 내에 일시 저장될 필요가 있다. 고급 컨텐츠 재생 유닛(ADVPL)이 2차 비디오 세트(SCDVS)를 실제로 표시하는 경우에는, 스트리밍 버퍼(STRBUF) 내에 일시 저장되어 있는 2차 비디오 세트(SCDVS)가 판독되고, 2차 비 디오 플레이어(SCDVP)로 판독된 세트를 전송하면서 사용자에의 표시 처리가 실행된다. 이때, 도 25에 도시한 바와 같이, 스트리밍 버퍼(STRBUF)에 일시 저장되는 재생/표시 객체는 2차 비디오 세트(SCDVS)뿐이며, 다른 많은 표시/재생 객체는 데이터 캐쉬(DTCCH) 내의 파일 캐쉬(FLCCH) 내에 일시 저장된다. 따라서, 컨텐츠 제공자가 공급하는 고급 컨텐츠(ADVCT) 내에 2차 비디오 세트(SCDVS)가 포함되지 않는 경우에는, 데이터 캐쉬(DTCCH) 내에 스트리밍 버퍼(STRBUF)에 대한 설정 영역이 제공될 필요가 없다. 구조 정보(CONFGI) 내에 스트리밍 버퍼 엘리먼트(STRBUF)가 배치되어 있는 경우, 사용자에의 표시 이전에 네트워크 서버(NTSRV)로부터 사전에 전송되는 2차 비디오 세트(SCDVS)의 저장(도 25 참조)을 위해 필요한 스트리밍 버퍼(STRBUF)의 메모리 영역 크기를 알 수 있으며, 그에 따라 2차 비디오 세트(SCDVS)의 전송 처리를 원활하게 수행할 수 있다. 이와 같이, 고급 컨텐츠(ADVCT)를 작성하는 작성자(컨텐츠 제공자)가 고급 컨텐츠 재생 유닛(ADVPL)에 대하여 요구하는 데이터 캐쉬(DTCCH) 내에 사전에 설정되어야만 하는 스트리밍 버퍼(STRBUF)의 메모리 크기가 도 80(c)에 도시하는 "미리 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)(size 속성 정보)"로 된다. 고급 컨텐츠 재생 유닛(ADVPL)은 기동 시의 시퀀스 처리 중에 데이터 캐쉬(DTCCH) 내의 구조(스트리밍 버퍼(STRBUF)에 할당하는 메모리 공간)을 변경한다. 데이터 캐쉬(DTCCH) 내의 구조(스트리밍 버퍼(STRBUF)에 할당하는 메모리 공간)의 설정이 도 51에서의 단계(S62)에 기술된 처리의 일부로서 행해진다. "미리 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)(size 속성 정보)"의 값은 "킬로바이트(1024 바이트)"의 단위로 기술된 다. 예컨대, 스트리밍 버퍼(STRBUF) 크기로서 1 Mb가 설정되어야만 하는 경우에는, 미리 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)(size 속성 정보)의 값으로서 "1024"의 값이 설정된다. 기술되는 값의 단위가 상술한 바와 같이 1024 바이트 단위이기 때문에, 전체의 스트리밍 버퍼(STRBUF) 크기의 바이트 환산이 수행되면, 1024× 1024 바이트의 값이 얻어지고, 이는 거의 1 MB와 같다. 또한, "미리 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)(size 속성 정보)"에 기술되는 값은 양의 정수값의 형태로 기술되어야만 한다(소수점 이하 숫자는 반올림되어 표시된다). 또한, 이 값은 짝수로서 설정되어야만 한다. 그렇게 하는 이유는 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 데이터 캐쉬(DTCCH)의 메모리 공간의 설정이 비트(바이트) 단위로 행해지기 때문이다. 따라서, 비트 단위의 처리에 따라 "미리 설정되어야만 하는 스트리밍 버퍼 크기(STBFSZ)"의 값을 짝수 값으로 설정하는 것에 의해 바이트 단위로 행하는 고급 컨텐츠 재생 유닛(ADVPL) 내에서의 처리를 용이하게 할 수 있다.
<Aperture 엘리먼트>
Aperture 엘리먼트는 전체 가시 영상 크기를 기술한다.
Aperture 엘리먼트의 XML 신택스 표현:
<Aperture
size = (1920 x 1080 | 1280 x 720)
/>
(a) size 속성
전체 가시 영상 크기를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 80(d)는 구조 정보(CONFGI) 내의 어퍼처 엘리먼트(APTR) 내의 데이터 구조를 나타낸 것이다. 어퍼처 엘리먼트(APTR)는 사용자에게 표시하는 화면에서 표시될 수 있는(볼 수 있는) 이미지의 전체 크기 정보를 나타내고 있다. 어퍼처 크기 정보(APTRSZ)(size 속성 정보)는 상술한 바와 같이 사용자가 볼 수 있는(표시할 수 있는) 전체 이미지 크기의 정보를 나타내고 있으며, "1920× 1080" 또는 "1280 × 720" 중 어느 하나의 값이 설정될 수 있다. 어퍼처 크기 정보(APTRSZ)는 도 4O에 도시하는 그래픽 플레인 내의 어퍼처(APTR)(그래픽 영역)의 전체 크기를 나타내고 있다. 도 40에 있어서, 어퍼처(APTR)(그래픽 영역)를 도시하는 굵은 프레임의 우측 하단 위치에서의 좌표값으로서 (1920, 1080)이 기술되어 있고, 이 경우에는 어퍼처 크기 정보(APTRSZ)의 값으로서 "1920× 1080"의 값이 설정된다. 도 84는 어퍼처 크기 정보(APTRSZ)를 설정하는 구체적인 실시예를 나타낸 것이다. 도 84(c)에 도시하는 표시 화면 예에 있어서, 검정 프레임으로 둘러싼 전체 화면의 좌측 상단 위치에서의 좌표가 (0,0)로 되어 있고, 우측 하단 위치에서의 좌표값이 (Xa, Ya)으로 되어 있다. (Xa, Ya)의 좌표가 어퍼처 크기 정보(APTRSZ)가 되고, 파선 α로 표시된 대응 관계 선에 따라 이 값이 어퍼처 엘리먼트(APTR) 내의 어퍼처 크기 정보(APTRSZ) 내에 기술된다. 이 경우의 기술예로서는, "Xa× Ya"의 값이 설정된다.
<MainVideoDefaultColor(메인 비디오 디폴트 컬러) 엘리먼트>
MainVideoDefaultColor 엘리먼트는 메인 비디오 외측의 메인 비디오 플레인의 컬러인 메인 비디오에 대한 외측 프레임 컬러를 기술한다.
MainVideoDefaultColor 엘리먼트의 XML 신택스 표현:
<MainVideoDefaultColor
color = string
/>
(a) color 속성
Y Cr Cb 컬러를 6개의 헥사 숫자로 기술한다. 이 값은 이하의 포맷으로 되어 있어야 한다.
color = Y Cr Cb
Y, Cr, Cb := [0-9A-F][0-9A-F]
여기서, 16 ≤ Y ≤ 235, 16 ≤ Cb ≤ 240, 16 ≤ Cr ≤ 240
보다 알기 쉬운 설명이 이하에 제공된다.
도 80(e)는 구조 정보(CONFGI) 내에 포함되는 메인 비디오 디폴트 컬러 엘리먼트(MVDFCL) 내의 데이터 구조를 나타낸다. 메인 비디오 디폴트 컬러 엘리먼트(MVDFCL)는 메인 비디오(MANVD)에 대한 외측 프레임 컬러의 내용을 설명하고 있다. 메인 비디오(MANVD)에 대한 외측 프레임 컬러는 메인 비디오(MANVD)에 관한 메인 비디오 플레인(MNVDPL)(도 39 참조)에 있어서의 외측의 배경색을 의미한다. 예컨대, 도 79b의 (d)에 기재된 activcAreaX1로부터 activeAreaY2까지의 정보에 기초하여 사용자에게 표시하는 화면의 크기가 비디오 속성 항목 엘리먼트(VABITM) 내 에 설정되고, 도 59c의 (c)에 도시하는 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)(mediaAttr 속성 정보)는 대응하는 메인 비디오(MANVD)에 기초하여 비디오 속성 항목 엘리먼트(VABITM)와의 링크를 설정하는 데 사용되며, 그에 의해 메인 비디오(MANVD)의 표시 화면 크기가 설정된다. 실제로 표시되는 화면보다도 가로폭이 넓은 화면(와이드 화면)을 갖는 텔레비젼을 사용자가 보고 있는 경우에는, 텔레비젼 화면 상의 양끝은 메인 비디오(MANVD)의 표시 화면이 존재하지 않는 영역이 된다. 이 영역은 메인 비디오 플레인(MNVDPL)에서의 외측 부분을 의미하여, 영상(메인 비디오(MANVD))가 표시되지 않는 영역의 컬러는 "메인 비디오에 대한 외측 프레임 속성 정보(COLAT)(co1or 속성 정보)"에 의해 설정된다. 메인 비디오에 대한 외측 프레임 속성 정보(COLAT)(color 속성 정보)에 대해 설정되는 값은 Y, Cr, Cb 컬러를 6개의 헥사 디지털 데이터의 형태로 나타낸다. 구체적인 설정값은 하기의 포맷으로 기술된다.
Color = Y Cr Cb
Y, Cr, Cb: [0-9A-F][0-9A-F]
여기에서, Y, Cb 및 Cr에 대하여 설정하는 값으로서의 조건은 다음과 같이 설정된다.
16 ≤ Y ≤ 235, 16 ≤ Cb ≤ 240, 16 ≤ Cr ≤ 240
본 실시예에 있어서, "메인 비디오에 대한 외측 프레임 속성 정보(COLAT)(color 속성 정보)"가 단순히 적색 또는 청색으로 설정되지 않고, Y, Cr, Cb 컬러의 형태 나타내어지며, 그에 의해 매우 풍부한 표현 컬러를 사용자에게 표 시할 수 있게 된다.
<NetworkTimeout(네트워크 타임아웃) 엘리먼트>
Timeout 엘리먼트는 네트워크 요청의 타임아웃을 기술한다.
Timeout 엘리먼트의 XML 신택스 표현:
<NetworkTimeout
timeout = nonNegativeInteger
/>
(a) timeout 속성
타임아웃에 대한 밀리초를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 80(f)는 구조 정보(CONFGI) 내에 존재하는 네트워크 타임아웃 엘리먼트(NTTMOT) 내의 데이터 구조를 나타낸다. 네트워크 타임아웃 엘리먼트(NTTMOT)는 네트워크에서 요구되는 타임아웃 기간을 나타내고 있다. 본 실시예에 있어서는, 네트워크를 경유하여 네트워크 서버(NTSRV)로부터 필요한 재생/표시 객체 및 그의 관리 정보가 다운로드된다. 네트워크 환경에서의 문제에 의해 네트워크 통신이 불가능하게 된 경우, 네트워크 통신 회선은 자동으로 단절되어야만 한다. 네트워크 통신이 불가능하게 된 이후 네트워크 회선이 단절될 때까지 걸린 시간이 타임아웃 기간으로서 정의된다. 네트워크 접속 시의 타임아웃 설정 정보(NTCNTO)(timeout 속성 정보)는 mS의 단위로 기술된다.
도 12에 도시한 바와 같이, 재생 목록(PLLST)에 의해 매니페스트(MNFST) 또 는 고급 자막의 매니페스트(MNFSTS)가 참조된다. 이 상황은 도 18에 더욱 자세히 예시되어 있다. 즉, 고급 자막(ADSBT)을 관리하는 고급 자막 세그먼트(ADSTSG)에 의해 재생/사용 시에 인덱스로서 참조되는 파일 이름은 고급 자막의 매니페스트 파일(MNFSTS)이다. 또한, 고급 애플리케이션(ADAPL)을 관리하는 애플리케이션 세그먼트(APPLSG)에 의한 재생/사용 시에 인덱스로서 참조되는 파일은 고급 애플리케이션의 매니페스트파일(MNFST)이다. 고급 자막의 매니페스트 파일(MNFSTS)과 고급 애플리케이션의 매니페스트 파일(MNFST) 내의 데이터 구조를 도 81에 도시한다.
<매니페스트 파일>
매니페스트 파일은 타이틀에 대한 고급 애플리케이션의 초기화 정보이다. 플레이어는 매니페스트 파일 내의 정보에 따라 고급 애플리케이션을 기동시켜야 한다. 고급 애플리케이션은 마크업 파일의 표시 및 스크립트의 실행으로 이루어져 있다.
매니페스트 파일 내에 기술되는 초기화 정보는 다음과 같다.
Figure 112006062570134-PAT00128
실행될 초기 마크업 파일
Figure 112006062570134-PAT00129
애플리케이션 시동 프로세스에서 실행될 스크립트 파일(들)
매니페스트 파일은 XML 문서 파일에서의 규칙의 적용을 받는 잘 구성된 XML으로서 인코딩되어야 한다. 재생 목록 파일의 문서 유형은 이 섹션에서 후술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
매니페스트 파일(MNFST)은 타이틀에 대응하는 고급 애플리케이션(ADAPL)의 초기(초기 설정) 정보를 나타낸다. 도 1에 도시하는 정보 기록 및 재생 장치(1) 내의 고급 컨텐츠 재생 유닛(ADVPL)은 매니페스트 파일(MNFST)에 기재되어 있는 정보에 기초하여 고급 애플리케이션(ADAPL)의 실행/표시 처리를 한다. 고급 애플리케이션(ADAPL)은 마크업(MRKUP)에 기초하는 표시 처리와 스크립트(SCRPT)에 기초하는 실행 처리로 이루어진다. 매니페스트 파일(MNFST) 내에 기술되는 초기(초기 설정) 정보는 이하의 내용을 나타내고 있다.
Figure 112006062570134-PAT00130
실행하여야 할 최초의 마크업 파일(MRKUP)
Figure 112006062570134-PAT00131
애플리케이션의 기동 처리 시에 실행되어야 하는 스크립트 파일(SCRPT)
매니페스트 파일(MNFST)은 XML에 기초하여 기술되고, XML 문법에 기초하여 인코딩된다. 매니페스트 파일(MNFST) 내의 데이터 구조는 도 81(a)에 도시하는 애플리케이션 엘리먼트로 구성되어 있다. 애플리케이션 엘리먼트 태그는 애플리케이션 엘리먼트 ID 정보(MNAPID) 및 대응하는 엘리먼트의 베이스 URI 정보(MNFURI)(xml:base 속성 정보)로 구성되어 있다. 애플리케이션 엘리먼트 태그 내에 애플리케이션 엘리먼트 ID 정보(MNAPID)가 제공되는 경우, 도 59a 내지 도 59c에 도시한 바와 같이 API 명령에 기초하여 애플리케이션 엘리먼트 ID 정보(MNAPID)를 참조할 수 있으며, 그에 의해 API 명령에 기초한 대응하는 애플리케이션 엘리먼트의 검색이 용이하게 된다. 또한, 애플리케이션 엘리먼트 내의 자식 엘리먼트로서 영역 엘리먼트(RGNELE), 스크립트 엘리먼트(SCRELE), 마크업 엘리먼트(MRKELE), 및 리소스 엘리먼트(RESELE)가 포함될 수 있다.
<Region 엘리먼트>
영역 엘리먼트는 레이아웃 계획(layout plan) 내에 레이아웃 영역을 정의한 다.
Region 엘리먼트의 XML 신택스 표현:
<Region
x = nonNegativeInteger
y = nonnegativeInteger
width = nonNegativeInteger
height = nonnegativeInteger
/>
Content 엘리먼트는 이 영역 내에 배치된다.
(a) x 속성
캔버스 상의 영역의 초기 위치의 x 축 값을 기술한다.
(b) y 속성
캔버스 상의 영역의 초기 위치의 y 축 값을 기술한다.
(c) width 속성
캔버스 좌표로 영역의 폭을 기술한다.
(d) height 속성
캔버스 좌표로 영역의 높이를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 8l(a)에 도시하는 애플리케이션 엘리먼트 내에 배치될 수 있는 영역 엘리먼트(RGNELE) 내의 데이터 구조를 도 81(b)에 도시한다. 도 39에 도시한 바와 같 이, 사용자에게 표시되는 표시 화면에는 메인 비디오 플레인(MNVDPL), 서브 비디오 플레인(SBVDPL), 서브-픽처 플레인(SBPCPL), 그래픽 플레인(GRPHPL), 및 커서 플레인(CRSRPL)의 각각의 레이어가 존재하고, 각각의 레이어가 합성된 합성 화면이 도 39의 아래쪽 부분에 도시한 바와 같이 사용자에게 표시된다. 각각의 레이어 중에서, 그래픽 플레인(GRPHPL)은 본 실시예에 있어서는 고급 애플리케이션(ADAPL)에 관한 표시 화면 레이어로서 처리된다. 도 39에 도시하는 그래픽 플레인(GRPHPL)의 화면 전체는 어퍼처(APTR)(그래픽 영역)로서 정의된다. 또한, 도 39의 아래쪽 화면에 도시한 바와 같이, 도움말 아이콘(33)으로부터 FF 버튼(38)까지의 각각의 버튼이 배치되어 있는 영역은 그래픽 플레인(GRPHPL) 내에 도시한 바와 같이 애플리케이션 영역(APPRGN)으로서 정의된다. 애플리케이션 영역(APPRGN)은 본 실시예에 있어서 고급 애플리케이션(ADAPL)에 대응하는 고급 컨텐츠(ADVCT)가 표시되는 화면 영역을 나타내고, 어퍼처(APTR)(그래픽 영역) 내에서의 애플리케이션 영역(APPRGN)의 배치 장소 및 영역 치수가 도 81(b)에 도시하는 영역 엘리먼트(RGNELE) 내에 기술된다. 이제부터, 어퍼처(APTR)(그래픽 영역) 내에 애플리케이션 영역(APPRGN)을 배치하는 방법에 관하여 도 4O을 참조하여 상세히 설명한다. 도 40에 도시한 바와 같이, 그래픽 플레인(GRPHPL) 내의 영역을 캔버스라고 부른다. 또한, 캔버스 상에서의 각각의 애플리케이션 영역(APPRGN)의 배치 장소를 지정하는 좌표계를 캔버스 좌표(CNVCRD)라고 정의한다. 도 4O에 도시한 실시예에서는, 캔버스 좌표(CNVCRD) 상에 애플리케이션 영역(APPRGN #1)으로부터 애플리케이션 영역(APPRGN #3)까지 설정되어 있다. 애플리케이션 영역(APPRGN #1) 내의 윤곽선 부분을 그래픽 객체의 위치라고 부른다. 본 실시예에 있어서는, 그래픽 객체를 컨텐츠 엘리먼트라고 부르는 경우가 있다. 1개의 그래픽 객체(컨텐츠 엘리먼트)는 도 39의 아래쪽에 도시하는 도움말 아이콘(33)이나 정지 버튼(34) 등 각각의 아이콘 또는 버튼에 일대일 대응 관계로 대응한다. 즉, 애플리케이션 영역(APPRGN #1) 내에서의 도움말 아이콘(33)이나 정지 버튼(34)의 배치 장소와 표시 화면 크기는 애플리케이션 영역(APPRGN #1) 내의 좌표값(x1, yl)에 의해 정의된다. 도움말 아이콘(33)이나 정지 버튼(34) 등의 그래픽 객체(컨텐츠 엘리먼트)의 애플리케이션 영역(APPRGN #1) 내의 배치 장소와 표시 크기는 도 84(b)의 마크업 엘리먼트(MRKELE)의 아래에 별표로 기술되어 있는 마크업 파일(MRKUP.XMU) 내에 각각 기술된다. 도 4O에 도시한 바와 같이, 캔버스 좌표(CNVCRD)에서의 X축은 사용자에게 표시하는 화면의 가로 방향을 나타내고, 우측 방향이 플러스 방향으로 된다. X축 방향의 좌표값의 단위는 원점 위치부터의 픽셀 수의 값으로 표시된다. 또한, 캔버스 좌표(CNVCRD)에서의 Y축은 사용자에게 표시하는 화면의 세로 방향을 나타내고, 아래쪽 방향이 플러스 방향으로 된다. X축 방향의 좌표값의 단위도 원점 위치부터의 픽셀 수의 값으로 표시된다. 본 실시예에 있어서의 어퍼처(APTR)(그래픽 영역)의 좌측 상단 위치가 캔버스 좌표(CNVCRD)의 원점 위치(캔버스 좌표계 내에서의 (0, O)의 위치)가 된다. 그 결과, 어퍼처(APPTR)(그래픽 영역)의 화면 크기는 어퍼처(APTR)(그래픽 영역) 내의 우측 하단에서의 캔버스 좌표(CNVCRD)에 의해 규정된다. 도 4O의 예에서는, 사용자에게 표시되는 화면은 1920× 1080의 크기를 가지며, 어퍼처(APTR)(그래픽 영역)의 우측 하단 위치에서의 캔버스 좌표값이 (1920, 1080)으로 된다. 어퍼 처(APTR)(그래픽 영역)에서의 애플리케이션 영역(APPRGN #1)의 배치 장소는 애플리케이션 영역(APPRGN #1)의 좌측 상단 위치에서의 캔버스 좌표(CNVCRD)의 값(X, Y)에 의해 정의된다. 이 정의에 따라, 도 81(b)에 도시하는 영역 엘리먼트(RGNELE) 내의 X 속성 정보로서, 캔버스에서의 애플리케이션 영역의 시점 위치의 X 좌표값(XAXIS)(도 4O 참조)이 설정된다. 또한, 마찬가지로, 영역 엘리먼트(RGNELE) 내의 Y 속성값으로서, 캔버스에서의 애플리케이션 영역 시점 위치의 Y 좌표값(YAXIS)이 설정된다. 또한, 도 4O에 도시한 바와 같이, 애플리케이션 영역 내의 좌표계에 있어서 애플리케이션 영역(APPRGN #l)의 좌측 상단 위치가 원점(0,0)으로 정의되고, 애플리케이션 영역(APPRGN #1) 내의 애플리케이션 내의 좌표계에 있어서 우측 하단 위치의 좌표 (x2, y2)에 기초하여 애플리케이션 영역(APPRGN #1) 내의 폭과 높이의 값이 규정된다. 즉, 애플리케이션 영역(APPRGN #1)의 폭은 "x2"으로 정의되고, 또한 애플리케이션 영역(APPRGN #1)의 높이는 "y2"의 값으로 정의된다. 이 정의에 따라, 본 실시예에서는 애플리케이션 영역(APPRGN)의 표시 크기가 "폭"과 "높이"에 의해 정의된다. 즉, 도 81(b)에 도시하는 영역 엘리먼트(RGNELE) 내의 width 속성 정보는 캔버스 좌표계 내에서의 애플리케이션 영역의 폭(WIDTH)을 나타낸다. 또한, 도 81(b)에 도시한 영역 엘리먼트(RGNELE) 내의 height 속성 정보는 캔버스 좌표계 내에서의 애플리케이션 영역의 높이(HEIGHT)를 나타낸다. 영역 엘리먼트(RGNELE)에서 캔버스에서의 애플리케이션 영역 시점 위치의 X 좌표값(XAXIS) 및 캔버스에서의 애플리케이션 영역 시점 위치의 Y 좌표값(YAXIS)의 기술이 생략되어 있는 경우에는, 캔버스에서의 애플리케이션 영역 시점 위치의 X 좌표값(XAXIS) 의 값으로서 디폴트값인 "0"이 설정됨과 동시에, 캔버스에서의 애플리케이션 영역 시점 위치의 Y 좌표값(YAXIS)의 값으로서 디폴트값인 "0"이 자동으로 설정된다. 이 경우에는, 도 40으로부터 명백한 바와 같이, 대응하는 애플리케이션 영역(APPRGN #1)의 시점의 좌표값 (X, Y)이 (O, 0)으로 되기 때문에, 애플리케이션 영역(APPRGN)이 어퍼처(APTR)(그래픽 영역)의 좌측 상단 상에 첨부된다. 또한, 본 실시예에서는, 도 81(b)에 도시한 바와 같이, 영역 엘리먼트(RGNELE) 내에서 캔버스 좌표계 내에서의 애플리케이션 영역의 폭(WIDTH)과 캔버스 좌표계 내에서의 애플리케이션 영역의 높이(HEIGHT)의 기술이 생략될 수 있다. 이와 같이 캔버스 좌표계 내에서의 애플리케이션 영역의 폭(WlDTH)의 기술이 생략되어 있는 경우에는, 디폴트값으로서 캔버스 좌표계 내에서의 애플리케이션 영역의 폭(WIDTH)의 값이 어퍼처(APTR)(그래픽 영역)의 폭 크기에 일치한다. 또한, 캔버스 좌표계 내에서의 애플리케이션 영역의 높이(HEIGHT)의 기술이 생략되어 있는 경우에는, 캔버스 영역 내에서의 애플리케이션 영역의 높이(HEIGHT)의 값은 디폴트값으로서 어퍼처(APTR)의 높이로 자동으로 설정된다. 따라서, 캔버스 좌표계 내에서의 애플리케이션 영역의 폭(WIDTH)과 캔버스 좌표계 내에서의 애플리케이션 영역의 높이(HEIGHT)의 기술이 생략되어 있는 경우에는, 애플리케이션 영역(APPRGN #1)의 크기는 어퍼처(APTR)(그래픽 영역)의 크기와 일치하게 된다. 기재가 생략되어 있을 때의 디폴트값을 어퍼처(APTP)(그래픽 영역)의 위치 및 크기와 일치시킴으로써(이 정보의 기재를 생략한 경우에) 마크업(MRKUP) 내에서의 각각의 그래픽 객체(컨텐츠 엘리먼트)에 대한 표시 크기/표시 장소 설정 방법이 용이하게 될 수 있다.
<Script 엘리먼트>
Script 엘리먼트는 애플리케이션 시동 프로세스 내의 글로벌 코드로서 평가되는 고급 애플리케이션에 대한 스크립트 파일을 기술한다.
Script 엘리먼트의 XML 신택스 표현:
<Script
id = ID
src = anyURI
/>
애플리케이션 시동 시에, 스크립트 엔진은 src 속성에서의 URI에 의해 참조되는 스크립트 파일을 로딩해야 하고, 이어서 이를 글로벌 코드로서 실행한다. [ECMA 10.2.10]
(a) src 속성
초기 스크립트 파일에 대한 URI를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 81(c)는 스크립트 엘리먼트(SCRELE) 내의 데이터 구조를 나타낸 것이다. 본 실시예에 있어서의 스크립트(SCRPT)는 ECMA의 국제 표준화에서 설정된 글로벌 코드(ECMA l0.2.10)에 기초하고 있다. 스크립트 엘리먼트(SCRELE)는 애플리케이션의 기동 처리 시에 행해지는 고급 애플리케이션(ADAPL)에 관한 스크립트 파일(SCRPT)의 내용을 설명하고 있다. 애플리케이션이 기동하면, 도 44에 도시하는 내비게이션 관리자(NVMNG)는 src 속성 정보 내에 기술된 URI(uniform resource identifier)를 참조하여 최초로 사용되는 스크립트 파일(SCRPT)을 다운로드 한다. 이 동작 직후에, ECMA 스크립트 프로세서(ECMASP)는 다운로드한 스크립트 파일(SCRPT)의 정보를 글로벌 코드(ECMA l0.2.10에 규정된 ECMA 스크립트)에 기초하여 해석하고, 해석 결과에 따라 실행 처리를 수행한다. 도 81(c)에 도시한 바와 같이, 스크립트 엘리먼트(SCRELE) 내에는 스크립트 엘리먼트 ID 정보(SCRTID)와 src 속성 정보가 기술되어 있다. 스크립트 엘리먼트 ID 정보(SCRTID)가 스크립트 엘리먼트(SCRELE) 내에 존재하기 때문에, API 명령을 사용하여 특정한 스크립트 엘리먼트(SCRELE)를 용이하게 참조할 수 있고, 그에 의해 API 명령 처리를 용이하게 할 수 있다. 또한, src 속성 정보는 최초로 사용되는 스크립트 파일의 저장 장소(SRCSCR)를 나타내고, 이는 URI(uniform resource identifier)의 형태로 기술된다.
<Markup 엘리먼트>
Markup 엘리먼트는 고급 애플리케이션에 대한 초기 마크업 파일을 기술한다.
Markup 엘리먼트의 XML 신택스 표현:
<Markup
id = ID
src = anyURI
/>
애플리케이션 시동 시에, 존재하는 경우 초기 스크립트 파일 실행 이후에, 고급 내비게이션은 src 속성 내의 URI에 의해 참조되는 마크업 파일을 로딩해야 한 다.
(a) src 속성
초기 마크업 파일에 대한 URI를 기술한다.
보다 알기 쉬운 설명이 이하에 제공된다.
도 81(d)에 상세한 데이터 구조가 도시되어 있는 마크업 엘리먼트(MRKELE)는 고급 애플리케이션(ADAPL)에 대해 최초로 표시되는 마크업 파일의 파일 이름 및 저장 장소(경로)를 나타낸다. 도 81(a)의 예에 도시한 바와 같이, 애플리케이션 엘리먼트 내에 스크립트 엘리먼트(SCRELE)가 기술되어 있는 경우에는, 애플리케이션의 기동 시에 최초로 스크립트 엘리먼트(SCRELE)에서 규정된 초기 스크립트 파일이 실행된다. 그 후, 도 28에 도시하는 내비게이션 관리자(NVMNG) 내의 고급 애플리케이션 관리자(ADAMNG)는 마크업 엘리먼트(MRKELE)에서 정의된 src 속성 정보에 지정된 URI(uniform resource identifier)를 참조하여 대응하는 마크업 파일(MRKUP)을 로딩한다. 이와 같이, 도 81(c)에 도시하는 src 속성 정보는 최초로 사용되는 스크립트 파일의 저장 장소(SRCSCR)(저장 장소(경로) 및 파일 이름)을 나타내고, 이는 URI(uniform resource identifier)의 형태로 기술된다. 또한, 도 82에 도시한 바와 같이, 도 81(d)에 도시하는 마크업 엘리먼트 ID 정보(MARKID)를 이용하여 API 명령에 기초하여 마크업 엘리먼트(MRKELE)를 참조하는 경우에, API 명령 처리가 용이하게 된다.
<Resource 엘리먼트>
Resource 엘리먼트는 고급 애플리케이션에 의해 사용되는 리소스를 기술한 다. 고급 애플리케이션에 의해 사용되는 모든 리소스는 API 관리 영역을 제외하고는 Resource 엘리먼트에 의해 기술되어야 한다.
Resource 엘리먼트의 XML 신택스 표현:
<Resource
id = ID
src = anyURI
/>
재생 목록 관리자는 매니페스트 내의 모든 리소스가 파일 캐쉬로 로딩된 후에 고급 애플리케이션을 활성화시켜야 한다.
(a) src 속성
리소스의 소스 장소에 대한 URI를 기술한다. 이 값은 재생 목록 내의 리소스 정보 엘리먼트 내에 기술되는 src 속성값 중 하나에 대해 절대 URI이어야 한다. 상대 URI는 이 값에 대해 사용되어서는 안 된다.
보다 알기 쉬운 설명이 이하에 제공된다.
이제부터 도 81(e)에 상세한 데이터 구조가 도시되어 있는 리소스 엘리먼트(RESELE)에 관해서 설명을 한다. 리소스 엘리먼트(RESELE)는 고급 애플리케이션(ADAPL)에서 사용되는 리소스의 정보를 표시하고 있다. 또한, API 관리 영역을 제외하고 고급 애플리케이션(ADAPL)에서 사용되는 모든 리소스는 리소스 엘리먼트(RESELE)의 리스트 내에 기술되어 있어야만 한다. 매니페스트(MNFST) 내의 리소스 엘리먼트(RESELE)의 리스트에 규정된 리소스는 파일 캐쉬(FLCCH) 내에 로딩된 다. 그 후, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 대응하는 고급 애플리케이션(ADAPL)이 실행 상태에 들어갈 수 있게 해준다. 도 8l(e)에 도시하는 리소스 엘리먼트(RESELE) 내의 src 속성 정보는 대응하는 리소스의 저장 장소(SRCRSC)(저장 장소(경로) 및 파일 이름)를 나타내고, 이는 URI(uniform resource identifier)에 의해 기술된다. 대응하는 리소스의 저장 장소(SRCRSC)의 값은 리소스가 원래 저장되어 있던 장소를 나타내는 후술하는 URI(uniform resource identifier)를 사용하여 기술되어야만 하고, 이는 재생 목록(PLLST) 내에 정의된 리소스 정보 엘리먼트(리소스 정보(RESRCI))에 기술된 src 속성 정보 값들 중 어느 하나를 나타내고 있다. 즉, 도 63b의 (c) 또는 도 66c의 (e)에 도시하는 리소스 정보(RESRCI) 내에 네트워크 소스 엘리먼트(NTSELE)의 리스트가 제공되어 있는 경우, 도 67 또는 도 68에 도시한 바와 같이 동일 내용의 컨텐츠에 대하여, 사용자의 정보 기록 및 재생 장치(1)의 네트워크 환경 내에서의 네트워크 처리용량에 따른 최적의 리소스가 선택될 수 있다. 이와 같이, 동일한 고급 컨텐츠 내용(ADVCT)을 갖는(해상도나 표시 화면의 수식 상황 등 다른 상세 속성을 갖는) 복수의 리소스에 대하여, 리소스의 각각의 저장 장소(경로) 및 파일 이름이 기술되어 있는 src 속성 정보를 갖는 네트워크 소스 엘리먼트(NTSELE)가 각각 설정되어 있다. 네트워크 소스 엘리먼트(NTSELE)가 설정되어 있는 부모 엘리먼트(도 66b의 (d)에 도시하는 타이틀 리소스 엘리먼트 또는 도 63c의 (d)에 도시하는 애플리케이션 리소스 엘리먼트(APRELE)) 내의 src 속성 정보에 규정된 URI(uniform resource identifier)의 값이 도 81 (e)에 도시하는 대응하는 리소스의 저장 장소(SRCRCS)의 값으로서 설정되어야만 한다. 도 68과 관련하여 설명한 바와 같이, 네트워크 소스 엘리먼트(NTSELE)에 지정된 네트워크 처리용량 조건을 정보 기록 및 재생 장치(1)의 네트워크 환경이 만족시키지 않는 경우, 타이틀 리소스 엘리먼트 또는 애플리케이션 리소스 엘리먼트(APRELE) 내의 src 속성 정보에 지정된 저장 장소(경로) 및 파일 이름이 액세스되고, 따라서 도 81(e)에 도시하는 대응하는 리소스의 저장 장소(SRCRCS)를 상술한 방법으로 설정하는 것에 의해 정보 기록 및 재생 장치(1)의 네트워크 환경과 상관없이 액세스할 수 있다. 그 결과, 고급 컨텐츠 재생 유닛(ADVPL)의 매니페스트(MNFST)에 관한 액세스 제어가 용이하게 될 수 있다.
마지막으로, 도 84는 도 81에 도시한 매니페스트 파일(MNFST) 내의 데이터 구조와 사용자에게 표시되는 표시 화면 내의 레이아웃 간의 관계를 나타낸 것이다.
도 84(c)는 사용자에게 표시하는 표시 화면의 예를 나타낸 것이다. 도 84(c)에 도시하는 표시 예에 따르면, 화면의 아래쪽에 재생 버튼(34)으로부터 FF 버튼(38)에 이르는 각종 버튼이 배치되어 있다. 재생 버튼(34)으로부터 FF 버튼(38)까지의 각종 버튼이 배치되는 영역 전체를 애플리케이션 영역(APPRGN)으로서 정의한다. 도 84(c)에 도시하는 표시 화면 예는 캔버스 좌표계(CNVCRD)에 대응하고, 화면의 좌측 상단 위치는 캔버스 좌표계(CNVCRD)에서의 (0,0)의 좌표에 대응한다. 캔버스 좌표계(CNVCRD)에 기초하여, 애플리케이션 영역(APPRGN)의 좌측 상단의 좌표를 (Xr, Yr)로 나타낸다. 상술한 바와 같이, 애플리케이션 영역(APPRGN)의 배치 장소는 매니페스트 파일(MNFST) 내의 영역 엘리먼트(RGNELE) 내에 기술된다. 상기 설명한 (Xr, Yr)의 좌표값은 도 84(b)에 도시한 바와 같이 영역 엘리먼 트(RGNELE) 내에서 "Xr"와 "Yr"의 형태로 기술되고, 대응 관계는 파선 υ으로 표시된다. 또한, 도 84(c)에 도시한 표시 화면 예에 있어서, 애플리케이션 영역(APPRGN)의 폭은 rwidth로 표기되고, 그의 높이는 rheight로서 정의된다. 애플리케이션 영역(APPRGN)의 폭(rwidth)은 파선 ξ으로 표시한 바와 같이 영역 엘리먼트(RGNELE) 내의 캔버스 좌표계에서의 애플리케이션 영역의 폭(WIDTH)의 값으로서 기술되고, 애플리케이션 영역(APPRGN)의 높이(rheight)의 값도 마찬가지로 파선 π로 도시한 바와 같이 영역 엘리먼트(RGNELE) 내의 캔버스 좌표계에서의 애플리케이션 영역의 높이(HEIGHT)의 값으로서 기술된다. 또한, 도 84(c)에 도시하는 정지 버튼(34)이나 재생 버튼(35)의 애플리케이션 영역(APPRGN) 내의 배치 장소와 표시 크기는 도 84(b)에 도시한 마크업 엘리먼트(MRKELE)의 직후에 기술한 별표 "*" 이후의 기술로 나타낸 바와 같이 대응하는 마크업 파일(MRKUP.XMU) 내에 지정된다. 또한, 정지 버튼(34)이나 재생 버튼(35)의 배치 및 크기를 나타내는 마크업 파일(MRKUP.XMU)에 대한 파일 이름과 저장 장소(경로)가 마크업 엘리먼트(MRKELE) 내의 src 속성 정보의 값으로서 설정된다.
본 실시예에 있어서, 재생 목록(PLLIST) 내에 배치된 각종 엘리먼트에 있어서, 도 82(a)에 도시한 바와 같이 타이틀 엘리먼트(TTELEM), 재생 목록 애플리케이션 엘리먼트(PLAELE), 1차 오디오 비디오 클립 엘리먼트(PRAVCP), 2차 오디오 비디오 클립 엘리먼트(SCAVCP), 대체 오디오 비디오 클립 엘리먼트(SBAVCP), 대체 오디오 클립 엘리먼트(SBADCP), 고급 자막 세그먼트 엘리먼트(ADSTSG), 애플리케이션 세그먼트 엘리먼트(APPLSG), 챕터 엘리먼트, 포즈-앳 엘리먼트(PAUSEL) 및 이벤트 엘리먼트(EVNTEL) 각각은 그 안에 ID 정보를 가지고 있으며, 도 82(a)의 우측에 도시한 바와 같이, 스트리밍 버퍼 엘리먼트(STRBUF)로부터 스케쥴링된 제어 리스트 엘리먼트에 이르는 각종 엘리먼트 각각은 그 안에 ID 정보를 가지고 있지 않다. 본 실시예에 있어서, 도 82(c)에 도시한 바와 같이, API 명령에 응답하여 비교적 많이 참조되는 엘리먼트의 선두 위치에 ID 정보가 설정되어 있다. 이 구조에 따라, API 명령으로부터는 ID 정보를 사용하여 특정한 엘리먼트를 참조하고 있다. 그 결과, API 명령에 기초한 각각의 엘리먼트에 대한 액세스 제어 처리가 용이하게 되고, 그에 의해 API 명령에 기초한 각각의 엘리먼트에 대한 액세스 제어/처리가 용이하게 된다. 게다가, 각각의 엘리먼트의 최초에 ID 정보가 배치되어 있기 때문에, 재생 목록 관리자(PLMNG)(도 28 참조)는 각각의 엘리먼트 내의 ID 정보를 용이하게 검색할 수 있다. 또한, 본 실시예는 각각의 엘리먼트의 식별에 "번호"를 지정하는 대신에 "ID 정보"가 이용되고 있다는 것에 특징이 있다. 도 51 또는 도 3a 및 도 3b에 도시한 바와 같이, 재생 목록(PLLIST)은 갱신될 수 있다. 각각의 엘리먼트의 식별을 위해 "번호가 주어지는 경우, 재생 목록(PLLIST)이 갱신될 때마다 번호를 이동시키는 처리가 필요하다. 반면에, 각각의 엘리먼트의 식별을 위해 "ID 정보"를 지정하고 있는 경우에는, 재생 목록(PLLST)의 갱신 시에 ID 정보를 변경할 필요가 없어진다. 따라서, 재생 목록 갱신 시의 변경 처리가 용이하게 될 수 있다는 특징이 달성될 수 있다. 도 82(b)는 API 명령에 기초한 각각의 엘리먼트 내의 ID 정보의 활용예를 나타낸 것이다. 본 실시예에 따른 위치 활용예로서는 API 명령에 기초하여 타이틀 ID 정보(TTID)(제24도(b)참조)를 지정하여 타이틀의 천이 처 리를 할 수 있다. 또한, 다른 활용예로서, API 명령에 기초하여 챕터 엘리먼트 ID 정보(CHPTID)(도 24b의 (d) 참조)를 지정하여, 특정 챕터에의 액세스에 대한 제어를 할 수 있다.
데이터 캐쉬(DTCCH)에 저장하는 데이터나 파일의 저장 장소 및 그 저장 장소에 대응하는 다운로드 방법에 관하여는, 도 64a 및 도 64b, 도 65a 내지 도 65d, 도 70, 도 71, 도 54a 및 도 54b, 도 55a 및 도 55b, 도 56a 및 도 56b, 도 63a 내지 도 63c, 도 66a 내지 도 66c, 및 도 67과 관련하여 각각 설명하고 있다. 상기한 설명 내용을 요약하기 위해, 이제부터 도 83을 참조하여 각각의 재생/표시 객체의 저장 장소에 관한 기술에 중점을 둔 재생 목록 내의 기술예와, 이 설명에 대응하는 각각의 재생/표시 객체의 저장 장소의 처리에 관해서 설명을 한다. 도 83(a)는 사용자에게 표시하는 화면의 예를 나타낸 것이다. 사용자에게 표시하는 화면에서, 좌측 위쪽에는 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)에 의해 표시되는 메인 타이틀(31)이 표시되고, 우측 위쪽에는 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)가 표시된다. 또한, 화면의 아래쪽에는 고급 애플리케이션(ADAPL)에 대응하는 정지 버튼(34)으로부터 FF 버튼(38)에 이르는 각종 버튼이 배치되고, 메인 타이틀(31) 내의 상측에 고급 자막(ADSBT)으로 구성되어 있는 텔롭 문자(39)가 표시된다. 도 83에 도시하는 예에서는, 메인 타이틀(31)을 구성하는 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD) 및 그의 관련 정보가 도 83(b)에 도시한 바와 같이 정보 저장 매체(DISC) 내에 저장되어 있다. 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)에 관한 정보는 1차 비디오 세트(PRMVS) 내의 /HVDVD_TS/의 디렉토리(폴더) 내에 저장되고, 1차 비디오 세트의 타임 맵(PTMAP)에 대응하는 파일 이름은 RMVS.MAP이며, 고화질 비디오 객체 정보(EVOBI)에 대응하는 파일 이름은 PRMVS.VTI이고, 1차 고화질 비디오 객체(P-EVOB)에 대응하는 파일 이름은 PRMVS.EVO이다. 또한, 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)의 관련 파일이 도 83(c)에 도시한 바와 같이 네트워크 서버(NTSRV) 내에 저장되어 있는 것으로 가정한다. 대응하는 네트워크 서버(NTSRV)의 어드레스(URL:uniform resource identifier)은 www.toshiba.co.jp이고, HD-DVD의 디렉토리(폴더) 안에 관련 파일이 저장되어 있다. 도 83(c)에 도시한 바와 같이, 대응하는 서브 비디오(SUBVD)로서 해상도가 높고 전송 시에 요구되는 네트워크 처리용량이 높은 SCDVS1.EVO 파일과 해상도가 낮고 전송 시의 네트워크 처리용량이 낮더라도 2차 고화질 비디오 객체(S-EVOB)가 기록되어 있는 SCDVS2.EV0 파일이 존재하며, 각각의 2차 고화질 비디오 객체(S-EVOB) 파일에서 사용되는 2차 비디오 세트의 타임 맵(STMAP)으로서 SCDVS1.MAP 및 SCDVS2.MAP 각각이 저장되어 있다. 본 실시예에 있어서, 2차 고화질 비디오 객체(S-EVOB)와, 이 객체에 이용되는 (상기 파일을 참조하는) 2차 비디오 세트의 타임 맵(STMAP)의 파일은 동일한 네트워크 서버(NTSRV) 내의 동일한 디렉토리(폴더)에 함께 저장되고, 확장자를 제외하는 이들의 파일 이름은 서로 일치하도록 설정되어 있다. 게다가, 텔롭 문자(39)를 표현하는 고급 자막(ADSBT)에 관한 파일은 도 83(d)에 도시하는 네트워크 서버(NTSRV) 내에 저장되어 있다. 네트워크 서버(NTSRV)의 어드레스(URI:uniform resource identifier) 이름이 ww.ando.co.jp이고, 이 주소에 있는 타이틀(TITLE) 폴더(디렉토리) 안에 각종 파일이 저장되어 있는 것으로 가정한다. 고급 자막(ADSBT)을 액세스하는 때에 사용되는 매니페스트 파일(MNFST)의 파일 이름은 MNFSTS.XMF이며, 텔롭 문자(39)를 표시하는 때의 표시 문자, 그의 표시 장소 및 표시 크기가 정의되어 있는 고급 자막의 마크업(MRKUPS)의 파일이 3개 존재하고, 이들 파일의 파일 이름은 각각 MRKUPS1.XAS, MRKUPS2.XAS 및 MRKUPS3.XAS으로서 설정된다. 사용자의 네트워크 환경에 따라서 표시되는 텔롭 문자(39)의 표시 상황 및 장식이 각각의 마크업 파일(MRKUP)에 따라 다르고, 또한 파일 캐쉬(FLCCH)에의 다운로드를 위해 필요로 되는 네트워크 처리용량의 값도 다르다. MRKUPS1.XAS에서 사용되는 폰트 변환 테이블은 FONTS1.XAS 내에 기록되고, MRKUPS2.XAS에서 사용되는 폰트 파일은 MRKUPS2.XAS가 된다. 게다가, 도 83(a)에 도시하는 정지 버튼(34)으로부터 FF 버튼(38)에 이르는 고급 애플리케이션(ADAPL)에 관한 리소스 파일은 도 83(e)에 도시하는 영속적 저장 장치(PRSTR) 내의 루트 내에 저장되어 있고, 도 83(f)에 도시하는 데이터 구조를 갖는 재생 목록(PLLST)의 재생 목록 파일은 PLLST.XPL의 파일 이름으로 동일한 영속적 저장 장치(PRSTR) 내에 저장되어 있다. 또한, 영속적 저장 장치(PRSTR) 내에 저장되어 있는 매니페스트 파일(MNFST)의 파일 이름은 MNFST.XMF이고, 대응하는 마크업 파일(MRKUP)의 파일 이름은 MRKUP.XMU이다. 또한, 도 83(a)에 도시하는 정지 버튼(34)으로부터 FF 버튼(38)까지의 각각의 버튼의 이미지는 JPG의 형식으로 저장되고, 이들 이미지 각각은 IMAGE_***.JPG의 파일 이름으로 저장된다. 또한, 사용자가 각종 버튼을 설정하는 때에 일어나는 처리에 대응하는 스크립트 파일(SCRPT)은 SCRPT_$$$.JS의 형태로 저장되어 있다. 메인 타이틀(31) 을 나타내는 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)에 따라 정보 저장 매체(DISC) 내에 저장된 타임 맵 파일(STMAP(PRMVS.MAP)의 파일 이름과 그 저장 목적지 정보는 도 83(f)에 도시한 바와 같이 재생 목록(PLLST) 내의 타이틀 정보(TTINFO) 내에 존재하는 1차 오디오 비디오 클립 엘리먼트(PMVCP)에서 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 장소(SRCTMP)(src 속성 정보)의 기술 섹션에 기재되어 있다. 본 실시예에서는, 도 12에 도시한 바와 같이, 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내의 src 속성 정보 내에 기술된 저장 장소(SRCPMT)에 따라서 처음에 1차 비디오 세트의 타임 맵(PTMAP)(PRMVS.MAP)에 액세스한다. 이어서, 참조하고 있는 고화질 비디오 객체 정보(EVOBI)의 파일 이름(PRMVS.VTS)은 1차 비디오 세트의 타임 맵(PTMAP)(PRMVS.MAP 파일)으로부터 추출되고, 이 파일에 액세스한다. 그 후, 참조되고 있는 1차 고화질 비디오 객체(P-EVOB)의 파일 이름(PRMVS.EVOB)은 고화질 비디오 객체 정보(EVOBI)(PRMVS.VTI 파일) 안에서 판독되고, 1차 고화질 비디오 객체(P-EVOB)가 기록되어 있는 PRMVS.EVO 파일에 액세스하고, 이 파일을 데이터 캐쉬(DTCCH) 내로 다운로드 한다. 또한, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내의 참조하여야 할 재생/표시 객체의 인덱스 정보 파일 저장 장소(SRCTMP)(src 속성 정보)에는, 도 83(c)에 도시한 복수의 타임 맵 파일(STMAP) 중 어느 하나의 타임 맵 파일(SCDVS.MAP)의 저장 장소가 기술된다. 또한, 2차 비디오 세트 내의 나머지 타임 맵(STMAP)의 파일 이름(SCDVS2.MAP)은 대응하는 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 배치된 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보 내에 기술된다. 네트워크 소 스 엘리먼트(NTSELE) 내에는 대응하는 2차 고화질 비디오 객체(S-EVOB)를 데이터 캐쉬(DTCCH) 내에 다운로드하는 때에 보증되는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)가 기술되어 있다. 도 67에 도시한 바와 같이, 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 정보 기록 및 재생 장치(l)가 배치되어 있는 네트워크 환경에서의 네트워크 처리용량의 정보를 가지고 있다. 재생 목록 관리자(PLMNG)는 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술된 네트워크 소스 엘리먼트(NTSELE) 내의 네트워크 처리용량의 허용 최소값 정보(NTTRPT)(networkThroughput 속성 정보)의 값을 판독하고, 도 68에 도시한 판정 규칙에 따라서 데이터 캐쉬(DTCCH) 내에 로딩하여야 할 2차 고화질 비디오 객체(S-EVOB)의 파일 이름을 선택하며, 동일한 폴더 내에 저장되고 확장자를 제외하고는 동일한 파일 이름을 갖는 2차 비디오 세트의 타임 맵(STMAP)에의 액세스를 제어한다. 데이터 캐쉬(DTCCH)에 다운로드하는 때에는, 2차 비디오 세트의 선택된 타임 맵(STMAP)의 파일을 먼저 다운로드하고, 2차 비디오 세트의 타임 맵(STMAP) 내에서 참조되어 있는 2차 고화질 비디오 객체(S-EVOB) 파일의 이름을 판독하고, 이어서 판독된 파일 이름에 따라 2차 고화질 비디오 객체(S-EVOB) 파일을 다운로드 한다. 게다가, 고급 자막 세그먼트 엘리먼트(ADSTSG) 내의 고급 자막의 매니페스트 파일 저장 장소(SRCMNF)(src 속성 정보)에는 도 83(d)에 도시한 매니페스트 파일(MNFSTS)(MNSFTS.XMF)의 저장 장소(경로) 및 파일 이름이 기술되어 있다. 도 83(d)에 도시하는 네트워크 서버(NTSRV) 내에 저장되어 있는 매니페스트 파 일(MNFST) 이외의 파일의 파일 이름과 저장 장소(경로)는 고급 자막 세그먼트 엘리먼트(ADSTSG) 내의 애플리케이션 리소스 엘리먼트(APRELE) 또는 네트워크 소스 엘리먼트(NTSELE) 내의 src 속성 정보 내에 기술되어 있다. 상술한 바와 같이, 네트워크 서버(NTSRV) 내에는 고급 자막을 표시할 때의 장식 상황이나 폰트에 따라서 데이터 전송 시에 네트워크 처리용량이 서로 다른 복수의 마크업 파일(MRKUPS)(MRKUPS1.XAS, MRKUPS2.XAS, MRKUPS3.XAS)이 기록되어 있고 또한 네트워크 서버(NTSRV) 내에는 복수의 폰트파일(FONTS)(FONTS1.XAS와 FONTS2.XAS)이 존재하고 있다. 각각의 마크업 파일(MRKUP)과 각각의 폰트 파일(FONT)을 파일 캐쉬(FLCCH)에 다운로드하는 때에 필요하게 되는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)는 고급 자막 세그먼트 엘리먼트(ADSTSG) 내의 네트워크 소스 엘리먼트(NTSELE) 내에 기술되어 있다. 예컨대, 도 83(f)에 도시한 고급 자막 세그먼트 엘리먼트(ADSTSG) 내의 네트워크 소스 엘리먼트(NTSELE)의 정보에 따라, 마크업 파일(MRKUPS)인 MRKUPS3.XAS를 파일 캐쉬(FLCCH) 내에 다운로드하는 때의 보증되는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)는 56 Kbps이며, MRKUPS2.XAS의 파일을 파일 캐쉬(FLCCH) 내에 다운로드하는 때에 필요하게 되는 네트워크 처리용량의 허용 최소값 정보(NTTRPT)의 값은 1 Mbps이다. 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 정보 기록 및 재생 장치(1)가 배치되어 있는 네트워크 환경 내에서의 네트워크 경로(50)에 있어서의 네트워크 처리용량(52)의 값을 참조하고, 도 68에 도시한 선택 규칙에 기초하여 데이터 캐쉬(DTCCH)에 다운로드해야 하는 최적의 마크업 파일(MRKUPS)를 설정하며, 마크업 파일(MRKUPS)에 액세스하여 이 파일을 데이터 캐쉬(DTCCH) 내로 다운로드 한다. 이때, 대응하는 폰트 파일(FONTS)도 동시에 데이터 캐쉬(DTCCH) 내로 다운로드 한다. 상술한 바와 같이, 도 83(f)에 도시하는 데이터 정보를 갖는 재생 목록 파일(PLLST)이 도 83(e)에 도시한 바와 같이 영속적 저장 장치(PRSTR) 내에서 PLLST.XPL의 파일 이름으로 저장되어 있는 것으로 가정한다. 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 맨 처음 영속적 저장 장치(PRSTR) 내에 저장되어 있는 재생 목록 파일(PLLST)(PLLST.XPL)을 판독한다. 영속적 저장 장치(PRSTR) 내에 저장되어 있는 매니페스트 파일(MNFST)(MNFST.XMF)의 파일 이름과 저장 장소(경로)가 도 83(f)에 도시하는 재생 목록(PLLST) 내의 타이틀 정보(TTINFO) 내에 존재하는 객체 매핑 정보(OBMAPI) 내의 애플리케이션 세그먼트 엘리먼트(APPLSG)에서의 고급 애플리케이션의 초기 설정 정보를 포함한 매니페스트 파일 저장 장소(URIMNF)(src 속성 정보) 내에 기술되어 있다. 또한, 매니페스트 파일에 관한 마크업 파일(MRKUP)(MRKUP.XMU), 각종 스크립트 파일(SCRPT)(SCRPT_$$$.JS) 및 정지 화상 파일(IMAGE)(IMAGE-***.JPG)의 파일 이름과 저장 장소는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 애플리케이션 리소스 엘리먼트(APRELE) 내의 데이터 캐쉬 내에 다운로드되는 데이터 또는 파일의 저장 장소(SRCDTC)(src 속성 정보) 내에 기술되어 있다. 내비게이션 관리자(NVMNG) 내의 재생 목록 관리자(PLMNG)는 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 애플리케이션 리소스 엘리먼트(APRELE) 리스트를 판독하여, 대응하는 고급 애플리케이션(ADAPL)을 화면에 표시하기 이전에 파일 캐쉬(FLCCH) 내에 사전에 저장해 두어야 하는 리소스 파일의 이름과 원래의 저장 장소를 알 수 있다. 이와 같이 재생 목록 파일(PLLST)의 애플리케이션 세그먼트 엘리먼트(APPLSG) 내의 애플리케이션 리소스 엘리먼트(APRELE) 리스트 내에 파일 캐쉬(FLCCH)에 저장해야 하는 리소스의 정보가 기재되어 있는 경우에, 내비게이션 관리자(NVMNG)는 사전에 고속으로 필요한 리소스를 데이터 캐쉬(DTCCH) 내에 효율적으로 저장할 수 있다.
도 84는 본 실시예에 있어서의 사용자에게 표시하는 표시 화면의 예와 재생 목록(PLLST) 내의 데이터 구조와의 관계를 나타낸 것이다. 표시 화면과 재생 목록내의 데이터 구조의 관계는 도 79 및 도 81과 관련하여 설명하였다. 그러나, 도 84를 참조하여 사용자에게 표시하는 표시 화면 예와 재생 목록(PLLIST) 및 매니페스트 파일(MNFST) 내의 데이터 구조 사이의 관계를 기술하는 것에 의해, 전체를 체계적으로 알 수 있게 된다. 도 84(c)에 도시하는 사용자에게 표시하는 전체 화면 영역을 어퍼처(APTR)라고 한다. 또한, 도 4O에 도시하는 캔버스 좌표계(CNVCRD)에서의 어퍼처(APTR)의 우측 하단 위치에서의 좌표값을 (Xa, Ya}로 나타낼 수 있고, 이 좌표값은 어퍼처 크기 정보(APTRSZ)에 대응한다. 파선 α가 대응 관계를 나타내기 때문에, 어퍼처 크기 정보(APTRSZ)는 재생 목록(PLLIST) 내의 구조 정보(CONFGI) 내의 어퍼처 엘리먼트(APTR) 내에 기술된다. 또한, 1차 비디오 세트(PRMVS) 내의 메인 비디오(MANVD)를 나타내는 메인 타이틀(31)을 나타내는 화면의 좌측 상단 좌표를 (Xp1, Yp1)으로 나타내고, 우측 하단 위치의 캔버스 좌표(CNVCRD) 값을 (Xp2, Yp2)로 나타낸다. 메인 타이틀(31)의 화면 크기는 재생 목록(PLLST) 내의 미디어 속성 정보(MDATRI) 내에서의 비디오 속성 항목 엘리먼 트(VABITM) 내의 미디어 인덱스 번호 정보(INDEX)에 의해 "1"로 표시되는 비디오 속성 항목 엘리먼트(VABITM)에 의해 정의된다. 파선 β과 파선 γ는 미디어 인덱스 번호 정보(INDEX)의 값이 "1"로 설정되는 비디오 속성 항목 엘리먼트(VABITM)에 의해 설정되는 어퍼처 내에서의 비디오 표시 화면의 좌측 상단 위치의 X 좌표값(APARX1)과 좌측 상단 위치의 Y 좌표값(APARY1) 및 우측 하단 위치의 X 좌표값(APARX2)과 우측 하단 위치의 Y 좌표값(APARY2)와의 관계를 나타낸다. 또한, 도 84(c)에 도시한 바와 같이, 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)의 표시 화면에서 좌측 상단의 캔버스 좌표(CNVCRD)의 값을 (Xs1, Ys1)로 나타내고, 우측 하단의 캔버스 좌표(CNVCRD)의 값을 (Xs2, Ys2)로 나타낸다. 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)의 표시 화면 영역 정보는 도 84(a)에 도시한 바와 같이 미디어 인덱스 번호 정보(INDEX)의 값이 "2"로 설정된 비디오 속성 항목 엘리먼트(VABITM) 내에 기술되고, 파선 δ 및 파선 ε에 도시한 바와 같이 대응 관계가 설정된다. 이와 같이 영상 정보를 나타내는 (1차 비디오 세트(PRMVS) 및 2차 비디오 세트(SCDVS)에 포함되는) 재생/표시 객체의 표시 화면 상에서의 표시 장소와 표시 크기는 비디오 속성 항목 엘리먼트(VABITM)를 사용하여 기술된다. 도 10에 도시한 바와 같이, 1차 비디오 세트(PRMVS)와 2차 비디오 세트(SCDVS)에는 사용자에게 표시되는 동화상으로서 메인 비디오(MANVD)와 서브 비디오(SUBVD)가 존재한다. 메인 비디오(MANVD)와 서브 비디오(SUBVD) 각각에서의 사용자에게 표시하는 화면 상에서의 표시 화면 장소와 크기 정보는 객체 매핑 정보(0BMAPl)(트랙 번호 할당 정보) 내의 메인 비디오 엘리먼트(MANVD)와 서브 비디오 엘리먼트(SUBVD)로부 터 대응하는 비디오 속성 항목 엘리먼트(VABITM)를 참조하는 것에 의해 지정될 수 있다. 즉, 도 84(a)에 도시한 바와 같이, 재생 목록(PLLST) 내의 타이틀 정보(TTINFO) 내에 존재하는 타이틀 엘리먼트 정보(TTELEM) 내의 객체 매핑 정보(OBMAPI) 내에 기술된 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내의 메인 비디오 엘리먼트(MANVD)에서의 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값이 "1"로 지정되어 있는 경우, 파선 η로 나타낸 바와 같이 미디어 인덱스 번호 정보(INDEX)의 값이 "1"로 설정되어 있는 비디오 속성 항목 엘리먼트(VABITM)를 지정할 수 있다. 그 결과, 메인 비디오(MANVD)의 표시 화면 크기와 표시 장소가 도 84(c)에 도시한 바와 같이 설정되어 있다. 마찬가지로, 2차 비디오 세트(SCDVS) 내의 서브 비디오(SUBVD)에 관한 표시 화면 크기와 표시 장소에 관해서는, 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 기술된 서브 비디오 엘리먼트(SUBVD) 내의 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값이 "2"로 설정되어 있는 경우, 파선 ξ로 표시된 관계에 나타낸 바와 같이 미디어 인덱스 번호 정보(INDEX)의 값이 "2"로 설정된 비디오 속성 항목 엘리먼트(VABITM)을 참조하고, 그에 의해 도 84(c)에 도시한 바와 같이 사용자에게 표시하는 화면상의 대응하는 서브 비디오(SUBVD)의 표시 화면 크기와 표시 화면 장소를 규정할 수 있게 된다. 또한, 오디오 정보에 대하여도 마찬가지로, 오디오 속성 항목 엘리먼트(AABITM) 내의 미디어 인덱스 번호 정보(INDEX)의 값을 메인 오디오 엘리먼트(MANAD) 또는 서브 오디오 엘리먼트(SUBAD) 내에서 지정하는 경우, 오디오 정보의 속성을 지정할 수 있다. 도 84(a)에 도시하는 구체적인 기술예에서는, 편의상 미디어 속성 정보(MDATRI) 내에 존재하는 오디오 속성 항목 엘리먼트(AABITM)가 1개 밖에 존재하지 않고, 그의 미디어 인덱스 번호 정보(INDEX)의 값이 "1"로 설정되어 있다. 이 구조에 따라, 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값이 각각 "1"로 설정되어 있는 3개의 메인 오디오 엘리먼트(MANAD)가 1차 오디오 비디오 클립 엘리먼트(PRAVCP) 내에 설정되어 있고, 각각의 메인 오디오 엘리먼트(MANAD)에 대하여, 각각의 트랙 번호 정보(TRCKAT) "1" 내지 "3"이 설정되어 있다. 또한, 마찬가지로, 미디어 속성 정보 내의 대응하는 미디어 속성 엘리먼트의 인덱스 번호(MDATNM)의 값이 "1"로 설정되고, 트랙 번호 정보(TRCKAT)의 값이 "4"로 설정되어 있는 서브 오디오 엘리먼트(SUBAD)가 2차 오디오 비디오 클립 엘리먼트(SCAVCP) 내에 설정되어 있다. 메인 오디오 엘리먼트(MANAD) 및 서브 오디오 엘리먼트(SUBAD) 각각에 설정된 트랙 번호 정보(TRCKAT)에 따라 트랙 내비게이션 정보(TRNAVI) 내에 오디오 트랙 엘리먼트(ADTRK)가 4개 배치되어 있고, 각각의 오디오 트랙 엘리먼트(ADTRK) 내에 오디오 언어 코드, 오디오 언어 코드 확장 기술자(ADLCEX) 및 사용자 선택이 가능하지 여부를 나타내는 플래그(USIFLG)가 기술되어 있고, 그에 의해 사용자에 의한 오디오 트랙 선택이 용이하게 되어 있다. 또한, 객체 매핑 정보(OBMAPI)(트랙 번호 할당 정보) 내의 각각의 메인 오디오 엘리먼트(MANAD) 및 각각의 서브 오디오 엘리먼트(SUBAD)와 트랙 내비게이션 정보(TRNAVI) 내의 오디오 트랙 엘리먼트(ADTRK)은 트랙 번호 정보(TRCKAT)(오디오 트랙 번호(ADTKNM))를 통해 서로 링크되고, 파선 θ, 파선 ι, 파선 λ 및 파선 κ로 나타낸 바와 같은 대응 관계가 제 공된다. 또한, 도 84(c)에 도시하는 고급 애플리케이션(ADAPL)을 표시하는 애플리케이션 영역(APPRGN)의 표시 화면 상에서의 위치와 크기는 매니페스트 파일(MNFST) 내에 기술된다. 즉, 도 84(c)에 도시하는 애플리케이션 영역(APPRGN)의 좌측 상단 위치의 캔버스 좌표(CNVCRD)의 값은 (Xr, Yr)로 나타낸다. 또한, 도 84(c)에 도시한 바와 같이, 애플리케이션 영역(APPRGN) 내의 폭을 rwidth로 나타내고, 그 내에서의 높이를 rheight로 나타낸다. 애플리케이션 영역(APPRGN)의 좌측 상단의 캔버스 좌표계(CNVCRD)의 좌표값 (Xr, Yr)은 파선 υ로 나타낸 바와 같이 매니페스트 파일(MNFST.XMF) 내의 영역 엘리먼트(RGNELE) 내에 "Xr"와 "Yr"로서 기술된다. 또한, 마찬가지로, 애플리케이션 영역(APPRGN)의 폭(rwidth)과 높이(rheight)는 애플리케이션 엘리먼트 내의 영역 엘리먼트(RGNELE) 내의 width 속성 정보의 값과 height 속성 정보의 값의 형태로 기술되고, 일점쇄선 ξ과 일점쇄선 π에 의해 대응 관계가 표시되어 있다. 또한, 도 84(b}에 도시하는 매니페스트 파일(MNFST)의 파일 이름과 저장 장소(경로)의 정보는 도 84(a)에 나타낸 재생 목록(PLLST) 내의 타이틀 정보(TTINFO) 내에 존재하는 타이틀 엘리먼트 정보(TTELEM)에 기술되는 객체 매핑 정보(OBMAPI) 내의 애플리케이션 세그먼트(APPLSG) 내에 기술되는 애플리케이션 리소스 엘리먼트(APRELE) 내에 기재되고, 도 84는 일점쇄선 μ로 그의 관계를 나타내고 있다. 또한, 도 84(c)에 도시하는 재생 버튼(35)으로부터 FF 버튼(38)에 이르는 각각의 애플리케이션 영역(APPRGN) 내의 각각의 그래픽 객체(컨텐츠 엘리먼트)의 표시 장소와 표시 크기는 마크업 파일(MRKUP) 내에 기술된다. 또한, 마크업 파 일(MRKUP.XMU)의 파일 이름과 저장 장소(경로)는 매니페스트 파일(MNFST)(애플리케이션 엘리먼트) 내의 마크업 엘리먼트(MRKELE) 내의 src 속성 정보 내에 기술된다.
상기한 실시예에 있어서의 효과는 다음과 같이 간결하게 요약될 수 있다.
1. 관리 정보에 따라 미리 정해진 타이밍에 필요한 컨텐츠를 사전에 가져오기하는 것에 의해 사용자에 대한 재생/표시를 도중에 중단시키는 일 없이 복수의 재생/표시 객체를 동시에 재생/표시할 수 있다.
2. 관리 정보 내에 시간축에 따른 재생/표시의 타이밍 제어정보를 제공하는 것에 의해, 동화상의 표시 시작/표시 종료 타이밍이나 동화상/애니메이션의 전환 타이밍에 관한 복잡한 프로그래밍이 가능해지고, 현재의 홈 페이지 화면과 비교하여 사용자에 대한 표현력이 크게 향상될 수 있다.
본 발명의 어떤 실시예들이 기술되어 있지만, 이들 실시예는 단지 예로서 제공된 것이며, 본 발명의 범위를 제한하기 위한 것이 아니다. 실제로, 본 명세서에 기술된 새로운 방법 및 시스템은 다양한 다른 형태로 구현될 수 있고, 또한 본 명세서에 기술된 방법 및 시스템의 형태에서의 여러 가지 생략, 치환 및 변경이 본 발명의 정신을 벗어나지 않고 행해질 수 있다. 첨부된 청구항 및 그의 등가물은 본 발명의 범위 및 정신 내에 속하는 형태 또는 변경을 포함하는 것으로 보아야 한다.

Claims (7)

  1. 관리 정보가 기록되어 있는 정보 저장 매체로서,
    상기 관리 정보는, 관리 정보의 해석 및 상기 해석에 기초한 처리를 수행하는 내비게이션 관리자, 리소스의 재생 및 표시 이전에 상기 리소스를 일시 저장하는 데이터 캐쉬, 및 상기 리소스를 재생 및 표시하는 프리젠테이션 엔진을 구비한 정보 재생 장치에 의해 재생될 수 있으며,
    상기 관리 정보는,
    상기 데이터 캐쉬 내에 일시 저장되는 상기 리소스의 리소스 이름 및 어떤 저장 장소를 나타내는 정보,
    상기 데이터 캐쉬에의 일시 저장을 시작하는 타이밍을 나타내는 정보,
    상기 데이터 캐쉬 내에 일시 저장된 상기 리소스를 표시하는 타이밍을 나타내는 정보, 및
    상기 데이터 캐쉬 내에 일시 저장된 상기 리소스를 표시하는 경우 화면에서의 표시 장소 및 표시 크기를 나타내는 정보를 포함하며,
    상기 관리 정보는,
    상기 데이터 캐쉬 안에 일시 저장된 상기 리소스의 상기 어떤 저장 장소가 네트워크 서버에 있는 경우, 상기 정보 재생 장치의 네트워크 환경에 대응하는 네트워크 처리용량에 따라 상기 데이터 캐쉬 내에 일시 저장되는 상기 리소스를 선택하는 데 사용되는 정보를 포함하는 것인, 관리 정보가 기록되어 있는 정보 저장 매 체.
  2. 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계,
    상기 관리 정보에 기초하여 결정된 타이밍에서 어떤 저장 장소로부터 컨텐츠를 획득하는 단계, 및
    상기 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계를 포함하는 데이터 처리 방법.
  3. 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계,
    상기 관리 정보에 기초하여 결정된 타이밍에서 어떤 저장 장소로부터 다른 저장 장소로 컨텐츠를 전송하는 단계, 및
    상기 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계를 포함하는 데이터 전송 방법.
  4. 정보 저장 매체로부터 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계,
    상기 관리 정보에 기초하여 결정된 타이밍에서 어떤 저장 장소로부터 다른 저장 장소로 컨텐츠를 전송하는 단계, 및
    상기 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계를 포함하는 정보 재생 방법.
  5. 어떤 저장 장소로부터 다른 저장 장소로 컨텐츠를 전송하는 데 사용되는 정보 및 상기 전송 이후에 상기 컨텐츠를 재생 및 표시하는 재생 및 표시 순서를 나타내는 정보를 포함하는 관리 정보의 편집을 가능하게 해주는 단계, 및
    상기 편집된 관리 정보에 기초하여 결정된 타이밍에서 상기 컨텐츠의 재생 및 표시를 수행하는 단계를 포함하는 정보 재생 방법.
  6. 재생 및 표시 순서를 나타내는 관리 정보를 판독하는 단계,
    상기 관리 정보에 기초하여 지정된 컨텐츠를 어떤 저장 장소로부터 다른 저장 장소로 전송하는 단계, 및
    상기 전송 이후의 저장 장소를 나타내는 정보에 기초하여 상기 관리 정보를 갱신하고 상기 갱신된 관리 정보를 기록하는 단계를 포함하는 정보 기록 방법.
  7. 어떤 저장 장소로부터 다른 저장 장소로 컨텐츠를 전송하는 데 사용되는 정보 및 상기 전송 이후에 상기 컨텐츠를 재생 및 표시하는 재생 및 표시 순서를 나타내는 정보를 포함하는 관리 정보의 편집을 가능하게 해주는 단계, 및
    상기 편집된 관리 정보를 기록하는 단계를 포함하는 정보 기록 방법.
KR1020060082635A 2005-08-30 2006-08-30 정보 저장 매체를 사용하는 정보 재생 시스템 KR20070026118A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005250305A JP2007065928A (ja) 2005-08-30 2005-08-30 情報記憶媒体、情報処理方法、情報転送方法、情報再生方法、情報再生装置、情報記録方法、情報記録装置、及びプログラム
JPJP-P-2005-00250305 2005-08-30

Publications (1)

Publication Number Publication Date
KR20070026118A true KR20070026118A (ko) 2007-03-08

Family

ID=37671186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060082635A KR20070026118A (ko) 2005-08-30 2006-08-30 정보 저장 매체를 사용하는 정보 재생 시스템

Country Status (6)

Country Link
US (38) US20070047901A1 (ko)
EP (1) EP1763034A3 (ko)
JP (1) JP2007065928A (ko)
KR (1) KR20070026118A (ko)
CN (1) CN1925049A (ko)
TW (1) TW200739533A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008117930A1 (en) * 2007-03-28 2008-10-02 Samsung Electronics Co., Ltd. Apparatus and method for reproducing audio/video data of information storage medium
KR20110085797A (ko) * 2010-01-21 2011-07-27 삼성전자주식회사 컨텐츠 파일 생성/제공 장치 및 방법
KR20150068664A (ko) * 2013-12-12 2015-06-22 한국전자통신연구원 피드백 정보를 선택적으로 전송하기 위한 mmt 시그널링 메시지 처리 방법
KR102409697B1 (ko) * 2022-04-06 2022-06-16 주식회사 알에프투디지털 단방향 오프셋 추정을 이용한 오디오 동기 시스템

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9032465B2 (en) 2002-12-10 2015-05-12 Ol2, Inc. Method for multicasting views of real-time streaming interactive video
US20090118019A1 (en) 2002-12-10 2009-05-07 Onlive, Inc. System for streaming databases serving real-time applications used through streaming interactive video
US8661496B2 (en) * 2002-12-10 2014-02-25 Ol2, Inc. System for combining a plurality of views of real-time streaming interactive video
US8893207B2 (en) * 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US9108107B2 (en) 2002-12-10 2015-08-18 Sony Computer Entertainment America Llc Hosting and broadcasting virtual events using streaming interactive video
US8549574B2 (en) * 2002-12-10 2013-10-01 Ol2, Inc. Method of combining linear content and interactive content compressed together as streaming interactive video
US8495678B2 (en) * 2002-12-10 2013-07-23 Ol2, Inc. System for reporting recorded video preceding system failures
US8366552B2 (en) * 2002-12-10 2013-02-05 Ol2, Inc. System and method for multi-stream video compression
US8949922B2 (en) * 2002-12-10 2015-02-03 Ol2, Inc. System for collaborative conferencing using streaming interactive video
US9192859B2 (en) 2002-12-10 2015-11-24 Sony Computer Entertainment America Llc System and method for compressing video based on latency measurements and other feedback
US10201760B2 (en) * 2002-12-10 2019-02-12 Sony Interactive Entertainment America Llc System and method for compressing video based on detected intraframe motion
US9077991B2 (en) * 2002-12-10 2015-07-07 Sony Computer Entertainment America Llc System and method for utilizing forward error correction with video compression
US8711923B2 (en) 2002-12-10 2014-04-29 Ol2, Inc. System and method for selecting a video encoding format based on feedback data
US8387099B2 (en) * 2002-12-10 2013-02-26 Ol2, Inc. System for acceleration of web page delivery
US8832772B2 (en) * 2002-12-10 2014-09-09 Ol2, Inc. System for combining recorded application state with application streaming interactive video output
US8964830B2 (en) 2002-12-10 2015-02-24 Ol2, Inc. System and method for multi-stream video compression using multiple encoding formats
US8840475B2 (en) * 2002-12-10 2014-09-23 Ol2, Inc. Method for user session transitioning among streaming interactive video servers
US9003461B2 (en) * 2002-12-10 2015-04-07 Ol2, Inc. Streaming interactive video integrated with recorded video segments
US9446305B2 (en) 2002-12-10 2016-09-20 Sony Interactive Entertainment America Llc System and method for improving the graphics performance of hosted applications
US9061207B2 (en) 2002-12-10 2015-06-23 Sony Computer Entertainment America Llc Temporary decoder apparatus and method
US9314691B2 (en) * 2002-12-10 2016-04-19 Sony Computer Entertainment America Llc System and method for compressing video frames or portions thereof based on feedback information from a client device
US9138644B2 (en) 2002-12-10 2015-09-22 Sony Computer Entertainment America Llc System and method for accelerated machine switching
US8526490B2 (en) * 2002-12-10 2013-09-03 Ol2, Inc. System and method for video compression using feedback including data related to the successful receipt of video content
US8468575B2 (en) 2002-12-10 2013-06-18 Ol2, Inc. System for recursive recombination of streaming interactive video
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US8239749B2 (en) 2004-06-25 2012-08-07 Apple Inc. Procedurally expressing graphic objects for web pages
JP4243862B2 (ja) * 2004-10-26 2009-03-25 ソニー株式会社 コンテンツ利用装置およびコンテンツ利用方法
JP4247626B2 (ja) * 2005-01-20 2009-04-02 ソニー株式会社 再生装置および再生方法
JP4595555B2 (ja) * 2005-01-20 2010-12-08 ソニー株式会社 コンテンツ再生装置およびコンテンツ再生方法
JP4741267B2 (ja) * 2005-03-28 2011-08-03 ソニー株式会社 コンテンツ推薦システム、通信端末およびコンテンツ推薦方法
US7511767B2 (en) * 2005-03-29 2009-03-31 Snell & Wilcox Limited Video storage device, and method of controlling a video storage device and video mixer
JP2006302346A (ja) * 2005-04-15 2006-11-02 Toshiba Corp 情報記録媒体、情報記録方法、情報再生方法、情報記録装置、情報再生装置
JP2007011928A (ja) * 2005-07-04 2007-01-18 Sony Corp コンテンツ提供システム、コンテンツ提供装置、コンテンツ配信サーバ、コンテンツ受信端末およびコンテンツ提供方法
JP5133508B2 (ja) 2005-07-21 2013-01-30 ソニー株式会社 コンテンツ提供システム、コンテンツ提供装置、コンテンツ配信サーバ、コンテンツ受信端末およびコンテンツ提供方法
JP2007074549A (ja) * 2005-09-08 2007-03-22 Toshiba Corp 情報記録媒体、情報記録方法、情報再生方法、情報記録装置、情報再生装置
JP2007163624A (ja) * 2005-12-12 2007-06-28 Fujitsu Ltd オンスクリーンディスプレイ装置およびその制御方法
JP4811046B2 (ja) 2006-02-17 2011-11-09 ソニー株式会社 コンテンツの再生装置、オーディオ再生機およびコンテンツの再生方法
EP1999883A4 (en) 2006-03-14 2013-03-06 Divx Llc FEDERATED DIGITAL RIGHTS MANAGEMENT SYSTEM COMPRISING CONFIDENCE SYSTEMS
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
US8793580B2 (en) 2006-06-06 2014-07-29 Channel D Corporation System and method for displaying and editing digitally sampled audio data
US8888592B1 (en) 2009-06-01 2014-11-18 Sony Computer Entertainment America Llc Voice overlay
US9899059B2 (en) * 2006-08-24 2018-02-20 Orange Method of management of a multimedia program, server, terminals, signal and corresponding computer programs
US9230068B2 (en) 2006-10-03 2016-01-05 Salesforce.Com, Inc. Method and system for managing license objects to applications in an application platform
JP4860459B2 (ja) * 2006-12-27 2012-01-25 京セラミタ株式会社 表示制御プログラム、表示制御装置、及び表示制御方法
US7814412B2 (en) * 2007-01-05 2010-10-12 Microsoft Corporation Incrementally updating and formatting HD-DVD markup
US8745501B2 (en) * 2007-03-20 2014-06-03 At&T Knowledge Ventures, Lp System and method of displaying a multimedia timeline
US20080235403A1 (en) * 2007-03-20 2008-09-25 At&T Knowledge Ventures, Lp System, method, and device to wirelessly communicate multimedia timeline data
CA2682946A1 (en) * 2007-04-11 2008-10-23 Thomson Licensing Authoring tools and methods for implementing the same
JP5666293B2 (ja) 2007-04-12 2015-02-12 トムソン ライセンシングThomson Licensing ビデオ・エンコーディング、およびデコーディングのためのスキップ/ダイレクトモードのコンテクストに依存するマージのための方法と装置
JP4901608B2 (ja) * 2007-06-29 2012-03-21 株式会社東芝 光ディスク再生装置及び光ディスク再生方法
US20090125812A1 (en) * 2007-10-17 2009-05-14 Yahoo! Inc. System and method for an extensible media player
US9843774B2 (en) * 2007-10-17 2017-12-12 Excalibur Ip, Llc System and method for implementing an ad management system for an extensible media player
US20090106639A1 (en) * 2007-10-17 2009-04-23 Yahoo! Inc. System and Method for an Extensible Media Player
KR20090050374A (ko) * 2007-11-15 2009-05-20 삼성전자주식회사 저장 매체를 이용한 컨텐츠의 연속 재생 방법 및 이를 위한장치
US8233768B2 (en) 2007-11-16 2012-07-31 Divx, Llc Hierarchical and reduced index structures for multimedia files
US9168457B2 (en) 2010-09-14 2015-10-27 Sony Computer Entertainment America Llc System and method for retaining system state
US8968087B1 (en) 2009-06-01 2015-03-03 Sony Computer Entertainment America Llc Video game overlay
US8147339B1 (en) 2007-12-15 2012-04-03 Gaikai Inc. Systems and methods of serving game video
US8613673B2 (en) 2008-12-15 2013-12-24 Sony Computer Entertainment America Llc Intelligent game loading
US8997161B2 (en) * 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
US9584446B2 (en) * 2008-03-18 2017-02-28 Vmware, Inc. Memory buffer management method and system having multiple receive ring buffers
EP2270801B1 (en) * 2008-04-16 2018-12-05 Panasonic Intellectual Property Management Co., Ltd. Recording medium, recording device, recording method, and reproduction device
WO2009130837A1 (ja) * 2008-04-23 2009-10-29 三菱電機株式会社 コンテンツ再生装置及びプログラム
TWI478581B (zh) * 2008-06-10 2015-03-21 Sunplus Technology Co Ltd 多個多媒體檔案的無接縫播放方法
TWI425416B (zh) * 2008-06-27 2014-02-01 Chi Mei Comm Systems Inc 音頻播放管理系統及方法
CN101651759B (zh) * 2008-08-13 2011-04-20 华为技术有限公司 媒体播放的控制方法、系统和设备
US10380102B2 (en) 2008-09-15 2019-08-13 Wolf Pack Products, Llc System for digital yearbook
US8595294B2 (en) 2008-09-15 2013-11-26 Wolf Pack Products, Llc System for digital yearbook with advertising
US8244801B2 (en) * 2008-09-15 2012-08-14 Wolf Pack Products, Llc System for digital yearbook delivery with multi-media data
US9373132B2 (en) 2008-09-15 2016-06-21 Wolf Pack Products, Llc System for digital yearbook with advertising
FI20080534A0 (fi) * 2008-09-22 2008-09-22 Envault Corp Oy Turvallinen ja valikoidusti kiistettävissä oleva tiedostovarasto
US20110307448A1 (en) * 2008-10-01 2011-12-15 Keiichi Tanaka Reproduction device
US8301583B2 (en) 2008-10-09 2012-10-30 International Business Machines Corporation Automated data conversion and route tracking in distributed databases
US8840476B2 (en) 2008-12-15 2014-09-23 Sony Computer Entertainment America Llc Dual-mode program execution
US8926435B2 (en) 2008-12-15 2015-01-06 Sony Computer Entertainment America Llc Dual-mode program execution
US8185477B2 (en) * 2008-12-31 2012-05-22 Ericsson Television Inc. Systems and methods for providing a license for media content over a network
US8099473B2 (en) 2008-12-31 2012-01-17 Apple Inc. Variant streams for real-time or near real-time streaming
US8578272B2 (en) 2008-12-31 2013-11-05 Apple Inc. Real-time or near real-time streaming
US8260877B2 (en) * 2008-12-31 2012-09-04 Apple Inc. Variant streams for real-time or near real-time streaming to provide failover protection
US8156089B2 (en) * 2008-12-31 2012-04-10 Apple, Inc. Real-time or near real-time streaming with compressed playlists
US8510303B2 (en) 2009-01-07 2013-08-13 Divx, Llc Singular, collective and automated creation of a media guide for online content
US20100191689A1 (en) * 2009-01-27 2010-07-29 Google Inc. Video content analysis for automatic demographics recognition of users and videos
EP2410529A1 (en) * 2009-03-16 2012-01-25 Panasonic Corporation Application running device
US8280226B2 (en) * 2009-04-06 2012-10-02 International Business Machines Corporation Content recorder multi-angle viewing and playback
US8527646B2 (en) * 2009-04-14 2013-09-03 Avid Technology Canada Corp. Rendering in a multi-user video editing system
US8818172B2 (en) * 2009-04-14 2014-08-26 Avid Technology, Inc. Multi-user remote video editing
US9723319B1 (en) 2009-06-01 2017-08-01 Sony Interactive Entertainment America Llc Differentiation for achieving buffered decoding and bufferless decoding
KR101624649B1 (ko) * 2009-08-14 2016-05-26 삼성전자주식회사 계층적인 부호화 블록 패턴 정보를 이용한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2011039614A1 (en) * 2009-09-29 2011-04-07 Nokia Corporation Systems, methods and apparatuses for media file streaming
CN102577309A (zh) * 2009-09-29 2012-07-11 诺基亚公司 用于动态媒体文件流送的系统、方法和装置
JP5110541B2 (ja) 2009-12-01 2012-12-26 Necビッグローブ株式会社 コンテンツ選択システム、提供装置、転送装置、コンテンツ選択方法、およびコンテンツ選択プログラム
WO2011068668A1 (en) 2009-12-04 2011-06-09 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
US20110183654A1 (en) * 2010-01-25 2011-07-28 Brian Lanier Concurrent Use of Multiple User Interface Devices
US8805963B2 (en) 2010-04-01 2014-08-12 Apple Inc. Real-time or near real-time streaming
GB201105502D0 (en) 2010-04-01 2011-05-18 Apple Inc Real time or near real time streaming
US8560642B2 (en) 2010-04-01 2013-10-15 Apple Inc. Real-time or near real-time streaming
CN102882845B (zh) 2010-04-07 2016-07-13 苹果公司 实时或准实时流传输
US8560331B1 (en) 2010-08-02 2013-10-15 Sony Computer Entertainment America Llc Audio acceleration
KR102000618B1 (ko) 2010-09-13 2019-10-21 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 부가기능의 관리
JP4937394B2 (ja) * 2010-09-17 2012-05-23 株式会社東芝 ストリームファイル管理装置及び方法
US8924993B1 (en) 2010-11-11 2014-12-30 Google Inc. Video content analysis for automatic demographics recognition of users and videos
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
JP5683301B2 (ja) * 2011-02-02 2015-03-11 キヤノン株式会社 画像記録装置
US8958824B2 (en) * 2011-02-14 2015-02-17 Samsung Electronics Co., Ltd. Method and apparatus for providing information and computer readable storage medium having a program recorded thereon for executing the method
US20130127877A1 (en) * 2011-02-28 2013-05-23 Joaquin Cruz Blas, JR. Parameterizing Animation Timelines
US9009605B2 (en) * 2011-03-22 2015-04-14 Don't Nod Entertainment Temporal control of a virtual environment
US8843586B2 (en) 2011-06-03 2014-09-23 Apple Inc. Playlists for real-time or near real-time streaming
US8856283B2 (en) 2011-06-03 2014-10-07 Apple Inc. Playlists for real-time or near real-time streaming
KR101928910B1 (ko) 2011-08-30 2018-12-14 쏘닉 아이피, 아이엔씨. 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8769628B2 (en) 2011-12-22 2014-07-01 Sandisk Technologies Inc. Remote access to a data storage device
US20130179199A1 (en) 2012-01-06 2013-07-11 Rovi Corp. Systems and methods for granting access to digital content using electronic tickets and ticket tokens
US8929701B2 (en) * 2012-02-15 2015-01-06 Draka Comteq, B.V. Loose-tube optical-fiber cable
JP6035842B2 (ja) * 2012-04-25 2016-11-30 ソニー株式会社 撮像装置、撮像処理方法、画像処理装置および撮像処理システム
US9628531B2 (en) * 2012-04-25 2017-04-18 Futurewei Technologies, Inc. Systems and methods for controlling client behavior in adaptive streaming
US9185009B2 (en) * 2012-06-20 2015-11-10 Google Inc. Status aware media play
US9197685B2 (en) 2012-06-28 2015-11-24 Sonic Ip, Inc. Systems and methods for fast video startup using trick play streams
US9143812B2 (en) 2012-06-29 2015-09-22 Sonic Ip, Inc. Adaptive streaming of multimedia
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
US9716892B2 (en) * 2012-07-02 2017-07-25 Qualcomm Incorporated Video parameter set including session negotiation information
WO2014015110A1 (en) 2012-07-18 2014-01-23 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
WO2014031885A1 (en) 2012-08-22 2014-02-27 Huawei Technologies Co., Ltd. Carriage of iso-bmff event boxes in an mpeg-2 transport stream
US8997254B2 (en) 2012-09-28 2015-03-31 Sonic Ip, Inc. Systems and methods for fast startup streaming of encrypted multimedia content
US8914836B2 (en) 2012-09-28 2014-12-16 Sonic Ip, Inc. Systems, methods, and computer program products for load adaptive streaming
US10194239B2 (en) * 2012-11-06 2019-01-29 Nokia Technologies Oy Multi-resolution audio signals
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9264475B2 (en) 2012-12-31 2016-02-16 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9948573B2 (en) * 2013-03-14 2018-04-17 Comcast Cable Communications, Llc Delivery of multimedia components according to user activity
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US9344517B2 (en) 2013-03-28 2016-05-17 Sonic Ip, Inc. Downloading and adaptive streaming of multimedia content to a device with cache assist
TWI491226B (zh) * 2013-04-02 2015-07-01 Hon Hai Prec Ind Co Ltd 視頻播放裝置及控制方法
US9247317B2 (en) 2013-05-30 2016-01-26 Sonic Ip, Inc. Content streaming with client device trick play index
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
US9336287B2 (en) * 2013-09-26 2016-05-10 SecurityDo Corp. System and method for merging network events and security events via superimposing data
US9343112B2 (en) 2013-10-31 2016-05-17 Sonic Ip, Inc. Systems and methods for supplementing content from a server
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
US9336675B2 (en) 2014-04-28 2016-05-10 Motorola Solutions, Inc. Methods and systems for presenting prioritized incident content
CN105320502A (zh) * 2014-06-24 2016-02-10 中兴通讯股份有限公司 一种终端及终端的多窗口显示方法
CN104166604A (zh) * 2014-08-15 2014-11-26 小米科技有限责任公司 视频备份方法和装置
CN105376610B (zh) * 2014-08-27 2019-03-19 Tcl集团股份有限公司 一种基于图片识别的视频切换方法及系统
US9842133B2 (en) 2014-09-12 2017-12-12 Observepoint, Inc. Auditing of web-based video
US9998518B2 (en) * 2014-09-18 2018-06-12 Multipop Llc Media platform for adding synchronized content to media with a duration
WO2016150350A1 (zh) * 2015-03-20 2016-09-29 柳州桂通科技股份有限公司 一种多媒体多信息同步重现的方法和系统
US11513658B1 (en) 2015-06-24 2022-11-29 Amazon Technologies, Inc. Custom query of a media universe database
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
EP3370298B1 (en) * 2015-10-30 2024-03-06 Kabushiki Kaisha Toshiba Battery control apparatus and battery system
CN106993227B (zh) * 2016-01-20 2020-01-21 腾讯科技(北京)有限公司 一种进行信息展示的方法和装置
CN105812902B (zh) * 2016-03-17 2018-09-04 联发科技(新加坡)私人有限公司 数据播放的方法、设备及系统
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
JP6866071B2 (ja) * 2016-04-25 2021-04-28 ヤマハ株式会社 端末装置、端末装置の動作方法およびプログラム
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
KR102321859B1 (ko) * 2016-07-21 2021-11-03 한화테크윈 주식회사 자바 스크립트를 이용한 실시간 미디어 스트리밍 방법 및 그 장치
CN106250468B (zh) * 2016-07-29 2019-07-19 捷开通讯(深圳)有限公司 环境信息的存储方法、回放方法、存储回放系统及终端
CN106658103A (zh) * 2016-11-15 2017-05-10 乐视控股(北京)有限公司 一种分享视频流数据的方法、源设备及电子设备
US10979785B2 (en) * 2017-01-20 2021-04-13 Hanwha Techwin Co., Ltd. Media playback apparatus and method for synchronously reproducing video and audio on a web browser
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
US10819821B2 (en) * 2017-04-07 2020-10-27 Futurewei Technologies, Inc. Method and system for allocating content using a content-based centrality metric
WO2019008748A1 (ja) * 2017-07-07 2019-01-10 株式会社Asj データ処理システムおよびこれを用いた分散データシステム
JP7309738B2 (ja) * 2017-11-21 2023-07-18 タラリ・ネットワークス・インコーポレイテッド 適応プライベートネットワーク(apn)におけるインテリジェント書込保護キャッシュ(iwpc)
CN109887447B (zh) * 2017-12-06 2022-11-15 宏碁股份有限公司 数字广告牌的检修方法及故障排除与警示的方法
CN108052578B (zh) * 2017-12-08 2020-07-28 上海星佑网络科技有限公司 用于信息处理的方法和装置
CN110620946B (zh) 2018-06-20 2022-03-18 阿里巴巴(中国)有限公司 字幕显示方法及装置
CN109189726B (zh) * 2018-08-08 2020-12-22 奇安信科技集团股份有限公司 一种读写日志的处理方法及装置
CN108924626B (zh) * 2018-08-17 2021-02-23 腾讯科技(深圳)有限公司 图片生成方法、装置、设备及存储介质
CN109040827B (zh) * 2018-08-27 2021-07-13 Tcl移动通信科技(宁波)有限公司 一种视频文件的播放方法、存储介质及智能终端
CN110876030B (zh) * 2018-08-30 2022-03-25 佳能株式会社 记录控制设备及其控制方法和存储介质
US11398168B2 (en) * 2019-04-03 2022-07-26 Samsung Electronics Co., Ltd. Mobile device with a foldable display and method of providing user interfaces on the foldable display
CN113316094B (zh) * 2020-02-26 2023-03-31 成都鼎桥通信技术有限公司 一种集群组短数据的发送方法和系统
US11880315B2 (en) 2020-04-15 2024-01-23 Hewlett-Packard Development Company, L.P. Operation of an output component to produce a representation of an instruction set
CN111669623B (zh) * 2020-06-28 2023-10-13 腾讯科技(深圳)有限公司 视频特效的处理方法、装置以及电子设备
KR102414993B1 (ko) * 2020-09-18 2022-06-30 네이버 주식회사 연관 정보 제공 방법 및 시스템
US20230229383A1 (en) * 2020-09-22 2023-07-20 Bose Corporation Hearing augmentation and wearable system with localized feedback
WO2022076174A1 (en) * 2020-10-06 2022-04-14 Arris Enterprises Llc System and method for audio control of concurrently displayed video programs
TWI763232B (zh) * 2021-01-04 2022-05-01 瑞昱半導體股份有限公司 消除未穩態雜訊之方法及其裝置
EP4327558A1 (en) * 2021-04-20 2024-02-28 Block, Inc. Live playback streams
CN113515255B (zh) * 2021-05-17 2023-02-07 英华达(上海)科技有限公司 音频播放控制方法、系统、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020050268A (ko) * 1999-11-10 2002-06-26 추후제출 재기록 가능한 디스크 매체의 편집 및 공유 시스템
US20030161615A1 (en) * 2002-02-26 2003-08-28 Kabushiki Kaisha Toshiba Enhanced navigation system using digital information medium
US20040199653A1 (en) * 2003-04-03 2004-10-07 International Business Machines Corporation Multiple description hinting and switching for adaptive media services
KR20040095803A (ko) * 2003-04-28 2004-11-16 엘지전자 주식회사 대화형 광디스크의 리얼타임 데이터 스트리밍 관리 및재생방법

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3633439A1 (de) * 1986-10-01 1988-04-14 Mahlo Gmbh & Co Kg Verfahren und vorrichtung zur messung der schussfaden- oder maschenreihenlage bei textilien
DE3717305C1 (de) * 1987-05-22 1988-07-28 Mahlo Gmbh & Co Kg Verfahren und Vorrichtung zur Messung der Schussfaden- oder Maschenreihenlage von Textilbahnen
DE3734294A1 (de) * 1987-10-09 1989-04-27 Sick Optik Elektronik Erwin Optische oberflaechen-inspektionsvorrichtung
GB2270791B (en) * 1992-09-21 1996-07-17 Grass Valley Group Disk-based digital video recorder
US5614940A (en) * 1994-10-21 1997-03-25 Intel Corporation Method and apparatus for providing broadcast information with indexing
FR2726299A1 (fr) * 1994-11-02 1996-05-03 Scanera Sc Dispositif d'inspection de textiles
CA2168327C (en) * 1995-01-30 2000-04-11 Shinichi Kikuchi A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium.
CA2173812C (en) * 1995-04-11 2000-02-08 Shinichi Kikuchi Recording medium, recording apparatus and recording method for recording data into recording medium, and reproducing apparatus and reproduction method for reproducing data from recording medium
US6097383A (en) * 1997-01-23 2000-08-01 Zenith Electronics Corporation Video and audio functions in a web television
US20030161614A1 (en) * 1997-11-28 2003-08-28 Kabushiki Kaisha Toshiba Method and apparatus for playing back data recorded on a recoding medium
GB0005792D0 (en) * 2000-03-11 2000-05-03 Shelton Vision Systems Ltd Automatic inspection method
AU2001283004A1 (en) * 2000-07-24 2002-02-05 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
JP3673166B2 (ja) * 2000-12-05 2005-07-20 株式会社ネクサス 広告情報の供給方法
GB0029893D0 (en) * 2000-12-07 2001-01-24 Sony Uk Ltd Video information retrieval
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
GB0031615D0 (en) * 2000-12-27 2001-02-07 Koninkl Philips Electronics Nv Improved television services
FR2819321B1 (fr) * 2001-01-10 2005-01-21 Amadeus Procede de traitement et d'acces a des donnees dans un systeme de reservation par ordinateur, et systeme de mise en oeuvre
US20020194618A1 (en) * 2001-04-02 2002-12-19 Matsushita Electric Industrial Co., Ltd. Video reproduction apparatus, video reproduction method, video reproduction program, and package media for digital video content
US20050160352A1 (en) * 2001-06-14 2005-07-21 Samsung Electronics Co., Ltd. Information storage medium containing preload information, apparatus for and method of reproducing therefor
JP2003091975A (ja) * 2001-09-17 2003-03-28 Pioneer Electronic Corp 情報再生装置
KR100476781B1 (ko) * 2001-12-28 2005-03-16 삼성전자주식회사 캐싱기법을 이용한 mpeg-4 시스템 단말의 제어방법
JP2003259316A (ja) * 2002-02-28 2003-09-12 Toshiba Corp ストリーム処理システムおよびストリーム処理プログラム
US20040047588A1 (en) * 2002-03-27 2004-03-11 Tomoyuki Okada Package medium, reproduction apparatus, and reproduction method
JP3646707B2 (ja) * 2002-04-12 2005-05-11 ソニー株式会社 番組情報の取得装置および取得方法
US8635355B2 (en) * 2002-05-01 2014-01-21 Stmicroelectronics, Inc. Method for pre-caching content to enable true VOD systems from NVOD or stream limited VOD systems
KR100514733B1 (ko) * 2002-05-24 2005-09-14 삼성전자주식회사 인터렉티브 모드를 지원하는 정보저장매체, 그 재생방법및 재생장치
JP3749910B2 (ja) * 2002-09-25 2006-03-01 松下電器産業株式会社 再生装置、プログラム、再生方法
KR100463204B1 (ko) * 2003-02-12 2004-12-23 삼성전자주식회사 선택적인 데이터 캐시 구조를 갖는 데이터 프로세싱 장치및 이를 포함하는 컴퓨터 시스템
WO2004077434A1 (en) * 2003-02-25 2004-09-10 Lg Electronics Inc. Method of reproducing content information for an interactive optical disc apparatus
JP2004274627A (ja) * 2003-03-11 2004-09-30 Sony Corp 映像素材編集装置及び映像素材編集方法
JP2005100585A (ja) * 2003-09-05 2005-04-14 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法
CA2550536A1 (en) * 2003-12-19 2005-07-21 Sonic Solutions Personalization services for entities from multiple sources
EP1711009A4 (en) * 2004-01-30 2010-10-27 Panasonic Corp RECORDING MEDIUM, REPRODUCING APPARATUS, PROGRAM, AND REPRODUCTION METHOD
KR101058007B1 (ko) * 2004-05-18 2011-08-19 삼성전자주식회사 기록 매체에 저장된 데이터를 삭제하는 방법 및 삭제된데이터를 복원하는 방법
US7354852B2 (en) * 2004-12-09 2008-04-08 Asm Japan K.K. Method of forming interconnection in semiconductor device
JP2007004896A (ja) * 2005-06-23 2007-01-11 Toshiba Corp 情報記憶媒体、情報転送方法、情報再生方法、及び情報記録方法
KR20070009382A (ko) * 2005-07-15 2007-01-18 엘지전자 주식회사 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
JP2007257714A (ja) * 2006-03-22 2007-10-04 Toshiba Corp 情報再生装置及び再生方法
JP2007257754A (ja) * 2006-03-24 2007-10-04 Toshiba Corp 情報再生装置及び再生方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020050268A (ko) * 1999-11-10 2002-06-26 추후제출 재기록 가능한 디스크 매체의 편집 및 공유 시스템
US20030161615A1 (en) * 2002-02-26 2003-08-28 Kabushiki Kaisha Toshiba Enhanced navigation system using digital information medium
US20040199653A1 (en) * 2003-04-03 2004-10-07 International Business Machines Corporation Multiple description hinting and switching for adaptive media services
KR20040095803A (ko) * 2003-04-28 2004-11-16 엘지전자 주식회사 대화형 광디스크의 리얼타임 데이터 스트리밍 관리 및재생방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008117930A1 (en) * 2007-03-28 2008-10-02 Samsung Electronics Co., Ltd. Apparatus and method for reproducing audio/video data of information storage medium
KR20110085797A (ko) * 2010-01-21 2011-07-27 삼성전자주식회사 컨텐츠 파일 생성/제공 장치 및 방법
WO2011090348A3 (ko) * 2010-01-21 2011-11-10 삼성전자 주식회사 컨텐츠 파일 생성/재생 장치 및 방법
US8983906B2 (en) 2010-01-21 2015-03-17 Samsung Electronics Co., Ltd Method and apparatus for creating/playing a content file
KR20150068664A (ko) * 2013-12-12 2015-06-22 한국전자통신연구원 피드백 정보를 선택적으로 전송하기 위한 mmt 시그널링 메시지 처리 방법
KR102409697B1 (ko) * 2022-04-06 2022-06-16 주식회사 알에프투디지털 단방향 오프셋 추정을 이용한 오디오 동기 시스템

Also Published As

Publication number Publication date
US20070092209A1 (en) 2007-04-26
US20070094518A1 (en) 2007-04-26
US20070086102A1 (en) 2007-04-19
US20070086753A1 (en) 2007-04-19
US20070070537A1 (en) 2007-03-29
EP1763034A2 (en) 2007-03-14
US20070094515A1 (en) 2007-04-26
US20070094514A1 (en) 2007-04-26
US20070094585A1 (en) 2007-04-26
US20070098359A1 (en) 2007-05-03
US20070140079A1 (en) 2007-06-21
US20070086752A1 (en) 2007-04-19
US20130282794A1 (en) 2013-10-24
US20070079001A1 (en) 2007-04-05
US20070098354A1 (en) 2007-05-03
US20070092205A1 (en) 2007-04-26
US20070101163A1 (en) 2007-05-03
US20070091492A1 (en) 2007-04-26
US20070077037A1 (en) 2007-04-05
US20070094587A1 (en) 2007-04-26
US20070092199A1 (en) 2007-04-26
US20070086742A1 (en) 2007-04-19
US20070085141A1 (en) 2007-04-19
JP2007065928A (ja) 2007-03-15
US20070071408A1 (en) 2007-03-29
US20070091495A1 (en) 2007-04-26
US20070127353A1 (en) 2007-06-07
US20070077036A1 (en) 2007-04-05
US20070047901A1 (en) 2007-03-01
US20070091493A1 (en) 2007-04-26
US20070091494A1 (en) 2007-04-26
TW200739533A (en) 2007-10-16
US20070071407A1 (en) 2007-03-29
US20130230298A1 (en) 2013-09-05
US20070086099A1 (en) 2007-04-19
CN1925049A (zh) 2007-03-07
US20070094586A1 (en) 2007-04-26
US20070143213A1 (en) 2007-06-21
US20110013883A1 (en) 2011-01-20
US20070086741A1 (en) 2007-04-19
US20070079228A1 (en) 2007-04-05
US20070092226A1 (en) 2007-04-26
EP1763034A3 (en) 2007-05-02

Similar Documents

Publication Publication Date Title
US7983526B2 (en) Information storage medium, information reproducing apparatus, and information reproducing method
KR20070026118A (ko) 정보 저장 매체를 사용하는 정보 재생 시스템
US20070177849A1 (en) Information reproducing system using information storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application