KR20060122929A - 재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터구조 - Google Patents

재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터구조 Download PDF

Info

Publication number
KR20060122929A
KR20060122929A KR1020067016345A KR20067016345A KR20060122929A KR 20060122929 A KR20060122929 A KR 20060122929A KR 1020067016345 A KR1020067016345 A KR 1020067016345A KR 20067016345 A KR20067016345 A KR 20067016345A KR 20060122929 A KR20060122929 A KR 20060122929A
Authority
KR
South Korea
Prior art keywords
stream
sub
file
data
main
Prior art date
Application number
KR1020067016345A
Other languages
English (en)
Other versions
KR101104528B1 (ko
Inventor
모또끼 가또
도시야 하마다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20060122929A publication Critical patent/KR20060122929A/ko
Application granted granted Critical
Publication of KR101104528B1 publication Critical patent/KR101104528B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

본 발명은 AV 콘텐츠를 재생하는 경우에, 인터랙티브한 조작을 가능하게 하는 재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터 구조에 관한 것이다. 컨트롤러(34)는, 미리 오디오 스트림 번호의 순번 리스트를 취득하여 둔다. 유저에 의해 음성 절환의 명령이 이루어진 경우, 컨트롤러는, 재생하고 있는 오디오 스트림의 번호의 다음 오디오 스트림의 번호를 취득한다. 재생 장치에 재생하는 기능을 갖는다고 판정된 스트림이, 메인 Clip과 서브 Clip의 어느 쪽에 있는지를 조사하여, 대응하는 오디오 스트림이 다중화되어 있는 Clip과 함께, Main Path에서 참조되는 메인 Clip을 읽어낸다. 그리고, 대응하는 Clip의 오디오 스트림 파일과, 메인 Clip에 포함되는, 재생할 파일이 스위치(57 내지 59, 77)에 의해 선택되어, 비디오 데이터 처리부(96), 오디오 데이터 처리부(97)에 의해 합성되어 출력된다. 본 발명은, 재생 장치에 적용할 수 있다.
AV 콘텐츠, 다중화, 인터랙티브, DVD, 자막 절환, 음성 절환

Description

재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터 구조{REPRODUTION DEVICE, REPRODUCTION METHOD, PROGRAM, RECORDING MEDIUM, AND DATA STRUCTURE}
본 발명은, 재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터 구조에 관한 것으로, 특히, AV 콘텐츠를 재생하는 경우에, 인터랙티브 조작을 가능하게 하는 재생 장치 및 재생 방법, 프로그램, 기록 매체와 데이터 구조에 관한 것이다.
DVD(Digital Versatile Disc) 비디오의 규격에 있어서는, 기록 매체에 기록되어 있는 영화 등의 AV(Audio Visual) 콘텐츠를 재생하는 경우, 유저에게, 음성 절환이나 자막 절환과 같은 인터랙티브 조작을 제공하고 있다(예를 들면, 비특허 문헌 1 참조). 구체적으로는, 도 1의 표시 장치(1)에 표시되어 있는 AV 콘텐츠에 대해, 유저는, 리모트 컨트롤러(2)의 음성 절환 버튼(11)이나 자막 절환 버튼(12)을 조작함으로써, 음성의 절환이나 자막을 절환한다. 예를 들면, 음성 1이 초기 상태로 설정되어 있고, 유저에 의해 리모트 컨트롤러(2)의 음성 절환 버튼(11)이 조작된 경우, 도 2에 도시하는 바와 같이, 음성 1이 음성 2로 절환된다.
DVD 비디오 상의 AV 콘텐츠는, MPEG(Moving Picture Experts Group)2 프로그램 스트림의 형식으로 기록되어 있다. 이 MPEG2 프로그램 스트림에는, 도 3에 도시하는 바와 같이, 비디오 스트림(도 3의 Video), 복수의 오디오 스트림(도 3의 오 디오 1, 2, 3), 및 복수의 서브픽쳐 스트림(도 3의 서브픽쳐 1, 2, 3)이, 비디오 스트림에 AV 동기하여 재생되도록 다중화되어 있다. 서브픽쳐 스트림(서브픽쳐 1, 2, 3)은, 비트맵 화상이 런랭스 부호화된 스트림으로서, 주로 자막 용도로 이용된다.
일반적으로, 복수의 오디오 스트림은, 상이한 언어의 음성을 기록하기 위해 이용되고, 복수의 서브픽쳐 스트림은, 상이한 언어의 자막을 기록하기 위해 이용된다. 유저는, 비디오가 재생되고 있는 경우, 인터랙티브하게 원하는 언어의 음성이나 자막을, 리모트 컨트롤러(2)를 이용하여 선택할 수 있다.
또한, DVD 비디오는, 프로그램 스트림 중의 복수의 오디오 스트림(오디오 1, 2, 3)과 복수의 서브픽쳐 스트림(서브픽쳐 1, 2, 3)에 대해, 유저에게 제공하는 음성 번호와 자막 번호의 관계를 나타내는 테이블 구조를 정의하고 있다.
도 4는, 유저에게 제공하는 음성 신호와 자막 신호의 관계를 나타내는 스트림 넘버 테이블을 설명하는 도면이다. 여기에서는, 음성 번호를 A_SN(Audio Stream Number)이라 부르고, 자막 번호를 S_SN(SubPicture Stream Number)이라 부른다. 도 4에 있어서는, MPEG2 프로그램 스트림의 복수의 오디오 스트림의 각각에 A_SN이 부여되어 있음과 함께, MPEG2 프로그램 스트림의 복수의 서브픽쳐 스트림의 각각에, S_SN이 부여되어 있다. A_SN=1:오디오 2이고, A_SN=2:오디오 1이고, A_SN=3:오디오 3이다. 또한, S_SN=1:서브픽쳐 3이고, S_SN=2:서브픽쳐 1이고, S_SN=3:서브픽쳐 2이다. 여기에서는, A_SN이나 S_SN의 번호가 작을수록, 유저에게 제공되는 음성 신호로서 우선도가 높다. 즉, A_SN=1은 디폴트로 재생되는 오디오 스트림이고, S_SN=1은 디폴트로 재생되는 서브픽쳐 스트림이다.
구체적으로는, 도 1의 초기 상태에서 재생되는 음성 1은, A_SN=1인 오디오 2(도 4)에 대응하고 있고, 음성이 절환된 후, 도 2에서 재생되는 음성 2는, A_SN=2인 오디오 1(도 4)에 대응하고 있다.
비특허 문헌 1: DVD Specifications for Read-Only Disc Part 3; Version1.1
<발명의 개시>
<발명이 해결하고자 하는 과제>
그러나, DVD 비디오에서는, 프로그램 스트림의 비디오를 재생하고 있는 경우에, 유저에 의한 음성 절환이나 자막 절환의 조작은, 재생하고 있는 프로그램 스트림에 다중화되어 있는 오디오 스트림과 서브픽쳐 스트림 중에서만, 선택할 수 있었다. 즉, 도 3에 도시하는 바와 같은 MPEG2 프로그램 스트림을 재생하고 있는 경우에, 음성의 절환을 행하는 경우, 선택지는 오디오 1 내지 3 중 어느 하나로 된다.
그 때문에, 재생하고 있는 프로그램 스트림과는 별개의 다른 스트림으로 오디오 스트림과 자막을 준비한 경우, 유저는, 음성 절환이나 자막 절환의 조작이, 다른 스트림으로부터 선택할 수 없기 때문에, 확장성이 없다는 과제가 있었다.
본 발명은, 이러한 상황을 감안하여 이루어진 것으로, 메인의 AV 스트림과는 상이한 다른 스트림이나 데이터 파일로 음성이나 자막 등을 준비한 경우에, 유저에 의한 음성 절환이나 자막 절환의 조작이, 메인의 AV 스트림 외에, 상이한 다른 스트림이나 데이터 파일 중에서 선택할 수 있도록 하는 것이다.
<과제를 해결하기 위한 수단>
본 발명의 재생 장치는, 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 수단과, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 수단과, 선택 수단에 의해 선택된 부속 데이터가, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 수단과, 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택 수단에 의해 선택되고, 읽어내기 수단에 의해 읽어내어진 서브 파일에 포함되는 부속 데이터를 재생하는 재생 수단을 구비하는 것을 특징으로 한다.
제1 정보는, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 부속 데이터와, 서브 재생 패스에 의해 참조되는 부속 데이터를 정의하는 테이블을 포함하고, 선택 수단은, 테이블에 정의되어 있는 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 것으로 할 수 있다.
선택 수단에 의해 선택된 부속 데이터를, 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 판정 수단을 더 구비하고, 읽어내기 수단은, 판정 수단에 의 해 부속 데이터를 재생하는 기능을 갖는다고 판정된 경우로서, 그 부속 데이터가 서브 재생 패스에 의해 참조되는 서브 파일에 포함될 때, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내고, 재생 수단은, 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택 수단에 의해 선택되고, 읽어내기 수단에 의해 읽어내어진 서브 파일에 포함되는 부속 데이터를 재생하는 것으로 할 수 있다.
선택 수단에 의해 선택된 부속 데이터를, 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 판정 수단을 더 구비하고, 읽어내기 수단은, 판정 수단에 의해 부속 데이터를 재생하는 기능을 갖는다고 판정된 경우로서, 그 부속 데이터가 서브 재생 패스에 의해 참조되는 서브 파일에 포함될 때, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내고, 재생 수단은, 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택 수단에 의해 선택되고, 읽어내기 수단에 의해 읽어내어진 서브 파일에 포함되는 부속 데이터를 재생하는 것으로 할 수 있다.
테이블은, 부속 데이터의 속성 정보를 더 정의하고, 판정 수단은, 테이블에 정의되어 있는 부속 데이터의 속성 정보에 기초하여, 부속 데이터를 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 것으로 할 수 있다.
제2 정보는, 서브 재생 패스의 타입을 나타내는 타입 정보와, 서브 재생 패스가 참조하는 서브 파일의 파일명과, 서브 재생 패스가 참조하는 서브 파일의 IN점과 OUT점을 포함하는 것으로 할 수 있다.
제2 정보는, 서브 재생 패스와 메인 재생 패스가 동일한 타이밍에서 재생되기 위한, 메인 재생 패스에 의해 참조되는 AV 스트림 파일을 지정하는 지정 정보와, IN점이, 메인 재생 패스의 시간축 상에서 동기하여 스타트하기 위한, 메인 재생 패스 상의 시각을 더 포함하는 것으로 할 수 있다.
본 발명의 재생 방법은, 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 스텝과, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 스텝과, 선택 스텝의 처리에 의해 선택된 부속 데이터가, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 스텝과, 읽어내기 스텝의 처리에 의해 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택 스텝의 처리에 의해 선택되고, 읽어내기 스텝의 처리에 의해 읽어내어진 서브 파일에 포함되는 부속 데이터를 재생하는 재생 스텝을 포함하는 것을 특징으로 한다.
본 발명의 프로그램은, 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 스텝과, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 스텝과, 선택 스텝의 처리에 의해 선택된 부속 데이터가, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 스텝과, 읽어내기 스텝의 처리에 의해 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택 스텝의 처리에 의해 선택되고, 읽어내기 스텝의 처리에 의해 읽어내어진 서브 파일에 포함되는 부속 데이터를 재생하는 재생 스텝을 포함하는 처리를 컴퓨터에 실행시키는 것을 특징으로 한다.
제1 본 발명에 있어서는, 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보가 취득되고, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터가 선택되고, 선택된 부속 데이터가, 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과 함께 서브 재생 패스에 의해 참조되는 서브 파일이 읽어내어지고, 읽어내어진 AV 스트림 파일에 포함되는 메인 화상 데이터, 및 선택되어 읽어내어진 서브 파일에 포함되는 부속 데이터가 재생된다.
본 발명의 제1 기록 매체에 기록되어 있는 관련 데이터는, 부속 데이터가, AV 스트림 파일의 위치를 나타내는 메인 재생 패스에 의해 사용되는 클립에 포함되는지, 또는, AV 스트림 파일의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는지를 나타내고, 관련 데이터가, 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는 것을 나타내는 경우, 관련 데이터에는, 재생할 서브 재생 패스를 특정하는 ID와, 서브 재생 패스에 의해 사용되는 클립을 특정하는 ID와, 클립에 의해 재생되는 엘리멘트리 스트림을 특정하는 ID 중, 적어도 재생할 서브 재생 패스를 특정하는 ID가 포함되어 있는 것을 특징으로 한다.
제2 본 발명에 있어서는, 관련 데이터는, 부속 데이터가, AV 스트림 파일의 위치를 나타내는 메인 재생 패스에 의해 사용되는 클립에 포함되는지, 또는, AV 스트림 파일의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는 지를 나타내고, 관련 데이터가, 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는 것을 나타내는 경우, 관련 데이터에는, 재생할 서브 재생 패스를 특정하는 ID와, 서브 재생 패스에 의해 사용되는 클립을 특정하는 ID와, 클립에 의해 재생되는 엘리멘트리 스트림을 특정하는 ID 중, 적어도 재생할 서브 재생 패스를 특정하는 ID가 포함되어 있는 것을 특징으로 한다.
본 발명의 제2 기록 매체에 기록되어 있는 재생 제어 파일은, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 위치를 나타내는 서브 재생 패스를 포함하고, 메인 재생 패스는, 메인 재생 패스를 재생 중에 선택할 수 있는 엘리멘트리 스트림의 일람을 정의하는 테이블을 갖고, 테이블은, 선택할 수 있는 엘리멘트리 스트림이, 메인 재생 패스에 의해 선택되는 AV 스트림 파일에 포함되어 있는지, 서브 재생 패스에 의해 선택되는 서브 파일에 포함되어 있는지를 나타내는 데이터를 갖는 것을 특징으로 한다.
본 발명의 데이터 구조는, 재생 제어 파일은, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 위치를 나타내는 서브 재생 패스를 포함하고, 메인 재생 패스는, 메인 재생 패스를 재생 중에 선택할 수 있는 엘리멘트리 스트림의 일람을 정의하는 테이블을 갖고, 테이블은, 선택할 수 있는 엘리멘트리 스트림이, 메인 재생 패스에 의해 선택되는 AV 스트림 파일에 포함되어 있는지, 서브 재생 패스에 의해 선택되는 서브 파일에 포함되어 있는지를 나타내는 데이터를 갖는 것을 특징으로 한다.
제3 본 발명에 있어서는, 재생 제어 파일에, AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 위치를 나타내는 서브 재생 패스가 포함되고, 메인 재생 패스에, 메인 재생 패스를 재생 중에 선택할 수 있는 엘리멘트리 스트림의 일람을 정의하는 테이블이 포함되고, 테이블에, 선택할 수 있는 엘리멘트리 스트림이, 메인 재생 패스에 의해 선택되는 AV 스트림 파일에 포함되어 있는지, 서브 재생 패스에 의해 선택되는 서브 파일에 포함되어 있는지를 나타내는 데이터가 포함된다.
<발명의 효과>
본 발명에 따르면, AV 스트림 파일의 재생에 대해, 인터랙티브한 조작을 행할 수 있다. 특히, 본 발명에 따르면, 메인 재생 패스에 의해 참조되는 AV 스트림 파일과는 상이한, 서브 재생 패스에 의해 참조되는 서브 파일에 대해서도, 인터랙티브 조작을 행할 수 있다.
도 1은, 종래의 음성 절환을 설명하는 도면.
도 2는, 종래의 음성 절환을 설명하는 도면.
도 3은, MPEG2 프로그램 스트림의 구성을 설명하는 도면.
도 4는, 유저에게 제공하는 음성 신호와 자막 신호의 관계를 나타내는 스트림 넘버 테이블을 설명하는 도면.
도 5는, 본 발명을 적용한 재생 장치에 장착되는 기록 매체 상의 어플리케이 션 포맷의 예를 도시하는 도면.
도 6은, 메인 패스와 서브 패스의 구조를 설명하는 도면.
도 7은, 메인 패스와 서브 패스의 예를 설명하는 도면.
도 8은, 메인 패스와 서브 패스의 다른 예를 설명하는 도면.
도 9는, 메인 패스와 서브 패스의 또 다른 예를 설명하는 도면.
도 10은, 메인 패스와 서브 패스의 다른 예를 설명하는 도면.
도 11은, PlayList()의 신택스(syntax)를 도시하는 도면.
도 12는, SubPath()의 신택스를 도시하는 도면.
도 13은, SubPlayItem(i)의 신택스를 도시하는 도면.
도 14는, PlayItem()의 신택스를 도시하는 도면.
도 15는, STN_table()의 신택스를 도시하는 도면.
도 16은, stream_entry()의 신택스의 예를 도시하는 도면.
도 17은, stream_attribute()의 신택스를 도시하는 도면.
도 18은, stream_cording_type을 설명하는 도면.
도 19는, video_format을 설명하는 도면.
도 20은, frame_rate를 설명하는 도면.
도 21은, aspect_ratio를 설명하는 도면.
도 22는, audio_presentation_type을 설명하는 도면.
도 23은, sampling_frequency를 설명하는 도면.
도 24는, Character code를 설명하는 도면.
도 25는, 본 발명을 적용한 재생 장치의 구성예를 나타내는 블록도.
도 26은, 도 25의 재생 장치에서의 재생 처리를 설명하는 플로우차트.
도 27은, 도 25의 재생 장치에서의 재생 처리를 설명하는 플로우차트.
도 28은, 도 25의 재생 장치에서의 재생 처리를 설명하는 플로우차트.
도 29은, 유저에 의해 음성의 절환이 지시되는 경우의 처리를 설명하는 플로우차트.
도 30은, 유저에 의해 자막의 절환이 지시되는 경우의 처리를 설명하는 플로우차트.
도 31은, 퍼스널 컴퓨터의 구성을 도시하는 도면.
도 32A는, PlayList()의 신택스의 다른 예를 도시하는 도면.
도 32B는, PlayList()의 신택스의 다른 예를 도시하는 도면.
도 33은, STN_table()의 신택스의 다른 예를 도시하는 도면.
도 34는, 도 33의 STN_table()에서의 type을 설명하는 도면.
<부호의 설명>
20: 재생 장치, 31: 스토리지 드라이브, 32: 스위치, 33: AV 디코더부, 34: 컨트롤러, 51 내지 54: 버퍼, 55, 56: PID 필터, 57 내지 59: 스위치, 71: 백그라운드 디코더, 72: MPEG2 비디오 디코더, 73: 프리젠테이션 그래픽스 디코더, 74: 인터랙티브 그래픽스 디코더, 75: 오디오 디코더, 76: Text-ST 콤포지션, 77: 스위치, 91: 백그라운드 플레인 생성부, 92: 비디오 플레인 생성부, 93: 프리젠테이션 그래픽스 플레인 생성부, 94: 인터랙티브 그래픽스 플레인 생성부, 95: 버퍼, 96: 비디오 데이터 처리부, 97: 오디오 데이터 처리부
이하, 도면을 참조하여, 본 발명의 실시 형태에 대해 설명한다.
도 5는, 본 발명을 적용한 재생 장치(20)(도 25를 참조하여 후술함)에 장착되는 기록 매체 상의 어플리케이션 포맷의 예를 도시하는 도면이다. 기록 매체는, 후술하는 광 디스크 외에, 자기 디스크나 반도체 메모리이어도 된다.
어플리케이션 포맷은, AV(Audio Visual) 스트림의 관리를 위해, PlayList와 Clip의 2개의 레이어를 갖고 있다. 여기에서는, 1개의 AV 스트림과 거기에 부수하는 정보인 Clip 인포메이션의 페어를 1개의 오브젝트라고 생각하고, 그것들을 함께 Clip이라고 부른다. 이하, AV 스트림을 AV 스트림 파일이라고도 한다. 또한, Clip 인포메이션을 Clip 인포메이션 파일이라고도 한다.
일반적으로, 컴퓨터 등에서 이용되는 파일은 바이트열로서 취급되는데, AV 스트림 파일의 콘텐츠는 시간축 상에 전개되고, Clip의 액세스 포인트는, 주로, 타임 스탬프로 PlayList에 의해 지정된다. 즉, PlayList와 Clip은, AV 스트림의 관리를 위한 레이어이다.
Clip 중의 액세스 포인트가 타임 스탬프로 PlayList에 의해 나타나고 있는 경우, Clip Information 파일은, 타임 스탬프로부터, AV 스트림 파일 내의 디코드를 개시할 어드레스 정보를 찾아내기 위해 도움이 된다.
PlayList는, AV 스트림의 재생 구간의 모임이다. 한 AV 스트림 중의 1개의 재생 구간은 PlayItem이라 불리고, 그것은, 시간축 상의 재생 구간의 IN점(재생 개 시점)과 OUT점(재생 종료점)의 페어로 표시된다. 따라서, PlayList는, 도 5에 도시하는 바와 같이 1개, 또는 복수의 PlayItem에 의해 구성된다.
도 5에서, 왼쪽으로부터 1번째의 PlayList는 2개의 PlayItem으로 구성되고, 그 2개의 PlayItem에 의해, 좌측의 Clip에 포함되는 AV 스트림의 전반 부분과 후반 부분이 각각 참조되고 있다. 또한, 왼쪽으로부터 2번째의 PlayList는 1개의 PlayItem으로 구성되고, 그것에 의해, 우측의 Clip에 포함되는 AV 스트림 전체가 참조되고 있다. 또한, 왼쪽으로부터 3번째의 PlayList는 2개의 PlayItem으로 구성되고, 그 2개의 PlayItem에 의해, 좌측의 Clip에 포함되는 AV 스트림이 있는 부분과, 우측의 Clip에 포함되는 AV 스트림이 있는 부분이 각각 참조되고 있다.
예를 들면, 도 5의 디스크 네비게이션 프로그램에 의해, 그때의 재생 위치를 나타내는 정보로서 왼쪽으로부터 1번째의 PlayList에 포함되는 좌측의 PlayItem이 지정된 경우, 그 PlayItem이 참조하는, 좌측의 Clip에 포함되는 AV 스트림의 전반 부분의 재생이 행해진다.
디스크 네비게이션 프로그램은, PlayList의 재생 순서나, PlayList의 인터랙티브 재생을 컨트롤하는 기능을 갖는다. 또한, 디스크 네비게이션 프로그램은, 각종 재생의 실행을 유저가 지시하기 위한 메뉴 화면을 표시하는 기능 등도 갖는다. 이 디스크 네비게이션 프로그램은, 예를 들면, Java(등록 상표) 등의 프로그램 언어로 기술되어 기록 매체 상에 준비된다.
본 실시 형태에서는, PlayList 중에서, 1개 이상의 PlayItem의 나열에 의해(연속하는 PlayItem에 의해) 만들어지는 재생 패스를 메인 패스(Main Path)라 부르 고, PlayList 중에서, Main Path에 평행(병렬)하게, 1개 이상의 SubPath의 나열에 의해(비연속이어도 되고, 연속이어도 되는 SubPlayItem에 의해) 만들어지는 재생 패스를 서브 패스(SubPath)라고 칭한다. 즉, 재생 장치(20)(도 25를 참조하여 후술)에 장착되는 기록 매체 상의 어플리케이션 포맷은, 메인 패스에 관련지워져(맞추어) 재생되는 서브 패스(SubPath)를 PlayList 중에 갖는다.
도 6은, 메인 패스와 서브 패스의 구조를 설명하는 도면이다. PlayList는, 1개의 메인 패스와 1개 이상의 서브 패스를 가질 수 있다. 1개의 서브 패스는, 1개 이상의 SubPlayItem의 나열에 의해 만들어진다.
도 6의 예의 경우, PlayList는, 3개의 PlayItem의 나열에 의해 만들어지는 1개의 메인 패스와 3개의 서브 패스를 갖고 있다. 메인 패스를 구성하는 PlayItem에는, 선두로부터 차례로 각각 ID(Identification)가 부여되어 있다. 구체적으로는, 메인 패스는, PlayItem_id=0, PlayItem_id=1 및 PlayItem_id=2의 PlayItem으로 이루어진다. 또한, 서브 패스에도 선두로부터 차례로 Subpath_id=0, Subpath_id=1, 및 Subpath_id=2와 같이 각각 ID가 부여되어 있다. Subpath_id=0의 서브 패스에는 1개의 SubPlayItem이 포함되고, Subpath_id=1의 서브 패스에는 2개의 SubPlayItem이 포함되고, Subpath_id=2의 서브 패스에는 1개의 SubPlayItem이 포함된다.
예를 들면, Subpath_id=1의 서브 패스는, 영화의 디렉터즈컷 등에 적용되어, 소정의 AV 스트림의 부분에만 영화 감독 등의 코멘트가 들어있는 경우를 생각할 수 있다.
1개의 PlayItem이 참조하는 ClipAV 스트림 파일에는, 적어도 비디오 스트림 데이터(메인 화상 데이터)가 포함된다. 또한, ClipAV 스트림 파일에 포함되는 비디오 스트림(메인 화상 데이터)과 동일한 타이밍에서(동기하여) 재생되는 오디오 스트림이 1개 이상 포함되어도 되며, 포함되지 않아도 된다. 또한, ClipAV 스트림 파일에 포함되는 비디오 스트림과 동일한 타이밍에서 재생되는 비트맵 자막 스트림이 1개 이상 포함되어도 되며, 포함되지 않아도 된다. 또한, ClipAV 스트림 파일에 포함되는 비디오 스트림과 동일한 타이밍에서 재생되는 인터랙티브 그래픽스 스트림이 1개 이상 포함되어도 되며, 포함되지 않아도 된다. 그리고, ClipAV 스트림 파일에 포함되는 비디오 스트림과, 비디오 스트림과 동일한 타이밍에서 재생되는 오디오 스트림, 비트맵 자막 스트림 파일, 또는 인터랙티브 그래픽스 스트림이 다중화되어 있다. 즉, 1개의 PlayItem이 참조하는 ClipAV 스트림 파일에는, 비디오 스트림 데이터와, 그 비디오 스트림에 맞추어 재생되는 0개 이상의 오디오 스트림, 0개 이상의 비트맵 자막 스트림 데이터 및 0개 이상의 인터랙티브 그래픽스 스트림 데이터가 다중화되어 있다.
또한, 1개의 SubPlayItem은, PlayItem이 참조하는 ClipAV 스트림 파일과는 상이한 스트림(별개 스트림)의 오디오 스트림 데이터나 자막 데이터를 참조한다.
메인 패스만을 갖는 PlayList를 재생하는 경우, 유저에 의한 음성 절환이나 자막 절환의 조작은, 그 메인 패스가 참조하는 Clip에 다중화되어 있는 오디오 스트림과 서브픽쳐 스트림 중에서만 음성이나 자막을 선택할 수 있다. 이에 비해, 메인 패스와 서브 패스를 갖는 PlayList를 재생하는 경우, 그 메인 패스가 참조하 는 ClipAV 스트림 파일에 다중화되어 있는 오디오 스트림과 서브픽쳐 스트림 외에, SubPlayItem이 참조하는 Clip의 오디오 스트림이나 서브픽쳐 스트림을 참조할 수 있다.
이와 같이, 1개의 PlayList 내에 SubPath를 복수 사용하여, 각각의 SubPath가 각각 SubPlayItem을 참조하는 구성으로 하였으므로, 확장성이 높은, 또한, 자유도가 높은 AV 스트림을 실현할 수 있다. 즉, 다음에, SubPlayItem을 추가할 수 있는 구성으로 할 수 있다.
도 7은, 메인 패스와 서브 패스의 예를 설명하는 도면이다. 도 7에 있어서는, 메인 패스와 동일한 타이밍에서(AV 동기하여) 재생되는 오디오의 재생 패스를, 서브 패스를 사용하여 나타내고 있다.
도 7의 PlayList에는, 메인 패스로서, PlayItem_id=0인 1개의 PlayItem과, 서브 패스로서 1개의 SubPlayItem이 포함되어 있다. SubPlayItem()은, 다음에 나타내는 데이터가 포함되어 있다. 우선, PlayList 내의 SubPath(서브 패스)가 참조하는 Clip을 지정하기 위한 Clip_Information_file_name을 포함한다. 도 7의 예의 경우, SubPlayItem에 의해, SubClip_entry_id=0인 Auxiliary audio stream(오디오 스트림)이 참조되고 있다. 또한, Clip(여기에서는, Auxiliary audio stream) 내의 SubPath의 재생 구간을 지정하기 위한 SubPlayItem_IN_time과 SubPlayItem_OUT_time을 포함한다. 또한, Main path의 시간축 상에서, SubPath가 재생 개시하는 시각을 지정하기 위한 sync_PlayItem_id와 sync_start_PTS_of_PlayItem을 포함한다. 도 7의 예의 경우, sync_PlayItem_id=0 이 되고, sync_start_PTS_of_PlayItem=t1로 되어 있다. 이에 따라, 메인 패스의 PlayItem_id=0의 시간축 상에서 SubPath가 재생을 개시할 시각 t1을 지정할 수 있다. 즉, 도 7의 예의 경우에서는, 메인 패스의 재생 개시 시각 t1과 서브 패스의 개시 시각 t1이 동시각인 것을 나타내고 있다.
여기에서, SubPath에 참조되는 오디오의 ClipAV 스트림은, STC 불연속점(시스템 타임 베이스의 불연속점)을 포함해서는 안된다. 서브 패스에 사용되는 Clip의 오디오 샘플의 클록은, 메인 패스의 오디오 샘플의 클록으로 로크되어 있다.
바꾸어 말하면, SubPlayItem()에는, SubPath가 참조하는 Clip을 지정하는 정보, SubPath의 재생 구간을 지정하는 정보 및 Main path의 시간축 상에서, SubPath가 재생을 개시할 시각을 지정하는 정보가 포함되어 있다. SubPath에 사용되는 ClipAV 스트림이 STC를 포함하지 않기 때문에, SubPlayItem()에 포함되는 정보(SubPath가 참조하는 Clip을 지정하는 정보, SubPath의 재생 구간을 지정하는 정보 및 Main path의 시간축 상에서 SubPath가 재생을 개시할 시각을 지정하는 정보)에 기초하여, 메인 패스가 참조하는 ClipAV 스트림과는 상이한 ClipAV 스트림의 오디오 스트림을 참조하여, 재생할 수 있다.
이와 같이, PlayItem과 SubPlayItem은, ClipAV 스트림 파일을 각각 관리하는 것으로서, 여기에서는, PlayItem이 관리하는 ClipAV 스트림 파일과 SubPlayItem이 관리하는 ClipAV 스트림 파일은 상이한 파일로 된다.
한편, 도 7의 예와 마찬가지로 하여, 메인 패스와 동일한 타이밍에서 재생되는 자막 스트림 재생 패스를, 서브 패스를 사용하여 나타낼 수도 있다.
도 8은, 메인 패스와 서브 패스의 다른 예를 설명하는 도면이다. 도 8에 있어서는, 메인 패스가, 상이한 타이밍에서 재생되는 오디오의 재생 패스를, 서브 패스를 사용하여 나타내고 있다. 여기에서, 메인 패스의 PlayItem이 참조하는 메인 AV 스트림 파일은, 도 7과 마찬가지이므로 생략하고 있다.
예를 들면, 메인 패스를 정지화면의 슬라이드 쇼로 하고, 서브 패스의 오디오 패스를 메인 패스의 BGM(백그라운드 뮤직)으로서 사용하는 경우에, 이와 같은 구성이 이용된다. 즉, 유저가, 슬라이드 쇼의 화상 갱신을 재생 장치(player)에 명령했을 때에, BGM을 중단시키지 않고 재생시키는 경우에 이용된다.
도 8에 있어서는, 메인 패스에 PlayItem_id=O, 1, 2가 배치되고, 서브 패스에 1개의 SubPlayItem이 배치되어 있다. 그리고, SubPath가, Clip(Auxiliary audio stream) 내의 SubPath의 재생 구간을 지정하기 위한 SubPlayItem_IN_time과 SubPlayItem_OUT_time을 포함한다. 도 8의 예의 경우, SubPlayItem에 의해, Clip(Auxiliary audio stream)이 참조되고 있다. 도 8과 도 7을 비교하는데, 도 8에서는, SubPlayItem에 sync_PlayItem_id와 sync_start_PTS_of_PlayItem을 포함하지 않는다. 이는, 메인 패스가 참조하는 AV 스트림의(비디오 데이터의) 타이밍과 오디오의 재생 타이밍은 관계없기 때문에, Main path의 시간축 상에서 SubPath가 재생을 개시하는 시각을 지정할 필요가 없기 때문이다. 즉, 단지 Main Path가 참조하는 AV 스트림과 SubPath가 참조하는 오디오 스트림을 맞추어 재생한다고 하는 정보만 있으면 된다.
또한, 여기에서, AV 스트림에 포함되는 비디오 스트림의 데이터와 서브 패스 에 의해 참조되는 오디오 스트림의 데이터의 재생 타이밍이 상이하다고 기재하고 있는데, 보다 상세하게는, AV 스트림에 포함되는 비디오 스트림의 재생 타이밍과, 오디오 스트림의 재생 타이밍은 일치하기는 하지만(즉, 비디오 스트림에 오디오 스트림이 관련지워져 있지만), 비디오 스트림 내의 소정 프레임을 재생 중에, 대응하는 소리가 재생된다고 하는 구체적인 대응지음까지는 행해지지 않은 것을 나타내고 있다. 즉, 도 7의 예에서는, 비디오 스트림의 재생 타이밍과, 오디오 스트림의 재생 타이밍이 일치한 상태에서, 비디오 스트림 내의 소정의 프레임을 재생 중에, 대응하는 소리가 재생된다고 하는 구체적인 대응지음까지 행해지고 있지만, 도 8의 예에서는, 비디오 스트림의 재생 타이밍과, 오디오 스트림의 재생 타이밍이 일치하고 있지만, 구체적인 대응지음까지는 행해져 있지 않아, 비디오 스트림 내의 소정 프레임을 재생 중에, 대응하는 소리가 재생되는 것은 아니다.
도 9는, 메인 패스와 서브 패스의 다른 예를 설명하는 도면이다. 도 9에서는, 메인 패스와 동일한 타이밍에서 재생되는 텍스트 자막(Interactive graphics stream)의 재생 패스를, 서브 패스를 사용하여 나타내고 있다. 여기에서, 메인 패스의 PlayItem이 참조하는 메인 AV 스트림 파일은, 도 7과 마찬가지이므로 생략하고 있다.
이 경우, 텍스트 자막은 MPEG-2 시스템의 다중화 스트림, 혹은, 다중화 스트림이 아닌 데이터 파일로서 정의된다. 이 데이터 파일은, 메인 패스의 비디오에 동기하여 재생되는 대사의 텍스트 데이터(문자 코드의 나열)와, 그 애트리뷰트(attribute)를 합한 파일이다. 애트리뷰트는, 텍스트 데이터를 렌더링하는 경우 에 사용하는 폰트 종류, 폰트의 크기, 문자의 색 등의 정보이다.
도 9와 도 7을 비교하는데, 도 9에서는, SubPlayItem에 의해, SubClip_entry_id=0, 1, …, N의 Text based subtitle(텍스트 자막)을 참조할 수 있다. 즉, 1개의 SubPlayItem으로, 동일한 타이밍에 복수의 텍스트 자막 파일을 참조하는 구조를 갖고, 이 SubPlayItem을 재생하는 경우에는, 복수의 텍스트 자막 파일로부터 1개의 텍스트 자막 파일이 선택되어 재생된다. 예를 들면, 복수 언어의 텍스트 자막 파일 중에서, 1개의 텍스트 자막 파일이 선택되어 재생된다. 구체적으로는, SubClip_entry_id=0 내지 N 중에서(유저의 명령에 기초하여) 1개가 선택되고, 그 ID가 참조하는 Text based subtitle이 재생된다.
또한, 텍스트 자막 파일에 한정하지 않고, 비트맵 자막 스트림 파일, 트랜스포트 스트림 파일, 각종 데이터 파일 등에 대해서도 마찬가지로 적용할 수 있다. 또한, 캐릭터의 코드나 그것을 렌더링하는 정보를 포함하는 데이터 파일이라도, 마찬가지로 적용할 수 있다.
도 10은, 메인 패스와 서브 패스의 다른 예를 설명하는 도면이다. 도 10에서는, 메인 패스가, 상이한 타이밍에서 재생되는 인터랙티브 그래픽스 스트림(Interactive graphics stream)의 재생 패스를, 서브 패스를 사용하여 나타내고 있다.
도 10과 도 8을 비교하는데, 도 10에서는, SubPlayItem에 의해, SubClip_entry_id=O, 1, …, N의 Interactive graphics stream(인터랙티브 그래픽스 스트림)을 참조할 수 있다. 즉, 1개의 SubPlayItem으로, 동일한 타이밍에 복수 의 인터랙티브 그래픽스 스트림 파일을 참조하는 구조를 갖고, 이 SubPlayItem을 재생하는 경우에는, 복수의 인터랙티브 그래픽스 스트림 파일로부터 1개의 인터랙티브 그래픽스 스트림 파일이 선택되어 재생된다. 구체적으로는, SubClip_entry_id=0 내지 N 중에서(유저의 명령에 기초하여) 1개가 선택되어, 그 ID가 참조하는 Interactive graphics stream이 재생된다. 예를 들면, 유저로부터의 명령에 기초하여, 인터랙티브 그래픽스 스트림의 언어 중 1개가 선택되고, 선택된 언어의 인터랙티브 그래픽스 스트림이 재생된다.
다음으로, 도 6 내지 도 10을 이용하여 설명한 메인 패스와 서브 패스의 구조를 구체적으로 실현하기 위한 데이터 구조(syntax)를 설명한다.
도 11은, PlayList()의 신택스를 도시하는 도면이다.
length는, 이 length 필드의 직후부터 PlayList()의 마지막까지의 바이트수를 나타내는 32비트의 부호없는 정수이다. length의 뒤에는, 16비트의 reserved_for_future_use가 준비된다. number_of_PlayItems은, PlayList 내에 있는 PlayItem의 수를 나타내는 16비트의 필드이다. 예를 들면, 도 6의 예의 경우 PlayItem의 수는 3개이다. PlayItem_id의 값은, PlayList 중에서 PlayItem()이 나타나는 순서로 0부터 분배된다. 예를 들면, 도 6, 도 8, 또는 도 10에 도시하는 바와 같이, PlayItem_id=O, 1, 2가 분배된다.
number_of_SubPaths는, PlayList 내에 있는 SubPath의 수(엔트리수)를 나타내는 16비트의 필드이다. 예를 들면, 도 6의 예의 경우, SubPath의 수는 3개이다. Subpath_id의 값은, PlayList 중에서 SubPath()가 나타나는 순서로 0부터 분배된 다. 예를 들면, 도 6에 도시하는 바와 같이, Subpath_id=O, 1, 2가 분배된다. 그 후의 for문에서는, PlayItem의 수만큼 PlayItem이 참조되고, SubPath의 수만큼 SubPath가 참조된다.
도 11의 다른 안으로서 도 32에 나타내는 Syntax도 생각할 수 있다. 도 11에서는, SubPath의 정보를 저장한 데이터 구조 SubPath()를 PlayList() 내에 마련하였지만, 도 32에서는 PlayList()와는 독립한 데이터 구조로 하고 있다. 도 32A의 PlayList()에는, Main path의 PlayItem만이 기술되고, 도 32B의 SubPaths()에는, SubPath, SubPlayItem이 기술된다. 도 32와 같은 데이터 구조로 해두면, SubPaths()를 PlayList()가 저장되는 파일과는 별개의 파일에 저장할 수 있다. 예를 들면, SubPath()가 저장된 파일과 SubPath에 의해 참조되고 있는 자막 스트림 파일 혹은 오디오 스트림 파일 등을 네트워크로부터 다운로드하여, 기록 매체에 저장되어 있는 Main path와 동시에 재생하는 용도를 생각할 수 있다. 즉, SubPath의 확장이 보다 용이하게 실현될 수 있다. PlayList()가 저장되는 파일과 SubPaths()가 저장되는 파일의 관련 지움은, 예를 들면 파일명의 일부를 일치시킴으로써 실현할 수 있다.
도 12는, SubPath()의 신택스를 도시하는 도면이다.
length는, 이 length 필드의 직후부터 SubPath()의 마지막까지의 바이트수를 나타내는 32비트의 부호없는 정수이다. length의 뒤에는, 16비트의 reserved_for_future_use가 준비된다. SubPath_type은, SubPath의 어플리케이션 종류를 나타내는 8비트의 필드이다. SubPath_type은, 예를 들면, SubPath가 오디 오인지, 비트맵 자막인지, 텍스트 자막인지 등의 종류를 나타내는 경우에 이용된다. 즉, 도 7 내지 도 10에서, 전술한 바와 같은 Sub path의 종류를 나타낸다. SubPath_type의 뒤에는, 15비트의 reserved_for_future_use가 준비된다. is_repeat_SubPath는, SubPath의 재생 방법을 지정하는 1비트의 필드로서, 메인 패스를 재생하는 동안에 SubPath의 재생을 반복하여 행할지, 또는 SubPath의 재생을 1회만 행할지를 나타내는 것이다. 예를 들면, 도 8이나 도 10에 도시하는 바와 같은 메인 AV 스트림과 서브 패스가 지정하는 Clip의 재생 타이밍이 상이한 경우 등에 이용된다. is_repeat_SubPath의 뒤에는, 8비트의 reserved_for_future_use가 준비된다. number_of_SubPlayItems은, 1개의 SubPath 내에 있는 SubPlayItem의 수(엔트리수)를 나타내는 8비트의 필드이다. 예를 들면, number_of_SubPlayItems은, 도 6의 SubPath_id=0의 SubPlayItem은 1개이고, Subpath_id=1의 SubPlayItem은 2개이다. 그 후의 for문에서는, SubPlayItem의 수만큼 SubPlayItem이 참조된다.
도 13은, SubPlayItem(i)의 신택스를 도시하는 도면이다.
length는, 이 length 필드의 직후부터 Sub PlayItem()의 마지막까지의 바이트수를 나타내는 16비트의 부호없는 정수이다.
도 13에서는, SubPlayItem이 1개의 Clip을 참조하는 경우와, 복수의 Clip을 참조하는 경우로 나누어져 있다.
먼저, SubPlayItem이 1개의 Clip을 참조하는 경우에 대해 설명한다.
SubPlayItem에는, Clip을 지정하기 위한 Clip_Information_file_name[0]이 포함된다. 또한, Clip의 코덱 방식을 지정하는 Clip_codec_identifier[0], reserved_for_future_use, 멀티 클립의 등록의 유무를 나타내는 플래그인 is_multi_Clip_entries, STC 불연속점(시스템 타임 베이스의 불연속점)에 관한 정보인 ref_to_STC_ifd[0]을 포함한다. is_multi_Clip_entries의 플래그가 세워져 있는 경우, SubPlayItem이 복수의 Clip을 참조하는 경우의 신택스가 참조된다. 또한, Clip 내에 있는 SubPath의 재생 구간을 지정하기 위한 SubPlayItem_IN_time과 SubPlayItem_OUT_time을 포함한다. 또한, main path의 시간축 상에서 SubPath가 재생 개시할 시각을 지정하기 위해 sync_PlayItem_id와 sync_start_PTS_of_PlayItem을 포함한다. 이 sync_PlayItem_id와 sync_start_PTS_of_PlayItem은, 전술한 바와 같이, 도 7과 도 9의 경우(메인 AV 스트림과 서브 패스에 의해 나타나는 파일의 재생 타이밍이 동일한 경우)에 사용되고, 도 8과 도 10의 경우(메인 AV 스트림과 서브 패스에 의해 나타나는 파일의 재생 타이밍이 상이한 경우)에는 사용되지 않는다. 또한, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, sync_start_PTS_of_PlayItem은, SubPlayItem이 참조하는 Clip에 있어서 공통적으로 사용된다.
다음으로, SubPlayItem이 복수의 Clip을 참조하는 경우(if(is_multi_Clip_entries==1b)인 경우, 즉 멀티 클립의 등록이 행해지고 있는 경우)에 대해 설명한다. 구체적으로는, 도 9나 도 10에 도시하는 바와 같이, SubPlayItem이 복수의 Clip을 참조하는 경우를 나타낸다.
num_of_Clip_entries는, Clip의 수를 나타내고 있고, Clip_Information_file_name[subclip_entry_id]의 수가, Clip_Information_file_name[0]을 제외하는, Clips을 지정한다. 즉, Clip_Information_file_name[0]을 제외하는, Clip_Information_file_name[1], Clip_Information_file_name[2] 등의 Clip을 지정한다. 또한, SubPlayItem은, Clip의 코덱 방식을 지정하는 Clip_codec_identifier[subclip_entry_id], STC 불연속점(시스템 타임 베이스의 불연속점)에 관한 정보인 ref_to_STC_id[subclip_entry_id] 및 reserved_for_future_use를 포함한다.
또한, 복수의 Clip의 사이에, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id 및 sync_start_PTS_of_PlayItem은 공통적으로 사용된다. 도 9의 예의 경우, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id 및 sync_start_PTS_of_PlayItem은, SubClip_entry_id=0 내지 N의 사이에서 공통적으로 사용되는 것으로서, 선택된 SubClip_entry_id에 대한 Text based subtitle이 이 SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id 및 sync_start_PTS_of_PlayItem에 기초하여 재생된다.
여기에서, subclip_entry_id의 값은, SubPlayItem 내에 있는 Clip_Information_file_name[subclip_entry_id]가 나타나는 순서로 1부터 분배된다. 또한, Clip_Information_file_name[0]의 subclip_entry_id는 O이다.
도 14는, PlayItem()의 신택스를 도시하는 도면이다.
length는, 이 length 필드의 직후부터 PlayItem()의 마지막까지의 바이트수를 나타내는 16비트의 부호없는 정수이다. Clip_Information_file_name[0]은, PlayItem이 참조하는 Clip을 지정하기 위한 필드이다. 도 7의 예의 경우, Clip_Information_file_name[0]에 의해, 메인 AV 스트림이 참조된다. 또한, Clip의 코덱 방식을 지정하는 Clip_codec_identifier[0], reserved_for_future_use, is_multi_angle, connection_condition, STC 불연속점(시스템 타임 베이스의 불연속점)에 관한 정보인 ref_to_STC_id[0]을 포함한다. 또한, Clip 중의 PlayItem의 재생 구간을 지정하기 위한 IN_time과 OUT_time을 포함한다. 도 7의 예의 경우, IN_time과 OUT_time에 의해, 메인 ClipAV 스트림 파일의 재생 범위가 표시된다. 또한, U0_mask_table(), PlayItem_random_access_mode, still_mode를 포함한다. is_multi_angle이 다수 있는 경우에 대해서는, 본 발명과 직접적으로는 관계없기 때문에 그 설명을 생략한다.
PlayItem() 내의 STN_table()은, 대상의 PlayItem과 거기에 관련지워져 재생되는 1개 이상의 SubPath가 준비되어 있는 경우에, 유저에 의한 음성 절환이나 자막 절환의 조작이, 그 PlayItem이 참조하는 Clip과 이들 1개 이상의 SubPath가 참조하는 Clips 중에서 선택할 수 있는 구조를 제공한다.
도 15는, STN_table()의 신택스를 도시하는 도면이다. STN_table()은, PlayItem의 속성으로서 설정되어 있다.
length는, 이 length 필드의 직후부터 STN_table()의 마지막까지의 바이트수를 나타내는 16비트의 부호없는 정수이다. length의 뒤에는, 16비트의 reserved_for_future_use가 준비된다. num_of_video_stream_entries는, STN_table() 중에서 엔트리되는(등록되는) video_stream_id가 부여되는 스트림수를 나타낸다. video_stream_id는, 비디오 스트림을 식별하기 위한 정보이고, video_stream_number는, 비디오 절환에 사용되는, 유저가 볼 수 있는 비디오 스트림 번호이다. num_of_audio_stream_entries는, STN_table() 중에서, 엔트리되는 audio_stream_id가 부여되는 스트림수를 나타낸다. audio_stream_id는 오디오 스트림을 식별하기 위한 정보이고, audio_stream_number는 음성 절환에 사용되는 유저가 볼 수 있는 오디오 스트림 번호이다.
num_of_PG_txtST_stream_entries는, STN_table() 중에서 엔트리되는 PG_txtST_stream_id가 부여되는 스트림수를 나타낸다. 이 중에서는, DVD의 서브픽쳐와 같은 비트맵 자막을 런랭스 부호화한 스트림(PG, Presentation Graphics stream)과 텍스트 자막 파일(txtST)이 엔트리된다. PG_txtST_stream_id는 자막 스트림을 식별하기 위한 정보이고, PG_txtST_stream_number는 자막 절환에 사용되는 유저가 볼 수 있는 자막 스트림 번호(텍스트 서브타이틀 스트림의 번호)이다.
num_of_IG_stream_entries는, STN_table() 중에서 엔트리되는 IG_stream_id가 부여되는 스트림수를 나타낸다. 이 안에서는, 인터랙티브 그래픽스 스트림이 엔트리된다. IG_stream_id는 인터랙티브 그래픽스 스트림을 식별하기 위한 정보이고, IG_stream_number는 그래픽스 절환에 사용되는 유저가 볼 수 있는 그래픽스 스트림 번호이다.
여기에서, stream_entry()의 신택스에 대해 도 16을 참조하여 설명한다.
type은, 전술한 스트림 번호가 부여되는 스트림을 일의적으로 특정하기 위해 필요한 정보의 종류를 나타내는 8비트의 필드이다.
type=1에서는, PlayItem에 의해 참조되는 Clip(Main Clip) 중에 다중화되어 있는 복수의 엘리멘트리 스트림 중에서 1개의 엘리멘트리 스트림을 특정하기 위해, 패킷 ID(PID)가 지정된다. ref_to_stream_PID_of_main_Clip이, 이 PID를 나타내고 있다. 즉, type=1에서는, 메인 ClipAV 스트림 파일 중의 PID를 지정하는 것만으로 스트림이 결정된다.
type=2에서는, SubPath가 한번에 단 1개의 엘리멘트리 스트림만을 다중화하는 1개의 Clip을 참조하는 경우에, 이 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 Subpath_id가 지정된다. ref_to_Subpath_id가 이 Subpath_id를 나타내고 있다. type=2는, 예를 들면, 도 8에 도시하는 바와 같이, SubPath에 의해, 1개의 오디오 스트림밖에 참조되지 않는 경우, 즉, SubPlayItem 내에 Clip이 1개밖에 없는 경우에 이용된다.
type=3에서는, SubPath가 한번에 복수개의 Clips을 참조하여, 각각의 Clip이 단 1개의 엘리멘트리 스트림만을 다중화하는 경우에, SubPath에 의해 참조되는 1개의 Clip(Sub Clip)의 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 Subpath_id와 Clip_id가 지정된다. ref_to_Subpath_id가 이 Subpath_id를 나타내고, ref_to_subClip_entry_id가 이 Clip_id를 나타내고 있다. Type=3은, 예를 들면, 도 9에 나타내고 있는 바와 같이, 1개의 Subpath에서 복수의 Clip(Text based Subtitle)를 참조하고 있는 경우, 즉, SubPlayItem 내에 Clip이 복수 있는 경우에 이용된다.
type=4에서는, SubPath가 한번에 복수개의 Clips을 참조하고, 각각의 Clip이 복수의 엘리멘트리 스트림을 다중화하는 경우에, SubPath에 의해 참조되는 1개의 Clip(Sub Clip)의 복수의 엘리멘트리 스트림 중에서 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 SubPath_id, Clip_id 및 패킷 ID(PID)가 지정된다. ref_to_Subpath_id가 이 Subpath_id를 나타내고, ref_to_subClip_entry_id가 이 Clip_id를 나타내고, ref_to_stream_PID_of_subClip가 이 Pid를 나타내고 있다. SubPlayItem 중에서, 복수의 Clip이 참조되고, 이 Clip에 복수의 엘리멘트리 스트림이 더 참조되고 있는 경우에 이용된다.
이와 같이, type(1 내지 4의 type)을 사용함으로써, PlayItem과 거기에 관련지워져 재생되는 1개 이상의 SubPath가 준비되어 있는 경우에, 이 PlayItem이 참조하는 Clip과 1개 이상의 SubPath가 참조하는 Clip 중에서 1개의 엘리멘트리 스트림을 특정할 수 있다. 또한, type=1은 Main Path가 참조하는 Clip(메인 Clip)을 나타내고 있고, type=2 내지 4는 SubPath가 참조하는 Clip(서브 Clip)을 나타내고 있다. 한편, 도 16에서, 엘리멘트리 스트림을 특정하기 위해, 4개의 type을 마련하였지만, 메인 Clip 중에 다중화되어 있는 엘리멘트리 스트림을 특정하기 위한 type(도 16에서는 type=1에 상당)과, 도 16에서의, type2 내지 4까지를 합쳐서, 서브 패스(Subpath)에 의해 사용되는 클립의 엘리멘트리 스트림을 특정하기 위한 type으로서, 2개의 type으로 나누어도 된다. 이 경우의 stream_entry()의 신택스를, 도 33을 참조하여 설명한다.
도 33에서, type은, 전술한 스트림 번호가 부여되는 스트림을 일의적으로 특정하기 위해 필요한 정보의 종류를 나타내는 8비트의 필드이다. 즉, type의 8비트 필드는, stream_entry()의 stream number에 의해 참조되는 엘리멘트리 스트림을 특 정하기 위한 데이터베이스의 type을 지정하기 위한 것이다. 도 33의 예의 경우, type은, 도 34에 도시하는 바와 같이 2개의 type으로 나눌 수 있다. 도 34에서, type=1은 메인 클립 내에 다중화되어 있는 엘리멘트리 스트림을 특정하기 위한 type(도 16에서는 type=1에 상당)이고, type=2는 도 16의 type 2 내지 4까지를 합친 것으로, 서브 패스(Subpath)에 의해 사용되는 클립의 엘리멘트리 스트림을 특정하기 위한 type이다.
도 33의 type=1은, PlayItem에 의해 사용되는 Clip(Main Clip)의 엘리멘트리 스트림을 특정하기 위한 것이다. 즉, type=1에서는, PlayItem에 의해 참조되는 Clip(Main Clip) 중에 다중화되어 있는 복수의 엘리멘트리 스트림 중에서 1개의 엘리멘트리 스트림을 특정하기 위해, 패킷 ID(PID)가 지정된다. ref_to_stream_PID_of_mainClip이, 이 Pid를 나타내고 있다. 바꾸어 말하면, type=1에서는, 메인 ClipAV 스트림 파일 내의 Pid를 지정하는 것만으로 스트림이 결정된다.
또한, 도 33의 type=2는, PlayItem에 부수하는 SubPath에 의해 사용되는 Clip의 엘리멘트리 스트림을 특정하기 위한 것이다. type=2에서는, 예를 들면, SubPath가 한번에 단 1개의 엘리멘트리 스트림만을 다중화하는 1개의 Clip을 참조하는 경우(도 16에서의 type=2), SubPath가 한번에 복수개의 Clips을 참조하고, 각각의 Clip이 단 1개의 엘리멘트리 스트림만을 다중화하는 경우(도 16에서의 type=3), 또는, SubPath가 한번에 복수개의 Clips을 참조하고, 각각의 Clip이 복수의 엘리멘트리 스트림을 다중화하는 경우(도 16에서의 type=4)에, 엘리멘트리 스트 림을 특정하기 위해 Subpath_id, Clip_id 및 패킷 ID(PID)가 지정된다.
또한, 도 33에서는, type=2인 경우, Subpath_id, Clip_id 및 패킷 ID(PID)의 3개가 지정되는 것으로서 설명하지만, Subpath_id, Clip_id 및 패킷 ID(PID)의 3개 모두가 지정되지 않아도 된다. 예를 들면, SubPath가 한번에 단 1개의 엘리멘트리 스트림만을 다중화하는 1개의 Clip을 참조하는 경우(도 16의 type=2에 대응하는 경우), 이 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 Subpath_id가 지정되면 된다. 또한, 예를 들면, SubPath가 한번에 복수개의 Clips을 참조하고, 각각의 Clip이 단 1개의 엘리멘트리 스트림만을 다중화하는 경우(도 16의 type=3에 대응하는 경우), SubPath에 의해 참조되는 1개의 Clip(Sub Clip)의 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 Subpath_id와 Clip_id가 지정되면 된다. 또한, 예를 들면, SubPath가 한번에 복수개의 Clips을 참조하고, 각각의 Clip이 복수의 엘리멘트리 스트림을 다중화하는 경우(도 16의 type=4에 대응하는 경우), SubPath에 의해 참조되는 1개의 Clip(Sub Clip)의 복수의 엘리멘트리 스트림 중에서 1개의 엘리멘트리 스트림을 특정하기 위해, 그 Subpath의 Subpath_id, Clip_id 및 패킷 ID(PID)가 지정되면 된다. 즉, 도 33 및 도 34의 type=2의 경우, Subpath_id, Clip_id 및 패킷 ID(PID) 중, 적어도 Subpath_id가 지정되면 된다.
도 33과 도 34에 도시하는 바와 같이, type(1과 2의 type)을 사용하는 경우에 있어서도, PlayItem과 거기에 관련지워져 재생되는 1개 이상의 SubPath가 준비되어 있는 경우에, 이 PlayItem이 참조하는 Clip과 1개 이상의 SubPath가 참조하는 Clip 중에서 1개의 엘리멘트리 스트림을 특정할 수 있다.
도 15의 STN_table()의 설명으로 돌아와서, 비디오 스트림 ID(video_stream_id)의 for 루프 중에서, 차례로 stream_entry()마다 특정되는 1개의 비디오 엘리멘트리 스트림에, 0부터 video_stream_id가 부여된다. 또한, 비디오 스트림 ID(video_stream_id) 대신에, 비디오 스트림 번호(video_stream_number)를 이용하도록 해도 된다. 이 경우, video_stream_number는, 0이 아니라 1부터 부여된다. 즉, video_stream_id의 값에 1을 가산한 것이 video_stream_number이다. 비디오 스트림 번호는, 비디오 절환에 사용되는, 유저가 볼 수 있는 비디오 스트림 번호이므로, 1부터 정의된다.
마찬가지로, 오디오 스트림 ID(audio_stream_id)의 for 루프 중에서, 차례로 stream_entry()마다 특정되는 1개의 오디오 엘리멘트리 스트림에, 0부터 audio_stream_id가 부여된다. 또한, 비디오 스트림의 경우와 마찬가지로, 오디오 스트림 ID(audio_stream_id) 대신에, 오디오 스트림 번호(audio_stream_number)를 이용하도록 해도 된다. 이 경우, audio_stream_number는, 0이 아니라 1부터 부여된다. 즉, audio_stream_id의 값에 1을 가산한 것이 audio_stream_number이다. 오디오 스트림 번호는, 음성 절환에 사용되는, 유저가 볼 수 있는 오디오 스트림 번호이므로, 1부터 정의된다.
마찬가지로, 자막 스트림 ID(PG_txtST_stream_id)의 for 루프 중에서, 차례로 stream_entry()마다 특정되는 1개의 비트맵 자막 엘리멘트리 스트림 또는 텍스트 자막에, 0부터 PG_txtST_stream_id가 부여된다. 또한, 비디오 스트림의 경우와 마찬가지로, 자막 스트림 ID(PG_txtST_stream_id) 대신에, 자막 스트림 번 호(PG_txtST_stream_number)를 이용하도록 해도 된다. 이 경우, PG_txtST_stream_number는, 0이 아니라 1부터 부여된다. 즉, PG_txtST_stream_id의 값에 1을 가산한 것이 PG_txtST_stream_number이다. 자막 스트림 번호는, 자막 절환에 사용되는 유저가 볼 수 있는 자막 스트림 번호(텍스트 서브타이틀 스트림의 번호)이므로, 1부터 정의된다.
마찬가지로, 그래픽스 스트림 ID(IG_stream_id)의 for 루프 중에서, 차례로 stream_entry()마다 특정되는 1개의 인터랙티브 그래픽스 엘리멘트리 스트림에, 0부터 IG_stream_id가 부여된다. 또한, 비디오 스트림의 경우와 마찬가지로, 그래픽스 스트림 ID(IG_stream_id) 대신에, 그래픽스 스트림 번호(IG_stream_number)를 이용하도록 해도 된다. 이 경우, IG_stream_number는, 0이 아니라 1부터 부여된다. 즉, IG_stream_id의 값에 1을 가산한 것이 IG_stream_number이다. 그래픽스 스트림 번호는, 그래픽스 절환에 사용되는 유저가 볼 수 있는 그래픽스 스트림 번호이므로, 1부터 정의된다.
다음으로, 도 15의 STN_table()의 stream_attribute()에 대해 설명한다.
비디오 스트림 ID(video_stream_id)의 for 루프 중의 stream_attribute()는, stream_entry()마다 특정되는 1개의 비디오 엘리멘트리 스트림의 스트림 속성 정보를 제공한다. 즉, 이 stream_attribute()에는, stream_entry()마다 특정되는 1개의 비디오 엘리멘트리 스트림의 스트림 속성 정보가 기술되어 있다.
마찬가지로, 오디오 스트림 ID(audio_stream_id)의 for 루프 중의 stream_attribute()는, stream_entry()마다 특정되는 1개의 오디오 엘리멘트리 스 트림의 스트림 속성 정보를 제공한다. 즉, 이 stream_attribute()에는, stream_entry()마다 특정되는 1개의 오디오 엘리멘트리 스트림의 스트림 속성 정보가 기술되어 있다.
마찬가지로, 자막 스트림 ID(PG_txtST_stream_id)의 for 루프 중의 stream_attribute()는, stream_entry()마다 특정되는 1개의 비트맵 자막 엘리멘트리 스트림 또는 텍스트 자막 엘리멘트리 스트림의 스트림 속성 정보를 제공한다. 즉, 이 stream_attribute()에는, stream_entry()마다 특정되는 1개의 비트맵 자막 엘리멘트리 스트림의 스트림 속성 정보가 기술되어 있다.
마찬가지로, 그래픽스 스트림 ID(IG_stream_id)의 for 루프 중의 stream_attribute()는, stream_entry()마다 특정되는 1개의 인터랙티브 그래픽스 엘리멘트리 스트림의 스트림 속성 정보를 제공한다. 즉, 이 stream_attribute()에는, stream_entry()마다 특정되는 1개의 인터랙티브 그래픽스 엘리멘트리 스트림의 스트림 속성 정보가 기술되어 있다.
여기에서, stream_attribute()의 신택스에 대해 도 17을 참조하여 설명한다.
length는, 이 length 필드의 직후부터 stream_attribute()의 마지막까지의 바이트수를 나타내는 16비트의 부호없는 정수이다.
stream_coding_type은, 도 18에 도시하는 바와 같이 엘리멘트리 스트림의 부호화 타입을 나타낸다. 엘리멘트리 스트림의 부호화 타입으로서는, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, 및, Text subtitle stream이 기술된다.
video_format은, 도 19에 도시하는 바와 같이 비디오 엘리멘트리 스트림의 비디오 포맷을 나타낸다. 비디오 엘리멘트리 스트림의 비디오 포맷으로는, 480i, 576i, 480p, 1080i, 720p 및 1080p가 기술된다.
frame_rate는, 도 20에 도시하는 바와 같이, 비디오 엘리멘트리 스트림의 프레임 레이트를 나타낸다. 비디오 엘리멘트리 스트림의 프레임 레이트로는, 24000/1001, 24, 25, 30000/1001, 50 및 60000/1001이 기술된다.
aspect_ratio는, 도 21에 도시하는 바와 같이 비디오 엘리멘트리 스트림의 가로세로비 정보를 나타낸다. 비디오 엘리멘트리 스트림의 가로세로비 정보로서는, 4:3 display aspect ratio 및 16:9 display aspect ratio가 기술된다.
audio_presentation_type은, 도 22에 도시하는 바와 같이 오디오 엘리멘트리 스트림의 프리젠테이션 타입 정보를 나타낸다. 오디오 엘리멘트리 스트림의 프리젠테이션 타입 정보로는, single mono channel, dual mono channel, stereo(2-channel) 및 multi-channel이 기술된다.
sampling_frequency는, 도 23에 도시하는 바와 같이 오디오 엘리멘트리 스트림의 샘플링 주파수를 나타낸다. 오디오 엘리멘트리 스트림의 샘플링 주파수로서는, 48kHz 및 96kHz가 기술된다.
audio_language_code는, 오디오 엘리멘트리 스트림의 언어 코드(일본어, 한국어, 중국어 등)를 나타낸다.
PG_language_code는, 비트맵 자막 엘리멘트리 스트림의 언어 코드(일본어, 한국어, 중국어 등)를 나타낸다.
IG_language_code는, 인터랙티브 그래픽스 엘리멘트리 스트림의 언어 코드(일본어, 한국어, 중국어 등)를 나타낸다.
textST_language_code는, 텍스트 자막 엘리멘트리 스트림의 언어 코드(일본어, 한국어, 중국어 등)를 나타낸다.
character_code는, 도 24에 도시하는 바와 같이 텍스트 자막 엘리멘트리 스트림의 캐릭터 코드를 나타낸다. 텍스트 자막 엘리멘트리 스트림의 캐릭터 코드로는, Unicode V1.1(ISO 10646-1), Shift JIS(Japanese), KSC 5601-1987 including KSC 5653 for Roman character(Korean), GB 18030-2000(Chinese), GB2312(Chinese) 및 BIG5(Chinese)가 기술된다.
이하에, 도 17의 stream_attribute()의 신택스에 대해, 도 17과 도 18 내지 도 24를 이용하여 구체적으로 설명한다.
엘리멘트리 스트림의 부호화 타입(도 17의 stream_coding_type)이 MPEG-2 video stream(도 18)인 경우, stream_attribute()에는, 그 엘리멘트리 스트림의 비디오 포맷(도 19), 프레임 레이트(도 20) 및 애스펙트비 정보(도 21)가 포함된다.
엘리멘트리 스트림의 부호화 타입(도 17의 stream_coding_type)이 HDMV LPCM audio, Dolby AC-3 audio, 또는 dts audio(도 18)인 경우, stream_attribute()에는, 그 오디오 엘리멘트리 스트림의 프리젠테이션 타입 정보(도 22), 샘플링 주파수(도 23) 및 언어 코드가 포함된다.
엘리멘트리 스트림의 부호화 타입(도 17의 stream_coding_type)이 Presentation graphics stream(도 18)인 경우, stream_attribute()에는, 그 비트맵 자막 엘리멘트리 스트림의 언어 코드가 포함된다.
엘리멘트리 스트림의 부호화 타입(도 17의 stream_coding_type)이 Interactive graphics stream(도 18)인 경우, stream_attribute()에는, 그 인터랙티브 그래픽스 엘리멘트리 스트림의 언어 코드가 포함된다.
엘리멘트리 스트림의 부호화 타입(도 17의 stream_coding_type)이 Text subtitle stream(도 18)인 경우, stream_attribute()에는, 그 텍스트 자막 엘리멘트리 스트림의 캐릭터 코드(도 24), 언어 코드가 포함된다.
한편, 이러한 속성 정보는 이것으로 한정되지 않는다.
이와 같이, PlayItem과 거기에 관련지워져 재생되는 1개 이상의 SubPath가 준비되어 있는 경우에, 이 PlayItem이 참조하는 Clip과 1개 이상의 SubPath가 참조하는 Clip 중에서, stream_entry()에 의해 특정된 1개의 엘리멘트리 스트림의 속성 정보를 stream_attribute()에 의해 알 수 있다.
재생 장치는, 이 속성 정보(stream_attribute())를 조사함으로써, 그 엘리멘트리 스트림을 자기 자신이 재생하는 기능을 갖고 있는지의 여부를 조사할 수 있다. 또한, 재생 장치는, 이 속성 정보를 조사함으로써, 재생 장치의 언어 설정의 초기 정보에 대응한 엘리멘트리 스트림을 선택할 수 있다.
예를 들면, 재생 장치가, 비트맵 자막 엘리멘트리 스트림의 재생 기능만을 갖고, 텍스트 자막 엘리멘트리 스트림의 재생 기능을 갖지 않은 경우를 상정한다. 이 재생 장치에 대해, 유저가 언어 절환을 지시한 경우, 재생 장치는, 자막 스트림 ID(PG_txtST_stream_id)의 for 루프 중에서, 비트맵 자막 엘리멘트리 스트림만을 순차적으로 선택하여 재생한다.
또한, 예를 들면, 재생 장치의 언어 설정의 초기 정보가 일본어인 경우를 상정한다. 이 재생 장치에 대해, 유저가 음성 절환을 지시한 경우, 재생 장치는, 오디오 스트림 ID(audio_stream_id)의 for 루프 중에서, 언어 코드가 일본어인 오디오 엘리멘트리 스트림만을 순차적으로 선택하여 재생한다.
이와 같이 하여, PlayItem() 내의 STN_table()은, 이 PlayItem과 거기에 관련지워져 재생되는 1개 이상의 SubPath가 준비되어 있는 경우에, 유저에 의한 음성 절환이나 자막 절환의 조작이, 이 PlayItem이 참조하는 Clip과 1개 이상의 SubPath가 참조하는 Clip 중에서 선택할 수 있는 구조를 제공하도록 하였으므로, 메인 AV 스트림이 기록되어 있는, 재생하는 AV 스트림과는 상이한 스트림이나 데이터 파일에 대해서도, 인터랙티브 조작을 행할 수 있다.
또한, 1개의 PlayList 내에 SubPath를 복수 사용하고, 각각의 SubPath가, SubPlayItem을 참조하는 구성으로 하였으므로, 확장성이 높은, 또한, 자유도가 높은 AV 스트림을 실현할 수 있다. 즉, 다음에, SubPlayItem을 추가할 수 있는 구성으로 할 수 있다. 예를 들면, Main Path가 참조하는 ClipAV 스트림 파일과 이에 대응지워진 PlayList가 있고, 이 PlayList가 새로운 SubPath를 추가한 PlayList로 고쳐 써진 경우, 새로운 PlayList에 기초하여, Main Path가 참조하는 ClipAV 스트림 파일과 함께, Main Path가 참조하는 ClipAV 스트림 파일과는 상이한 ClipAV 스트림 파일을 참조하여, 재생을 행할 수 있다. 이와 같이, 확장성을 갖는 구성으로 할 수 있다.
다음으로, 본 발명을 적용한 재생 장치에 대해 설명한다. 도 25는, 본 발명을 적용한 재생 장치(20)의 구성예를 도시하는 블록도이다. 이 재생 장치(20)는, 전술한 메인 패스와 서브 패스를 갖는 PlayList를 재생하는 재생 장치(20)이다.
재생 장치(20)에는 스토리지 드라이브(31), 스위치(32), AV 디코더부(33), 및 컨트롤러(34)가 설치되어 있다.
도 25의 예의 경우, 먼저, 컨트롤러(34)가 스토리지 드라이브(31)를 통해 PlayList 파일을 읽어내고, PlayList 파일의 정보에 기초하여, 스토리지 드라이브(31)를 통해 HDD, 블루레이 디스크, 또는 DVD 등의 기록 매체로부터 AV 스트림이나 AV 데이터를 읽어낸다. 유저는, 유저 인터페이스를 이용하여, 컨트롤러(34)에 대해, 음성이나 자막 등의 절환의 명령을 행할 수 있다. 또한, 컨트롤러(34)에는, 재생 장치(20)의 언어 설정 초기 정보가 도시 생략된 기억부 등으로부터 공급된다.
PlayList 파일에는, Main Path, Subpath의 정보 외에 STN_table()이 포함되어 있다. 컨트롤러(34)는, PlayList 파일에 포함되는 PlayItem이 참조하는 메인 ClipAV 스트림 파일(이하, 메인 Clip이라 함), SubPlayItem이 참조하는 서브 ClipAV 스트림 파일(이하, 서브 Clip이라 함) 및 SubPlayItem이 참조하는 텍스트 서브타이틀 데이터를, 스토리지 드라이브(31)를 통해 기록 매체 등으로부터 읽어낸다. 또한, 컨트롤러(34)는, 자기 자신(재생 장치(20))의 재생 기능에 대응하는 엘리멘트리 스트림을 선택하여 재생하도록 제어하거나, 재생 장치(20)의 언어 설정의 초기 정보에 대응하는 엘리멘트리 스트림만을 선택하여 재생하도록 제어한다.
AV 디코더부(33)에는, 버퍼(51 내지 54), PID 필터(55), PID 필터(56), 스위 치(57 내지 59), 백그라운드 디코더(71), MPEG(Moving Picture Experts Group)2 비디오 디코더(72), 프리젠테이션 그래픽스 디코더(73), 인터랙티브 그래픽스 디코더(74), 오디오 디코더(75), Text-ST 콤포지션(76), 스위치(77), 백그라운드 플레인 생성부(91), 비디오 플레인 생성부(92), 프리젠테이션 그래픽스 플레인 생성부(93), 인터랙티브 그래픽스 플레인 생성부(94), 버퍼(95), 비디오 데이터 처리부(96) 및 오디오 데이터 처리부(97)가 설치되어 있다.
컨트롤러(34)에 의해 읽어내어진 파일 데이터는, 도시 생략된 복조, ECC 복호부에 의해 복조되고, 복조된 다중화 스트림에 오류 정정이 실시된다. 스위치(32)는, 복조되어 오류 정정이 실시된 데이터를, 컨트롤러(34)로부터의 제어에 기초하여, 스트림의 종류마다 선택하고, 대응하는 버퍼(51 내지 54)에 공급한다. 구체적으로는, 스위치(32)는, 컨트롤러(34)로부터의 제어에 기초하여, 백그라운드 이미지 데이터를 버퍼(51)에 공급하고, 메인 Clip의 데이터를 버퍼(52)에 공급하고, 서브 Clip의 데이터를 버퍼(53)에 공급하고, Text-ST의 데이터를 버퍼(54)에 공급하도록 스위치(32)를 절환한다. 버퍼(51)는 백그라운드 이미지 데이터를 버퍼링하고, 버퍼(52)는 메인 Clip의 데이터를 버퍼링하고, 버퍼(53)는 서브 Clip의 데이터를 버퍼링하고, 버퍼(54)는 Text-ST 데이터를 버퍼링한다.
메인 Clip은, 비디오와 오디오와 비트맵 자막(Presentation Graphics stream)과 인터랙티브 그래픽스 중, 비디오 외에 1개 이상의 스트림을 다중화한 스트림(예를 들면 트랜스포트 스트림)이다. 서브 Clip은, 오디오와 비트맵 자막(Presentation Graphics stream)과 인터랙티브 그래픽스와 오디오 중, 1개 이상 의 스트림을 다중화한 스트림이다. 또한, 텍스트 서브타이틀 데이터 파일(Text-ST)의 데이터는, 트랜스포트 스트림과 같은 다중화 스트림의 형식이라도 되고, 그렇지 않아도 된다.
또한, 메인 Clip과 서브 Clip 및 텍스트 서브타이틀 데이터를, 스토리지 드라이브(31)(기록 매체)로부터 읽어낼 때에, 각각의 파일을 시분할로 교대로 읽어내도 되고, 또는, 서브 Clip이나 텍스트 서브타이틀 데이터를 메인 Clip으로부터 읽어내기 전에, 모두 버퍼(버퍼(53) 또는 버퍼(54))에 프리로드해도 된다.
재생 장치(20)는, 이들 파일의 데이터를, 스토리지 드라이브(31)를 통해 기록 매체로부터 읽어내고, 비디오, 비트맵 자막, 인터랙티브 그래픽스 및 오디오를 재생한다.
구체적으로는, 메인 Clip용 리드 버퍼인 버퍼(52)로부터 읽어내어진 스트림 데이터는, 소정의 타이밍에서 후단의 PID(패킷 ID) 필터(55)에 출력된다. 이 PID 필터(55)는, 입력된 메인 Clip을 PID(패킷 ID)에 따라, 후단의 각 엘리멘트리 스트림의 디코더에 분배하여 출력한다. 즉, PID 필터(55)는, 비디오 스트림을 MPEG2 비디오 디코더(72)에 공급하고, 프리젠테이션 그래픽스 스트림을 프리젠테이션 그래픽스 디코더(73)에의 공급원으로 되는 스위치(57)에 공급하고, 인터랙티브 그래픽스 스트림을 인터랙티브 그래픽스 디코더(74)에의 공급원으로 되는 스위치(58)에 공급하고, 오디오 스트림을 오디오 디코더(75)에의 공급원으로 되는 스위치(59)에 공급한다.
프리젠테이션 그래픽스 스트림은, 예를 들면, 비트맵의 자막 데이터이고, 텍 스트 서브타이틀 데이터는, 예를 들면, 텍스트 자막 데이터이다.
서브 Clip용 리드 버퍼인 버퍼(53)로부터 읽어내어진 스트림 데이터는, 소정의 타이밍에서 후단의 PID(패킷 ID) 필터(56)에 출력된다. 이 PID 필터(56)는, 입력된 서브 Clip을 PID(패킷 ID)에 따라, 후단의 각 엘리멘트리 스트림의 디코더에 분배하여 출력한다. 즉, PID 필터(56)는, 프리젠테이션 그래픽스 스트림을 프리젠테이션 그래픽스 디코더(73)에의 공급원으로 되는 스위치(57)에 공급하고, 인터랙티브 그래픽스 스트림을 인터랙티브 그래픽스 디코더(74)에의 공급원으로 되는 스위치(58)에 공급하고, 오디오 스트림을 오디오 디코더(75)에의 공급원으로 되는 스위치(59)에 공급한다.
백그라운드 이미지 데이터를 버퍼링하는 버퍼(51)로부터 읽어내어진 데이터는, 소정의 타이밍에서 백그라운드 디코더(71)에 공급된다. 백그라운드 디코더(71)는, 백그라운드 이미지 데이터를 디코드하고, 디코드한 백그라운드 이미지 데이터를 백그라운드 플레인 생성부(91)에 공급한다.
PID 필터(55)에 의해 분배된 비디오 스트림은, 후단의 비디오 디코더(72)에 공급된다. 비디오 디코더(72)는, 비디오 스트림을 디코드하고, 디코드한 비디오 데이터를 비디오 플레인 생성부(92)에 출력한다.
스위치(57)는, PID 필터(55)로부터 공급된 메인 Clip에 포함되는 프리젠테이션 그래픽스 스트림과, 서브 Clip에 포함되는 프리젠테이션 그래픽스 스트림 중 어느 하나를 선택하고, 선택한 프리젠테이션 그래픽스 스트림을, 후단의 프리젠테이션 그래픽스 디코더(73)에 공급한다. 프리젠테이션 그래픽스 디코더(73)는, 프리 젠테이션 그래픽스 스트림을 디코드하고, 디코드한 프리젠테이션 그래픽스 스트림의 데이터를 프리젠테이션 그래픽스 플레인 생성부(93)에의 공급원으로 되는 스위치(77)에 공급한다.
또한, 스위치(58)는, PID 필터(55)로부터 공급된 메인 Clip에 포함되는 인터랙티브 그래픽스 스트림과, 서브 Clip에 포함되는 인터랙티브 그래픽스 스트림 중 어느 하나를 선택하고, 선택한 인터랙티브 그래픽스 스트림을, 후단의 인터랙티브 그래픽스 스트림 디코더(74)에 공급한다. 즉, 인터랙티브 그래픽스 디코더(74)에 동시에 입력되는 인터랙티브 그래픽스 스트림은, 메인 Clip 또는 서브 Clip의 어느 하나로부터 분리된 스트림이다. 인터랙티브 그래픽스 디코더(74)는, 인터랙티브 그래픽스 스트림을 디코드하고, 디코드한 인터랙티브 그래픽스 스트림의 데이터를, 인터랙티브 그래픽스 플레인 생성부(94)에 공급한다.
또한, 스위치(59)는, PID 필터(55)로부터 공급된 메인 Clip에 포함되는 오디오 스트림과, 서브 Clip에 포함되는 오디오 스트림 중 어느 하나를 선택하고, 선택한 오디오 스트림을, 후단의 오디오 디코더(75)에 공급한다. 즉, 오디오 디코더(75)에 동시에 입력되는 오디오 스트림은, 메인 Clip 또는 서브 Clip의 어느 하나로부터 분리된 스트림이다. 오디오 디코더(75)는, 오디오 스트림을 디코드하고, 디코드한 오디오 스트림의 데이터를 오디오 데이터 처리부(97)에 공급한다.
또한, 스위치(32)에 의해 선택된 사운드 데이터는, 버퍼(95)에 공급되어 버퍼링된다. 버퍼(95)는, 소정의 타이밍에서 사운드 데이터를 오디오 데이터 처리부(97)에 공급한다. 사운드 데이터는, 이 경우, 메뉴 선택 등에 의한 효과음의 데 이터이다.
텍스트 서브타이틀용 리드 버퍼인 버퍼(54)로부터 읽어내어진 데이터는, 소정의 타이밍에서 후단의 텍스트 서브타이틀 콤포지션(디코더)(76)에 출력된다. 텍스트 서브타이틀 콤포지션(76)은, Text-ST 데이터를 디코드하여 스위치(77)에 공급한다.
스위치(77)는, 프리젠테이션 그래픽스 디코더(73)에 의해 디코드된 프리젠테이션 그래픽스 스트림과, Text-ST(텍스트 서브타이틀 데이터) 중 어느 하나를 선택하고, 선택한 데이터를 프리젠테이션 그래픽스 플레인 생성부(93)에 공급한다. 즉, 프리젠테이션 그래픽스 플레인(93)에 동시에 공급되는 자막 화상은, 프리젠테이션 그래픽스 디코더(73) 또는 텍스트 서브타이틀(Text-ST) 콤포지션(76) 중 어느 하나의 출력이다. 또한, 프리젠테이션 그래픽스 디코더(73)에 동시에 입력되는 프리젠테이션 그래픽스 스트림은, 메인 Clip 또는 서브 Clip 중의 어느 하나로부터 분리된 스트림이다(스위치(57)에 의해 선택된다). 따라서, 프리젠테이션 그래픽스 플레인(93)에 동시에 출력되는 자막 화상은, 메인 Clip으로부터의 프리젠테이션 그래픽스 스트림, 또는 서브 Clip으로부터의 프리젠테이션 그래픽스 스트림, 또는 텍스트 서브타이틀 데이터의 디코드 출력이다.
백그라운드 플레인 생성부(91)는, 백그라운드 디코더(71)로부터 공급된 백그라운드 이미지 데이터에 기초하여, 예를 들면, 비디오 화상을 축소 표시한 경우에 벽지 화상으로 되는 백그라운드 플레인을 생성하고, 이를, 비디오 데이터 처리부(96)에 공급한다. 비디오 플레인 생성부(92)는, MPEG2 비디오 디코더(72)로부터 공급된 비디오 데이터에 기초하여, 비디오 플레인을 생성하고, 이를 비디오 데이터 처리부(96)에 공급한다. 프리젠테이션 그래픽스 플레인 생성부(93)는, 스위치(77)에 의해 선택되어 공급된 데이터(프리젠테이션 그래픽스 스트림 또는 텍스트 서브타이틀 데이터)에 기초하여, 예를 들면, 렌더링 화상인 프리젠테이션 그래픽스 플레인을 생성하고, 이것을 비디오 데이터 처리부(96)에 공급한다. 인터랙티브 그래픽스 플레인 생성부(94)는, 인터랙티브 그래픽스 디코더(74)로부터 공급된 인터랙티브 그래픽스 스트림의 데이터에 기초하여, 인터랙티브 그래픽스 플레인을 생성하고, 이것을 비디오 데이터 처리부(96)에 공급한다.
비디오 데이터 처리부(96)는, 백그라운드 플레인 생성부(91)로부터의 백그라운드 플레인, 비디오 플레인 생성부(92)로부터의 비디오 플레인, 프리젠테이션 그래픽스 플레인 생성부(93)로부터의 프리젠테이션 그래픽스 플레인 및 인터랙티브 그래픽스 플레인 생성부(94)로부터의 인터랙티브 그래픽스 플레인을 합성하여, 비디오 신호로서 출력한다. 또한, 오디오 데이터 처리부(97)는, 오디오 디코더(75)로부터의 오디오 데이터와, 버퍼(95)로부터의 사운드 데이터를 합성하여, 음성 신호로서 출력한다.
이들 스위치(57 내지 59) 및 스위치(77)는, 유저 인터페이스를 통한 유저로부터의 선택, 또는, 대상으로 되는 데이터가 포함되는 파일측에 기초하여, 스위치를 절환한다. 구체적으로는, 서브 ClipAV 스트림 파일에만, 오디오 스트림이 포함되는 경우, 스위치(59)는 서브측으로 스위치를 절환한다.
다음으로, 도 25의 재생 장치(20)에서의 재생 처리를, 도 26 내지 도 28의 플로우차트를 참조하여 설명한다. 한편, 이 처리는, 유저에 의해 유저 인터페이스를 통해, 소정의 AV 스트림의 재생이 명령되었을 때 개시된다.
스텝 S11에서, 컨트롤러(34)는, 스토리지 드라이브(31)를 통해, 기록 매체나 미도시의 HDD(Hard Disk Drive)에 기록되어 있는 PlayList 파일을 읽어낸다. 예를 들면, 도 11을 이용하여 설명한 PlayList의 파일이 읽어내어진다.
스텝 S12에서, 컨트롤러(34)는, 메인 Clip, 서브 Clip 및 텍스트 서브타이틀 데이터(Text-ST 데이터)를 읽어낸다. 구체적으로는, 컨트롤러(34)는, 도 11을 이용하여 설명한 PlayList에 포함되는 PlayItem에 기초하여, 메인 Clip을 읽어낸다. 또한, 컨트롤러(34)는, PlayList에 포함되는 SubPath에서 참조되는, 도 12 및 도 13을 이용하여 설명한 SubPlayItem에 기초하여, 서브 Clip과, 텍스트 서브타이틀 데이터를 읽어낸다.
스텝 S13에서, 컨트롤러(34)는, 읽어낸 데이터(메인 Clip, 서브 Clip 및 텍스트 서브타이틀 데이터)를 대응하는 버퍼(51 내지 54)에 공급하도록 스위치(32)를 제어한다. 구체적으로는, 컨트롤러(34)는, 백그라운드 이미지 데이터를 버퍼(51)에 공급하고, 메인 Clip의 데이터를 버퍼(52)에 공급하고, 서브 Clip의 데이터를 버퍼(53)에 공급하고, Text-ST의 데이터를 버퍼(54)에 공급하도록 스위치(32)를 절환한다.
스텝 S14에서, 스위치(32)는 컨트롤러(34)로부터의 제어에 기초하여, 스위치(32)를 절환한다. 이에 따라, 백그라운드 이미지 데이터는 버퍼(51)에 공급되고, 메인 Clip의 데이터는 버퍼(52)에 공급되고, 서브 Clip의 데이터는 버퍼(53)에 공급되고, 텍스트 서브타이틀 데이터는 버퍼(54)에 공급된다.
스텝 S15에서, 각 버퍼(51 내지 54)는, 공급된 데이터를 각각 버퍼링한다. 구체적으로는, 버퍼(51)는 백그라운드 이미지 데이터를 버퍼링하고, 버퍼(52)는 메인 Clip의 데이터를 버퍼링하고, 버퍼(53)는 서브 Clip의 데이터를 버퍼링하고, 버퍼(54)는 Text-ST 데이터를 버퍼링한다.
스텝 S16에서, 버퍼(51)는 백그라운드 이미지 데이터를 백그라운드 디코더(71)에 출력한다.
스텝 S17에서, 버퍼(52)는 메인 Clip의 스트림 데이터를 PID 필터(55)에 출력한다.
스텝 S18에서, PID 필터(55)는, 메인 ClipAV 스트림 파일을 구성하는 TS 패킷에 첨부되어 있는 PID에 기초하여, 각 엘리멘트리 스트림의 디코더에 분배한다. 구체적으로는, PID 필터(55)는, 비디오 스트림을 MPEG2 비디오 디코더(72)에 공급하고, 프리젠테이션 그래픽스 스트림을 프리젠테이션 그래픽스 디코더(73)에의 공급원으로 되는 스위치(57)에 공급하고, 인터랙티브 그래픽스 스트림을 인터랙티브 그래픽스 디코더(74)에의 공급원으로 되는 스위치(58)에 공급하고, 오디오 스트림을 오디오 디코더(75)에의 공급원으로 되는 스위치(59)에 공급한다. 즉, 비디오 스트림, 프리젠테이션 그래픽스 스트림, 인터랙티브 그래픽스 스트림 및 오디오 스트림에는, 각각 다른 PID가 부여되어 있다.
스텝 S19에서, 버퍼(53)는 서브 Clip의 스트림 데이터를 PID 필터(56)에 출력한다.
스텝 S20에서, PID 필터(56)는, PID에 기초하여, 각 엘리멘트리 스트림의 디코더에 분배한다. 구체적으로는, PID 필터(56)는, 프리젠테이션 그래픽스 스트림을 프리젠테이션 그래픽스 디코더(73)에의 공급원으로 되는 스위치(57)에 공급하고, 인터랙티브 그래픽스 스트림을 인터랙티브 그래픽스 디코더(74)에의 공급원으로 되는 스위치(58)에 공급하고, 오디오 스트림을 오디오 디코더(75)에의 공급원으로 되는 스위치(59)에 공급한다.
스텝 S21에서, PID 필터(55) 및 PID 필터(56)의 후단의 스위치(57 내지 59)는, 유저 인터페이스를 통한 컨트롤러(34)로부터의 제어에 기초하여, 메인 Clip과 서브 Clip의 어느 하나를 선택한다. 구체적으로는, 스위치(57)는, PID 필터(55)로부터 공급된 메인 Clip 또는 서브 Clip의 프리젠테이션 그래픽스 스트림을 선택하여, 후단의 프리젠테이션 그래픽스 디코더(73)에 공급한다. 또한, 스위치(58)는, PID 필터(55)로부터 공급된 메인 Clip 또는 서브 Clip의 인터랙티브 그래픽스 스트림을 선택하여, 후단의 인터랙티브 그래픽스 스트림 디코더(74)에 공급한다. 또한, 스위치(59)는, PID 필터(55)로부터 공급된 메인 Clip 또는 서브 Clip의 오디오 스트림을 선택하여, 후단의 오디오 디코더(75)에 공급한다.
스텝 S22에서, 버퍼(54)는, 텍스트 서브타이틀 데이터를 텍스트 서브타이틀 콤포지션(76)에 출력한다.
스텝 S23에서, 백그라운드 디코더(71)는, 백그라운드 이미지 데이터를 디코드하고, 이것을 백그라운드 플레인 생성부(91)에 출력한다.
스텝 S24에서, MPEG2 비디오 디코더(72)는, 비디오 스트림을 디코드하고, 이 것을 비디오 플레인 생성부(92)에 출력한다.
스텝 S25에서, 프리젠테이션 그래픽스 디코더(73)는, 스위치(57)에 의해 선택되고, 공급된 프리젠테이션 그래픽스 스트림을 디코드하여, 이것을 후단의 스위치(77)에 출력한다.
스텝 S26에서, 인터랙티브 그래픽스 디코더(74)는, 스위치(58)에 의해 선택되고, 공급된 인터랙티브 그래픽스 스트림을 디코드하여, 이것을 후단의 인터랙티브 그래픽스 플레인 생성부(94)에 출력한다.
스텝 S27에서, 오디오 디코더(75)는, 스위치(59)에 의해 선택되고, 공급된 오디오 데이터를 디코드하여, 이것을 후단의 오디오 데이터 처리부(97)에 출력한다.
스텝 S28에서, Text-ST 콤포지션(76)은, 텍스트 서브타이틀 데이터를 디코드하여, 이것을 후단의 스위치(77)에 출력한다.
스텝 S29에서, 스위치(77)는, 프리젠테이션 그래픽스 디코더(73) 또는 Text-ST 콤포지션(76)으로부터의 데이터의 어느 하나를 선택한다. 구체적으로는, 스위치(77)는, 프리젠테이션 그래픽스 디코더(73)에 의해 디코드된 프리젠테이션 그래픽스 스트림과, Text-ST(텍스트 서브타이틀 데이터) 중 어느 하나를 선택하여, 선택한 데이터를 프리젠테이션 그래픽스 플레인 생성부(93)에 공급한다.
스텝 S30에서, 백그라운드 플레인 생성부(91)는, 백그라운드 디코더(71)로부터 공급된 백그라운드 이미지 데이터에 기초하여, 백그라운드 플레인을 생성한다.
스텝 S31에서, 비디오 플레인 생성부(92)는, MPEG2 비디오 디코더(72)로부터 공급된 비디오 데이터에 기초하여, 비디오 플레인을 생성한다.
스텝 S32에서, 프리젠테이션 그래픽스 플레인 생성부(93)는, 스텝 S29의 처리에서 스위치(77)에 의해 선택되고, 공급된 프리젠테이션 그래픽스 디코더(73)로부터의 데이터 또는 Text-ST 콤포지션(76)으로부터의 데이터에 기초하여, 프리젠테이션 그래픽스 플레인을 생성한다.
스텝 S33에서, 인터랙티브 그래픽스 플레인 생성부(94)는, 인터랙티브 그래픽스 디코더(74)로부터 공급된 인터랙티브 그래픽스 스트림의 데이터에 기초하여, 인터랙티브 그래픽스 플레인을 생성한다.
스텝 S34에서, 버퍼(95)는, 스텝 S14의 처리에서 선택되고, 공급된 사운드 데이터를 버퍼링하여, 소정의 타이밍에서 오디오 데이터 처리부(97)에 공급한다.
스텝 S35에서, 비디오 데이터 처리부(97)는, 각 플레인의 데이터를 합성하여 출력한다. 구체적으로는, 백그라운드 플레인 생성부(91), 비디오 플레인 생성부(92), 프리젠테이션 그래픽스 플레인 생성부(93) 및 인터랙티브 그래픽스 플레인 생성부(94)로부터의 데이터를 합성하여, 비디오 데이터로서 출력한다.
스텝 S36에서, 오디오 데이터 처리부(97)는, 오디오 데이터와 사운드 데이터를 합성하여 출력한다.
도 26 내지 도 28의 처리에 의해, PlayList에 포함되는 메인 패스와 서브 패스에 의해 메인 Clip, 서브 Clip 및 텍스트 서브타이틀 데이터가 참조되어 재생된다. 메인 패스와 서브 패스를 마련하도록 하고, 서브 패스에서, 메인 패스에서 지정하는 ClipAV 스트림 파일과는 상이한 Clip을 지정 가능한 구성으로 하였으므로, 메인 패스의 PlayItem이 가리키는 메인 Clip과는 상이한 Clip인 서브 Clip의 데이터와 메인 Clip의 데이터를 함께(동일한 타이밍에서) 재생할 수 있다.
또한, 도 26 내지 도 28에서, 스텝 S16, 스텝 S17의 처리는, 그 차례가 반대라도 되고, 평행으로 실행되어도 된다. 또한, 스텝 S18, 스텝 S20의 처리도, 그 차례가 반대라도 되고, 평행으로 실행되어도 된다. 또한, 스텝 S23 내지 스텝 S28의 처리도, 그 차례가 반대라도 되고, 평행으로 실행되어도 된다. 또한, 스텝 S30 내지 스텝 S33의 처리도, 그 차례가 반대라도 되고, 평행으로 실행되어도 된다. 또한, 스텝 S35, 스텝 S36의 처리도, 그 차례가 반대라도 되고, 평행으로 실행되어도 된다. 즉, 도 25에서, 세로로 동일한 계층의 버퍼(51 내지 54)의 처리, 스위치(57 내지 59)의 처리, 디코더(71 내지 76)의 처리, 플레인 생성부(91 내지 94)의 처리, 비디오 데이터 처리부(96) 및 오디오 데이터 처리부(97)의 처리는, 각각, 평행으로 실행되어도 되며, 그 순번은 상관없다.
다음으로, 음성이나 자막의 절환이 지시된 경우의 재생 장치(20)에서의 처리를, 도 29와 도 30을 참조하여 설명한다.
먼저, 도 29의 플로우차트를 참조하여, 유저에 의해 음성의 절환이 지시되는 경우의 처리를 설명한다. 한편, 이 처리는, 예를 들면, 도 26 내지 도 28의 재생 처리의 실행 중에 실행되는 처리이다.
스텝 S51에서, 컨트롤러(34)는, 오디오 스트림 번호(ID이어도 됨)의 순번 리스트를 취득한다. 구체적으로는, 컨트롤러(34)는, 도 14를 이용하여 설명한 PlayItem의 STN_table()을 참조하여, 도 15를 이용하여 설명한 STN_table()에 엔트 리되어 있는 오디오 스트림 번호(ID)의 차례의 리스트를 더 취득한다. 이 처리는, 도 26 내지 도 28의 재생 처리가 개시되었을 때에 실행되는 처리이다.
유저에 의해 유저 인터페이스를 통해, 음성 절환의 명령이 행해진 경우, 스텝 S52에서, 컨트롤러(34)는, 유저로부터의 음성 절환의 명령을 수령한다. 즉, 도 29에서, 스텝 S51은 미리 실행되고 있는 처리이고, 유저에 의해 음성 절환의 명령이 행해진 경우에, 스텝 S52 이후의 처리가 행해진다.
스텝 S53에서, 컨트롤러(34)는 재생하고 있는 오디오 스트림 번호의 다음 오디오 스트림 번호를 취득한다. 예를 들면, 도 9의 SubClip_entry_id=0의 오디오 스트림(도 9에서는, Text based subtitle이지만, 여기에서는 오디오 스트림 파일이라고 바꾸어 부름)이 재생되고 있었던 경우, 다음의 SubClip_entry_id=1에 대응하는 오디오 스트림 파일의 번호가 취득된다.
스텝 S54에서, 컨트롤러(34)는 취득한 번호에 대응하는 오디오 스트림을 재생하는 기능을 갖는지의 여부를 판정한다. 구체적으로는, 컨트롤러(34)는, stream_attribute()(도 17)에 기술되어 있는 내용에 기초하여, 취득한 번호에 대응하는 오디오 스트림을 자기 자신(재생 장치(20))이 재생하는 기능을 갖는지의 여부를 판정한다. 스텝 S54에서, 취득한 번호에 대응하는 오디오 스트림을 재생하는 기능을 갖지 않는다고 판정된 경우, 처리는 스텝 S55로 진행하여, 컨트롤러(34)는 현재의 스트림 번호의 다음 스트림 번호를 취득한다. 즉, 현재 스트림 번호의 오디오 스트림을 재생하는 기능을 갖지 않는 경우에는, 그 스트림 번호는 삭제되고(재생 대상으로 되지 않음), 다음 스트림 번호가 취득된다. 그리고, 스텝 S55의 처리 후, 처리는 스텝 S54로 돌아와 그 이후의 처리가 반복된다. 즉, 자기 자신이 재생하는 기능을 갖는 오디오 스트림의 번호가 취득될 때까지, 처리가 반복된다.
스텝 S54에서, 취득한 번호에 대응하는 오디오 스트림을 재생하는 기능을 갖는다고 판정된 경우, 처리는 스텝 S56에서, 컨트롤러(34)는, 취득한 번호에 대응하는 오디오 스트림이 메인 Clip과 서브 Clip 중 어느 쪽에 있는지를 조사한다. 예를 들면, 도 9의 예의 경우, 취득된 SubClip_entry_id=1은 SubPath에 의해 참조되므로, 서브 Clip에 있다고 판단된다.
스텝 S57에서, 컨트롤러(34)는, 원하는 오디오 스트림을 특정한다. 구체적으로는, 취득한 번호에 대응하는 스트림이 속하는 메인 Clip 또는 서브 Clip 내의 원하는 오디오 스트림을 특정한다. 구체적으로는, 도 16을 이용하여 전술한 STN_table()에 의해 type=3이 특정된다.
스텝 S58에서, 컨트롤러(34)는, 원하는 오디오 스트림이 다중화되어 있는 Clip(메인 Clip 또는 서브 Clip)를 읽어내도록 스토리지 드라이브(31)에 지시한다. 스토리지 드라이브(31)는, 이 지시에 기초하여 대상으로 되는 Clip을 읽어낸다.
스텝 S59에서, 컨트롤러(34)는, 읽어내어진 Clip으로부터 오디오 스트림을 재생하도록 AV 디코더부(33)에 지시한다.
스텝 S60에서, AV 디코더부(33)는, 오디오 스트림을 디코드하여 오디오 출력한다. 보다 상세하게는, 오디오 디코더(75)에 의해 디코드된 오디오 데이터와, 버퍼(95)로부터 출력되는 사운드 데이터가, 오디오 데이터 처리부(97)에 의해 처리되어 오디오 신호로서 출력된다.
이 처리에 의해, 도 27의 스텝 S21에서의 도 26의 스위치(59)의 선택이 결정된다. 즉, 도 29에서 대상으로 되는 Clip이 메인 Clip인 경우, 스위치(59)는, 메인측, 즉 PID 필터(55)로부터 공급된 오디오 스트림을 오디오 디코더(75)에 공급하고, 대상으로 되는 Clip이 서브 Clip인 경우, 스위치(59)는, 서브측, 즉, PID 필터(56)로부터 공급된 오디오 스트림을 오디오 디코더(75)에 공급한다.
이와 같이, 컨트롤러(34)는, PlayItem의 STN_table()에 기초하여, 음성(오디오)의 절환을 제어할 수 있다. 또한, 컨트롤러(34)는, STN_table()의 stream_attribute를 참조함으로써, 자기 자신이 재생 기능을 갖는 스트림만을 선택하여, 재생 절환의 제어를 할 수 있다.
또한, 도 29의 처리에서는, 오디오 스트림 번호에 기초하여, 오디오를 절환하도록 하였지만, 오디오 스트림 ID(audio_stream_id)에 기초하여, 오디오를 절환하도록 해도 된다. 이 경우, 오디오 스트림 번호로부터 1을 감산한 것이, 오디오 스트림 id로 된다.
다음으로, 도 30의 플로우차트를 참조하여, 유저에 의해 자막의 절환이 지시되는 경우의 처리를 설명한다. 한편, 이 처리는, 예를 들면, 도 26 내지 도 28의 재생 처리의 실행 중에 실행되는 처리이다.
스텝 S81에서, 컨트롤러(34)는, 자막 스트림 번호(ID이어도 됨)의 순번 리스트를 취득한다. 예를 들면, 도 14를 이용하여 설명한 PlayItem의 STN_table()을 참조하여, 도 15를 이용하여 설명한 STN_table()에 엔트리되어 있는 자막 스트림 ID(PG_txtST_stream_id)의 순번 리스트를 더 취득한다. 이 처리는, 도 26 내지 도 28의 재생 처리가 개시되었을 때에 실행되는 처리이다.
유저에 의해 유저 인터페이스를 통해, 자막 절환의 명령이 행해진 경우, 스텝 S82에서, 컨트롤러(34)는, 유저로부터의 자막 절환의 명령을 수령한다. 즉, 도 30에서, 스텝 S81은 미리 실행되어 있는 처리이고, 유저에 의해 자막 절환의 명령이 행해진 경우에, 스텝 S82 이후의 처리가 행해진다.
스텝 S83에서, 컨트롤러(34)는, 재생하고 있는 자막 스트림 번호의 다음 자막 스트림 번호를 취득한다. 예를 들면, 도 9의 SubClip_entry_id=0의 Text based subtitle이 재생되고 있었던 경우, 다음의 SubClip_entry_id=1에 대응하는 Text based subtitle의 번호가 취득된다.
스텝 S84에서, 컨트롤러(34)는, 취득한 번호에 대응하는 자막 스트림을 재생하는 기능을 갖는지의 여부를 판정한다. 구체적으로는, 컨트롤러(34)는, stream_attribute()(도 17)에 기술되어 있는 내용에 기초하여, 취득한 번호에 대응하는 자막 스트림을 자기 자신이 재생하는 기능을 갖는지의 여부를 판정한다. 스텝 S84에서, 취득한 번호에 대응하는 자막 스트림을 재생하는 기능을 갖고 있지 않다고 판정된 경우, 처리는 스텝 S85로 진행되어, 컨트롤러(34)는 현재의 스트림 번호의 다음 스트림 번호를 취득한다. 즉, 현재의 스트림 번호의 자막 스트림을 재생하는 기능을 갖지 않는 경우에는, 그 스트림 번호는 삭제되고(재생 대상으로 되지 않음), 다음 스트림 번호가 취득된다. 그리고, 스텝 S85의 처리 후, 처리는 스텝 S84로 돌아와, 그 이후의 처리가 반복된다. 즉, 자기 자신이 재생하는 기능을 갖는 자막 스트림의 번호가 취득될 때까지, 처리가 반복된다.
스텝 S84에서, 취득한 번호에 대응하는 자막 스트림을 재생하는 기능을 갖는다고 판정된 경우, 처리는 스텝 S86에서, 컨트롤러(34)는 취득한 번호(재생하고 있는 자막 스트림의 다음 자막 스트림의 번호)에 대응하는 데이터가 메인 Clip(메인 패스), 서브 Clip(서브 패스), 텍스트 서브타이틀 데이터 파일(서브 패스) 중 어디에 저장되어 있는지를 조사한다.
스텝 S87에서, 컨트롤러(34)는, 원하는 프리젠테이션 그래픽스 스트림 또는 텍스트 자막 데이터를 특정한다. 구체적으로는, 컨트롤러(34)는, 메인 Clip 또는 서브 Clip 내의 원하는 프리젠테이션 그래픽스 스트림을 특정하거나, 혹은, 텍스트 서브타이틀 파일 중에서, 원하는 텍스트 서브타이틀 데이터를 특정한다.
스텝 S88에서, 컨트롤러(34)는, 원하는 프리젠테이션 그래픽스 스트림이 다중화되어 있는 Clip(메인 Clip 또는 서브 Clip), 또는 원하는 텍스트 서브타이틀 데이터(텍스트 자막 데이터)를 읽어내도록 스토리지 드라이브(31)에 지시한다.
스텝 S89에서, 컨트롤러(34)는, 읽어내어진 Clip으로부터 분리된 프리젠테이션 그래픽스 스트림, 또는 텍스트 서브타이틀 데이터를 재생하도록 AV 디코더부(33)에 지시한다.
스텝 S90에서, AV 디코더부(33)는, 프리젠테이션 그래픽스 스트림 또는 텍스트 서브타이틀 데이터를 디코드하여, 자막 화상을 출력한다. 보다 상세하게는, 디코드된 프리젠테이션 그래픽스 스트림 또는 텍스트 서브타이틀 데이터가 프리젠테이션 그래픽스 플레인 생성부(93)에 의해 플레인되고, 비디오 데이터 처리부(96)에 합성되어, 비디오 출력된다.
이 처리에 의해, 도 28의 스텝 S29에서의 도 25의 스위치(77)의 선택이 결정된다. 즉, 도 30의 스텝 S87에서 대상으로 되는 데이터가, 프리젠테이션 그래픽스 스트림인 경우, 스위치(77)는, 프리젠테이션 그래픽스 디코더(73)로부터 공급된 프리젠테이션 그래픽스 데이터를 프리젠테이션 그래픽스 플레인 생성부(93)에 공급하고, 대상으로 되는 데이터가 텍스트 서브타이틀 데이터인 경우, 스위치(77)는, Text-ST 콤포지션(76)으로부터 공급된 텍스트 서브타이틀 데이터를 프리젠테이션 그래픽스 플레인 생성부(93)에 공급한다. 또한, 컨트롤러(34)는, 재생 기능을 갖는 스트림만을 선택하여, 재생 절환의 제어를 할 수 있다.
한편, 도 30의 처리에서는, 자막 스트림 번호에 기초하여, 자막을 절환하도록 하였으나, 자막 스트림 ID(PG_txtST_stream_id)에 기초하여, 자막을 절환하도록 하여도 된다. 이 경우, 자막 스트림 번호로부터 1을 감산한 것이, 자막 스트림 id로 된다.
이상에 의해, 메인의 AV 스트림과는 별개의 스트림이나 데이터 파일로 오디오나 자막 등을 준비하는 경우에, PlayList 내에 메인 패스와 서브 패스를 갖는 구성으로 하였으므로, 유저에 의한 음성 절환이나 자막 절환의 조작이, 메인 AV 스트림과는 상이한 다른 스트림이나 다른 데이터 파일 중에서 선택할 수 있다.
또한, 메인 패스의 PlayItem 중에, AV 스트림 파일에 다중화되어 있는 데이터와, SubPath에 의해 참조되는 데이터의 type을 정의하는 Stream Number Definition Table을 마련하도록 하였으므로, 보다 확장성이 높은 스트림을 실현할 수 있다.
또한, 재생 장치(20)는, STN_table()의 stream_attribute를 참조함으로써, 자기 자신이 갖는 기능에 대응하는 스트림만을 순차적으로 선택하여 재생할 수 있다.
이상의 처리를 정리하면, 이하와 같이 된다.
재생 장치(20)는, 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스인 Main Path와, 메인 재생 패스에 의해 참조되는 AV 스트림 파일에 포함되는 메인 화상 데이터(비디오 스트림 데이터)의 재생 타이밍에 맞추어 재생되는 부속 데이터(예를 들면, 오디오 스트림의 데이터나, 비트맵 자막 스트림 파일의 데이터)를 포함하는 서브 Clip의 각각의 위치를 나타내는 복수의 서브 재생 패스인 SubPath에 의해 구성되는 재생 관리 정보로서의 PlayList를 취득한다. 또한, 재생 장치(20)는, Main Path에 의해 참조되는 AV 스트림 파일에 포함되는 비디오 스트림 데이터의 타이밍에 맞추어 재생되는 부속 데이터(예를 들면, 오디오 스트림 파일의 데이터) 및 SubPath에 의해 참조되는 서브 Clip에 포함되는 부속 데이터(예를 들면, 오디오 스트림 파일의 데이터) 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택한다. 전술한 도 29, 도 30의 처리에서는, 단순히, 자막 절환이나 음성 절환의 명령이 행해지고 있다. 그리고, 재생 장치(20)는, 선택된 부속 데이터(예를 들면, 오디오 스트림 파일의 데이터)를, 자기 자신이 재생하는 기능을 갖는지의 여부를 판정한다. 컨트롤러(34)는 STN_table()의 stream_attribute를 참조함으로써, 자기 자신(재생 장치(20))이, 부속 데이터를 재생할 수 있는지의 여부를 판정할 수 있다. 선택된 부속 데이터를 재생하는 기능을 갖는다고 판정된 경우로서, 그 부속 데이터(오디오 스트림 파일의 데이터)가, SubPath에 의해 참조되는 서브 Clip에 포함될 때, Main Path에 의해 참조되는 메인 AV 스트림 파일(메인 Clip)과 함께, SubPath에 의해 참조되는 서브 Clip이 읽어내져 합성되어 재생된다. 예를 들면, 재생하는 부속 데이터로서, SubPath가 참조하는 오디오 스트림 파일의 데이터가 유저에 의해 선택된 경우(유저에 의해 음성 절환이 명령된 경우), 재생 장치(20)는, 메인 ClipAV 스트림 파일 중, MPEG2 비디오 스트림 파일, 프리젠테이션 그래픽스 스트림 파일 및 인터랙티브 그래픽스 스트림 파일과, SubPath가 참조하는 오디오 스트림 파일의 데이터를 합성하여 재생한다. 즉, 이때 재생되는 음성은, 유저에 의해 선택된 오디오 스트림 파일이 디코드된 것이 된다.
이와 같이, PlayList에 Main Path와 SubPath를 포함하여, Main Path와 SubPath가 상이한 Clip을 참조하는 구성으로 하였으므로, 스트림에 확장성을 갖게 할 수 있다. 또한, 1개의 Subpath에서 복수의 파일을 참조 가능한 구성으로 하였으므로(예를 들면, 도 9, 도 10), 복수의 상이한 스트림 중에서 유저가 선택할 수 있다.
또한, Main path의 PlayItem 내에, Main Path에 의해 참조되는 AV 스트림 파일에 다중화되어 있는(포함되는) 부속 데이터와, SubPath에 의해 참조되는 부속 데이터를 정의하는 테이블로서, 도 15의 STN_table()을 마련하도록 하였으므로, 보다 확장성이 높은 스트림을 실현할 수 있다. 또한, STN_table()에 엔트리하면, SubPath를 용이하게 확장할 수 있다.
또한, STN_table()에 스트림의 속성 정보인 도 17의 stream_attribute()를 마련하도록 하였으므로, 재생 장치(20)측에서, 선택된 스트림을 재생 가능한지의 여부를 판정할 수 있다. 또한, stream_attribute()를 참조함으로써, 재생 기능을 갖는 스트림만을 선택하여 재생할 수 있다.
또한, Subpath에는, 도 12에 도시하는 바와 같이, Subpath의 타입(오디오나 텍스트 자막과 같은 타입)을 나타내는 SubPath_type, SubPath가 참조하는 서브 Clip의 이름을 나타내는 도 13의 Clip_Information_file_name 및 SubPath가 참조하는 Clip의 IN점을 나타내는 도 13의 SubPlayItem_IN_time과 OUT점을 나타내는 도 13의 SubPlayItem_OUT_time을 포함하도록 하였으므로, SubPath가 참조하는 데이터를 적확하게 특정할 수 있다.
또한, Subpath에는, SubPath가 Main Path를 동일한 타이밍에서 재생하기 위한 Main Path 상의 AV 스트림 파일을 지정하는 지정 정보인 도 13의 sync_PlayItem_id(예를 들면, 도 7과 도 9의 sync_PlayItem_id)와 SubPath가 참조하는 데이터의 IN점이 Main path의 시간축 상에서 동기하여 스타트하는 Main Path 상의 시각인 sync_start_PTS_of_PlayItem(예를 들면, 도 7과 도 9의 sync_start_PTS_of_PlayItem)을 더 포함하기 때문에, 도 7이나 도 9에 도시하는 바와 같이, Main Path가 참조하는 메인 ClipAV 스트림 파일에 동기하여 SubPath가 참조하는 데이터(파일)를 재생할 수 있다.
또한, 도 25의 스토리지 드라이브(31)가 읽어내는 데이터는, DVD(Digital Versatile Disc) 등의 기록 매체에 기록되어 있는 데이터라도 되고, 하드 디스크에 기록되어 있는 데이터라도 되고, 미도시의 네트워크를 통해 다운로드한 데이터라도 되며, 이들이 조합된 데이터라도 된다. 예를 들면, 다운로드되어 하드디스크에 기록된 PlayList 및 서브 Clip과, DVD에 기록된 메인 ClipAV 스트림 파일에 기초하여, 재생되어도 된다. 또한, 예를 들면, DVD에 기록된 ClipAV 스트림 파일을 서브 Clip으로 하는 PlayList와 메인 Clip이 하드디스크에 기록되어 있는 경우에, 하드디스크에 기록되어 있는 PlayList에 기초하여, 메인 Clip과 서브 Clip이 각각 하드디스크와 DVD로부터 읽어내져 재생되어도 된다.
전술한 일련의 처리는, 하드웨어에 의해 실행시킬 수도 있고, 소프트웨어에 의해 실행시킬 수도 있다. 이 경우, 전술한 처리는, 도 31에 도시하는 바와 같은 퍼스널 컴퓨터(500)에 의해 실행된다.
도 31에서, CPU(Central Processing Unit)(501)는, ROM(Read Only Memory)(502)에 기억되어 있는 프로그램, 또는, 기억부(508)로부터 RAM(Random Access Memory)(503)에 로드된 프로그램에 따라 각종 처리를 실행한다. RAM(503)에는 또한, CPU(501)가 각종 처리를 실행하는데 있어서 필요한 데이터 등이 적절하게 기억된다.
CPU(501), ROM(502) 및 RAM(503)은, 내부 버스(504)를 통해 서로 접속되어 있다. 이 내부 버스(504)에는 또한, 입출력 인터페이스(505)도 접속되어 있다.
입출력 인터페이스(505)에는, 키보드, 마우스 등으로 이루어지는 입력부(506), CRT, LCD 등으로 이루어지는 디스플레이, 스피커 등으로 이루어지는 출력부(507), 하드디스크 등으로 구성되는 기억부(508), 그리고, 모뎀, 터미널 어댑터 등으로 구성되는 통신부(509)가 접속되어 있다. 통신부(509)는, 전화 회선이나 CATV를 포함하는 각종 네트워크를 통한 통신 처리를 행한다.
입출력 인터페이스(505)에는 또한, 필요에 따라 드라이브(510)가 접속되고, 자기 디스크, 광디스크, 광자기 디스크, 혹은 반도체 메모리 등에 의해 이루어지는 리무버블 미디어(521)가 적절하게 장착되고, 그로부터 읽어내어진 컴퓨터 프로그램이 필요에 따라 기억부(508)에 인스톨된다.
일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이 네트워크나 기록 매체로부터 인스톨된다.
이 기록 매체는, 도 31에 도시하는 바와 같이, 컴퓨터와는 별도로, 유저에게 프로그램을 제공하기 위해 배포되는, 프로그램이 기록되어 있는 리무버블 미디어(521)로 이루어지는 패키지 미디어에 의해 구성될 뿐만 아니라, 장치 본체에 미리 내장된 상태로 유저에게 제공되는, 프로그램이 기록되어 있는 ROM(502)이나 기억부(508)가 포함되는 하드디스크 등으로 구성된다.
한편, 본 명세서에 있어서, 컴퓨터 프로그램을 기술하는 스텝은, 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않아도, 병렬적 혹은 개별적으로 실행되는 처리도 포함하는 것이다.
또한, 본 명세서에 있어서, 시스템이란, 복수의 장치에 의해 구성되는 장치 전체를 나타내는 것이다.

Claims (12)

  1. 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, 상기 AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 수단과,
    상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일에 포함되는 상기 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 상기 서브 재생 패스에 의해 참조되는 상기 서브 파일에 포함되는 상기 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 수단과,
    상기 선택 수단에 의해 선택된 부속 데이터가, 상기 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일과 함께 상기 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 수단과,
    상기 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 상기 메인 화상 데이터, 및 상기 선택 수단에 의해 선택되고, 상기 읽어내기 수단에 의해 읽어내어진 상기 서브 파일에 포함되는 상기 부속 데이터를 재생하는 재생 수단을 구비하는 것을 특징으로 하는 재생 장치.
  2. 제1항에 있어서,
    상기 제1 정보는, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일에 포함되는 상기 부속 데이터와, 상기 서브 재생 패스에 의해 참조되는 상기 부속 데이터를 정의하는 테이블을 포함하고,
    상기 선택 수단은, 상기 테이블에 정의되어 있는 상기 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 것을 특징으로 하는 재생 장치.
  3. 제1항에 있어서,
    상기 선택 수단에 의해 선택된 상기 부속 데이터를, 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 판정 수단을 더 구비하고,
    상기 읽어내기 수단은, 상기 판정 수단에 의해 상기 부속 데이터를 재생하는 기능을 갖는다고 판정된 경우로서, 그 부속 데이터가 상기 서브 재생 패스에 의해 참조되는 서브 파일에 포함될 때, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일과 함께 상기 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내고,
    상기 재생 수단은, 상기 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 상기 메인 화상 데이터, 및 상기 선택 수단에 의해 선택되고, 상기 읽어내기 수단에 의해 읽어내어진 상기 서브 파일에 포함되는 상기 부속 데이터를 재생하는 것을 특징으로 하는 재생 장치.
  4. 제2항에 있어서,
    상기 선택 수단에 의해 선택된 상기 부속 데이터를, 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 판정 수단을 더 구비하고,
    상기 읽어내기 수단은, 상기 판정 수단에 의해 상기 부속 데이터를 재생하는 기능을 갖는다고 판정된 경우로서, 그 부속 데이터가 상기 서브 재생 패스에 의해 참조되는 서브 파일에 포함될 때, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일과 함께 상기 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내고,
    상기 재생 수단은, 상기 읽어내기 수단에 의해 읽어내어진 AV 스트림 파일에 포함되는 상기 메인 화상 데이터, 및 상기 선택 수단에 의해 선택되고, 상기 읽어내기 수단에 의해 읽어내어진 상기 서브 파일에 포함되는 상기 부속 데이터를 재생하는 것을 특징으로 하는 재생 장치.
  5. 제4항에 있어서,
    상기 테이블은, 상기 부속 데이터의 속성 정보를 더 정의하고,
    상기 판정 수단은, 상기 테이블에 정의되어 있는 상기 부속 데이터의 속성 정보에 기초하여, 상기 부속 데이터를 자기 자신이 재생하는 기능을 갖는지의 여부를 판정하는 것을 특징으로 하는 재생 장치.
  6. 제1항에 있어서,
    상기 제2 정보는,
    상기 서브 재생 패스의 타입을 나타내는 타입 정보와,
    상기 서브 재생 패스가 참조하는 상기 서브 파일의 파일명과,
    상기 서브 재생 패스가 참조하는 상기 서브 파일의 IN점과 OUT점을 포함하는 것을 특징으로 하는 재생 장치.
  7. 제6항에 있어서,
    상기 제2 정보는,
    상기 서브 재생 패스와 상기 메인 재생 패스가 동일한 타이밍에서 재생되기 위한, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일을 지정하는 지정 정보와,
    상기 IN점이, 상기 메인 재생 패스의 시간축 상에서 동기하여 스타트하기 위한, 상기 메인 재생 패스 상의 시각을 더 포함하는 것을 특징으로 하는 재생 장치.
  8. 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, 상기 AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 스텝과,
    상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일에 포함되는 상기 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 상기 서브 재생 패스에 의해 참조되는 상기 서브 파일에 포함되는 상기 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 스텝과,
    상기 선택 스텝의 처리에 의해 선택된 부속 데이터가, 상기 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일과 함께 상기 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 스텝과,
    상기 읽어내기 스텝의 처리에 의해 읽어내어진 AV 스트림 파일에 포함되는 상기 메인 화상 데이터, 및 상기 선택 스텝의 처리에 의해 선택되고, 상기 읽어내기 스텝의 처리에 의해 읽어내어진 상기 서브 파일에 포함되는 상기 부속 데이터를 재생하는 재생 스텝을 포함하는 것을 특징으로 하는 재생 방법.
  9. 기록 매체에 기록되어 있는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 포함하는 제1 정보와, 상기 AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스를 포함하는 제2 정보에 의해 구성되는 재생 관리 정보를 취득하는 취득 스텝과,
    상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일에 포함되는 상기 메인 화상 데이터의 타이밍에 맞추어 재생되는 부속 데이터, 및, 상기 서브 재생 패스에 의해 참조되는 상기 서브 파일에 포함되는 상기 부속 데이터 중에서, 유저의 명령에 기초하여, 재생할 부속 데이터를 선택하는 선택 스텝과,
    상기 선택 스텝의 처리에 의해 선택된 부속 데이터가, 상기 서브 재생 패스에 의해 참조되는 서브 파일에 포함되는 경우, 상기 메인 재생 패스에 의해 참조되는 상기 AV 스트림 파일과 함께 상기 서브 재생 패스에 의해 참조되는 서브 파일을 읽어내는 읽어내기 스텝과,
    상기 읽어내기 스텝의 처리에 의해 읽어내어진 AV 스트림 파일에 포함되는 상기 메인 화상 데이터, 및 상기 선택 스텝의 처리에 의해 선택되고, 상기 읽어내기 스텝의 처리에 의해 읽어내어진 상기 서브 파일에 포함되는 상기 부속 데이터를 재생하는 재생 스텝을 포함하는 처리를 컴퓨터에 실행시키는 것을 특징으로 하는 프로그램.
  10. 클립에 포함되는 AV 스트림 파일과, AV 스트림 파일의 재생 타이밍에 맞추어 재생되는 부속 데이터에 관한 관련 데이터가 기록되어 있는 기록 매체로서,
    상기 관련 데이터는, 상기 부속 데이터가, 상기 AV 스트림 파일의 위치를 나타내는 메인 재생 패스에 의해 사용되는 클립에 포함되는지, 또는, 상기 AV 스트림 파일의 재생 타이밍에 맞추어 재생되는 상기 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는지를 나타내고,
    상기 관련 데이터가, 상기 부속 데이터를 포함하는 서브 파일의 각각의 위치를 나타내는 복수의 서브 재생 패스에 의해 사용되는 클립에 포함되는 것을 나타내는 경우,
    상기 관련 데이터에는,
    재생할 서브 재생 패스를 특정하는 ID와,
    상기 서브 재생 패스에 의해 사용되는 클립을 특정하는 ID와,
    상기 클립에 의해 재생되는 엘리멘트리 스트림을 특정하는 ID 중, 적어도 상기 재생할 서브 재생 패스를 특정하는 ID가 포함되어 있는 것을 특징으로 하는 관련 데이터가 기록되어 있는 기록 매체.
  11. 클립에 포함되는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 갖는 재생 제어 파일을 포함하는 데이터가 기록되어 있는 기록 매체로서,
    상기 재생 제어 파일은, 상기 AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 위치를 나타내는 서브 재생 패스를 포함하고,
    상기 메인 재생 패스는, 상기 메인 재생 패스를 재생 중에 선택 가능한 엘리멘트리 스트림의 일람을 정의하는 테이블을 갖고,
    상기 테이블은, 상기 선택 가능한 엘리멘트리 스트림이, 상기 메인 재생 패스에 의해 선택되는 AV 스트림 파일에 포함되어 있는지, 상기 서브 재생 패스에 의해 선택되는 서브 파일에 포함되어 있는지를 나타내는 데이터를 갖는 것을 특징으로 하는 데이터가 기록되어 있는 기록 매체.
  12. 클립에 포함되는 AV 스트림 파일의 위치를 나타내는 메인 재생 패스를 갖는 재생 제어 파일을 포함하는 데이터 구조로서,
    상기 재생 제어 파일은, 상기 AV 스트림 파일에 포함되는 메인 화상 데이터의 재생 타이밍에 맞추어 재생되는 부속 데이터를 포함하는 서브 파일의 위치를 나타내는 서브 재생 패스를 포함하고,
    상기 메인 재생 패스는, 상기 메인 재생 패스를 재생 중에 선택 가능한 엘리멘트리 스트림의 일람을 정의하는 테이블을 갖고,
    상기 테이블은, 상기 선택 가능한 엘리멘트리 스트림이, 상기 메인 재생 패스에 의해 선택되는 AV 스트림 파일에 포함되어 있는지, 상기 서브 재생 패스에 의해 선택되는 서브 파일에 포함되어 있는지를 나타내는 데이터를 갖는 것을 특징으로 하는 데이터 구조.
KR1020067016345A 2004-02-16 2005-02-15 재생 장치, 재생 방법 및 기록 매체 KR101104528B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2004-00038574 2004-02-16
JP2004038574 2004-02-16
JP2004108650 2004-04-01
JPJP-P-2004-00108650 2004-04-01
PCT/JP2005/002269 WO2005078727A1 (ja) 2004-02-16 2005-02-15 再生装置および再生方法、プログラム、記録媒体、並びにデータ構造

Publications (2)

Publication Number Publication Date
KR20060122929A true KR20060122929A (ko) 2006-11-30
KR101104528B1 KR101104528B1 (ko) 2012-01-11

Family

ID=34863472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067016345A KR101104528B1 (ko) 2004-02-16 2005-02-15 재생 장치, 재생 방법 및 기록 매체

Country Status (11)

Country Link
US (2) US8737822B2 (ko)
EP (3) EP1717808A4 (ko)
JP (1) JP4288613B2 (ko)
KR (1) KR101104528B1 (ko)
CN (1) CN1906694B (ko)
AU (1) AU2005213036A1 (ko)
BR (1) BRPI0506593A (ko)
EG (1) EG25858A (ko)
MA (1) MA28433B1 (ko)
RU (1) RU2400834C2 (ko)
WO (1) WO2005078727A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050005074A (ko) 2003-07-01 2005-01-13 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
KR20050004339A (ko) 2003-07-02 2005-01-12 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
JP4288613B2 (ja) * 2004-02-16 2009-07-01 ソニー株式会社 再生装置および再生方法、プログラム、記録媒体、並びにデータ構造
US7609945B2 (en) 2004-08-17 2009-10-27 Lg Electronics Inc. Recording medium, and method and apparatus for reproducing data from the recording medium
US7613384B2 (en) 2004-08-17 2009-11-03 Lg Electronics Inc. Method for configuring composite file structure for data reproduction, and method and apparatus for reproducing data using the composite file structure
US7609939B2 (en) 2004-08-17 2009-10-27 Lg Electronics Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7725010B2 (en) 2004-08-17 2010-05-25 Lg Electronics, Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7599611B2 (en) 2004-09-13 2009-10-06 Lg Electronics Co. Recording medium, and method and apparatus of reproducing data recorded on the same
KR20060047549A (ko) 2004-10-12 2006-05-18 엘지전자 주식회사 로컬 스토리지를 이용한 기록매체 재생방법 및 재생장치
KR20060065476A (ko) 2004-12-10 2006-06-14 엘지전자 주식회사 기록매체, 기록매체 내의 콘텐츠 서치방법 및 기록매체재생방법과 재생장치
KR20060081323A (ko) 2005-01-07 2006-07-12 엘지전자 주식회사 로컬 스토리지를 이용한 기록매체 재생방법 및 재생장치
JP4968506B2 (ja) * 2005-03-04 2012-07-04 ソニー株式会社 再生装置、再生方法、およびプログラム
JP5234144B2 (ja) * 2005-08-30 2013-07-10 ソニー株式会社 再生装置、並びに記録媒体及びその製造方法
JP4923751B2 (ja) * 2005-08-30 2012-04-25 ソニー株式会社 再生装置、並びに記録媒体及びその製造方法
JP4642655B2 (ja) * 2005-12-28 2011-03-02 ソニー株式会社 再生装置および再生方法、プログラム、記録媒体、データ構造、記録媒体の製造方法および記録装置、並びに、データ構造の生成方法および生成装置
JP2009049726A (ja) 2007-08-21 2009-03-05 Sony Corp 情報変換装置、情報変換方法およびプログラム
JP2009093695A (ja) * 2007-10-04 2009-04-30 Funai Electric Co Ltd 情報再生装置
US20090222305A1 (en) * 2008-03-03 2009-09-03 Berg Jr Charles John Shopper Communication with Scaled Emotional State
US20110167345A1 (en) * 2010-01-06 2011-07-07 Jeremy Jones Method and apparatus for selective media download and playback
JP5533162B2 (ja) 2010-04-08 2014-06-25 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
RU2537407C2 (ru) * 2012-09-18 2015-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный технический университет" Способ изготовления диффузионной сваркой стоистой тонкостенной конструкции из титановых листовых материалов

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1152413A3 (en) * 1996-04-05 2005-04-06 Matsushita Electric Industrial Co., Ltd. Multimedia optical disc for storing audio data and sub-picture data in a plurality of channels as well as moving picture data and apparatus and method for reproducing the multimedia optical disc
ID22996A (id) * 1998-03-13 1999-12-23 Matsushita Electric Ind Co Ltd Media penyimpan data, alat dan metode untuk memproduksi kembali data dari media penyimpan data tersebut
US8409564B2 (en) * 1999-10-05 2013-04-02 Universite De Montreal Rhodamine derivatives for photodynamic diagnosis and treatment
KR100795255B1 (ko) * 2000-04-21 2008-01-15 소니 가부시끼 가이샤 정보 처리 장치 및 방법, 프로그램과 기록 매체
JP4599740B2 (ja) 2000-04-21 2010-12-15 ソニー株式会社 情報処理装置および方法、記録媒体、プログラム、並びに記録媒体
JP4356257B2 (ja) * 2001-03-15 2009-11-04 ソニー株式会社 オーディオ再生装置
JP2002290919A (ja) 2001-03-26 2002-10-04 Denon Ltd 光ディスク再生装置
EP1921623B1 (en) * 2003-06-18 2011-09-21 Panasonic Corporation Playback apparatus, program, and playback method
KR20050048848A (ko) * 2003-11-20 2005-05-25 엘지전자 주식회사 고밀도 광디스크의 플레이리스트 생성방법, 관리방법 및재생방법과 기록재생장치
WO2005076273A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Recording medium having a data structure for managing font information for text subtitles and recording and reproducing methods and apparatuses
JP4288613B2 (ja) * 2004-02-16 2009-07-01 ソニー株式会社 再生装置および再生方法、プログラム、記録媒体、並びにデータ構造
JP4968506B2 (ja) 2005-03-04 2012-07-04 ソニー株式会社 再生装置、再生方法、およびプログラム
JP4613739B2 (ja) 2005-08-01 2011-01-19 ソニー株式会社 情報処理装置、情報処理方法、および情報記録媒体、並びにコンピュータ・プログラム
JP4081772B2 (ja) * 2005-08-25 2008-04-30 ソニー株式会社 再生装置および再生方法、プログラム、並びにプログラム格納媒体
JP4923751B2 (ja) 2005-08-30 2012-04-25 ソニー株式会社 再生装置、並びに記録媒体及びその製造方法
JP4815962B2 (ja) 2005-09-12 2011-11-16 ソニー株式会社 再生装置および再生方法、プログラム、並びに、プログラム格納媒体

Also Published As

Publication number Publication date
EP2562758B1 (en) 2018-05-30
KR101104528B1 (ko) 2012-01-11
EP1717808A1 (en) 2006-11-02
US9070414B2 (en) 2015-06-30
BRPI0506593A (pt) 2007-05-02
US8737822B2 (en) 2014-05-27
MA28433B1 (fr) 2007-02-01
EP2562757A2 (en) 2013-02-27
US20070127884A1 (en) 2007-06-07
US20140233911A1 (en) 2014-08-21
EP2562757A3 (en) 2013-03-27
WO2005078727A1 (ja) 2005-08-25
AU2005213036A1 (en) 2005-08-25
JPWO2005078727A1 (ja) 2007-10-18
EP2562757B1 (en) 2018-05-09
EG25858A (en) 2012-09-11
EP2562758A2 (en) 2013-02-27
RU2006129624A (ru) 2008-02-20
CN1906694A (zh) 2007-01-31
CN1906694B (zh) 2010-12-22
EP2562758A3 (en) 2013-03-27
JP4288613B2 (ja) 2009-07-01
EP1717808A4 (en) 2010-10-06
RU2400834C2 (ru) 2010-09-27

Similar Documents

Publication Publication Date Title
KR101104528B1 (ko) 재생 장치, 재생 방법 및 기록 매체
KR101244148B1 (ko) 데이터 생성 방법, 기록 장치, 기록 방법, 저장 매체, 재생 장치 및 재생 방법
JP4968506B2 (ja) 再生装置、再生方法、およびプログラム
JP4923751B2 (ja) 再生装置、並びに記録媒体及びその製造方法
US9076495B2 (en) Reproducing apparatus, reproducing method, computer program, program storage medium, data structure, recording medium, recording device, and manufacturing method of recording medium
JP4729983B2 (ja) 再生装置および再生方法、プログラム、並びに、データ構造
JP4968562B2 (ja) 再生装置、再生方法、および記録方法
JP2008193604A (ja) 再生装置および方法、並びにプログラム
AU2012213937B2 (en) Playback apparatus, playback method, program, recording medium, and data structure
JP5234144B2 (ja) 再生装置、並びに記録媒体及びその製造方法
MXPA06007710A (en) Reproduction device, reproduction method, program, recording medium, and data structure

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141229

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee