JP5218872B2 - REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF - Google Patents

REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF Download PDF

Info

Publication number
JP5218872B2
JP5218872B2 JP2011196706A JP2011196706A JP5218872B2 JP 5218872 B2 JP5218872 B2 JP 5218872B2 JP 2011196706 A JP2011196706 A JP 2011196706A JP 2011196706 A JP2011196706 A JP 2011196706A JP 5218872 B2 JP5218872 B2 JP 5218872B2
Authority
JP
Japan
Prior art keywords
stream
audio
type
path
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011196706A
Other languages
Japanese (ja)
Other versions
JP2012022771A (en
Inventor
しのぶ 服部
元樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011196706A priority Critical patent/JP5218872B2/en
Publication of JP2012022771A publication Critical patent/JP2012022771A/en
Application granted granted Critical
Publication of JP5218872B2 publication Critical patent/JP5218872B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、再生装置、並びに記録媒体及びその製造方法に関し、特に、ストリームを再生する場合に用いて好適な、再生装置、並びに記録媒体及びその製造方法に関する。 The present invention relates to a playback device , a recording medium, and a method for manufacturing the same, and more particularly, to a playback device , a recording medium, and a method for manufacturing the same that are suitable for playback of streams.

DVD(Digital Versatile Disc)ビデオの規格においては、記録媒体に記録されている映画などのAV(Audio Visual)コンテンツを再生する場合、ユーザに、音声切り替えや字幕切り替えというインタラクティブな操作を提供している(例えば、非特許文献1参照)。具体的には、図1の表示装置1に表示されているAVコンテンツに対して、ユーザは、リモートコントローラ2の音声切り替えボタン11や字幕切り替えボタン12を操作することで、音声の切り替えや字幕を切り替える。例えば、音声1が初期状態として設定されており、ユーザによりリモートコントローラ2の音声切り替えボタン11が操作された場合、図2に示されるように、音声1が音声2に切り替えられる。   In the DVD (Digital Versatile Disc) video standard, when AV (Audio Visual) content such as a movie recorded on a recording medium is played, an interactive operation such as audio switching or subtitle switching is provided to the user. (For example, refer nonpatent literature 1). Specifically, for the AV content displayed on the display device 1 in FIG. 1, the user operates the audio switching button 11 or the subtitle switching button 12 of the remote controller 2 to switch the audio or subtitle. Switch. For example, when the voice 1 is set as the initial state and the user operates the voice switching button 11 of the remote controller 2, the voice 1 is switched to the voice 2 as shown in FIG.

DVDビデオ上のAVコンテンツは、MPEG(Moving Picture Experts Group)2プログラムストリームの形式で記録されている。このMPEG2プログラムストリームには、図3に示されるように、ビデオストリーム(図3のビデオ)、複数のオーディオストリーム(図3のオーディオ1,2,3)、および複数のサブピクチャストリーム(図3のサブピクチャ1,2,3)が、ビデオストリームにAV同期して再生されるように多重化されている。サブピクチャストリーム(サブピクチャ1,2,3)は、ビットマップ画像がランレングス符号化されたストリームであり、主に字幕用途に用いられる。   AV content on a DVD video is recorded in MPEG (Moving Picture Experts Group) 2 program stream format. As shown in FIG. 3, the MPEG2 program stream includes a video stream (video in FIG. 3), a plurality of audio streams (audios 1, 2, and 3 in FIG. 3), and a plurality of sub-picture streams (in FIG. 3). The sub-pictures 1, 2, 3) are multiplexed so as to be reproduced in AV synchronization with the video stream. The sub-picture stream (sub-picture 1, 2, 3) is a stream in which a bitmap image is run-length encoded, and is mainly used for subtitles.

一般に、複数のオーディオストリームは、異なる言語の音声を記録するために用いられ、複数のサブピクチャストリームは、異なる言語の字幕を記録するために用いられる。ユーザは、ビデオが再生されている場合、インタラクティブに所望の言語の音声や字幕を、リモートコントローラ2を用いて選択することができる。   In general, a plurality of audio streams are used for recording audio in different languages, and a plurality of sub-picture streams are used for recording subtitles in different languages. When the video is being played back, the user can interactively select audio or subtitles in a desired language using the remote controller 2.

また、DVDビデオは、プログラムストリームの中の複数のオーディオストリーム(オーディオ1,2,3)と複数のサブピクチャストリーム(サブピクチャ1,2,3)に対して、ユーザに提供する音声番号と字幕番号の関係を表すテーブル構造を定義している。   Also, the DVD video includes audio numbers and subtitles provided to the user for a plurality of audio streams (audio 1, 2, 3) and a plurality of sub-picture streams (sub-pictures 1, 2, 3) in the program stream. Defines a table structure that represents the number relationship.

図4は、ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルを説明する図である。ここでは、音声番号をA_SN(Audio Stream Number)と称し、字幕番号をS_SN(SubPicture Stream Number)と称する。図4においては、MPEG2プログラムストリームの複数のオーディオストリームのそれぞれにA_SNが与えられているとともに、MPEG2プログラムストリームの複数のサブピクチャストリームのそれぞれに、S_SNが与えられている。A_SN=1:オーディオ2であり、A_SN=2:オーディオ1であり、A_SN=3:オーディオ3である。また、S_SN=1:サブピクチャ3であり、S_SN=2:サブピクチャ1であり、S_SN=3:サブピクチャ2である。ここでは、A_SNやS_SNの番号が小さい程、ユーザに提供される音声信号として優先度が高い。すなわち、A_SN=1はデフォルトで再生されるオーディオストリームであり、S_SN=1はデフォルトで再生されるサブピクチャストリームである。   FIG. 4 is a diagram for explaining a stream number table representing the relationship between audio signals and caption signals provided to the user. Here, the audio number is referred to as A_SN (Audio Stream Number), and the subtitle number is referred to as S_SN (SubPicture Stream Number). In FIG. 4, A_SN is given to each of the plurality of audio streams of the MPEG2 program stream, and S_SN is given to each of the plurality of sub-picture streams of the MPEG2 program stream. A_SN = 1: Audio 2; A_SN = 2: Audio 1; A_SN = 3: Audio 3 Also, S_SN = 1: sub-picture 3, S_SN = 2: sub-picture 1, and S_SN = 3: sub-picture 2. Here, the smaller the A_SN or S_SN number, the higher the priority as the audio signal provided to the user. That is, A_SN = 1 is an audio stream reproduced by default, and S_SN = 1 is a sub-picture stream reproduced by default.

具体的には、図1の初期状態で再生される音声1は、A_SN=1であるオーディオ2(図4)に対応しており、音声が切り替えられた後、図2で再生される音声2は、A_SN=2であるオーディオ1(図4)に対応している。
DVD Specifications for Read-Only Disc Part 3;Version1.1
Specifically, the sound 1 reproduced in the initial state of FIG. 1 corresponds to the audio 2 (FIG. 4) with A_SN = 1, and the sound 2 reproduced in FIG. 2 after the sound is switched. Corresponds to audio 1 (FIG. 4) with A_SN = 2.
DVD Specifications for Read-Only Disc Part 3; Version1.1

しかしながら、DVDビデオでは、プログラムストリームのビデオを再生している場合に、ユーザによる音声切り替えや字幕切り替えという操作は、再生しているプログラムストリームに多重化されているオーディオストリームとサブピクチャストリームの中からしか、選ぶことができなかった。すなわち、図3に示されるようなMPEG2プログラムストリームを再生している場合に、音声の切り替えを行う場合、選択肢はオーディオ1乃至3のいずれか1つとなる。   However, in the case of DVD video, when a program stream video is being played back, the user's operations such as audio switching and subtitle switching are performed from among the audio stream and sub-picture stream multiplexed in the program stream being played back. However, I could not choose. In other words, when the MPEG2 program stream as shown in FIG. 3 is being reproduced, when switching the audio, the choice is one of the audio 1 to 3.

そのため、再生しているプログラムストリームとは別の他のストリームでオーディオストリームと字幕を用意した場合、ユーザは、音声の切り替えの操作が、他のストリームから選択することができないため、拡張性がないという問題があった。   For this reason, when an audio stream and subtitles are prepared in a different stream from the program stream being played back, the user cannot select an audio switching operation from the other stream, so there is no scalability. There was a problem.

さらに、将来的には、切り替え対象のコンテンツとして、音声のみならず映像等、様々な種類のコンテンツが対象となることが想定されている。従って、将来的には、これらの様々な種類のコンテンツの切り替えの操作が、他のストリームから選択することができないため、拡張性がないという問題にまで発展してしまうことになる。   Furthermore, in the future, it is assumed that various types of content such as video as well as audio will be targeted as the content to be switched. Therefore, in the future, since these various types of content switching operations cannot be selected from other streams, the problem will not be scalable.

本発明は、このような状況に鑑みてなされたものであり、メインのAVストリームとともに再生するために、メインのAVストリームとは異なる他のストリームやデータファイルに含まれる音声や映像等を選択することができるようなコンテンツのデータ構成が複雑なものとならないようにし、また、そのようなコンテンツを再生することができるようにするものである。   The present invention has been made in view of such a situation, and selects audio, video, and the like included in another stream or data file different from the main AV stream in order to reproduce the main AV stream. The content data structure that can be used is not complicated, and such content can be reproduced.

本発明の第1の側面の再生装置は、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類されている再生管理情報であって、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは前記所定の種類に対して許可されたタイプの再生パスである、という第1の条件を少なくとも満たしている前記再生管理情報を取得する取得手段と、前記取得手段により取得された前記再生管理情報に基づいて、再生するストリームの選択を、前記メインストリーム群と前記第1のサブストリーム群との第1の組み合わせ、または、前記メインストリーム群と前記第2のサブストリーム群との第2の組み合わせとして受け付ける受付手段と、前記受付手段により前記第1の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第1のサブストリーム群を前記第1の副の再生パスを参照して読み出し、前記受付手段により前記第2の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第2のサブストリーム群を前記第2の副の再生パスを参照して読み出す読み出し手段と、前記読み出し手段により読み出された前記メインストリーム群とともに、前記第1のサブストリーム群と前記第2のサブストリーム群とのうちの前記読み出し手段により読み出された方を再生する再生手段とを備え、前記再生管理情報の種類には、同期型と非同期型とがあり、前記第1の条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、前記読み出し手段が一度に読み出すことが可能な前記ファイルの読み出し個数が予め決められており、前記再生管理情報は、前記第1の条件に加えてさらに、一度に読み出される前記ファイルの総数が前記読み出し個数以下となるように、1以上の前記副の再生パスを決定する、という第2の条件を満たしている。 The playback apparatus according to the first aspect of the present invention includes a main playback path indicating a position on the time axis of a main stream group, a first sub playback path indicating a position on the time axis of a first substream group, And a second sub-reproduction path indicating a position on the time axis of the second sub-stream group different from the first sub-stream group, and is predefined according to the type of the main stream group Reproduction management information classified into a predetermined type of a plurality of types, wherein each of the first sub reproduction path and the second sub reproduction path is permitted for the predetermined type. Obtaining means for obtaining the reproduction management information satisfying at least a first condition that the reproduction path is of a type selected, and selecting a stream to be reproduced based on the reproduction management information obtained by the obtaining means , Receiving means for receiving a first combination of a stream group and the first substream group, or a second combination of the main stream group and the second substream group; and When one combination is received, the main stream group is read with reference to the main reproduction path, and the first substream group is read with reference to the first sub reproduction path, and the reception is performed. When the second combination is received by the means, the main stream group is read with reference to the main reproduction path, and the second substream group is referred to the second sub reproduction path. The first sub stream is read together with the read means for reading and the main stream group read by the read means. And reproducing means for reproducing a person read by the reading means of the over arm group and the second sub-stream group, the type of the reproduction management information, there is a synchronous and asynchronous The first condition is that when the type of the reproduction management information is the asynchronous type, the type of the secondary reproduction path is a non-multiplex type path, and is an audio presentation path of a browsable slide show. When the type of the reproduction management information is the synchronous type when the type is one type or the non-multiplex type path and the second type is an interactive graphics menu, the sub reproduction path The type is a condition that the type is a type other than the first type, and the main stream group, the first substream group, and the second substream A group of streams is included in any one of the files, and the number of files that can be read at one time by the reading unit is determined in advance, and the reproduction management information is added to the first condition. Further, the second condition that one or more sub reproduction paths are determined so that the total number of the files read at one time is equal to or less than the read number is satisfied.

本発明の第1の側面の再生装置においては、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類されている再生管理情報であって、第1の副の再生パスと第2の副の再生パスのそれぞれは所定の種類に対して許可されたタイプの再生パスである、という第1の条件を少なくとも満たしている再生管理情報が取得され、取得された再生管理情報に基づいて、再生するストリームの選択が、メインストリーム群と第1のサブストリーム群との第1の組み合わせ、または、メインストリーム群と第2のサブストリーム群との第2の組み合わせとして受け付けられ、第1の組み合わせが受け付けられた場合、メインストリーム群が主の再生パスを参照して読み出されるとともに、第1のサブストリーム群が、第1の副の再生パスを参照して読み出され、第2の組み合わせが受け付けられた場合、メインストリーム群が、主の再生パスを参照して読み出されるとともに、第2のサブストリーム群が、第2の副の再生パスを参照して読み出され、読み出されたメインストリーム群とともに、第1のサブストリーム群と第2のサブストリーム群とのうちの読み出された方が再生される。再生管理情報の種類には、同期型と非同期型とがあり、第1の条件は、再生管理情報の種類が非同期型である場合、副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、再生管理情報の種類が同期型である場合、副の再生パスのタイプは、第1タイプ以外のタイプであるという条件であり、メインストリーム群、第1のサブストリーム群、および、第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出すことが可能なファイルの読み出し個数が予め決められており、再生管理情報は、第1の条件に加えてさらに、一度に読み出されるファイルの総数が読み出し個数以下となるように、1以上の副の再生パスを決定する、という第2の条件を満たしている。 In the playback apparatus according to the first aspect of the present invention, the main playback path indicating the position of the main stream group on the time axis, and the first sub playback path indicating the position of the first substream group on the time axis And a second sub-reproduction path indicating a position on the time axis of a second sub-stream group different from the first sub-stream group, and a plurality of predefined sub-paths depending on the type of the main stream group Reproduction management information classified into a predetermined type of the first type, wherein each of the first sub reproduction path and the second sub reproduction path is a type of reproduction permitted for the predetermined type. Playback management information satisfying at least the first condition of being a pass is acquired, and based on the acquired playback management information, selection of a stream to be played is performed between the main stream group and the first substream group. First group Or the second combination of the main stream group and the second substream group, and when the first combination is received, the main stream group is read with reference to the main reproduction path, and When the first substream group is read with reference to the first sub-reproduction path and the second combination is accepted, the main stream group is read with reference to the main reproduction path, and The second substream group is read with reference to the second sub-reproduction path, and the reading of the first substream group and the second substream group is performed together with the read main stream group. If you have been issued Ru is played. There are two types of playback management information: synchronous type and asynchronous type. The first condition is that when the type of playback management information is asynchronous type, the secondary playback path type is non-multiplex type path. Either the first type that is the audio presentation path of the browsable slide show or the second type that is the non-multiplex type path and the interactive graphics menu, and the type of the reproduction management information is the synchronous type The sub playback path is of a type other than the first type, and the main stream group, the first sub stream group, and the second sub stream group are any files. The number of files that can be read at one time is determined in advance, and the reproduction management information is further added to the first condition. Meet as the total number of files to be read at one time is equal to or less than the read number, to determine one or more sub playback path, the second condition that.

本発明の第2の側面の記録媒体少なくとも1つのストリームを含むファイルの再生を管理する再生管理情報を含むデータが記録された記録媒体であって、前記再生管理情報は、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは、前記所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定するデータが記録されているRecording medium of the second aspect of the present invention is a recording medium on which data is recorded including the reproduction management information for managing the reproduction of the file including at least one stream, the reproduction management information, the main stream group A main reproduction path indicating a position on the time axis, a first sub reproduction path indicating a position on the time axis of the first substream group, and a second sub that is different from the first substream group A second sub-reproduction path indicating a position of the stream group on the time axis, and is classified into a predetermined type of a plurality of types defined in advance according to the type of the main stream group; Each of the secondary reproduction path and the second secondary reproduction path satisfy at least a condition that the reproduction path is a type of reproduction path permitted for the predetermined type, and the type of the reproduction management information includes , There is a period type and an asynchronous type, and the condition is that when the type of the reproduction management information is the asynchronous type, the type of the secondary reproduction path is a non-multiplex type path, and the audio of the browsable slide show When the presentation type is either the first type or non-multiplex type path and the second type is an interactive graphics menu, and the type of the reproduction management information is the synchronous type, The sub playback path is of a type other than the first type, and the main stream group, the first substream group, and the second substream group are any files. The total number of files to be read at one time can be read at a time determined in advance by the playback device. As will be less read number, data for determining the first sub playback path and the second sub playback path is recorded.

本発明の第2の側面の記録媒体おいては、再生管理情報が、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、第1の副の再生パスと第2の副の再生パスのそれぞれは所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスが決定される。 Oite to a second aspect of the recording medium of the present invention, the reproduction management information, indicating the main playback path indicating a position on a time axis of the main stream group, the position on the time axis of the first sub-stream group Including a first sub reproduction path and a second sub reproduction path indicating a position on the time axis of a second substream group different from the first substream group, and the type of the main stream group includes Accordingly, the reproduction is classified into a predetermined type among a plurality of types defined in advance, and each of the first sub reproduction path and the second sub reproduction path is a reproduction type permitted for the predetermined type. The condition of being a path is satisfied, and the type of the reproduction management information includes a synchronous type and an asynchronous type, and the condition is determined when the type of the reproduction management information is the asynchronous type. Playback path type is non-multiplexed A first type that is an audio presentation path of a browsable slideshow, or a second type that is a non-multiplexed type path and is an interactive graphics menu. When the type is the synchronous type, it is a condition that the type of the secondary reproduction path is a type other than the first type, and the main stream group, the first substream group, and the second type The substream group is included in any file, and the total number of the files to be read at one time is equal to or less than the number of readings that can be read at a time that is predetermined in the playback device. A first sub reproduction path and the second sub reproduction path are determined.

本発明の第2の側面の記憶媒体の製造方法は、再生を管理する再生管理情報は、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは、前記所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定するデータ構造を有するデータを生成し、生成されたデータを記録媒体に記録する。 In the method for manufacturing a storage medium according to the second aspect of the present invention, the reproduction management information for managing reproduction includes a main reproduction path indicating a position on the time axis of the main stream group and a time axis of the first substream group. And a second sub reproduction path indicating a position on the time axis of a second substream group different from the first substream group, and Each of the first sub reproduction path and the second sub reproduction path is classified into a predetermined type out of a plurality of types defined in advance according to the type of the stream group. At least a condition that the playback path is a permitted type, and the type of the playback management information includes a synchronous type and an asynchronous type, and the condition is that the type of the playback management information is the above-mentioned If it is asynchronous type, The playback path type is a non-multiplex type path, the first type which is an audio presentation path of a browsable slide show, or a non-multiplex type path, the second type which is an interactive graphics menu. If the type of the reproduction management information is the synchronous type, the sub reproduction path type is a condition other than the first type, and the main stream group, the first One substream group and the second substream group are included in any one of the files, and the total number of the files to be read at a time can be read at a time determined in advance by the playback device. The first sub reproduction path and the second sub reproduction path are determined so as to be less than or equal to the number of possible readings. Generating data having the data structure, and records the generated data in a recording medium.

本発明の第2の側面の記録媒体の製造方法においては、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、第1の副の再生パスと第2の副の再生パスのそれぞれは所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定する再生管理情報を含むデータ構造を有するデータが生成され、生成されたデータが記録媒体に記録される。 In the recording medium manufacturing method according to the second aspect of the present invention, the main reproduction path indicating the position of the main stream group on the time axis, and the first sub stream indicating the position of the first substream group on the time axis. And a second sub reproduction path indicating a position on the time axis of a second substream group different from the first substream group, and is defined in advance according to the type of the main stream group The first sub-reproduction path and the second sub-reproduction path are classified as a predetermined type of the plurality of types, and each of the second sub-reproduction paths is a type of reproduction path permitted for the predetermined type. The type of the reproduction management information includes a synchronous type and an asynchronous type, and when the type of the reproduction management information is the asynchronous type, the sub reproduction path type is A non-multiplexed path , Either a first type that is an audio presentation path of a browsable slide show, or a second type that is a non-multiplex type path and an interactive graphics menu, and the type of the reproduction management information is the synchronization The sub-reproduction path type is a condition other than the first type, the main stream group, the first sub-stream group, and the second sub-stream group. Is included in any one of the files, and the total number of the files to be read at one time is equal to or less than the number of readings that can be read at a time that is determined in advance by the playback device. And data having a data structure including reproduction management information for determining the reproduction path of the second sub and the second sub reproduction path Is generated, the generated data is recorded on the recording medium.

本発明によれば、メインのAVストリームとは異なる他のストリームやデータファイルで音声や映像等を用意することができるようになる。特に、その場合に、コンテンツのデータ構造が複雑にならないようにすることができ、また、そのようなコンテンツを再生することができるようになる。   According to the present invention, it is possible to prepare audio, video, and the like in another stream or data file different from the main AV stream. In particular, in that case, the data structure of the content can be prevented from becoming complicated, and such content can be reproduced.

また、他の本発明によれば、メインのAVストリームとは異なる他のストリームやデータファイルで音声や映像等の各種類を用意した場合に、コンテンツのデータ構造が複雑にならないようにすることができる。   Further, according to another aspect of the present invention, when various types such as audio and video are prepared in other streams and data files different from the main AV stream, the data structure of the content is prevented from becoming complicated. it can.

従来の音声切り替えを説明する図である。It is a figure explaining the conventional voice switching. 従来の音声切り替えを説明する図である。It is a figure explaining the conventional voice switching. MPEG2プログラムストリームの構成を説明する図である。It is a figure explaining the structure of an MPEG2 program stream. ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルを説明する図である。It is a figure explaining the stream number table showing the relationship between the audio | voice signal provided to a user, and a caption signal. 本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。It is a figure which shows the example of the application format on the recording medium with which the reproducing | regenerating apparatus to which this invention is applied is mounted | worn. メインパスとサブパスの構造を説明する図である。It is a figure explaining the structure of a main path and a sub path. メインパスとサブパスの例を説明する図である。It is a figure explaining the example of a main path and a sub path. メインパスとサブパスの別の例を説明する図である。It is a figure explaining another example of a main path and a sub path. PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). SubPath()のシンタクスを示す図である。It is a figure which shows the syntax of SubPath (). SubPath_typeを説明する図である。It is a figure explaining SubPath_type. SubPlayItem(i)のシンタクスを示す図である。It is a figure which shows the syntax of SubPlayItem (i). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). stream_entry()のシンタクスを示す図である。It is a figure which shows the syntax of stream_entry (). stream_attribute()のシンタクスを示す図である。It is a figure which shows the syntax of stream_attribute (). stream_cording_typeを説明する図である。It is a figure explaining stream_cording_type. video_formatを説明する図である。It is a figure explaining video_format. frame_rateを説明する図である。It is a figure explaining frame_rate. aspect_ratioを説明する図である。It is a figure explaining aspect_ratio. audio_presentation_typeを説明する図である。It is a figure explaining audio_presentation_type. sampling_frequencyを説明する図である。It is a figure explaining sampling_frequency. Character codeを説明する図である。It is a figure explaining Character code. ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を説明する図である。It is a figure explaining the example of the stream number table showing the relationship between the audio | voice signal provided to a user, and a caption signal. 本発明を適用した再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reproducing | regenerating apparatus to which this invention is applied. 図25の再生装置における再生処理を説明するフローチャートである。FIG. 26 is a flowchart for describing playback processing in the playback apparatus of FIG. 25. FIG. 図25の再生装置における再生処理を説明するフローチャートである。FIG. 26 is a flowchart for describing playback processing in the playback apparatus of FIG. 25. FIG. 図25の再生装置における再生処理を説明するフローチャートである。FIG. 26 is a flowchart for describing playback processing in the playback apparatus of FIG. 25. FIG. ユーザによりオーディオストリーム#1に対する音声の切り替えが指示される場合の処理を説明するフローチャートである。It is a flowchart explaining a process in case the switching of the audio | voice with respect to audio stream # 1 is instruct | indicated by the user. ユーザによりオーディオストリーム#2に対する音声の切り替えが指示される場合の処理を説明するフローチャートである。It is a flowchart explaining a process in case the switching of the audio | voice with respect to audio stream # 2 is instruct | indicated by the user. 図29のステップS60の詳細な処理の例を説明するフローチャートである。It is a flowchart explaining the example of the detailed process of FIG.29 S60. 2つのオーディオをミキシング再生する例を説明する図である。It is a figure explaining the example which mixes and reproduces two audios. オーディオストリーム#1とオーディオストリーム#2の組み合わせを定義するSTN_table()のシンタクスの例を示す図である。It is a figure which shows the example of the syntax of STN_table () which defines the combination of audio stream # 1 and audio stream # 2. Combination_of_Primary_and_Secondaryのビットマップシンタクスの例を示す図である。It is a figure which shows the example of the bitmap syntax of Combination_of_Primary_and_Secondary. ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの他の例を説明する図である。It is a figure explaining the other example of the stream number table showing the relationship between the audio | voice signal provided to a user, and a caption signal. 2つのオーディオをミキシング再生する他の例を説明する図である。It is a figure explaining the other example which mixes and reproduces two audios. オーディオストリーム#1とオーディオストリーム#2の組み合わせを定義するSTN_table()のシンタクスの他の例を示す図である。It is a figure which shows the other example of the syntax of STN_table () which defines the combination of audio stream # 1 and audio stream # 2. オーディオストリーム#1とオーディオストリーム#2の組み合わせを定義するSTN_table()のシンタクスのさらに他の例を示す図である。It is a figure which shows the further another example of the syntax of STN_table () which defines the combination of audio stream # 1 and audio stream # 2. ピクチャインピクチャ手法を説明する図である。It is a figure explaining a picture in picture technique. プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義する場合のSTN_table()のシンタクスの例を示す図である。It is a figure which shows the example of the syntax of STN_table () in the case of defining the combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream reproduced | regenerated simultaneously in combination with a primary video stream. プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義する場合のSTN_table()のシンタクスの例を示す図である。It is a figure which shows the example of the syntax of STN_table () in the case of defining the combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream reproduced | regenerated simultaneously in combination with a primary video stream. ユーザに提供する音声信号、セカンダリビデオストリームとしての映像信号、および、字幕信号の組み合わせ可能な関係を表すストリームナンバーテーブルの例を示す図である。It is a figure which shows the example of the stream number table showing the relationship which can combine the audio | voice signal provided to a user, the video signal as a secondary video stream, and a caption signal. プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを選択するためのユーザの選択操作を説明する図である。It is a figure explaining the selection operation of the user for selecting the combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream reproduced | regenerated simultaneously in combination with a primary video stream. ピクチャインピクチャ手法を実現させる場合に、図11の例のSubPath_typeを利用して生成されたPlayListの例を示している。In the case of realizing the picture-in-picture method, an example of a PlayList generated using the SubPath_type in the example of FIG. 11 is shown. SubPath_typeの図11とは異なる例を説明する図である。It is a figure explaining the example different from FIG. 11 of SubPath_type. stream_entry()のシンタクスの第2の例を示す図である。It is a figure which shows the 2nd example of the syntax of stream_entry (). ピクチャインピクチャ手法を実現させる場合に、図45の例のSubPath_typeを利用して生成されたPlayListの例を示している。An example of a PlayList generated using the SubPath_type in the example of FIG. 45 when the picture-in-picture method is realized is shown. ピクチャインピクチャ手法を実現させる場合に、図45の例のSubPath_typeを利用して生成されたPlayListの他の例を示している。FIG. 45 shows another example of the PlayList generated using the SubPath_type in the example of FIG. 45 when the picture-in-picture method is realized. 本発明を適用した再生装置の構成例であって、図25とは異なる例を示すブロック図である。FIG. 26 is a block diagram showing an example of the configuration of a playback apparatus to which the present invention is applied, which is different from FIG. 25. 図49の再生装置におけるセカンダリビデオ切り替え処理を説明するフローチャートである。50 is a flowchart for describing secondary video switching processing in the playback device of FIG. 49. 図49の再生装置におけるセカンダリビデオ切り替え処理を説明するフローチャートである。50 is a flowchart for describing secondary video switching processing in the playback device of FIG. 49. application_typeの種類の例を説明する図である。It is a figure explaining the example of the kind of application_type. サブパス制限手法を説明するための図であって、PlayListの種類に対する、そのPlayListが持ち得るSubPathの組み合わせの関係を示す図である。It is a figure for demonstrating a sub path | pass restriction | limiting technique, Comprising: It is a figure which shows the relationship of the combination of SubPath which the PlayList can have with respect to the kind of PlayList. サブパス制限手法を説明するための図であって、PlayList内にあるPlayItemとSubPathの数の組み合わせの関係を示す図である。It is a figure for demonstrating a sub path | pass restriction | limiting technique, Comprising: It is a figure which shows the relationship of the combination of the number of PlayItem and SubPath in PlayList. 図53乃至図55により説明されるサブパス制限手法によって、作成されたPlayListの具体例を示す図である。FIG. 56 is a diagram illustrating a specific example of a PlayList created by the sub-path restriction method described with reference to FIGS. 53 to 55. 図53乃至図55により説明されるサブパス制限手法によって、作成されたPlayListの具体例を示す図である。FIG. 56 is a diagram illustrating a specific example of a PlayList created by the sub-path restriction method described with reference to FIGS. 53 to 55. 図53乃至図55により説明されるサブパス制限手法によって、作成されたPlayListの具体例を示す図である。FIG. 56 is a diagram illustrating a specific example of a PlayList created by the sub-path restriction method described with reference to FIGS. 53 to 55. 図53乃至図55により説明されるサブパス制限手法によって、作成されたPlayListの具体例を示す図である。FIG. 56 is a diagram illustrating a specific example of a PlayList created by the sub-path restriction method described with reference to FIGS. 53 to 55. 図49の再生装置におけるapplication_type=3のPlayList再生処理を説明するフローチャートである。50 is a flowchart describing PlayList playback processing of application_type = 3 in the playback device of FIG. 49. 図49の再生装置におけるapplication_type=3のPlayList再生処理を説明するフローチャートである。50 is a flowchart describing PlayList playback processing of application_type = 3 in the playback device of FIG. 49. 図49の再生装置におけるapplication_type=1or2のPlayList再生処理を説明するフローチャートである。50 is a flowchart for describing PlayList playback processing with application_type = 1or2 in the playback device of FIG. 49. 図49の再生装置におけるapplication_type=1or2のPlayList再生処理を説明するフローチャートである。50 is a flowchart for describing PlayList playback processing with application_type = 1or2 in the playback device of FIG. 49. 図49の再生装置におけるapplication_type=1or2のPlayList再生処理を説明するフローチャートである。50 is a flowchart for describing PlayList playback processing with application_type = 1or2 in the playback device of FIG. 49. 図49の再生装置におけるapplication_type=1or2のPlayList再生処理を説明するフローチャートである。50 is a flowchart for describing PlayList playback processing with application_type = 1or2 in the playback device of FIG. 49. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. パーソナルコンピュータの構成を示す図である。It is a figure which shows the structure of a personal computer.

以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.

本発明の第1の側面の再生装置(図49の再生装置401)は、
メインストリーム群(例えば図58のClip- AV Stream 0のVideoやAudio等)の時間軸上の位置を示す主の再生パス(例えば、図58のMain path:メインパス)、前記第1のサブストリーム群(例えば、2ndVideoや2ndAudio等)の時間軸上の位置を示す第1の副の再生パス(例えば、図58のSub path-1:サブパス-1)、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群(例えばAudio等)の時間軸上の位置を示す第2の副の再生パス(例えば、図58のClip AV Stream -1を参照するSub path-2:サブパス-2や、Clip AV Stream -2を参照するSub path-3:サブパス-3)を含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類(例えば図53のapplication_type (of Main TS)の項目で分けられている種類のうちの、Movie Type/Time-based Slideshowと記述された種類。即ち、後述する同期型の種類)に分類されている再生管理情報(例えば図58のPlayList)であって、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは前記所定の種類に対して許可されたタイプ(例えば図53の例の場合、SubPath_type=5,6,7のうちのいずれかである。ただし、ここでいうSubPath_typeは図45の例に従っている)の再生パスである、という第1の条件を少なくとも満たしている前記再生管理情報を取得する取得手段(例えば図61乃至図64のapplication_type=1or2のPlayListの再生処理を実行するために、図26のステップS11等の処理を実行する図49のコントローラ34)と、
前記取得手段により取得された前記再生管理情報に基づいて、再生するストリームの選択を、前記メインストリーム群と前記第1のサブストリーム群との第1の組み合わせ、または、前記メインストリーム群と前記第2のサブストリーム群との第2の組み合わせとして受け付ける受付手段(例えば、図64のステップS163YES,S164乃至S169等の処理を実行する図49のコントローラ34)と、
前記受付手段により前記第1の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第1のサブストリーム群を前記第1の副の再生パスを参照して読み出し、前記受付手段により前記第2の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第2のサブストリーム群を前記第2の副の再生パスを参照して読み出す読み出し手段(例えば、図58の例のPlayListの再生の場合には、図62のステップS151、図63のステップS155、図64のステップS161とS162等の処理を実行する前に、図51のステップS108等と等価の処理を実行する図49のコントローラ34)と、
前記読み出し手段により読み出された前記メインストリーム群とともに、前記第1のサブストリーム群と前記第2のサブストリーム群とのうちの前記読み出し手段により読み出された方を再生する(例えば、図58の例のPlayListの再生の場合には、図62のステップS151、図63のステップS155、図64のステップS161とS162等の処理を実行する図49のAVデコーダ部33)と
を備え、
前記再生管理情報の種類には、同期型と非同期型とがあり、
前記第1の条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプ(SubPath_type=2)か、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプ(SubPath_type=3)のいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、
前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイル(いずれかのClip)に含まれており、
前記読み出し手段が一度に読み出すことが可能なファイルの読み出し個数が予め決められており、
前記第1の条件に加えてさらに、一度に読み出される前記ファイルの総数が前記読み出し個数以下となるように、1以上の前記副の再生パスを決定する、という第2の条件(例えば図53のnumber of SubPathsの項目と、図54の表とで示される条件)を前記再生管理情報は満たしている。
The playback device according to the first aspect of the present invention (the playback device 401 in FIG. 49)
Main playback path (for example, Main path: main path in FIG. 58) indicating the position on the time axis of a main stream group (for example, Video or Audio of Clip-AV Stream 0 in FIG. 58), the first substream A first sub reproduction path (for example, Sub path-1: sub path-1 in FIG. 58) indicating a position on the time axis of a group (for example, 2nd Video, 2nd Audio, etc.), and the first sub stream group Are second sub-reproduction paths indicating positions on the time axis of different second sub-stream groups (for example, Audio) (for example, Sub path-2: sub-path-2 referring to Clip AV Stream -1 in FIG. 58) And a predetermined type (for example, FIG. 53) of a plurality of types that are defined in advance according to the type of the main stream group, including Sub path-3 (subpath-3) referring to Clip AV Stream-2. Among the types divided by application_type (of Main TS), Movie Type / Time-based Slides Reproduction management information (for example, PlayList in FIG. 58) classified into a type described as “how”, ie, a synchronous type described later), and the first sub reproduction path and the second sub Each of the reproduction paths is a type permitted for the predetermined type (for example, in the case of FIG. 53, SubPath_type = any one of 5, 6, and 7. However, the SubPath_type here is shown in FIG. 45). In order to execute the playback processing of the PlayList with application_type = 1or2 in FIGS. 61 to 64, for example, to acquire the playback management information satisfying at least the first condition that the playback path is according to the example) The controller 34 in FIG. 49 for executing the processing in step S11 in FIG.
Based on the reproduction management information acquired by the acquisition means, the selection of a stream to be reproduced is performed by a first combination of the main stream group and the first substream group, or the main stream group and the first stream. Receiving means (for example, the controller 34 in FIG. 49 that executes the processes in steps S163YES, S164 to S169 in FIG. 64) that is received as the second combination with the two substream groups;
When the first combination is received by the receiving unit, the main stream group is read with reference to the main reproduction path, and the first substream group is referred to the first sub reproduction path. When the second combination is received by the receiving unit, the main stream group is read with reference to the main reproduction path, and the second substream group is read by the second sub stream. Reading means for referring to the reproduction path (for example, in the case of reproduction of the PlayList in the example of FIG. 58, processing such as step S151 in FIG. 62, step S155 in FIG. 63, and steps S161 and S162 in FIG. 64 is executed. Before, the controller 34 in FIG. 49 for executing processing equivalent to step S108 in FIG.
Along with the main stream group read by the reading means, one of the first substream group and the second substream group read by the reading means is reproduced (for example, FIG. 58). In the case of playing the PlayList in the example of FIG. 49, the AV decoder unit 33 in FIG. 49 for executing the processing of step S151 in FIG. 62, step S155 in FIG. 63, steps S161 and S162 in FIG.
The types of reproduction management information include a synchronous type and an asynchronous type,
The first condition is that when the type of the reproduction management information is the asynchronous type, the type of the secondary reproduction path is a non-multiplex type path, and is an audio presentation path of a browsable slide show. Type (SubPath_type = 2) or a non-multiplexed path and a second type (SubPath_type = 3) which is an interactive graphics menu, and the type of the reproduction management information is the synchronous type If there is, the condition is that the type of the secondary playback path is a type other than the first type,
The main stream group, the first substream group, and the second substream group are included in any file (any Clip),
The number of files that can be read at once by the reading means is determined in advance,
In addition to the first condition, a second condition (for example, in FIG. 53) that one or more sub reproduction paths are determined so that the total number of the files read at one time is equal to or less than the read number. The reproduction management information satisfies the conditions shown in the item “number of SubPaths” and the table in FIG.

本発明の第2の側面の記録媒体、再生管理情報が、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは前記所定の種類に対して許可されたタイプ(例えば図53の例の場合、SubPath_type=5,6,7のうちのいずれかである。ただし、ここでいうSubPath_typeは図45の例に従っている)の再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプ(SubPath_type=2)か、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプ(SubPath_type=3)のいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイル(いずれかのClip)に含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定する。 In the recording medium according to the second aspect of the present invention, the reproduction management information includes a main reproduction path indicating a position on the time axis of the main stream group, and a first position indicating a position on the time axis of the first substream group. A secondary reproduction path and a second secondary reproduction path indicating a position on the time axis of a second substream group different from the first substream group, and depending on the type of the main stream group The first sub-reproduction path and the second sub-reproduction path are classified into predetermined types among a plurality of types defined in advance, and each of the first sub reproduction path and the second sub reproduction path is permitted for the predetermined type ( 53, for example, SubPath_type = any one of 5, 6, and 7. However, SubPath_type here is at least a reproduction path according to the example of FIG. The type of the reproduction management information includes the same If the type of the playback management information is the asynchronous type, the sub playback path type is a non-multiplex type path, and an audio presentation of a browsable slide show Either the first type (SubPath_type = 2) that is a path or the second type (SubPath_type = 3) that is a non-multiplex type path and is an interactive graphics menu, and the type of the reproduction management information Is the condition that the type of the secondary playback path is a type other than the first type, the main stream group, the first substream group, and the second type The substream group is included in one of the files (one of the clips), and the total number of the files read at one time is The first sub reproduction path and the second sub reproduction path are determined so as to be equal to or less than a predetermined number of readouts that can be read at a time.

本発明の第2の側面の記録媒体の製造方法は、再生管理情報が、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは前記所定の種類に対して許可されたタイプ(例えば図53の例の場合、SubPath_type=5,6,7のうちのいずれかである。ただし、ここでいうSubPath_typeは図45の例に従っている)の再生パスであるという条件を少なくとも満たしており、前記再生管理情報の種類には、同期型と非同期型とがあり、前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプ(SubPath_type=2)か、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプ(SubPath_type=3)のいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイル(いずれかのClip)に含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定するデータ構造を有するデータを生成し、生成されたデータを記録媒体に記録するステップを含む。 In the recording medium manufacturing method according to the second aspect of the present invention, the reproduction management information indicates the main reproduction path indicating the position of the main stream group on the time axis, and the position of the first substream group on the time axis. A type of the main stream group including a first sub reproduction path and a second sub reproduction path indicating a position on the time axis of a second substream group different from the first substream group And the first sub reproduction path and the second sub reproduction path are permitted for the predetermined type. 53 (for example, SubPath_type = 5, 6, or 7 in the case of the example in FIG. 53, where SubPath_type follows the example in FIG. 45). and, kind of the reproduction management information There are synchronous type and asynchronous type, and the condition is that when the type of the playback management information is the asynchronous type, the secondary playback path type is a non-multiplex type path, and the browserable Either the first type (SubPath_type = 2), which is an audio presentation path of a slide show, or the second type (SubPath_type = 3), which is a non-multiplex type path and an interactive graphics menu. When the type of management information is the synchronous type, the sub playback path type is a condition other than the first type, and the main stream group, the first sub stream group, and The second substream group is included in one of the files (one of the Clips), and the total number of the files read at one time is the playback device. Data having a data structure for determining the first sub reproduction path and the second sub reproduction path is generated so that the number of read data can be read at a time is less than or equal to a predetermined number. Recording the generated data on a recording medium.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図5は、本発明を適用した再生装置、例えば図25を参照して後述する再生装置20や図49を参照して後述する再生装置401等に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。記録媒体は、後述する光ディスクの他、磁気ディスクや半導体メモリであってもよい。   FIG. 5 shows an example of an application format on a recording medium mounted on a playback apparatus to which the present invention is applied, for example, the playback apparatus 20 described later with reference to FIG. 25 or the playback apparatus 401 described later with reference to FIG. FIG. The recording medium may be a magnetic disk or a semiconductor memory in addition to the optical disk described later.

アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayListとClipの2つのレイヤを有している。ここでは、1つのAVストリームとそれに付随する情報であるClipインフォメーションのペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。なお、AVストリームファイルには、音声データや映像データ以外にも、これらのデータとともに再生される各種のストリームファイルが含まれていてもよい。また、ClipインフォメーションをClipインフォメーションファイルとも称する。   The application format has two layers, PlayList and Clip, for managing AV (Audio Visual) streams. Here, a pair of one AV stream and Clip information as information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. In addition to audio data and video data, the AV stream file may include various stream files that are reproduced together with these data. Clip information is also referred to as a Clip information file.

一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。   In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.

Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。   When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.

PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図5に示されるように1つ、または複数のPlayItemにより構成される。   The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Therefore, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.

図5において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。   In FIG. 5, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.

例えば、図5のディスクナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。   For example, when the disc navigation program of FIG. 5 specifies the left PlayItem included in the first PlayList from the left as the information indicating the playback position at that time, it is included in the left Clip referred to by the PlayItem. The first half of the AV stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.

ディスクナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ディスクナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このディスクナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述され、記録媒体上に用意される。   The disc navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The disc navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This disc navigation program is described in a programming language such as Java (registered trademark), and is prepared on a recording medium.

本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに並行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置20(図25を参照して後述する)や再生装置401(図49を参照して後述する)に装着される記録媒体上のアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)をPlayListの中に持つ。   In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and in the PlayList, parallel to the Main Path (in parallel) ) And a playback path created by a sequence of one or more sub paths (which may be discontinuous or may be continuous) is referred to as a sub path. That is, the application format on the recording medium mounted on the playback device 20 (described later with reference to FIG. 25) or the playback device 401 (described later with reference to FIG. 49) is associated with the main path (accordingly). ) The PlayList has a sub path to be played (Sub Path).

図6は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。   FIG. 6 is a diagram for explaining the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.

図6の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。   In the case of the example in FIG. 6, the PlayList has one main path made up of a sequence of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. A subpath of Subpath_id = 0 includes one SubPlayItem, a subpath of Subpath_id = 1 includes two SubPlayItems, and a subpath of Subpath_id = 2 includes one SubPlayItem.

Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。   The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.

1つのPlayItemが参照するClip AVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリームが1つ以上含まれてもよいし、含まれなくてもよい。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、Clip AVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。   A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the Clip AV stream file may or may include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the Clip AV stream file. It does not have to be. Furthermore, the Clip AV stream file may or may not include one or more bitmap subtitle streams that are played back at the same timing as the video stream included in the Clip AV stream file. The Clip AV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the Clip AV stream file. The video stream included in the Clip AV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more. The interactive graphics stream data is multiplexed.

すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。   That is, a Clip AV stream file referred to by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream.

また、1つのSubPlayItemは、PlayItemが参照するClip AVストリームファイルとは異なるストリーム(別ストリーム)のオーディオストリームデータや字幕データを参照する。   One SubPlayItem refers to audio stream data and subtitle data of a stream (different stream) different from the Clip AV stream file referred to by the PlayItem.

メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中からしか音声や字幕を選択することができない。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClip AVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを参照することができる。   When playing a PlayList that has only the main path, the user can select audio and subtitles only from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. Can not do it. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem Or a sub-picture stream.

このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClip AVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。   In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the Clip AV stream referred to by MainPath, a SubPlayItem can be added later.

図7は、メインパスとサブパスの例を説明する図である。図7においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。   FIG. 7 is a diagram illustrating an example of a main path and a sub path. In FIG. 7, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using sub-paths.

図7のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、図7のメインAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図7の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、指定されたClipに含まれるストリーム(ここでは、Auxiliary audio stream)中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図7の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図7の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。   The PlayList in FIG. 7 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main AV stream in FIG. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the case of the example in FIG. 7, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the stream (Auxiliary audio stream in this case) included in the specified Clip. Further, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be reproduced on the time axis of the Main path. In the example of FIG. 7, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. As a result, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 7, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.

ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。サブパスに使われるClipのオーディオサンプルのクロックは、メインパスのオーディオサンプルのクロックにロックされている。   Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities). The audio sample clock of Clip used for the sub path is locked to the audio sample clock of the main path.

換言すると、SubPlayItem()には、Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報が含まれている。Sub Pathに使われるClip AVストリームがSTCを含まないため、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClip AVストリーム(メインAVストリーム)とは異なるClip AVストリームのオーディオストリームを参照して、再生することができる。   In other words, in SubPlayItem (), information specifying the Clip referred to by the Sub Path, information specifying the playback section of the Sub Path, and information specifying the time when the Sub Path starts playback on the time axis of the Main path It is included. Since the Clip AV stream used in Sub Path does not include STC, information included in SubPlayItem () (information specifying Clip referred to by Sub Path, information specifying Sub Path playback section, and time axis of Main path) Based on the above (information specifying the time when the Sub Path starts playback), the audio stream of the Clip AV stream different from the Clip AV stream (main AV stream) referred to by the main path can be referred to and reproduced. it can.

このように、PlayItemとSubPlayItemは、Clip AVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClip AVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClip AVストリームファイルは異なるファイルとなる。   In this way, PlayItem and SubPlayItem manage Clip AV stream files, respectively, and here, the Clip AV stream file (main AV stream) managed by PlayItem and the Clip AV stream file managed by SubPlayItem are different from each other. Become.

なお、図7の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。   Similar to the example of FIG. 7, the subtitle stream playback path that is played back at the same timing as the main path can also be expressed using the sub path.

図8は、メインパスとサブパスの別の例を説明する図である。図8においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。ここで、メインパスのPlayItemが参照するメインAVストリームファイルは、図7と同様であるので省略している。   FIG. 8 is a diagram for explaining another example of the main path and the sub path. In FIG. 8, a playback path of audio that is played back at the same timing as the main path (synchronized with AV) is represented using sub paths. Here, the main AV stream file referred to by PlayItem in the main path is the same as in FIG.

例えば、メインパスにより参照されるClipAVストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスのオーディオパスにより参照されるAuxiliary audio streamをその映画に対する監督のコメントとし、メインパスで参照されるClipAVストリームのオーディオストリームにサブパスのオーディオパスで参照されるAuxiliary audio streamをミキシング(重ねて)再生するような場合に、このような構成が利用される。すなわち、ユーザが、映画を見ながら、その映画に対する監督のコメントを合わせて聞く指令を再生装置(プレーヤ)へ入力した場合、例えば、メインパスで参照されるClipAVストリームの音声と、サブパスのオーディオパスで参照されるAuxiliary audio streamとを、ミキシングして再生させる場合に利用される。   For example, a clip AV stream referred to by the main path is set as one movie content (AV content), an auxiliary audio stream referenced by the sub-path audio path is set as a director's comment for the movie, and a clip AV stream referred to by the main path is used. Such a configuration is used when the auxiliary audio stream referred to in the sub-path audio path is mixed (overlaid) with the audio stream. That is, when the user inputs a command to listen to the director's comment together with the movie while watching the movie, for example, the audio of the Clip AV stream referenced in the main path and the audio path of the sub path This is used when the Auxiliary audio stream referenced in the above is mixed and played back.

図8においては、メインパスに3つのPlayItemがPlayItem_id=0,1,2と配置され、サブパス(Subpath_id=0)に2つのSubPlayItemが配置されている。そして、Subpath_id=0のSubPath(図10にて後述する)で呼び出すSubPlayItem(図12にて後述する)は、Auxiliary audio stream(SubClip_entry_id=0の英語のAuxiliary audio streamのクリップ及びSubClip_entry_id=1の日本語のAuxiliary audio streamのクリップ)のSubpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。   In FIG. 8, three PlayItems are arranged in the main path as PlayItem_id = 0, 1, 2, and two SubPlayItems are arranged in the subpath (Subpath_id = 0). SubPlayItem (described later in FIG. 12) called by SubPath with Subpath_id = 0 (described later in FIG. 10) is an Auxiliary audio stream (English Auxiliary audio stream clip with SubClip_entry_id = 0 and SubClip_entry_id = 1 Japanese) SubPlayItem_IN_time and SubPlayItem_out_time for specifying the subpath playback section of (Auxiliary audio stream clip).

図8と図7とを比較するに、図8においては、SubPlayItemによって、SubClip_entry_id=0,1のAuxiliary audio stream(英語または日本語のオーディオストリーム)を参照することができる。すなわち、SubPlayItemを用いて、複数のオーディオストリームファイルを参照する構造を有し、このSubPlayItemを再生する場合には、複数のオーディオストームファイルから1つのオーディオストリームファイルが選ばれて再生される。図8の例の場合、英語のオーディオストリームファイルと日本語のオーディオストリームファイルのうち、1つのオーディオストリームファイルが選ばれて再生される。具体的には、subClip_entry_id=0,1の中から(例えば、ユーザの指令に基づいて)1つが選択され、そのIDが参照するAuxiliary audio streamが再生される。また、これに加えて、さらにメインパスにより参照されるオーディオストリームとのミキシングによる再生が選択された場合(再生するオーディオストリームとして2つのオーディオストリームが選択された場合)、例えば、メインパスで参照されるオーディオストリームファイルと、サブパスのオーディオパスで参照されるオーディオストリームファイルとが、ミキシングされて再生される。   Comparing FIG. 8 and FIG. 7, in FIG. 8, Auxiliary audio stream (English or Japanese audio stream) of SubClip_entry_id = 0, 1 can be referred to by SubPlayItem. That is, it has a structure that refers to a plurality of audio stream files using SubPlayItem, and when reproducing this SubPlayItem, one audio stream file is selected and reproduced from the plurality of audio storm files. In the case of the example in FIG. 8, one audio stream file is selected and reproduced from the English audio stream file and the Japanese audio stream file. Specifically, one of subClip_entry_id = 0 and 1 is selected (for example, based on a user instruction), and an auxiliary audio stream referred to by the ID is reproduced. In addition to this, when playback by mixing with an audio stream referred to by the main path is selected (when two audio streams are selected as audio streams to be played back), for example, the playback is referred to by the main path. The audio stream file to be referred to and the audio stream file referred to by the sub-path audio path are mixed and reproduced.

次に、図6乃至図8を用いて説明したメインパスとサブパスの構造を具体的に実現するためのデータ構造(シンタクス)を説明する。   Next, a data structure (syntax) for specifically realizing the main path and sub path structures described with reference to FIGS. 6 to 8 will be described.

図9は、PlayList()のシンタクスを示す図である。   FIG. 9 is a diagram illustrating the syntax of PlayList ().

lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図6の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図6および図8に示されるように、PlayItem_id=0,1,2が割り振られる。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 6, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIGS. 6 and 8, PlayItem_id = 0, 1, and 2 are allocated.

number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図6の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図6に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。   number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 6, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 6, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.

図10は、SubPath()のシンタクスを示す図である。   FIG. 10 is a diagram illustrating the syntax of SubPath ().

lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeについては、図11を参照して後述する。SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図6のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. This SubPath_type will be described later with reference to FIG. 15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that designates the SubPath playback method, and indicates whether the SubPath playback is repeated during the main path playback or the SubPath playback is performed only once. For example, it is used when the playback timing of the clip specified by the main AV stream and the sub path is different (for example, when the main path is used as a still image slide show and the sub path audio path is used as the main path BGM). . 8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 in FIG. 6 and two SubPlayItems with SubPath_id = 1. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.

ところで、SubPath_type(サブパスタイプ)については、例えば特開2002−158965号公報や特開2002−158972号公報のそれぞれの図42に開示されている。しかしながら、これらの公報では、SubPath_typeの種類は1つのみしか定義されておらず、その定義をそのまま利用しても、上述したまたは後述する各種処理や各種手法を実現することはできない。そこで、本実施の形態では、対象となる各種処理または各種手法に応じて、例えば図11、または図45で示されるSubPath_typeの種類を採用するようにしている。   By the way, SubPath_type (subpath type) is disclosed, for example, in FIG. 42 of JP-A No. 2002-158965 and JP-A No. 2002-158972. However, in these publications, only one type of SubPath_type is defined, and even if the definition is used as it is, the above-described various processing and various methods described later cannot be realized. Therefore, in the present embodiment, for example, the type of SubPath_type shown in FIG. 11 or FIG. 45 is adopted according to various types of processing or various types of methods.

そこで、以下、はじめに、図11の例のSubPath_typeの種類について説明する。なお、図45の例のSubPath_typeについては後述する。   Therefore, first, the type of SubPath_type in the example of FIG. 11 will be described. The SubPath_type in the example of FIG. 45 will be described later.

即ち、図11は、SubPath_typeの種類の例を説明する図である。すなわち、図11の例では、SubPathの種類は次のように定義することができる。   That is, FIG. 11 is a diagram illustrating an example of the type of SubPath_type. That is, in the example of FIG. 11, the type of SubPath can be defined as follows.

図11において、SubPath_type=0,1は、reservedとされている。SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   In FIG. 11, SubPath_type = 0, 1 is reserved. SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 indicates that in the playlist, the audio presentation path referred to by the sub path and the main path referred to by the play item are asynchronous.

SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 indicates that in the playlist, the interactive graphics menu referenced by the sub path and the main path referenced by the play item are asynchronous.

SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。   SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 indicates that in the playlist, the text subtitle presentation path referenced by the sub path and the main path referenced by the play item are synchronized.

SubPath_type=5は、2nd Audio Presentation path(2番目のオーディオプレゼンテーションパス)(2ndオーディオストリームを参照するためのパス)とされている。具体的には、SubPath_type=5は、プレイリストの中において、サブパスで参照される2番目のオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)オーディオストリームは、映画に対する監督のコメント(音声)である。図8においてSubpath_id=0で示されるSubPathの場合、図10のSubPath_typeは、このSubPath_type=5となる。   SubPath_type = 5 is 2nd Audio Presentation path (second audio presentation path) (path for referring to the 2nd audio stream). Specifically, SubPath_type = 5 indicates that in the playlist, the second audio presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) audio stream referenced in this subpath is a director's comment (voice) on the movie. In the case of the SubPath indicated by Subpath_id = 0 in FIG. 8, the SubPath_type in FIG. 10 is SubPath_type = 5.

SubPath_type=6は、2nd Video Presentation path(2番目のビデオプレゼンテーションパス)(2ndビデオストリームを参照するためのパス)とされている。具体的には、SubPath_type=6は、プレイリストの中において、サブパスで参照される2番目のビデオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)ビデオストリームは、映画に対する監督のコメント(動画像)である。   SubPath_type = 6 is 2nd Video Presentation path (second video presentation path) (path for referring to the 2nd video stream). Specifically, SubPath_type = 6 indicates that in the playlist, the second video presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) video stream referred to in this sub-path is a director's comment (moving image) for the movie.

SubPath_type=7乃至255は、reservedとされている。   SubPath_type = 7 to 255 is reserved.

図12は、SubPlayItem(i)のシンタクスを示す図である。   FIG. 12 is a diagram illustrating the syntax of SubPlayItem (i).

lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().

図12においては、SubPlayItemが1つのClip を参照する場合と、複数のClip を参照する場合に分けられている。   In FIG. 12, it is divided into a case where SubPlayItem refers to one Clip and a case where it refers to a plurality of Clips.

最初に、SubPlayItemが1つのClipを参照する場合について説明する。   First, a case where SubPlayItem refers to one Clip will be described.

SubPlayItemには、Clipを指定するためのClip_Information_file_ name[0]が含まれる。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id とsync_start_PTS_of_PlayItemを含む。このsync_PlayItem_id とsync_start_PTS_of_PlayItemは、上述したように、図7と図8の場合(メインAVストリームとサブパスにより示されるファイルの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。   SubPlayItem includes Clip_Information_file_name [0] for specifying Clip. In addition, Clip_codec_identifier [0] that specifies the codec method of Clip, reserved_for_future_use, is_multi_Clip_entries that is a flag indicating the presence or absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time at which the Sub Path starts to be reproduced on the time axis of the main path. As described above, this sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 7 and 8 (when the playback timing of the file indicated by the main AV stream and the sub path is the same), and the file indicated by the main AV stream and the sub path. Are not used (for example, when the still image referred to by the main path and the audio referred to by the sub path are not synchronized as in the BGM of a slide show composed of still images). Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.

次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図8に示されるように、SubPlayItemが複数のClip を参照する場合を示す。   Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 8, a case where SubPlayItem refers to a plurality of Clips is shown.

num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーデック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。   num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec method of Clip, ref_to_STC_id [SubClip_entry_id] that is information on STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.

なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図8の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。   Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 8, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is _ Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.

ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。   Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.

図13は、PlayItem()のシンタクスを示す図である。   FIG. 13 is a diagram illustrating the syntax of PlayItem ().

lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図7の例の場合、Clip_Information_file_ name[0]により、メインAVストリームが参照される。また、PlayItem()には、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、is_multi_angle、connection_condition、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]が含まれている。さらに、PlayItem()には、Clipの中のPlayItemの再生区間を指定するためのIN_time とOUT_timeが含まれている。図7の例の場合、IN_time とOUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。また、PlayItem()には、UO_mask_table()、PlayItem_random_access_mode、still_modeが含まれている。なお、is_multi_angleが複数ある場合については、本発明と直接的には関係ないのでその説明を省略する。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 7, the main AV stream is referred to by Clip_Information_file_name [0]. PlayItem () includes Clip_codec_identifier [0], reserved_for_future_use, is_multi_angle, connection_condition, and ref_to_STC_id [0], which is information on STC discontinuity points (system time base discontinuity points) that specify the codec method of Clip. ing. Furthermore, PlayItem () includes IN_time and OUT_time for designating the playback section of the PlayItem in the Clip. In the example of FIG. 7, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time. PlayItem () includes UO_mask_table (), PlayItem_random_access_mode, and still_mode. Note that the case where there are a plurality of is_multi_angles is not directly related to the present invention, and thus the description thereof is omitted.

PlayItem()の中のSTN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipsの中から選ぶことができる仕組みを提供するものである。また、STN_table()は、2つのオーディオストリームのミキシング再生を選ぶことができる仕組みを提供するものである。   STN_table () in PlayItem () refers to the PlayItem's operations such as audio switching and subtitle switching when the target PlayItem and one or more SubPaths to be played back are prepared. It provides a mechanism that allows the user to select from Clips and Clips referenced by one or more of these SubPaths. STN_table () provides a mechanism that allows selection of mixing reproduction of two audio streams.

図14は、STN_table()のシンタクスの第1の例(第1のSTN_table())を示す図である。STN_table()は、PlayItemの属性として設定されている。   FIG. 14 is a diagram illustrating a first example (first STN_table ()) of syntax of STN_table (). STN_table () is set as an attribute of PlayItem.

lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。number_of_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_idが与えられるストリーム数を示す。video_stream_idは、ビデオストリームを識別するための情報であり、video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length. number_of_video_stream_entries indicates the number of streams to which video_stream_id entered (registered) in STN_table () is given. video_stream_id is information for identifying a video stream, and video_stream_number is a video stream number that is used for video switching and is visible to the user.

number_of_audio_stream_entriesは、STN_table()の中でエントリーされるaudio_stream_idが与えられる1番目のオーディオストリームのストリーム数を示す。audio_stream_idは、オーディオストリームを識別するための情報である。audio_stream_numberは、ユーザから見えるオーディオストリーム番号であり、音声切り替えに用いられる。number_of_audio_stream2_entriesは、STN_table()の中でエントリーされるaudio_stream_id2が与えられる2番目のオーディオストリームのストリーム数を示す。audio_stream_id2は、オーディオストリームを識別するための情報である。audio_stream_numberは、ユーザから見えるオーディオストリーム番号であり、音声切り替えに用いられる。具体的には、STN_table()でエントリーされるnumber_of_audio_stream_entriesのオーディオストリームは、後述する図25の再生装置20または図49の再生装置401の1stオーディオデコーダ75−1でデコードされるオーディオストリームであり、STN_table()でエントリーされるnumber_of_audio_stream2_entriesのオーディオストリームは、後述する図25の再生装置20または図49の再生装置401の2ndオーディオデコーダ75−2でデコードされるオーディオストリームである。このように、図14のSTN_table()では、2つのオーディオデコーダのそれぞれにデコードさせるオーディオストリームをエントリーすることができる。   number_of_audio_stream_entries indicates the number of streams of the first audio stream to which audio_stream_id entered in STN_table () is given. audio_stream_id is information for identifying an audio stream. audio_stream_number is an audio stream number that can be seen by the user, and is used for audio switching. number_of_audio_stream2_entries indicates the number of streams of the second audio stream to which audio_stream_id2 entered in STN_table () is given. audio_stream_id2 is information for identifying an audio stream. audio_stream_number is an audio stream number that can be seen by the user, and is used for audio switching. Specifically, the number_of_audio_stream_entries audio stream entered in STN_table () is an audio stream decoded by the 1st audio decoder 75-1 of the playback device 20 of FIG. 25 or the playback device 401 of FIG. 49 described later, and STN_table The audio stream of number_of_audio_stream2_entries entered in () is an audio stream decoded by the 2nd audio decoder 75-2 of the playback device 20 in FIG. 25 or the playback device 401 in FIG. As described above, in STN_table () in FIG. 14, audio streams to be decoded by the two audio decoders can be entered.

なお、以下において、図25の再生装置20または図49の再生装置401の1stオーディオデコーダ75−1でデコードされるnumber_of_audio_stream_entriesのオーディオストリームをオーディオストリーム#1と称し(さらに、オーディオストリーム#1は、後述するように、プライマリオーディオストリームと称される場合もある)、図25の再生装置20または図49の再生装置401の2ndオーディオデコーダ75−2でデコードされるnumber_of_audio_stream2_entriesのオーディオストリームをオーディオストリーム#2と称する(さらに、オーディオストリーム#2は、後述するように、セカンダリオーディオストリームと称される場合もある)。また、オーディオストリーム#1は、オーディオストリーム#2よりも優先されるオーディオストリームであるものとする。   In the following, the audio stream of number_of_audio_stream_entries decoded by the 1st audio decoder 75-1 of the playback device 20 in FIG. 25 or the playback device 401 in FIG. 49 is referred to as audio stream # 1 (further, the audio stream # 1 will be described later). The audio stream of number_of_audio_stream2_entries decoded by the 2nd audio decoder 75-2 of the playback device 20 in FIG. 25 or the playback device 401 in FIG. 49 is referred to as audio stream # 2. (Further, the audio stream # 2 may be referred to as a secondary audio stream, as will be described later). Also, it is assumed that the audio stream # 1 is an audio stream that has priority over the audio stream # 2.

number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。   number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.

number_of_IG_stream_entriesは、STN_table()の中でエントリーされるIG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。   number_of_IG_stream_entries indicates the number of streams to which IG_stream_id entered in STN_table () is given. In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.

ここで、stream_entry()のシンタクスについて図15を参照して説明する。   Here, the syntax of stream_entry () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_entry ()の最後までのバイト数を示す8ビットの符号なし整数である。typeは、上述したストリーム番号が与えられるストリームを一意に特定するために必要な情報の種類を示す8ビットのフィールドである。   length is an 8-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_entry (). type is an 8-bit field indicating the type of information necessary to uniquely specify the stream to which the above-described stream number is given.

type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。   In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.

type=2では、SubPathが一度に複数個のClipを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。   In type = 2, when SubPath refers to a plurality of Clips at a time and each Clip multiplexes a plurality of elementary streams, a plurality of elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.

このように、type(type=1とtype=2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。   In this way, by using type (two types of type = 1 and type = 2), when PlayItem and one or more SubPaths to be played back are prepared, this PlayItem refers to One elementary stream can be identified from Clips referenced by Clip and one or more SubPaths. Note that type = 1 indicates a clip (main clip) referred to by the main path, and type = 2 indicates a clip (sub clip) referred to by the sub path.

図14の第1のSTN_table()の説明に戻って、ビデオストリームID (video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からvideo_stream_idが与えられる。なお、ビデオストリームID(video_stream_id)の代わりに、ビデオストリーム番号(video_stream_number)を用いるようにしてもよい。この場合、video_stream_numberは、0ではなく1から与えられる。すなわち、video_stream_idの値に1を加算したものがvideo_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。   Returning to the description of the first STN_table () in FIG. 14, video_stream_id from 0 to video_stream_id is assigned to one video elementary stream specified for each stream_entry () in order in the for loop of the video stream ID (video_stream_id). Given. Note that a video stream number (video_stream_number) may be used instead of the video stream ID (video_stream_id). In this case, video_stream_number is given from 1 instead of 0. That is, video_stream_number is obtained by adding 1 to the value of video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.

同様に、オーディオストリームID (audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。この場合、audio_stream_numberは、0ではなく1から与えられる。すなわち、audio_stream_idの値に1を加算したものがaudio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the audio stream ID (audio_stream_id), audio_stream_id is given from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id). In this case, audio_stream_number is given from 1 instead of 0. That is, audio_stream_number is obtained by adding 1 to the value of audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.

同様に、オーディオストリームID2 (audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。この場合、audio_stream_number2は、0ではなく1から与えられる。すなわち、audio_stream_id2の値に1を加算したものがaudio_stream_number2である。オーディオストリーム番号2は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号2であるので、1から定義される。   Similarly, audio_stream_id2 is given from 0 to one audio elementary stream specified for each stream_entry () in order in the for loop of the audio stream ID2 (audio_stream_id2). As in the case of the video stream, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). In this case, audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number2 is obtained by adding 1 to the value of audio_stream_id2. The audio stream number 2 is an audio stream number 2 that can be seen by the user and used for audio switching.

すなわち、図14の第1のSTN_table()においては、number_of_audio_stream_entries(オーディオストリーム#1)のオーディオストリームと、number_of_audio_stream2_entries(オーディオストリーム#2)のオーディオストリームとが定義される。換言すれば、STN_table()を用いて、オーディオストリーム#1とオーディオストリーム#2とをエントリーすることができるので、ユーザは、同期して再生するオーディオストリームを2本選択することができる。   That is, in the first STN_table () of FIG. 14, an audio stream of number_of_audio_stream_entries (audio stream # 1) and an audio stream of number_of_audio_stream2_entries (audio stream # 2) are defined. In other words, since the audio stream # 1 and the audio stream # 2 can be entered using the STN_table (), the user can select two audio streams to be reproduced in synchronization.

同様に、字幕ストリームID (PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。なお、ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。   Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.

同様に、グラフィックスストリームID (IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。   Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is identified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.

次に、図14の第1のSTN_table()のstream_attribute()について説明する。   Next, stream_attribute () of the first STN_table () in FIG. 14 will be described.

reserved_for_future_useの後のfor文では、video streamの分だけvideo streamが参照され、ディスク製造者が、オーディオストリームに対してMain PathおよびSub Pathを設定した分だけaudio streamが参照され、PG textST streamの分だけPG textST streamが参照され、IG streamの分だけIG streamが参照される。   In the for statement after reserved_for_future_use, the video stream is referenced by the amount of the video stream, the audio stream is referenced by the disc manufacturer who has set the Main Path and Sub Path for the audio stream, and the PG textST stream Only the PG textST stream is referred to, and the IG stream is referred to by the amount of the IG stream.

ビデオストリームID (video_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報が記述されている。   The stream_attribute () in the for loop of the video stream ID (video_stream_id) gives stream attribute information of one video elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one video elementary stream specified for each stream_entry () is described.

同様に、オーディオストリームID(audio_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図15のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of the audio stream ID (audio_stream_id) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 15, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、オーディオストリームID2(audio_stream_id2)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図15のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of audio stream ID2 (audio_stream_id2) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 15, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、字幕ストリームID(PG_txtST_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕エレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the subtitle stream ID (PG_txtST_stream_id) gives stream attribute information of one bitmap subtitle elementary stream or text subtitle elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one bitmap subtitle elementary stream specified for each stream_entry () is described.

同様に、グラフィックスストリームID(IG_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the graphics stream ID (IG_stream_id) gives stream attribute information of one interactive graphics elementary stream specified for each stream_entry (). That is, stream attribute information of one interactive graphics elementary stream specified for each stream_entry () is described in the stream_attribute ().

ここで、stream_attribute()のシンタクスについて図16を参照して説明する。   Here, the syntax of stream_attribute () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().

stream_coding_typeは、図17に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream等のビデオのコーデックのフォーマット、HDMV LPCM audio、Dolby AC-3 audio、dts audio等のオーディオコーデックのフォーマット、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。   stream_coding_type indicates the encoding type of the elementary stream as shown in FIG. The encoding type of elementary stream includes video codec format such as MPEG-2 video stream, audio codec format such as HDMV LPCM audio, Dolby AC-3 audio, and dts audio, Presentation graphics stream, Interactive graphics stream, And a Text subtitle stream are described.

video_formatは、図18に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。   video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.

frame_rateは、図19に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。   As shown in FIG. 19, frame_rate indicates the frame rate of the video elementary stream. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.

aspect_ratioは、図20に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。   The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.

audio_presentation_typeは、図21に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。   audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.

sampling_frequencyは、図22に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。   Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.

audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).

PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.

IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.

textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.

character_codeは、図23に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。   The character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including KSC 5653 for Roman character (Korean), GB 18030-2000 (Chinese), GB2312 (Chinese) and BIG5 (Chinese) are described.

以下に、図16のstream_attribute()のシンタクスについて、図16と、図17乃至図23を用いて具体的に説明する。   Hereinafter, the syntax of stream_attribute () in FIG. 16 will be specifically described with reference to FIGS. 16 and 17 to 23.

エレメンタリストリームの符号化タイプ(図16のstream_coding_type)がMPEG-2 video stream(図17)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図18)、フレームレート(図19)、およびアスペクト比情報(図20)が含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 16) is an MPEG-2 video stream (FIG. 17), the stream_attribute () includes the video format (FIG. 18) and frame rate (FIG. 19) of the elementary stream. ), And aspect ratio information (FIG. 20).

エレメンタリストリームの符号化タイプ(図16のstream_coding_type)がHDMV LPCM audio、Dolby AC-3 audio、またはdts audio(図17)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図21)、サンプリング周波数(図22)、および言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 16) is HDMV LPCM audio, Dolby AC-3 audio, or dts audio (FIG. 17), the stream_attribute () includes the presentation type information of the audio elementary stream. (FIG. 21), sampling frequency (FIG. 22), and language code.

エレメンタリストリームの符号化タイプ(図16のstream_coding_type)がPresentation graphics stream(図17)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 16) is a Presentation graphics stream (FIG. 17), the stream_attribute () includes the language code of the bitmap subtitle elementary stream.

エレメンタリストリームの符号化タイプ(図16のstream_coding_type)がInteractive graphics stream(図17)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 16) is Interactive graphics stream (FIG. 17), stream_attribute () includes the language code of the interactive graphics elementary stream.

エレメンタリストリームの符号化タイプ(図16のstream_coding_type)がText subtitle stream(図17)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図23)、言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 16) is a Text subtitle stream (FIG. 17), stream_attribute () includes the character code (FIG. 23) and language code of the text subtitle elementary stream. .

なお、これらの属性情報はこれに限定されない。   Note that the attribute information is not limited to this.

このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定された1つのエレメンタリストリームの属性情報をstream_attribute()によって知ることができる。   As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of one identified elementary stream can be known by stream_attribute ().

再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。   By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.

例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。   For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).

また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザがユーザが副音声(すなわちSecondary audio)への切り替えまたは主音声と副音声のミキシング再生を指示した場合、再生装置は、副音声として用意されているオーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。   Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback apparatus to switch to the secondary audio (that is, secondary audio) or to mix and reproduce the main audio and the secondary audio, the playback apparatus uses the audio stream ID ( Only audio elementary streams whose language code is Japanese are sequentially selected from the for loop of (Audio stream id) and played.

さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、オーディオストリーム#1(通常の映画で出力される音声)と、オーディオストリーム#2(監督や出演者によるコメント)とを、再生する音声として指定(選択)した場合、再生装置は、オーディオストリーム#1とオーディオストリーム#2とをミキシング(重畳)して、ビデオストリームとともに再生する。   Further, for example, when playing back an AV stream (movie) made up of a video stream and an audio stream that is referenced by the main path, the user instructs the playback device to switch the audio, and the audio stream # 1 (normal When the audio output in the movie) and the audio stream # 2 (comment by the director or performer) are designated (selected) as the audio to be played back, the playback device selects the audio stream # 1 and the audio stream # 2. Mix (superimpose) and play along with the video stream.

なお、オーディオストリーム#1とオーディオストリーム#2とは、図14および図15のSTN_table()を参照しても分かるように、両方ともメインパスにより参照されるClipに含まれるオーディオストリームとしてもよい。また、オーディオストリーム#1とオーディオストリーム#2のうちの、一方をメインパスにより参照されるClipに含まれるオーディオストリームとし、他方をサブパスにより参照されるClipに含まれるオーディオストリームとしてもよい。このように、メインパスにより参照されるメインAVストリームに重畳された複数のオーディオストリームを2つ選択して、ミキシングして再生することも可能である。   Note that both the audio stream # 1 and the audio stream # 2 may be audio streams included in the Clip referred to by the main path, as can be seen by referring to the STN_table () in FIG. 14 and FIG. Also, one of the audio stream # 1 and the audio stream # 2 may be an audio stream included in a clip referred to by the main path, and the other may be an audio stream included in the clip referenced by the sub path. As described above, it is possible to select two audio streams superimposed on the main AV stream referred to by the main path, mix them, and reproduce them.

このようにして、PlayItem()の中にSTN_table()を設けることにより、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作を受けて、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から再生されるストリームを選ぶことができる。これにより、メインAVストリームが記録されている、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。   In this way, by providing STN_table () in PlayItem (), when PlayItem and one or more SubPaths to be played back are prepared, operations such as audio switching and subtitle switching by the user In response to this, a stream to be played can be selected from the Clip referred to by this PlayItem and the Clip referred to by one or more SubPaths. As a result, an interactive operation can be performed on a stream or data file in which the main AV stream is recorded and which is different from the AV stream to be reproduced.

また、1つのPlayListの中にSubPathを複数使用し、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、このPlaylistにより再生されるコンテンツにおいて、後で、SubPlayItemを追加できる構成とすることができる。例えば、Main Pathが参照するClipAVストリームファイルとこれに対応付けられるPlayListがあり、このPlayListが新たなSub Pathを追加したPlayListに書き換えられた場合、新たなPlayListに基づいて、Main Pathが参照するClipAVストリームファイルとともに、Main Pathが参照するClipAVストリームファイルとは異なるClipAVストリームファイルを参照して、再生を行うことができる。このように、拡張性を有する構成とすることができる。   Also, since a plurality of SubPaths are used in one PlayList and each SubPath refers to a SubPlayItem, an AV stream with high expandability and high flexibility can be realized. That is, a configuration in which SubPlayItem can be added later in the content played back by this playlist. For example, when there is a ClipAV stream file referenced by the Main Path and a PlayList associated with the ClipAV stream file, and this PlayList is rewritten to a PlayList with a new Sub Path added, the ClipAV referenced by the Main Path is based on the new PlayList. Along with the stream file, reproduction can be performed by referring to a ClipAV stream file different from the ClipAV stream file referred to by the Main Path. Thus, it can be set as the structure which has an expandability.

さらに、PlayItem()の中にSTN_table()を設けることにより、後述する図25の再生装置20または図49の再生装置401の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とをミキシングして再生することができる。例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、PlayItemが参照するClipのオーディオストリームをオーディオストリーム#1とし、SubPathが参照するClipのオーディオストリームをオーディオストリーム#2とし、これらををミキシングして再生することができる仕組みを提供するようにした。また、例えば、PlayItemが参照するClip(メインClip)に含まれる2つのオーディオストリームを、それぞれオーディオストリーム#1とオーディオストリーム#2とし、これらをミキシングして再生することができる仕組みを提供するようにした。これにより、メインAVストリームが記録されている、再生するメインのオーディオストリームとは異なるオーディオストリーム(例えば、監督のコメントのストリーム)の重畳再生を行うことができる。また、メインAVストリームに重畳されている2つのオーディオストリーム#1とオーディオストリーム#2とを重畳(ミキシング)して再生することができる。   Furthermore, by providing STN_table () in PlayItem (), audio stream # 1 and 2nd audio decoded by the first audio decoder 75-1 of the playback device 20 shown in FIG. 25 or the playback device 401 shown in FIG. The audio stream # 2 decoded by the decoder 75-2 can be mixed and reproduced. For example, when PlayItem () and one or more SubPaths to be played back are prepared, the clip audio stream referenced by PlayItem is defined as audio stream # 1, and the clip audio stream referenced by SubPath is defined as audio stream # 1. An audio stream # 2 is provided, and a mechanism capable of mixing and reproducing these is provided. Also, for example, two audio streams included in a clip (main clip) referred to by PlayItem are set as an audio stream # 1 and an audio stream # 2, respectively, and these can be mixed and played back. did. Accordingly, it is possible to perform superimposed reproduction of an audio stream (for example, a director's comment stream) that is different from the main audio stream to be reproduced, in which the main AV stream is recorded. Also, the two audio streams # 1 and # 2 superimposed on the main AV stream can be superimposed (mixed) and reproduced.

具体的な例を、図24を参照して説明する。図24は、ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を示す図である。   A specific example will be described with reference to FIG. FIG. 24 is a diagram illustrating an example of a stream number table representing a relationship between an audio signal provided to a user and a caption signal.

図24においては、音声番号をA_SN(Audio Stream Number)、A_SN2と称し、字幕番号をS_SN(SubPicture Stream Number)と称する。図24においては、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#1(audio_stream_idでエントリーされるオーディオストリーム)のそれぞれにA_SNが与えられ、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#2(audio_stream_id2でエントリーされるオーディオストリーム)のそれぞれにA_SN2が与えられる。   In FIG. 24, the audio numbers are referred to as A_SN (Audio Stream Number) and A_SN2, and the subtitle numbers are referred to as S_SN (SubPicture Stream Number). In FIG. 24, A_SN is given to each of the audio streams # 1 (audio streams entered with audio_stream_id) entered in STN_table () of PlayItems constituting the Main Path of the PlayList, and PlayItems constituting the Main Path of the PlayList. A_SN2 is given to each of the audio streams # 2 (audio streams entered with audio_stream_id2) entered in STN_table ().

具体的には、A_SN=1にオーディオ2が与えられ、A_SN=2にオーディオ1が与えられ、A_SN=3にオーディオ3が与えられている。また、A_SN2=1にオーディオ4が与えられ、A_SN2=2にオーディオ5が与えられている。ユーザは、A_SNが与えられているオーディオストリームの中から、再生するオーディオストリーム#1を選択し、選択したオーディオストリーム#1とミキシングするオーディオストリーム#2を、A_SN2が与えられているオーディオストリームの中から選択する。例えば、ユーザは、A_SN=2のオーディオ1と、A_SN2=2のオーディオ5とを再生するオーディオストリームとして選択する。   Specifically, audio 2 is given to A_SN = 1, audio 1 is given to A_SN = 2, and audio 3 is given to A_SN = 3. Audio 4 is given to A_SN2 = 1, and audio 5 is given to A_SN2 = 2. The user selects the audio stream # 1 to be reproduced from the audio streams to which A_SN is given, and selects the audio stream # 2 to be mixed with the selected audio stream # 1 in the audio stream to which A_SN2 is given. Select from. For example, the user selects audio 1 with A_SN = 2 and audio 5 with A_SN2 = 2 as playback audio streams.

具体的な例としては、A_SN=1のオーディオ2が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN=2のオーディオ1に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=3のオーディオ3に切り替えられる。また、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=1のオーディオ2に切り替えられる。また、例えば、A_SN2=1のオーディオ4が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN2=2のオーディオ5に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオはA_SN2=1のオーディオ4に切り替えられる。このように、オーディオストリーム#1を選択するためのA_SNと、オーディオストリーム#2を選択するためのA_SN2とは、音声の切り替えを独立させている。すなわち、ユーザは、A_SN=1乃至A_SN=3から1つオーディオストリームを選択し、A_SN2=1およびA_SN2=2から1つオーディオストリームを選択することになる。   As a specific example, when the audio 2 with A_SN = 1 is selected and the user commands the audio switching, the audio is switched to the audio 1 with A_SN = 2, and the user further selects the audio. When switching is instructed, the audio is switched to audio 3 with A_SN = 3. Further, when the user instructs to switch audio further, the audio is switched to audio 2 with A_SN = 1. Also, for example, when the audio 4 with A_SN2 = 1 is selected and the user commands to switch audio, the audio is switched to audio 5 with A_SN2 = 2, and the user further commands to switch audio. In this case, the audio is switched to the audio 4 with A_SN2 = 1. As described above, A_SN for selecting the audio stream # 1 and A_SN2 for selecting the audio stream # 2 are independent from each other. That is, the user selects one audio stream from A_SN = 1 to A_SN = 3, and selects one audio stream from A_SN2 = 1 and A_SN2 = 2.

また、PlayListのMain Pathで参照されるメインAVストリームの複数のサブピクチャストリームのそれぞれに、S_SNが与えられている。すなわち、S_SN=1にサブピクチャ3が与えられ、S_SN=2にサブピクチャ1が与えられ、S_SN=3にサブピクチャ2が与えられる。   Also, S_SN is assigned to each of a plurality of sub-picture streams of the main AV stream referred to by the main path of the PlayList. That is, sub-picture 3 is given to S_SN = 1, sub-picture 1 is given to S_SN = 2, and sub-picture 2 is given to S_SN = 3.

なお、ここでは、A_SN、A_SN2、S_SNの番号が小さい程、ユーザに提供される音声信号やサブピクチャの優先度が高い。また、A_SNで与えられるストリームの方が、A_SN2で与えられるストリームより優先度が高い。すなわち、A_SN=1はデフォルトで再生されるオーディオストリームであり、S_SN=1はデフォルトで再生されるサブピクチャストリームである。   Note that here, the smaller the numbers of A_SN, A_SN2, and S_SN, the higher the priority of the audio signal and sub-picture provided to the user. Further, the stream given by A_SN has higher priority than the stream given by A_SN2. That is, A_SN = 1 is an audio stream reproduced by default, and S_SN = 1 is a sub-picture stream reproduced by default.

具体的には、再生装置の言語設定の初期情報に基づいて再生される音声は、A_SN=1であるオーディオ2(図24)に対応しており、音声が切り替えられた後、再生される音声は、A_SN=2であるオーディオ1(図24)に対応している。   Specifically, the audio reproduced based on the initial information of the language setting of the reproduction apparatus corresponds to audio 2 (FIG. 24) with A_SN = 1, and the audio reproduced after the audio is switched. Corresponds to audio 1 (FIG. 24) with A_SN = 2.

このようなストリームナンバーテーブルを提供するために、PlayList()で参照されるPlayItem()の中のSTN table()(図14)において、最初に、オーディオストリーム#1にエントリーするためのaudio_stream_id=0(A_SN=1)でオーディオ2を与え、audio_stream_id=1(A_SN=2)でオーディオ1を与え、audio_stream_id=2(A_SN=3)でオーディオ3を与える。次に、STN table()(図14)において、オーディオストリーム#2にエントリーするためのaudio_stream_id2=0(A_SN2=1)でオーディオ4を与え、audio_stream_id2=1(A_SN2=2)でオーディオ5を与える。   In order to provide such a stream number table, in the STN table () (FIG. 14) in PlayItem () referenced by PlayList (), first, audio_stream_id = 0 for entry to audio stream # 1 Audio 2 is given by (A_SN = 1), audio 1 is given by audio_stream_id = 1 (A_SN = 2), and audio 3 is given by audio_stream_id = 2 (A_SN = 3). Next, in STN table () (FIG. 14), audio 4 is given by audio_stream_id2 = 0 (A_SN2 = 1) for entry into audio stream # 2, and audio 5 is given by audio_stream_id2 = 1 (A_SN2 = 2).

すなわち、再生する2つのオーディオストリーム(オーディオストリーム#1とオーディオストリーム#2)とを別々に定義することで、ユーザは、再生する2つのオーディオストリームを、定義されたものの中から任意に選択することができる。換言すれば、ユーザは、再生する2つのオーディオストリームの選択を自由に(オーディオストリーム#1とオーディオストリーム#2で定義されているものの中から自由に)行うことができるので、組み合わせの自由度の高い選択を行うことができる。例えば、ユーザは、オーディオ2+オーディオ4の組み合わせ(A_SN=1とA_SN2=1の組み合わせ)や、オーディオ2+オーディオ5の組み合わせ(A_SN=1とA_SN2=2の組み合わせ)を選択することができる。   That is, by defining two audio streams to be reproduced (audio stream # 1 and audio stream # 2) separately, the user can arbitrarily select two audio streams to be reproduced from the defined ones. Can do. In other words, the user can freely select two audio streams to be played (freely defined by the audio stream # 1 and the audio stream # 2). High selection can be made. For example, the user can select a combination of audio 2 + audio 4 (a combination of A_SN = 1 and A_SN2 = 1) or a combination of audio 2 + audio 5 (a combination of A_SN = 1 and A_SN2 = 2).

このように、PlayItem()の中のSTN table()(図14)のstream_entry()(図15)で、2本のオーディオストリームをエントリーすることが可能な構成としたので、2つのオーディオストリームをミキシングして再生することができる。すなわち、複数の種類からなるストリームから、同じ種類(この例の場合、オーディオストリーム)の2本のストリームをミキシング(重畳、または合成)して、同時に再生することができる。また、ユーザは、所望する2本の同じ種類のストリームのミキシング再生を指令することができる。   As described above, the stream_entry () (FIG. 15) of the STN table () (FIG. 14) in the PlayItem () is configured so that two audio streams can be entered. Can be mixed and played back. That is, two streams of the same type (in this example, an audio stream) can be mixed (superimposed or combined) from a plurality of types of streams and simultaneously played back. In addition, the user can instruct mixing reproduction of two desired types of streams.

次に、本発明を適用した再生装置について説明する。図25は、本発明を適用した再生装置20の構成例を示すブロック図である。この再生装置20は、上述したメインパスとサブパスを有するPlayListを再生する再生装置20である。   Next, a playback apparatus to which the present invention is applied will be described. FIG. 25 is a block diagram illustrating a configuration example of the playback device 20 to which the present invention has been applied. The playback device 20 is a playback device 20 that plays the PlayList having the main path and the sub path described above.

再生装置20には、ストレージドライブ31、スイッチ32、AVデコーダ部33、およびコントローラ34が設けられている。   The playback device 20 is provided with a storage drive 31, a switch 32, an AV decoder unit 33, and a controller 34.

図25の例の場合、最初に、コントローラ34がストレージドライブ31を介してPlayListファイルを読み出し、PlayListファイルの情報に基づいて、ストレージドライブ31を介してHDD、Blu-Ray Disc(商標)、またはDVDなどの記録媒体からAVストリームやAVデータを読み出す。ユーザは、ユーザインターフェースを用いて、コントローラ34に対し、音声や字幕などの切り替えの指令を行うことができる。また、コントローラ34には、再生装置20の言語設定の初期情報が図示せぬ記憶部などから供給される。   In the case of the example of FIG. 25, first, the controller 34 reads out the PlayList file via the storage drive 31, and based on the information of the PlayList file, the HDD, Blu-Ray Disc (trademark) or DVD via the storage drive 31. AV streams and AV data are read from a recording medium such as The user can instruct the controller 34 to switch between audio and subtitles using the user interface. Further, the controller 34 is supplied with initial information of the language setting of the playback device 20 from a storage unit (not shown).

PlayListファイルには、Main Path、Sub Pathの情報の他、STN_table()が含まれている。コントローラ34は、PlayListファイルに含まれるPlayItemが参照するメインClip AVストリームファイル、SubPlayItemが参照するサブClip AVストリームファイル、およびSubPlayItemが参照するテキストサブタイトルデータ等を、ストレージドライブ31を介して記録媒体などから読み出す。ここで、PlayItemが参照するメインClip AV StreamとSubPlayItemが参照するサブClip AV Streamとが、異なる記録媒体に記録されていてもよい。例えば、メインClip AV Streamが記録媒体に記録されており、対応するサブClip AV Streamは図示せぬネットワークを介して供給され、HDDに記憶されたものであってもよい。また、コントローラ34は、自分自身(再生装置20)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置20の言語設定の初期情報に対応するエレメンタリストリームを選択し、再生するよう制御する。なお、一般的にはPlayItemが参照するストリームには、ビデオストリームが含まれているので、PlayItem(メインパス)が参照するストリームを含むClipを、メインClipと称する。また、このメインClip以外のストリームをサブClipと称する。すなわち、サブClipは、サブパスで参照されるストリームであって、PlayItemで参照するビデオストリームを置き換えるビデオストリーム、PlayItemで参照するビデオストリームと合成するビデオストリーム、又は、ビデオストリームを含まずオーディオストリーム、IG,PGストリーム等のうちの、少なくとも一つのストリームを含むClipをサブClipと称するものである。   The PlayList file includes STN_table () in addition to Main Path and Sub Path information. The controller 34 receives the main Clip AV stream file referenced by the PlayItem included in the PlayList file, the sub Clip AV stream file referenced by the SubPlayItem, the text subtitle data referenced by the SubPlayItem, and the like from the recording medium via the storage drive 31. read out. Here, the main Clip AV Stream referred to by PlayItem and the sub Clip AV Stream referred to by SubPlayItem may be recorded on different recording media. For example, the main Clip AV Stream may be recorded on a recording medium, and the corresponding sub Clip AV Stream may be supplied via a network (not shown) and stored in the HDD. In addition, the controller 34 selects an elementary stream corresponding to the playback function of itself (the playback device 20) and controls playback, or selects an elementary stream corresponding to the initial information of the language setting of the playback device 20. And control to play. In general, since a stream referred to by PlayItem includes a video stream, a Clip including a stream referred to by PlayItem (main path) is referred to as a main Clip. A stream other than the main clip is called a sub clip. That is, the sub clip is a stream that is referred to in the sub path, and is a video stream that replaces the video stream that is referred to by PlayItem, a video stream that is combined with a video stream that is referenced by PlayItem, or an audio stream that does not include a video stream, , PG streams, etc., a clip including at least one stream is called a sub clip.

AVデコーダ部33には、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57乃至59、バックグラウンドデコーダ71、ビデオデコーダ72、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、およびミキシング処理部98が設けられている。1stオーディオデコーダ75−1は、オーディオストリーム#1をデコードするためのものであり、2ndオーディオデコーダ75−2は、オーディオストリーム#2をデコードするためのものである。具体的には、図14のSTN_table()において、audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、audio_stream_id2で与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。   The AV decoder unit 33 includes buffers 51 to 54, PID filter 55, PID filter 56, switches 57 to 59, background decoder 71, video decoder 72, presentation graphics decoder 73, interactive graphics decoder 74, 1st audio decoder 75. -1 and 2nd audio decoder 75-2, Text-ST composition 76, switch 77, background plane generation unit 91, video plane generation unit 92, presentation graphics plane generation unit 93, interactive graphics plane generation unit 94, buffer 95, a video data processing unit 96, a mixing processing unit 97, and a mixing processing unit 98 are provided. The 1st audio decoder 75-1 is for decoding the audio stream # 1, and the 2nd audio decoder 75-2 is for decoding the audio stream # 2. Specifically, in STN_table () of FIG. 14, the 1st audio decoder 75-1 is for decoding the audio stream given by audio_stream_id, and the 2nd audio is for decoding the audio stream given by audio_stream_id2. This is a decoder 75-2.

このように、再生装置20は、2つのオーディオストリームをデコードするために、2つのオーディオデコーダ(1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2)を有している。なお、以下において、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2とを個々に区別しない場合、オーディオデコーダ75と称する。   Thus, the playback device 20 has two audio decoders (1st audio decoder 75-1 and 2nd audio decoder 75-2) in order to decode two audio streams. In the following, the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 are referred to as audio decoders 75 when not distinguished from each other.

コントローラ34により読み出されたファイルデータは、図示せぬ復調、ECC復号部により、復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ34からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ34からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClip AV Streamのデータをバッファ52に供給し、サブClip AV Streamのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AV Streamのデータをバッファリングし、バッファ53は、サブClip AV Streamのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   The file data read by the controller 34 is demodulated by a demodulation / ECC decoding unit (not shown), and error correction is performed on the demodulated multiplexed stream. The switch 32 selects the demodulated and error-corrected data for each stream type based on the control from the controller 34 and supplies the selected data to the corresponding buffers 51 to 54. Specifically, the switch 32 supplies the background image data to the buffer 51, supplies the main Clip AV Stream data to the buffer 52, and buffers the sub Clip AV Stream data based on the control from the controller 34. The switch 32 is switched so that the Text-ST data is supplied to the buffer 54. The buffer 51 buffers background image data, the buffer 52 buffers main Clip AV Stream data, the buffer 53 buffers sub Clip AV Stream data, and the buffer 54 Text-ST. Buffer data.

メインClip AV Streamは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClip AV Streamは、オーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスとオーディオのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。   The main Clip AV Stream is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub Clip AV Stream is a stream obtained by multiplexing one or more streams among audio, bitmap subtitle (Presentation Graphics stream), interactive graphics, and audio. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.

また、メインClip AV StreamとサブClip AV Streamおよびテキストサブタイトルデータを、ストレージドライブ31(記録媒体)から読み出すときに、それぞれのファイルを時分割に交互に読み出しても良いし、または、サブClip AV StreamやテキストサブタイトルデータをメインClip AV Streamから読み出す前に、すべてバッファ(バッファ53またはバッファ54)へプリロードしてもよい。   Further, when reading the main Clip AV Stream, the sub Clip AV Stream, and the text subtitle data from the storage drive 31 (recording medium), the respective files may be alternately read in a time division manner, or the sub Clip AV Stream may be read. Alternatively, all the text subtitle data may be preloaded into the buffer (buffer 53 or buffer 54) before being read from the main Clip AV Stream.

再生装置20は、これらのファイルのデータを、ストレージドライブ31を介して記録媒体から読み出し、ビデオ、ビットマップ字幕、インタラクティブグラフィックス、およびオーディオを再生する。   The playback device 20 reads the data of these files from the recording medium via the storage drive 31, and plays back video, bitmap subtitles, interactive graphics, and audio.

具体的には、メインClip AV Stream用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClip AV StreamをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームをビデオデコーダ72に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   Specifically, the stream data read from the buffer 52 that is the main Clip AV Stream read buffer is output to the PID (packet ID) filter 55 in the subsequent stage at a predetermined timing. The PID filter 55 distributes the input main Clip AV Stream to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 55 supplies the video stream to the video decoder 72, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and supplies the interactive graphics stream to the interactive graphics decoder 74. The audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2.

プレゼンテーショングラフィックスストリームは、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、例えば、テキスト字幕データである。   The presentation graphics stream is, for example, bitmap subtitle data, and the text subtitle data is, for example, text subtitle data.

サブClip AV Stream用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClipをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   The stream data read from the buffer 53, which is a sub-Clip AV Stream read buffer, is output to a PID (packet ID) filter 56 at the subsequent stage at a predetermined timing. The PID filter 56 distributes the input sub clip to the decoder of each elementary stream in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 56 supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73 and supplies the interactive graphics stream to the switch 58 serving as the supply source to the interactive graphics decoder 74. The audio stream is supplied to the switch 59 serving as a supply source to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2.

バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。   Data read from the buffer 51 that buffers background image data is supplied to the background decoder 71 at a predetermined timing. The background decoder 71 decodes the background image data and supplies the decoded background image data to the background plane generation unit 91.

PIDフィルタ55により振り分けられたビデオストリームは、後段のビデオデコーダ72に供給される。ビデオデコーダ72は、ビデオストリームをデコードし、デコードしたビデオデータをビデオプレーン生成部92へ出力する。   The video stream distributed by the PID filter 55 is supplied to the video decoder 72 at the subsequent stage. The video decoder 72 decodes the video stream and outputs the decoded video data to the video plane generation unit 92.

スイッチ57は、PIDフィルタ55から供給されたメインClip AV Streamに含まれるプレゼンテーショングラフィックスストリームと、サブClip AV Streamに含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。   The switch 57 selects one of the presentation graphics stream included in the main Clip AV Stream supplied from the PID filter 55 and the presentation graphics stream included in the sub Clip AV Stream, and selects the selected presentation graphic. The stream is supplied to the presentation graphics decoder 73 at the subsequent stage. The presentation graphics decoder 73 decodes the presentation graphics stream, and supplies the decoded presentation graphics stream data to the switch 77 serving as a supply source to the presentation graphics plane generation unit 93.

また、スイッチ58は、PIDフィルタ55から供給されたメインClip AV Streamに含まれるインタラクティブグラフィックスストリームと、サブClip AV Streamに含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。すなわち、インタラクティブグラフィックスデコーダ74へ同時に入力されるインタラクティブグラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのどちらかから分離されたストリームである。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、インタラクティブグラフィックスプレーン生成部94に供給する。   The switch 58 selects one of the interactive graphics stream included in the main Clip AV Stream supplied from the PID filter 55 and the interactive graphics stream included in the sub Clip AV Stream. The interactive graphics stream is supplied to the subsequent interactive graphics stream decoder 74. That is, the interactive graphics stream input to the interactive graphics decoder 74 at the same time is a stream separated from either the main Clip AV Stream or the sub Clip AV Stream. The interactive graphics decoder 74 decodes the interactive graphics stream and supplies the decoded interactive graphics stream data to the interactive graphics plane generating unit 94.

さらに、スイッチ59は、PIDフィルタ55から供給されたメインClip AV Streamに含まれるオーディオストリームと、サブClip AV Streamに含まれるオーディオストリームのうちのいずれか1つを選択し、選択したオーディオストリームを、後段の1stオーディオデコーダ75−1または、2ndオーディオデコーダ75−2に供給する。ここで、1stオーディオデコーダ75−1へ同時に入力されるオーディオストリームは、メインClipまたはサブClipのどちらかから分離されたストリームである。また、同様に、2ndオーディオデコーダ75−2へ同時に入力されるオーディオストリームも、メインClipまたはサブClipのどちらかから分離されたストリームである。例えば、メインClipにオーディオストリーム#1とオーディオストリーム#2とが含まれていた場合、PIDフィルタ55は、オーディオストリームのPIDに基づいて、オーディオストリーム#1とオーディオストリーム#2とをフィルタリングし、スイッチ59に供給する。   Further, the switch 59 selects one of the audio stream included in the main Clip AV Stream and the audio stream included in the sub Clip AV Stream supplied from the PID filter 55, and selects the selected audio stream. The signal is supplied to the 1st audio decoder 75-1 or the 2nd audio decoder 75-2 at the subsequent stage. Here, the audio stream simultaneously input to the 1st audio decoder 75-1 is a stream separated from either the main clip or the sub clip. Similarly, the audio stream input to the 2nd audio decoder 75-2 at the same time is a stream separated from either the main clip or the sub clip. For example, when the audio stream # 1 and the audio stream # 2 are included in the main clip, the PID filter 55 filters the audio stream # 1 and the audio stream # 2 based on the PID of the audio stream, and switches 59.

スイッチ59は、例えば、PIDフィルタ55から供給されたオーディオストリーム#1を、1stオーディオデコーダ75−1に供給するようスイッチを選択し、PIDフィルタ55から供給されたオーディオストリーム#2を、2ndオーディオデコーダ75−2に供給するようスイッチを選択する。   For example, the switch 59 selects the switch so that the audio stream # 1 supplied from the PID filter 55 is supplied to the 1st audio decoder 75-1, and the audio stream # 2 supplied from the PID filter 55 is selected as the 2nd audio decoder. Select the switch to supply to 75-2.

1stオーディオデコーダ75−1は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。また、2ndオーディオデコーダ75−2は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。   The 1st audio decoder 75-1 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101. The 2nd audio decoder 75-2 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101.

ここで、オーディオストリーム#1とオーディオストリーム#2とを重畳して再生するような場合(ユーザにより再生するオーディオストリームとして、2つのオーディオストリームが選択された場合)、1stオーディオデコーダ75−1によりデコードされたオーディオストリーム#1と、2ndオーディオデコーダ75−2によりデコードされたオーディオストリーム#2とが、ミキシング処理部101に供給される。   Here, when audio stream # 1 and audio stream # 2 are superimposed and reproduced (when two audio streams are selected as audio streams to be reproduced by the user), decoding is performed by the 1st audio decoder 75-1. The audio stream # 1 and the audio stream # 2 decoded by the 2nd audio decoder 75-2 are supplied to the mixing processing unit 101.

ミキシング処理部101は、1stオーディオデコーダ75−1からのオーディオデータと、2ndオーディオデコーダ75−2からのオーディオデータとをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオデータと2ndオーディオデコーダ75−2から出力されるオーディオデータとをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。   The mixing processing unit 101 mixes (superimposes) the audio data from the 1st audio decoder 75-1 and the audio data from the 2nd audio decoder 75-2, and outputs the mixed data to the subsequent mixing processing unit 97. In the present embodiment, mixing (superimposing) the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2 is also referred to as synthesis. In other words, synthesis means to mix two audio data.

また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、例えば、メニュー選択などによる効果音のデータなどである。ミキシング処理部97は、ミキシング処理部101によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、音声信号として出力する。   The sound data selected by the switch 32 is supplied to the buffer 95 and buffered. The buffer 95 supplies the sound data to the mixing processing unit 97 at a predetermined timing. The sound data is, for example, sound effect data by menu selection or the like. The mixing processing unit 97 is the audio data mixed by the mixing processing unit 101 (audio data obtained by mixing the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2). The sound data supplied from the buffer 95 is mixed (superimposed or synthesized) and output as an audio signal.

テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。   The data read from the buffer 54 that is a text subtitle read buffer is output to the text subtitle composition (decoder) 76 at the subsequent stage at a predetermined timing. The text subtitle composition 76 decodes the Text-ST data and supplies it to the switch 77.

スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン生成部93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのいずれかから分離されたストリームである(スイッチ57により選択される)。したがって、プレゼンテーショングラフィックスプレーン生成部93へ同時に出力される字幕画像は、メインClip AV Streamからのプレゼンテーショングラフィックスストリーム、またはサブClip AV Streamからのからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。   The switch 77 selects either the presentation graphics stream decoded by the presentation graphics decoder 73 or Text-ST (text subtitle data), and supplies the selected data to the presentation graphics plane generating unit 93. . That is, the subtitle image simultaneously supplied to the presentation graphics plane generating unit 93 is an output of either the presentation graphics decoder 73 or the text subtitle (Text-ST) composition 76. The presentation graphics stream that is simultaneously input to the presentation graphics decoder 73 is a stream separated from either the main Clip AV Stream or the sub Clip AV Stream (selected by the switch 57). Therefore, the subtitle image that is simultaneously output to the presentation graphics plane generating unit 93 is a decoding output of the presentation graphics stream from the main Clip AV Stream, the presentation graphics stream from the sub Clip AV Stream, or the text subtitle data. It is.

バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。   Based on the background image data supplied from the background decoder 71, for example, the background plane generation unit 91 generates a background plane that becomes a wallpaper image when the video image is displayed in a reduced size, and this is converted into the video data. This is supplied to the processing unit 96. The video plane generation unit 92 generates a video plane based on the video data supplied from the video decoder 72 and supplies this to the video data processing unit 96. The presentation graphics plane generation unit 93 generates, for example, a presentation graphics plane which is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the switch 77 and supplied, and this is converted into a video. The data is supplied to the data processing unit 96. The interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74, and supplies this to the video data processing unit 96.

ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、ビデオプレーン生成部92からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。また、ミキシング処理部97はミキシング処理部101からのオーディオデータ(1stオーディオデコーダ75−1によりデコードされたオーディオデータと2ndオーディオデコーダ75−2によりデコードされたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95からのサウンドデータをミキシング(合成または重畳)し、音声信号として出力する。   The video data processing unit 96 includes a background plane from the background plane generation unit 91, a video plane from the video plane generation unit 92, a presentation graphics plane from the presentation graphics plane generation unit 93, and an interactive graphics plane generation unit. The interactive graphics plane from 94 is synthesized and output as a video signal. The mixing processing unit 97 also receives audio data from the mixing processing unit 101 (audio data obtained by mixing audio data decoded by the first audio decoder 75-1 and audio data decoded by the second audio decoder 75-2). The sound data from the buffer 95 is mixed (synthesized or superimposed) and output as an audio signal.

これらのスイッチ57乃至59、並びにスイッチ77は、ユーザインターフェースを介するユーザからの選択、または、対象となるデータが含まれるファイル側に基づいて、スイッチを切り替える。例えば、サブClip AVストリームファイルのみにしか、オーディオストリームが含まれていない場合、スイッチ59はサブ側にスイッチを切り替える。   The switches 57 to 59 and the switch 77 are switched based on selection from the user via the user interface or the file side including the target data. For example, when the audio stream is included only in the sub clip AV stream file, the switch 59 switches the switch to the sub side.

次に、図25の再生装置20における再生処理を、図26乃至図28のフローチャートを参照して説明する。なお、この処理は、ユーザによりユーザインターフェースを介して、所定のAVストリームの再生が指令されたとき開始される。   Next, playback processing in the playback apparatus 20 of FIG. 25 will be described with reference to the flowcharts of FIGS. Note that this process is started when a reproduction of a predetermined AV stream is instructed by the user via the user interface.

ステップS11において、コントローラ34は、ストレージドライブ31を介して、記録媒体や図示せぬHDD(Hard Disk Drive)に記録されているPlayListファイルを読み出す。例えば、図9を用いて説明したPlayListのファイルが読み出される。   In step S <b> 11, the controller 34 reads out a PlayList file recorded on a recording medium or an HDD (Hard Disk Drive) (not shown) via the storage drive 31. For example, the PlayList file described with reference to FIG. 9 is read.

ステップS12において、コントローラ34は、メインClip AV Stream、サブClip AV Stream、およびテキストサブタイトルデータ(Text-STデータ)を読み出す。具体的には、コントローラ34は、図9を用いて説明したPlayListに含まれるPlayItemに基づいて、メインClip AV Streamを読み出す。また、コントローラ34は、PlayListに含まれるSubPathで参照される、図10乃至図12を用いて説明したSubPlayItemに基づいて、サブClip AV Streamと、テキストサブタイトルデータを読み出す。   In step S12, the controller 34 reads out the main Clip AV Stream, the sub Clip AV Stream, and the text subtitle data (Text-ST data). Specifically, the controller 34 reads out the main Clip AV Stream based on the PlayItem included in the PlayList described with reference to FIG. Further, the controller 34 reads the sub Clip AV Stream and the text subtitle data based on the SubPlayItem described with reference to FIGS. 10 to 12 that is referred to by the SubPath included in the PlayList.

ステップS13において、コントローラ34は、読み出したデータ(メインClip AV Stream、サブClip AV Stream、およびテキストサブタイトルデータ)を対応するバッファ51乃至54に供給するようスイッチ32を制御する。具体的には、コントローラ34は、バックグラウンドイメージデータをバッファ51に供給し、メインClip AV Streamのデータをバッファ52に供給し、サブClipのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。   In step S <b> 13, the controller 34 controls the switch 32 to supply the read data (main Clip AV Stream, sub Clip AV Stream, and text subtitle data) to the corresponding buffers 51 to 54. Specifically, the controller 34 supplies the background image data to the buffer 51, supplies the main Clip AV Stream data to the buffer 52, supplies the sub Clip data to the buffer 53, and converts the Text-ST data to the buffer 53. Switch 32 is switched to supply to buffer 54.

ステップS14において、スイッチ32はコントローラ34からの制御に基づいて、スイッチ32を切り替える。これにより、バックグラウンドイメージデータはバッファ51に供給され、メインClip AV Streamのデータはバッファ52に供給され、サブClip AV Streamのデータはバッファ53に供給され、テキストサブタイトルデータはバッファ54に供給される。   In step S <b> 14, the switch 32 switches the switch 32 based on control from the controller 34. As a result, the background image data is supplied to the buffer 51, the main Clip AV Stream data is supplied to the buffer 52, the sub Clip AV Stream data is supplied to the buffer 53, and the text subtitle data is supplied to the buffer 54. .

ステップS15において、各バッファ51乃至54は、供給されたデータをそれぞれバッファリングする。具体的には、バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AV Streamのデータをバッファリングし、バッファ53は、サブClip AV Streamのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   In step S15, each of the buffers 51 to 54 buffers the supplied data. Specifically, the buffer 51 buffers background image data, the buffer 52 buffers the data of the main Clip AV Stream, the buffer 53 buffers the data of the sub Clip AV Stream, and the buffer 54 Buffers Text-ST data.

ステップS16において、バッファ51は、バックグラウンドイメージデータをバックグラウンドデコーダ71に出力する。   In step S <b> 16, the buffer 51 outputs the background image data to the background decoder 71.

ステップS17において、バッファ52はメインClip AV StreamのストリームデータをPIDフィルタ55に出力する。   In step S <b> 17, the buffer 52 outputs the stream data of the main Clip AV Stream to the PID filter 55.

ステップS18において、PIDフィルタ55は、メインClip AVストリームファイルを構成するTS(Transport Stream)パケットに付されているPIDに基づいて、各エレメンタリストリームのデコーダへ振り分ける。具体的には、PIDフィルタ55は、ビデオストリームをビデオデコーダ72に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1への供給元となるスイッチ59に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞれ異なるPIDが付されている。   In step S18, the PID filter 55 distributes to the decoders of the elementary streams based on the PIDs attached to the TS (Transport Stream) packets constituting the main Clip AV stream file. Specifically, the PID filter 55 supplies the video stream to the video decoder 72, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and converts the interactive graphics stream to the interactive graphics. The audio stream is supplied to the switch 58 serving as the supply source to the decoder 74, and the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1. That is, different PIDs are attached to the video stream, presentation graphics stream, interactive graphics stream, and audio stream, respectively.

ステップS19において、バッファ53は、サブClip AV StreamのストリームデータをPIDフィルタ56に出力する。   In step S <b> 19, the buffer 53 outputs the sub Clip AV Stream stream data to the PID filter 56.

ステップS20において、PIDフィルタ56は、PIDに基づいて、各エレメンタリストリームを、それぞれのエレメンタリストリームに対応するデコーダへ振り分ける。具体的には、PIDフィルタ56は、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   In step S20, the PID filter 56 distributes each elementary stream to a decoder corresponding to each elementary stream based on the PID. Specifically, the PID filter 56 supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and the switch 58 serving as the supply source to the interactive graphics decoder 74. And the audio stream is supplied to the switch 59 serving as a supply source to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2.

ステップS21において、PIDフィルタ55およびPIDフィルタ56の後段のスイッチ57乃至59は、ユーザインターフェースを介するコントローラ34からの制御に基づいて、メインClip AV Stream とサブClip AV Streamのいずれかを選択する。具体的には、スイッチ57は、PIDフィルタ55から供給されたメインClip AV StreamまたはサブClip AV Streamのプレゼンテーショングラフィックスストリームを選択し、後段のプレゼンテーショングラフィックスデコーダ73に供給する。また、スイッチ58は、PIDフィルタ55から供給されたメインClip AV StreamまたはサブClip AV Streamのインタラクティブグラフィックスストリームを選択し、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。さらに、スイッチ59は、PIDフィルタ55から供給されたメインClip AV Stream、または、PIDフィルタ56から供給されたサブClip AV Streamのオーディオストリーム(ここでは、音声が切り替えられる前であるので、オーディオストリーム#1)を選択し、後段の1stオーディオデコーダ75−1に供給する。なお、音声を切り替えるような指令がユーザにより行われた場合には、スイッチ59は、メインClip AV Streamのオーディオストリームを2ndオーディオデコーダ75−2に供給したり、サブClip AV Streamのオーディオストリームを1stオーディオデコーダ75−1や2ndオーディオデコーダ75−2に供給したりもするが、ここでは、音声が切り替えられる前の再生処理について説明しているので、その説明は省略している。   In step S21, the switches 57 to 59 subsequent to the PID filter 55 and the PID filter 56 select either the main Clip AV Stream or the sub Clip AV Stream based on the control from the controller 34 via the user interface. Specifically, the switch 57 selects the presentation graphics stream of the main Clip AV Stream or the sub Clip AV Stream supplied from the PID filter 55 and supplies it to the presentation graphics decoder 73 at the subsequent stage. The switch 58 selects the main clip AV stream or sub clip AV stream interactive graphics stream supplied from the PID filter 55 and supplies the selected interactive graphics stream to the subsequent interactive graphics stream decoder 74. Further, the switch 59 is an audio stream of the main Clip AV Stream supplied from the PID filter 55 or the sub Clip AV Stream supplied from the PID filter 56 (in this case, since the audio is not switched, the audio stream # 1) is selected and supplied to the first audio decoder 75-1. Note that when the user issues a command to switch the audio, the switch 59 supplies the audio stream of the main Clip AV Stream to the 2nd audio decoder 75-2 or the audio stream of the sub Clip AV Stream 1st. Although it is supplied to the audio decoder 75-1 and the 2nd audio decoder 75-2, here, since the reproduction process before the sound is switched is described, the description thereof is omitted.

ステップS22において、バッファ54は、テキストサブタイトルデータをテキストサブタイトルコンポジション76に出力する。   In step S <b> 22, the buffer 54 outputs the text subtitle data to the text subtitle composition 76.

ステップS23において、バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、これをバックグラウンドプレーン生成部91に出力する。   In step S <b> 23, the background decoder 71 decodes the background image data and outputs it to the background plane generation unit 91.

ステップS24において、ビデオデコーダ72は、ビデオストリームをデコードし、これをビデオプレーン生成部92に出力する。   In step S <b> 24, the video decoder 72 decodes the video stream and outputs it to the video plane generation unit 92.

ステップS25において、プレゼンテーショングラフィックスデコーダ73は、スイッチ57により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、これを後段のスイッチ77に出力する。   In step S25, the presentation graphics decoder 73 decodes the presentation graphics stream selected and supplied by the switch 57, and outputs it to the subsequent switch 77.

ステップS26において、インタラクティブグラフィックスデコーダ74は、スイッチ58により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを後段のインタラクティブグラフィックスプレーン生成部94に出力する。   In step S <b> 26, the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58, and outputs this to the subsequent interactive graphics plane generating unit 94.

ステップS27において、1stオーディオデコーダ75−1は、スイッチ59により選択され、供給されたオーティオストリーム(オーディオストリーム#1)をデコードし、これを後段のミキシング処理部101に出力する。音声の切り替えがユーザにより指示されていない状態における再生処理(図26乃至図28の再生処理)では、2ndオーディオデコーダ75−2からオーディオデータが出力されることはないので、ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータを、そのまま後段のミキシング処理部97に供給する。   In step S27, the 1st audio decoder 75-1 decodes the supplied audio stream (audio stream # 1) selected by the switch 59 and outputs it to the subsequent mixing processing unit 101. In the reproduction process (reproduction process of FIGS. 26 to 28) in a state where the user has not instructed to switch the audio, the audio data is not output from the 2nd audio decoder 75-2. The audio data output from the 1st audio decoder 75-1 is supplied to the subsequent mixing processing unit 97 as it is.

ステップS28において、Text-STコンポジション76は、テキストサブタイトルデータをデコードし、これを後段のスイッチ77に出力する。   In step S28, the Text-ST composition 76 decodes the text subtitle data and outputs it to the switch 77 at the subsequent stage.

ステップS29において、スイッチ77は、プレゼンテーショングラフィックスデコーダ73またはText-STコンポジション76からのデータのいずれかを選択する。具体的には、スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれか1つを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。   In step S29, the switch 77 selects either the presentation graphics decoder 73 or the data from the Text-ST composition 76. Specifically, the switch 77 selects any one of the presentation graphics stream decoded by the presentation graphics decoder 73 and Text-ST (text subtitle data), and the selected data is displayed in the presentation graphics sprayer. Supplied to the generator 93.

ステップS30において、バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、バックグラウンドプレーンを生成する。   In step S <b> 30, the background plane generation unit 91 generates a background plane based on the background image data supplied from the background decoder 71.

ステップS31において、ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成する。   In step S31, the video plane generating unit 92 generates a video plane based on the video data supplied from the video decoder 72.

ステップS32において、プレゼンテーショングラフィックスプレーン生成部93は、ステップS29の処理でスイッチ77により選択され、供給されたプレゼンテーショングラフィックスデコーダ73からのデータまたはText-STコンポジション76からのデータに基づいて、プレゼンテーショングラフィックスプレーンを生成する。   In step S32, the presentation graphics plane generating unit 93 selects the presentation based on the data from the presentation graphics decoder 73 or the data from the Text-ST composition 76 selected and supplied by the switch 77 in the process of step S29. Generate a graphics plane.

ステップS33において、インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成する。   In step S <b> 33, the interactive graphics plane generating unit 94 generates an interactive graphics plane based on the interactive graphics stream data supplied from the interactive graphics decoder 74.

ステップS34において、バッファ95は、ステップS14の処理で選択され、供給されたサウンドデータをバッファリングし、所定のタイミングでミキシング処理部97に供給する。   In step S34, the buffer 95 buffers the sound data selected and supplied in step S14 and supplies the sound data to the mixing processing unit 97 at a predetermined timing.

ステップS35において、ビデオデータ処理部96は、各プレーンのデータを合成し、出力する。具体的には、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、およびインタラクティブグラフィックスプレーン生成部94からのデータを合成し、ビデオデータとして出力する。   In step S35, the video data processing unit 96 combines and outputs the data of each plane. Specifically, the data from the background plane generation unit 91, the video plane generation unit 92, the presentation graphics plane generation unit 93, and the interactive graphics plane generation unit 94 are combined and output as video data.

ステップS36において、ミキシング処理部97は、オーディオデータ(ミキシング処理部101から出力されたオーディオデータ)とサウンドデータをミキシング(合成)し、出力する。   In step S36, the mixing processing unit 97 mixes (synthesizes) audio data (audio data output from the mixing processing unit 101) and sound data, and outputs the result.

図26乃至図28の処理により、PlayListに含まれるメインパスとサブパスに関連付けられているメインClip AV Stream、サブClip AV Stream、およびテキストサブタイトルデータが参照され、再生される。PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指定するClip AV Streamファイルとは異なるClip AV Streamファイルを指定可能な構成としたので、メインパスのPlayItemが指すメインClip AV Streamを含むClipとは異なるClipであるサブClipのデータとメインClipのデータを一緒に(同じタイミングで)再生することができる。   26 to 28, the main Clip AV Stream, the sub Clip AV Stream, and the text subtitle data associated with the main path and the sub path included in the PlayList are referred to and reproduced. Since the main path and sub path are provided in the PlayList, and the Clip AV Stream file different from the Clip AV Stream file specified by the main path can be specified by the sub path, the main Clip AV Stream indicated by the PlayItem of the main path is The data of the sub clip, which is a different clip from the included clip, and the data of the main clip can be reproduced together (at the same timing).

なお、図26乃至図28において、ステップS16,ステップS17の処理は、その順番が逆であってもよいし、並行して実行されてもよい。また、ステップS18、ステップS20の処理も、その順番が逆であってもよいし、並行して実行されてもよい。さらに、ステップS23乃至ステップS28の処理も、その順番が逆であってもよいし、並行して実行されてもよい。また、ステップS30乃至ステップS33の処理も、その順番が逆であってもよいし、並行して実行されてもよい。さらに、ステップS35,ステップS36の処理も、その順番が逆であってもよいし、並行して実行されてもよい。すなわち、図25において、縦に同じ階層のバッファ51乃至54の処理、スイッチ57乃至59の処理、デコーダ71乃至76の処理、プレーン生成部91乃至94の処理、ビデオデータ処理部96およびミキシング処理部97の処理は、それぞれ、並行して実行されてもよいし、その順番は問わない。   In FIG. 26 to FIG. 28, the processing of step S16 and step S17 may be performed in reverse order or in parallel. In addition, the processes in step S18 and step S20 may be performed in reverse order or in parallel. Further, the order of steps S23 to S28 may be reversed or may be executed in parallel. In addition, the processes in steps S30 to S33 may be executed in reverse order or in parallel. Furthermore, the order of steps S35 and S36 may be reversed, or may be executed in parallel. That is, in FIG. 25, the processing of buffers 51 to 54 in the same vertical layer, the processing of switches 57 to 59, the processing of decoders 71 to 76, the processing of plane generation units 91 to 94, the video data processing unit 96, and the mixing processing unit The processes 97 may be executed in parallel, and the order thereof is not limited.

次に、音声の切り替えが指示された場合の再生装置20における処理を、図29と図30のフローチャートを参照して説明する。最初に、図29のフローチャートを参照して、ユーザによりオーディオストリーム#1に対する音声の切り替えが指示される場合の処理を説明する。オーディオストリーム#2に対する音声の切り替えの処理については、図30を参照して後述する。なお、図29と図30の処理は、例えば、図26乃至図28の再生処理の実行中に実行される処理である。   Next, processing in the playback device 20 when an instruction to switch audio is given will be described with reference to the flowcharts of FIGS. First, with reference to the flowchart of FIG. 29, a process when the user instructs to switch audio for the audio stream # 1 will be described. The audio switching process for the audio stream # 2 will be described later with reference to FIG. Note that the processes in FIGS. 29 and 30 are processes executed during the execution of the reproduction processes in FIGS. 26 to 28, for example.

ステップS51において、コントローラ34は、オーディオストリーム番号(IDでもよい)の順番リストを取得する。具体的には、コントローラ34は、図13を用いて説明したPlayItemのSTN_table()を参照し、さらに図14を用いて説明したSTN_table()にエントリーされているオーディオストリーム番号(ID)の順番のリストを取得する。この処理は、図26乃至図28の再生処理が開始されたときに実行される処理である。   In step S51, the controller 34 acquires an order list of audio stream numbers (or IDs). Specifically, the controller 34 refers to the STN_table () of the PlayItem described with reference to FIG. 13, and further changes the order of the audio stream numbers (ID) entered in the STN_table () described with reference to FIG. Get a list. This process is a process executed when the reproduction process of FIGS. 26 to 28 is started.

ユーザにより、ユーザインターフェースを介して、音声切り替えの指令が行われた場合、ステップS52において、コントローラ34は、ユーザからのオーディオストリーム#1に対する音声切り替えの指令を受け付ける。このとき、コントローラ34は、図示せぬ表示部を制御して、図24に示されるようなストリームナンバーテーブルを表示部に表示させるように制御するようにしてもよい。図29の処理は、オーディオストリーム#1に対する音声の切り替えが指令される場合の処理であるので、ユーザは、例えば、図24に示されるようなストリームナンバーテーブルにおける、A_SN=1、A_SN=2、A_SN=3のオーディオの切り替えを指令する。具体的には、ユーザは、A_SN=1のオーディオ2からA_SN=2のオーディオ1へのオーディオの切り替えを指令する。コントローラ34は、この、ユーザからのオーディオストリーム#1に対する音声の切り替えを受け付ける。図29において、ステップS51の処理はあらかじめ実行されている処理であり、ユーザによりオーディオストリーム#1に対する音声切り替えの指令が行われた場合に、ステップS52以降の処理が行われる。   When a voice switching command is issued by the user via the user interface, in step S52, the controller 34 receives a voice switching command for the audio stream # 1 from the user. At this time, the controller 34 may control a display unit (not shown) to display a stream number table as shown in FIG. 24 on the display unit. Since the process in FIG. 29 is a process in the case where the audio switching for the audio stream # 1 is instructed, the user, for example, in the stream number table as shown in FIG. 24, A_SN = 1, A_SN = 2, Command to switch audio of A_SN = 3. Specifically, the user commands audio switching from audio 2 with A_SN = 1 to audio 1 with A_SN = 2. The controller 34 accepts this audio switching for the audio stream # 1 from the user. In FIG. 29, the process of step S51 is a process that is executed in advance, and the process after step S52 is performed when the user issues a voice switching command for audio stream # 1.

ステップS53において、コントローラ34は、再生しているオーディオストリーム番号の次のオーディオストリーム番号を取得する。例えば、ステップS52の処理で、図24のA_SN=1のオーディオ2に対応するオーディオストリームファイルが再生されていた場合、次は、A_SN=2のオーディオ1であるので、コントローラ34は、オーディオ1に対応するオーディオストリームの番号を取得する。   In step S53, the controller 34 acquires the audio stream number next to the audio stream number being reproduced. For example, if the audio stream file corresponding to the audio 2 with A_SN = 1 in FIG. 24 is played in the process of step S52, the controller 34 determines that the audio 1 with A_SN = 2 is next. Get the number of the corresponding audio stream.

ステップS54において、コントローラ34は、取得した番号に対応するオーディオストリーム(オーディオストリーム#1)を再生する機能を有するか否かを判定する。具体的には、コントローラ34は、stream_attribute()(図16)に記述されている内容に基づいて、取得した番号に対応するオーディオストリーム(オーディオストリーム#1)を自分自身(再生装置20)が再生する機能を有するか否かを判定する。例えば、図15のStream_entry()において、type=1である場合、コントローラ34は、取得した番号に対応するメインClip AV Streamのオーディオストリームを、再生装置20が再生する機能を有するか否かを判定する。取得した番号に対応するオーディオストリームは、オーディオデコーダ75−1でデコードされるオーディオストリーム#1であるので、この処理は、このオーディオストリーム#1を、オーディオデコーダ75−1がデコードできるか否かを判定しているとも換言することができる。   In step S54, the controller 34 determines whether or not it has a function of playing back an audio stream (audio stream # 1) corresponding to the acquired number. Specifically, the controller 34 itself reproduces the audio stream (audio stream # 1) corresponding to the acquired number based on the contents described in stream_attribute () (FIG. 16). It is determined whether or not it has a function to perform. For example, if type = 1 in Stream_entry () of FIG. 15, the controller 34 determines whether or not the playback device 20 has a function of playing back the audio stream of the main Clip AV Stream corresponding to the acquired number. To do. Since the audio stream corresponding to the acquired number is the audio stream # 1 decoded by the audio decoder 75-1, this process determines whether or not the audio decoder 75-1 can decode the audio stream # 1. In other words, it can be determined.

ステップS54において、取得した番号に対応するオーディオストリームを再生する機能を有しないと判定された場合、処理はステップS55に進み、コントローラ34は、現在のストリーム番号の次のストリーム番号を取得する。すなわち、現在のストリーム番号のオーディオストリームを再生する機能を有さない場合には、そのストリーム番号は飛ばされ(再生対象とならず)、次のストリーム番号が取得される。そして、ステップS55の処理の後、処理はステップS54に戻り、それ以降の処理が繰り返される。すなわち、コントローラ34により、自分自身が再生する機能を有するオーディオストリーム(オーディオストリーム#1)の番号が取得されるまで、処理が繰り返される。   If it is determined in step S54 that the audio stream corresponding to the acquired number is not reproduced, the process proceeds to step S55, and the controller 34 acquires the stream number next to the current stream number. That is, when the audio stream having the current stream number is not reproduced, the stream number is skipped (not subject to reproduction), and the next stream number is acquired. And after the process of step S55, a process returns to step S54 and the process after it is repeated. That is, the process is repeated until the controller 34 obtains the number of the audio stream (audio stream # 1) that has the function of reproducing itself.

ステップS54において、取得した番号に対応するオーディオストリームを再生する機能を有すると判定された場合、処理はステップS56において、コントローラ34は、取得した番号に対応するオーディオストリームを含むClipを調べる。例えば、コントローラ34は、図15のtypeに基づいて、取得した番号に対応するオーディオストリームがメインClipにあるのか(type=1)、サブClipにあるのか(type=2)を調べる。また、例えば、図15のStream_entry()において、type=1である場合、コントローラ34は、取得した番号に対応するオーディオストリームが、メインClipにあることを確認する。さらに、例えば、type=2である場合、コントローラ34は、取得した番号に対応するオーディオストリームがサブClipにあることを確認する。   If it is determined in step S54 that the audio stream corresponding to the acquired number is played back, in step S56, the controller 34 checks the clip including the audio stream corresponding to the acquired number. For example, the controller 34 checks whether the audio stream corresponding to the acquired number is in the main clip (type = 1) or the sub clip (type = 2) based on the type in FIG. Further, for example, in the case of type = 1 in Stream_entry () in FIG. 15, the controller 34 confirms that the audio stream corresponding to the acquired number is in the main clip. Further, for example, when type = 2, the controller 34 confirms that the audio stream corresponding to the acquired number is in the sub clip.

ステップS57において、コントローラ34は、所望のオーディオストリームを特定する。具体的には、取得した番号に対応するストリームの属するメインClipまたはサブClipの中の所望のオーディオストリームを特定する。例えば、ステップS54の処理で、取得した番号に対応するオーディオストリームが、メインClipに含まれることが確認された場合、コントローラ34は、図15のtype=1でエントリーされている情報(ref_to_stream_PID_of_mainClip)に基づいて、メインClipの中の所定のオーディオストリームを特定する。また、例えば、ステップS54の処理で、取得した番号に対応するオーディオストリームがサブClipに含まれることが確認された場合、コントローラ34は、図15のtype=2でエントリーされている情報(ref_to_SubPath_id、ref_to_SubClip_entry_id、ref_to_stream_PID_of_SubClip)に基づいて、サブClipの中の所定のオーディオストリームを特定する。この特定されたオーディオストリームが、オーディオデコーダ75−1でデコードされるオーディオストリーム#1となる。   In step S57, the controller 34 specifies a desired audio stream. Specifically, a desired audio stream in the main clip or sub clip to which the stream corresponding to the acquired number belongs is specified. For example, when it is confirmed in step S54 that the audio stream corresponding to the acquired number is included in the main clip, the controller 34 stores the information (ref_to_stream_PID_of_mainClip) entered with type = 1 in FIG. Based on this, a predetermined audio stream in the main clip is specified. Also, for example, when it is confirmed in step S54 that the audio stream corresponding to the acquired number is included in the sub clip, the controller 34 receives the information (ref_to_SubPath_id, Based on ref_to_SubClip_entry_id and ref_to_stream_PID_of_SubClip), a predetermined audio stream in the sub Clip is specified. This identified audio stream becomes the audio stream # 1 decoded by the audio decoder 75-1.

ステップS58において、コントローラ34は、所望のオーディオストリームが多重化されているClipに対応するClip AV Stream(メインClip AV StreamまたはサブClip AV Stream)を読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるClip AV Streamを読み出す。具体的には、コントローラ34は、ステップS57の処理で特定したClip AV Streamを読み出すようストレージドライブ31に指示する。   In step S58, the controller 34 instructs the storage drive 31 to read out the Clip AV Stream (main Clip AV Stream or sub Clip AV Stream) corresponding to the Clip in which the desired audio stream is multiplexed. Based on this instruction, the storage drive 31 reads the target Clip AV Stream. Specifically, the controller 34 instructs the storage drive 31 to read out the Clip AV Stream specified in the process of step S57.

ステップS59において、コントローラ34は、読み出されたClip AV Streamからオーディオストリームを再生するようAVデコーダ部33に指示する。具体的には、コントローラ34は、読み出されたClip AV Streamに含まれる所望のオーディオストリーム(すなわち、オーディオストリーム#1)をAVデコーダ部33のオーディオデコーダ75−1にデコードさせるよう指示する。   In step S59, the controller 34 instructs the AV decoder unit 33 to reproduce an audio stream from the read Clip AV Stream. Specifically, the controller 34 instructs the audio decoder 75-1 of the AV decoder unit 33 to decode a desired audio stream (that is, audio stream # 1) included in the read Clip AV Stream.

ステップS60において、AVデコーダ部33は、オーディオストリーム(オーディオストリーム#1)をデコードし、オーディオ出力する。具体的には、AVデコーダ部33のオーディオデコーダ75−1は、オーディオストリーム#1(ステップS58の処理で読み出しが指令されたオーディオストリーム)をデコードし、ミキシング処理部101に出力する。ここで、後述する図30の処理で、オーディオストリーム#2がオーディオデコーダ75−2によってデコードされている場合には、ミキシング処理部101は、デコードされたオーディオストリーム#1とオーディオストリーム#2とをミキシングし、後段のミキシング処理部97に供給する。一方、後述する図30の処理で、オーディオストリーム#2がオーディオデコーダ75−2によってデコードされていない場合には、ミキシング処理部101は、デコードされたオーディオストリーム#1をそのまま、後段のミキシング処理部97に供給する。ミキシング処理部97は、ミキシング処理部101から供給されたオーディオデータ(オーディオストリーム#1のみがデコードされたオーディオデータ、または、オーディオストリーム#1とオーディオストリーム#2とがそれぞれデコードされ、ミキシングされたオーディオデータ)と、バッファ95から出力されるサウンドデータとを、ミキシング処理し、オーディオ信号として出力する。なお、この図29のステップS60の処理の詳細な例は、図31のフローチャートを参照して後述する。   In step S60, the AV decoder 33 decodes the audio stream (audio stream # 1) and outputs the audio. Specifically, the audio decoder 75-1 of the AV decoder unit 33 decodes the audio stream # 1 (the audio stream that is instructed to be read in the process of step S58), and outputs the decoded audio stream # 1 to the mixing processing unit 101. Here, when the audio stream # 2 is decoded by the audio decoder 75-2 in the process of FIG. 30 to be described later, the mixing processing unit 101 uses the decoded audio stream # 1 and audio stream # 2 as a result. Mixing and supplying to the subsequent mixing processing unit 97. On the other hand, when the audio stream # 2 has not been decoded by the audio decoder 75-2 in the processing of FIG. 30 described later, the mixing processing unit 101 uses the decoded audio stream # 1 as it is, and the subsequent mixing processing unit. 97. The mixing processing unit 97 decodes the audio data supplied from the mixing processing unit 101 (audio data obtained by decoding only the audio stream # 1 or audio stream # 1 and audio stream # 2 respectively) Data) and sound data output from the buffer 95 are mixed and output as an audio signal. A detailed example of the process in step S60 in FIG. 29 will be described later with reference to the flowchart in FIG.

次に、図30のフローチャートを参照して、ユーザによりオーディオストリーム#2に対する音声の切り替えが指示される場合の処理を説明する。なお、この処理は、例えば、図26乃至図28の再生処理の実行中に実行される処理である。また、一般的には、オーディオストリーム#2を再生する場合、オーディオストリーム#1もまた再生されているので、この図30の処理は、例えば、図29の処理と並行して実行される処理とされる(オーディオストリーム#2がユーザにより選択されない場合には、図30の処理が実行されず、図29の処理のみが実行されることになる)。   Next, with reference to the flowchart of FIG. 30, processing when the user instructs to switch audio for the audio stream # 2 will be described. This process is, for example, a process executed during the execution of the reproduction process of FIGS. In general, when the audio stream # 2 is reproduced, the audio stream # 1 is also reproduced. Therefore, the process of FIG. 30 is performed in parallel with the process of FIG. 29, for example. (When the audio stream # 2 is not selected by the user, the process of FIG. 30 is not executed, and only the process of FIG. 29 is executed).

ステップS71において、コントローラ34は、オーディオストリーム番号(IDでもよい)の順番リストを取得する。具体的には、コントローラ34は、図13を用いて説明したPlayItemのSTN_table()を参照し、さらに図14を用いて説明したSTN_table()にエントリーされているオーディオストリーム番号(ID)の順番のリストを取得する。この処理は、図26乃至図28の再生処理が開始されたときに実行される処理である。   In step S71, the controller 34 obtains an order list of audio stream numbers (may be IDs). Specifically, the controller 34 refers to the STN_table () of the PlayItem described with reference to FIG. 13, and further changes the order of the audio stream numbers (ID) entered in the STN_table () described with reference to FIG. Get a list. This process is a process executed when the reproduction process of FIGS. 26 to 28 is started.

ユーザにより、ユーザインターフェースを介して、音声切り替えの指令が行われた場合、ステップS72において、コントローラ34は、ユーザからのオーディオストリーム#2に対する音声切り替えの指令を受け付ける。このとき、コントローラ34は、図示せぬ表示部を制御して、図24に示されるようなストリームナンバーテーブルを表示部に表示させるように制御するようにしてもよい。図30の処理は、オーディオストリーム#2に対する音声の切り替えが指令される場合の処理であるので、ユーザは、例えば、図24に示されるようなストリームナンバーテーブルにおける、A_SN2=1とA_SN2=2とに対応するオーディオの切り替えを指令する。具体的には、ユーザは、A_SN2=1のオーディオ4からA_SN2=2のオーディオ5へのオーディオの切り替えを指令する。コントローラ34は、この、ユーザからのオーディオストリーム#2に対する音声の切り替えを受け付ける。図30において、ステップS71の処理はあらかじめ実行されている処理であり、ユーザによりオーディオストリーム#2に対する音声切り替えの指令が行われた場合に、ステップS72以降の処理が行われる。   When a voice switching command is issued by the user via the user interface, in step S72, the controller 34 receives a voice switching command for the audio stream # 2 from the user. At this time, the controller 34 may control a display unit (not shown) to display a stream number table as shown in FIG. 24 on the display unit. Since the process in FIG. 30 is a process in the case where the audio switching for the audio stream # 2 is instructed, for example, the user sets A_SN2 = 1 and A_SN2 = 2 in the stream number table as shown in FIG. Command to switch audio corresponding to. Specifically, the user commands audio switching from audio 4 with A_SN2 = 1 to audio 5 with A_SN2 = 2. The controller 34 accepts the audio switching for the audio stream # 2 from the user. In FIG. 30, the process of step S71 is a process that has been executed in advance, and the process after step S72 is performed when the user issues a voice switching command for audio stream # 2.

ステップS73において、コントローラ34は、再生しているオーディオストリーム番号の次のオーディオストリーム番号を取得する。例えば、図8のSubClip_entry_id=0のオーディオストリーム(Auxiliary audio stream)が再生されていた場合、次のSubClip_entry_id=1に対応するオーディオストリームファイルの番号が取得される。例えば、ステップS72の処理で、図24のA_SN2=1のオーディオ4に対応するオーディオストリームファイルが再生されていた場合、次は、A_SN2=2のオーディオ5であるので、コントローラ34は、オーディオ5に対応するオーディオストリームの番号を取得する。   In step S73, the controller 34 acquires the audio stream number next to the audio stream number being reproduced. For example, when an audio stream (Auxiliary audio stream) of SubClip_entry_id = 0 in FIG. 8 is being reproduced, the number of the audio stream file corresponding to the next SubClip_entry_id = 1 is acquired. For example, if the audio stream file corresponding to the audio 4 with A_SN2 = 1 in FIG. 24 is played in the process of step S72, the controller 34 changes the audio 5 to A5 because the next is the audio 5 with A_SN2 = 2. Get the number of the corresponding audio stream.

ステップS74において、コントローラ34は、取得した番号に対応するオーディオストリーム(オーディオストリーム#2)を再生する機能を有するか否かを判定する。具体的には、コントローラ34は、stream_attribute()(図16)に記述されている内容に基づいて、取得した番号に対応するオーディオストリーム(オーディオストリーム#2)を自分自身(再生装置20)が再生する機能を有するか否かを判定する。例えば、図15のStream_entry()において、type=1である場合、コントローラ34は、取得した番号に対応するメインClipのオーディオストリームを、再生装置20が再生する機能を有するか否かを判定する。取得した番号に対応するオーディオストリームは、オーディオデコーダ75−2でデコードされるオーディオストリーム#2であるので、この処理は、このオーディオストリーム#2を、オーディオデコーダ75−2がデコードできるか否かを判定しているとも換言することができる。   In step S74, the controller 34 determines whether or not it has a function of playing back an audio stream (audio stream # 2) corresponding to the acquired number. Specifically, the controller 34 itself reproduces the audio stream (audio stream # 2) corresponding to the acquired number based on the contents described in stream_attribute () (FIG. 16). It is determined whether or not it has a function of For example, in the case of type = 1 in Stream_entry () in FIG. 15, the controller 34 determines whether or not the playback device 20 has a function of playing back the audio stream of the main clip corresponding to the acquired number. Since the audio stream corresponding to the acquired number is the audio stream # 2 decoded by the audio decoder 75-2, this process determines whether or not the audio decoder 75-2 can decode the audio stream # 2. In other words, it can be determined.

なお、1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1の方が、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2より拡張性が高くマルチストリームであることが仮定される場合、例えば、1stオーディオデコーダ75−1の方が2ndオーディオデコーダ75−2よりも高い性能を有する場合(オーディオストリーム#1が通常の映画の音声であり、オーディオストリーム#2が映画に対する監督のコメントなどの場合)、このステップS74とステップS75の処理を省略するようにしてもよい。   When it is assumed that the audio stream # 1 decoded by the 1st audio decoder 75-1 is more scalable than the audio stream # 2 decoded by the 2nd audio decoder 75-2 and is a multistream. For example, when the 1st audio decoder 75-1 has a higher performance than the 2nd audio decoder 75-2 (audio stream # 1 is a normal movie sound, audio stream # 2 is a director's comment on the movie, etc. ), The processing of step S74 and step S75 may be omitted.

このことは、上述したように仮定した場合、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2は、ある程度の制約が設けられている可能性が高く、オーディオデコーダ75−2がデコードできないようなストリームは、オーディオストリーム#2として設定されない可能性が高いと仮定している為である。   Assuming that this is the case, the audio stream # 2 decoded by the 2nd audio decoder 75-2 is likely to be restricted to some extent so that the audio decoder 75-2 cannot decode it. This is because it is assumed that there is a high possibility that such a stream is not set as the audio stream # 2.

ステップS74において、取得した番号に対応するオーディオストリームを再生する機能を有しないと判定された場合、処理はステップS75に進み、コントローラ34は、現在のストリーム番号の次のストリーム番号を取得する。すなわち、現在のストリーム番号のオーディオストリームを再生する機能を有さない場合には、そのストリーム番号は飛ばされ(再生対象とならず)、次のストリーム番号が取得される。そして、ステップS75の処理の後、処理はステップS74に戻り、それ以降の処理が繰り返される。すなわち、自分自身が再生する機能を有するオーディオストリーム(オーディオストリーム#2)の番号が取得されるまで、処理が繰り返される。   If it is determined in step S74 that the audio stream corresponding to the acquired number is not reproduced, the process proceeds to step S75, and the controller 34 acquires the stream number next to the current stream number. That is, when the audio stream having the current stream number is not reproduced, the stream number is skipped (not subject to reproduction), and the next stream number is acquired. Then, after the process of step S75, the process returns to step S74, and the subsequent processes are repeated. That is, the process is repeated until the number of the audio stream (audio stream # 2) having the function of reproducing itself is acquired.

ステップS74において、取得した番号に対応するオーディオストリームを再生する機能を有すると判定された場合、処理はステップS76において、コントローラ34は、取得した番号に対応するオーディオストリームを含むClipを調べる。例えば、コントローラ34は、図15のtypeに基づいて、取得した番号に対応するオーディオストリームがメインClipにあるのか(type=1)、サブClipにあるのか(type=2)を調べる。図15のStream_entry()において、type=1である場合、コントローラ34は、取得した番号に対応するオーディオストリームが、メインClipにあることを確認する。また、図15のStream_entry()において、type=2である場合、コントローラ34は、取得した番号に対応するオーディオストリームがサブClipにあることを確認する。   If it is determined in step S74 that the audio stream corresponding to the acquired number is played back, in step S76, the controller 34 checks the clip including the audio stream corresponding to the acquired number. For example, the controller 34 checks whether the audio stream corresponding to the acquired number is in the main clip (type = 1) or the sub clip (type = 2) based on the type in FIG. In the case of type = 1 in the Stream_entry () of FIG. 15, the controller 34 confirms that the audio stream corresponding to the acquired number is in the main clip. In the case of type = 2 in the Stream_entry () of FIG. 15, the controller 34 confirms that the audio stream corresponding to the acquired number is in the sub clip.

ステップS77において、コントローラ34は、所望のオーディオストリームを特定する。具体的には、取得した番号に対応するストリームの属するメインClipまたはサブClipの中の所望のオーディオストリームを特定する。例えば、ステップS74の処理で、取得した番号に対応するオーディオストリームが、メインClipに含まれることが確認された場合、コントローラ34は、図15のtype=1でエントリーされている情報(ref_to_stream_PID_of_mainClip)に基づいて、メインClipの中の所定のオーディオストリームを特定する。また、例えば、ステップS74の処理で、取得した番号に対応するオーディオストリームがサブClipに含まれることが確認された場合、コントローラ34は、図15のtype=2でエントリーされている情報(ref_to_SubPath_id、ref_to_SubClip_entry_id、ref_to_stream_PID_of_SubClip)に基づいて、サブClipの中の所定のオーディオストリームを特定する。この特定されたオーディオストリームが、オーディオデコーダ75−1でデコードされるオーディオストリーム#2となる。   In step S77, the controller 34 specifies a desired audio stream. Specifically, a desired audio stream in the main clip or sub clip to which the stream corresponding to the acquired number belongs is specified. For example, when it is confirmed in step S74 that the audio stream corresponding to the acquired number is included in the main clip, the controller 34 stores the information (ref_to_stream_PID_of_mainClip) entered with type = 1 in FIG. Based on this, a predetermined audio stream in the main clip is specified. Also, for example, when it is confirmed in step S74 that the audio stream corresponding to the acquired number is included in the sub clip, the controller 34 receives the information (ref_to_SubPath_id, Based on ref_to_SubClip_entry_id and ref_to_stream_PID_of_SubClip), a predetermined audio stream in the sub Clip is specified. This identified audio stream becomes the audio stream # 2 decoded by the audio decoder 75-1.

ステップS78において、コントローラ34は、所望のオーディオストリームが多重化されているClipに対応するClip AV Stream(メインClip AV StreamまたはサブClip AV Stream)を読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるClip AV Streamを読み出す。具体的には、コントローラ34は、ステップS77の処理で特定したClip AV Streamを読み出すようストレージドライブ31に指示する。   In step S78, the controller 34 instructs the storage drive 31 to read out the Clip AV Stream (main Clip AV Stream or sub Clip AV Stream) corresponding to the Clip in which the desired audio stream is multiplexed. Based on this instruction, the storage drive 31 reads the target Clip AV Stream. Specifically, the controller 34 instructs the storage drive 31 to read out the Clip AV Stream specified in the process of step S77.

ステップS79において、コントローラ34は、読み出されたClip AV Streamからオーディオストリームを再生するようAVデコーダ部33に指示する。具体的には、コントローラ34は、読み出されたClip AV Streamに含まれる所望のオーディオストリーム(すなわち、オーディオストリーム#2)をAVデコーダ部33のオーディオデコーダ75−2にデコードさせるよう指示する。   In step S79, the controller 34 instructs the AV decoder unit 33 to reproduce the audio stream from the read Clip AV Stream. Specifically, the controller 34 instructs the audio decoder 75-2 of the AV decoder unit 33 to decode a desired audio stream (that is, audio stream # 2) included in the read Clip AV Stream.

ステップS80において、AVデコーダ部33は、オーディオストリーム(オーディオストリーム#2)をデコードし、オーディオ出力する。具体的には、AVデコーダ部33のオーディオデコーダ75−2は、オーディオストリーム#2(ステップS78の処理で読み出しが指令されたオーディオストリーム)をデコードし、ミキシング処理部101に出力する。この図30の処理で、オーディオストリーム#2がオーディオデコーダ75−2によってデコードされているということは、図29の処理でオーディオストリーム#1がオーディオデコーダ75−1によってもデコードされ、デコードされたオーディオストリーム#1がミキシング処理部101に出力されているので、ミキシング処理部101は、デコードされたオーディオストリーム#1とオーディオストリーム#2とをミキシングし、後段のミキシング処理部97に供給する。ミキシング処理部97は、ミキシング処理部101から供給されたオーディオデータ(オーディオストリーム#1とオーディオストリーム#2とがそれぞれデコードされ、ミキシングされたオーディオデータ)と、バッファ95から出力されるサウンドデータとを、ミキシング処理し、オーディオ信号として出力する。なお、この図30のステップS80の処理(および図20のステップS60)の詳細な例を、図31のフローチャートを参照して説明する。   In step S80, the AV decoder 33 decodes the audio stream (audio stream # 2) and outputs the audio. Specifically, the audio decoder 75-2 of the AV decoder unit 33 decodes the audio stream # 2 (the audio stream that is instructed to be read in the process of step S78), and outputs the decoded audio stream # 2 to the mixing processing unit 101. In the process of FIG. 30, the audio stream # 2 is decoded by the audio decoder 75-2. This means that the audio stream # 1 is also decoded by the audio decoder 75-1 in the process of FIG. Since the stream # 1 is output to the mixing processing unit 101, the mixing processing unit 101 mixes the decoded audio stream # 1 and audio stream # 2, and supplies the mixed audio stream # 1 to the subsequent mixing processing unit 97. The mixing processing unit 97 receives the audio data supplied from the mixing processing unit 101 (audio data obtained by decoding the audio stream # 1 and the audio stream # 2 respectively) and the sound data output from the buffer 95. , Mixing processing and output as an audio signal. A detailed example of the process in step S80 in FIG. 30 (and step S60 in FIG. 20) will be described with reference to the flowchart in FIG.

図31は、AVデコーダ部33におけるオーディオストリームを出力する処理の例を説明するフローチャートである。すなわち、図31は、図29のステップS60の処理と図30のステップS80の処理の詳細な例を説明するフローチャートである。   FIG. 31 is a flowchart illustrating an example of processing for outputting an audio stream in the AV decoder unit 33. That is, FIG. 31 is a flowchart for explaining a detailed example of the process of step S60 of FIG. 29 and the process of step S80 of FIG.

ステップS81において、AVデコーダ部33は、コントローラ34からの制御に基づいて、再生するオーディオストリームが1つであるか否かを判定する。具体的には、AVデコーダ部33は、コントローラ34からの制御に基づいて、ユーザによりオーディオストリーム#1とオーディオストリーム#2とが選択されたか否かを判定する。例えば、図29のステップS52の処理と図30のステップS72の処理により、ユーザによりオーディオストリーム#1とオーディオストリーム#2の切り替えが指令された場合や、ユーザによりオーディオストリーム#1とオーディオストリーム#2の再生が指令された場合には、AVデコーダ部33は、再生するオーディオストリームが1つでない、すなわち2つであると判定する。また、例えば、ユーザにより、オーディオストリーム#1の再生が指令されたり、図29のステップS52の処理で、ユーザによりオーディオストリーム#1の切り替えが指令された場合であって、ユーザによりオーディオストリーム#2の再生が指令されていない場合には、AVデコーダ部33は、再生するオーディオストリームが1つであると判定する。   In step S <b> 81, the AV decoder unit 33 determines whether there is one audio stream to be reproduced based on the control from the controller 34. Specifically, the AV decoder unit 33 determines whether or not the audio stream # 1 and the audio stream # 2 are selected by the user based on the control from the controller 34. For example, when the user instructs switching between the audio stream # 1 and the audio stream # 2 by the process of step S52 of FIG. 29 and the process of step S72 of FIG. 30, or the audio stream # 1 and the audio stream # 2 are designated by the user. When the playback is instructed, the AV decoder unit 33 determines that the number of audio streams to be played back is not one, that is, two. Further, for example, when the user instructs the reproduction of the audio stream # 1 or when the user instructs the switching of the audio stream # 1 in the process of step S52 of FIG. 29, the user selects the audio stream # 2. Is not instructed to reproduce, the AV decoder 33 determines that there is one audio stream to be reproduced.

ステップS81において、再生するオーディオストリームが1つであると判定された場合、ステップS82において、1stオーディオデコーダ75−1は、その再生する1つのオーディオストリーム、すなわちオーディオストリーム#1をデコードする。例えば、再生するオーディオストリームがメインClip AV Streamのオーディオストリームである場合、PIDフィルタ55により選択されて供給されてきたメインClip AV Streamのオーディオストリームが、スイッチ59により選択され、1stオーディオデコーダ75−1に供給されるので、1stオーディオデコーダ75−1は、メインClip AV Streamのオーディオストリーム(ここでは、オーディオストリーム#1)をデコードする。1stオーディオデコーダ75−1は、デコードしたオーディオストリーム#1を、後段のミキシング処理部101に供給する。ミキシング処理部101は、供給されてきたオーディオデータをそのまま後段のミキシング処理部97に出力する。   If it is determined in step S81 that the number of audio streams to be reproduced is one, in step S82, the 1st audio decoder 75-1 decodes the one audio stream to be reproduced, that is, audio stream # 1. For example, when the audio stream to be played is a main Clip AV Stream audio stream, the main Clip AV Stream audio stream selected and supplied by the PID filter 55 is selected by the switch 59, and the 1st audio decoder 75-1. Therefore, the 1st audio decoder 75-1 decodes the audio stream of the main Clip AV Stream (here, the audio stream # 1). The 1st audio decoder 75-1 supplies the decoded audio stream # 1 to the mixing processing unit 101 at the subsequent stage. The mixing processing unit 101 outputs the supplied audio data as it is to the subsequent mixing processing unit 97.

ステップS81において、再生するオーディオストリームが1つでないと判定された場合、すなわち、再生するオーディオストリームが2つであると判定された場合、2つのオーディオストリームのうち、オーディオストリーム#1が1stオーディオデコーダ75−1に供給され、オーディオストリーム#2が2ndオーディオデコーダ75−2に供給される。すなわち、スイッチ59は、PIDフィルタ55またはPIDフィルタ56を介して供給されてきたオーディオストリーム#1をオーディオデコーダ75−1に供給するようスイッチを選択し、PIDフィルタ55またはPIDフィルタ56を介して供給されてきたオーディオストリーム#2をオーディオデコーダ75−2に供給するようスイッチを選択する。   If it is determined in step S81 that there is not one audio stream to be played back, that is, if it is determined that there are two audio streams to be played back, audio stream # 1 is the 1st audio decoder of the two audio streams. 75-1 and the audio stream # 2 is supplied to the 2nd audio decoder 75-2. In other words, the switch 59 selects the switch to supply the audio stream # 1 supplied via the PID filter 55 or the PID filter 56 to the audio decoder 75-1, and supplies the audio stream # 1 via the PID filter 55 or the PID filter 56. The switch is selected to supply the audio stream # 2 thus transmitted to the audio decoder 75-2.

そこで、ステップS83において、1stオーディオデコーダ75−1は、オーディオストリーム#1をデコードする。例えば、再生するオーディオストリーム#1がメインClip AV Streamのオーディオストリームである場合、PIDフィルタ55により選択されて供給されてきたメインClip AV Streamのオーディオストリームが、スイッチ59により選択され、1stオーディオデコーダ75−1に供給されるので、1stオーディオデコーダ75−1は、メインClipのオーディオストリーム(オーディオストリーム#1)をデコードする。1stオーディオデコーダ75−1は、デコードしたオーディオストリーム#1を、後段のミキシング処理部101に供給する。   Therefore, in step S83, the 1st audio decoder 75-1 decodes the audio stream # 1. For example, when the audio stream # 1 to be reproduced is a main Clip AV Stream audio stream, the main Clip AV Stream audio stream selected and supplied by the PID filter 55 is selected by the switch 59, and the 1st audio decoder 75 is selected. The first audio decoder 75-1 decodes the main clip audio stream (audio stream # 1). The 1st audio decoder 75-1 supplies the decoded audio stream # 1 to the mixing processing unit 101 at the subsequent stage.

また、ステップS84において、2ndオーディオデコーダ75−2は、オーディオストリーム#2をデコードする。例えば、再生するオーディオストリーム#2がサブClip AV Streamのオーディオストリームである場合、PIDフィルタ56により選択されて供給されてきたサブClip AV Streamのオーディオストリームが、スイッチ59により選択され、2ndオーディオデコーダ75−2に供給されるので、2ndオーディオデコーダ75−2は、このサブClip AV Streamのオーディオストリーム(オーディオストリーム#2)をデコードする。2ndオーディオデコーダ75−2は、デコードしたオーディオストリーム#2を、後段のミキシング処理部101に供給する。なお、ステップS83とステップS84の処理は、並行して実行されてもよいし、順番を逆にして実行されてもよい。   In step S84, the 2nd audio decoder 75-2 decodes the audio stream # 2. For example, when the audio stream # 2 to be reproduced is a sub-Clip AV Stream audio stream, the sub-Clip AV Stream audio stream selected and supplied by the PID filter 56 is selected by the switch 59 and the 2nd audio decoder 75. 2nd audio decoder 75-2 decodes the audio stream (audio stream # 2) of the sub Clip AV Stream. The 2nd audio decoder 75-2 supplies the decoded audio stream # 2 to the mixing processing unit 101 at the subsequent stage. Note that the processes of step S83 and step S84 may be executed in parallel or in reverse order.

ステップS85において、ミキシング処理部101は、1stオーディオデコーダ75−1によりデコードされたオーディオストリーム#1と、2ndオーディオデコーダ75−2によりデコードされたオーディオストリーム#2とをミキシングする。すなわち、ミキシング処理部101は、1stオーディオデコーダ75−1から供給されてきたオーディオデータと2ndオーディオデコーダ75−2から供給されてきたオーディオデータとを、ミキシング(合成、重畳)し、1つのオーディオデータとする。ミキシング処理部101は、ミキシングした結果得られたオーディオデータを、後段のミキシング処理部97に供給する。   In step S85, the mixing processing unit 101 mixes the audio stream # 1 decoded by the 1st audio decoder 75-1 and the audio stream # 2 decoded by the 2nd audio decoder 75-2. That is, the mixing processing unit 101 mixes (synthesizes and superimposes) the audio data supplied from the 1st audio decoder 75-1 and the audio data supplied from the 2nd audio decoder 75-2, thereby obtaining one audio data. And The mixing processing unit 101 supplies the audio data obtained as a result of mixing to the mixing processing unit 97 at the subsequent stage.

ステップS82の処理の後、またはステップS85の処理の後、処理はステップS86に進み、ミキシング処理部97は、供給されてきたオーディオデータと、バッファ95から供給されてきたサウンドデータとをミキシングし、出力する。例えば、このステップS86の処理が、ステップS82の処理の後の場合、ミキシング処理部97は、オーディオストリーム#1がデコードされたオーディオデータと、サウンドデータとをミキシングする。また、例えば、このステップS86の処理が、ステップS85の処理の後の場合、ミキシング処理部97は、オーディオストリーム#1がデコードされたオーディオデータとオーディオストリーム#2がデコードされたオーディオデータとがミキシングされたオーディオデータに、サウンドデータをミキシングする。その後、処理を終了する。   After the process of step S82 or the process of step S85, the process proceeds to step S86, and the mixing processing unit 97 mixes the supplied audio data with the sound data supplied from the buffer 95, and Output. For example, when the process of step S86 is after the process of step S82, the mixing processing unit 97 mixes the audio data obtained by decoding the audio stream # 1 and the sound data. For example, when the process of step S86 is after the process of step S85, the mixing processing unit 97 mixes the audio data obtained by decoding the audio stream # 1 and the audio data obtained by decoding the audio stream # 2. Sound data is mixed with the recorded audio data. Thereafter, the process ends.

図31の処理によれば、2つのオーディオストリームをミキシングして再生することができる。   According to the process of FIG. 31, two audio streams can be mixed and reproduced.

図31の処理により、図27のステップS21における図25のスイッチ59の選択が決定される。すなわち、図31において再生するオーディオストリームが1つである場合、スイッチ59は、PIDフィルタ55またはPIDフィルタ56からから供給されたオーディオストリームを1stオーディオデコーダ75−1に供給するよう選択し(図31のステップS81でYES)、再生するオーディオストリームが2つである場合、スイッチ59は、PIDフィルタ55またはPIDフィルタ56から供給されたオーディオストリームを2ndオーディオデコーダ75−2に供給するよう選択(図31のステップS81でYES)する。   31 determines the selection of the switch 59 in FIG. 25 in step S21 in FIG. That is, when there is one audio stream to be reproduced in FIG. 31, the switch 59 selects to supply the audio stream supplied from the PID filter 55 or PID filter 56 to the 1st audio decoder 75-1 (FIG. 31). If the number of audio streams to be reproduced is two, the switch 59 selects to supply the audio stream supplied from the PID filter 55 or PID filter 56 to the 2nd audio decoder 75-2 (FIG. 31). YES in step S81).

このように、コントローラ34は、PlayItemのSTN_table()に基づいて、音声(オーディオ)の切り替えを制御することができる。また、コントローラ34は、STN_table()のstream_attributeを参照することで、自分自身が再生機能を有するストリームだけを選んで、再生切り替えの制御をすることができる。さらに、コントローラ34は、STN_table()に基づいて、2つのオーディオストリームを重畳して再生するよう制御することができる。また、コントローラ34は、1つのメインとなるオーディオストリーム#1と、オーディオストリーム#1と同期して再生される同じ種類のストリーム(オーディオストリーム)であるオーディオストリーム#2とを、ミキシングして再生するよう制御することができる。   As described above, the controller 34 can control switching of audio (audio) based on STN_table () of PlayItem. In addition, the controller 34 can control playback switching by selecting only a stream having a playback function by referring to the stream_attribute of the STN_table (). Furthermore, the controller 34 can control to superimpose and reproduce two audio streams based on STN_table (). The controller 34 mixes and reproduces one main audio stream # 1 and an audio stream # 2 that is the same type of stream (audio stream) that is reproduced in synchronization with the audio stream # 1. Can be controlled.

なお、図29の処理では、オーディオストリーム番号に基づいて、オーディオを切り替えるようにしたが、オーディオストリームID(audio_stream_id)に基づいて、オーディオを切り替えるようにしてもよい。この場合、オーディオストリーム番号から1を減算したものが、オーディオストリームIDとなる。   In the process of FIG. 29, the audio is switched based on the audio stream number, but the audio may be switched based on the audio stream ID (audio_stream_id). In this case, the audio stream ID is obtained by subtracting 1 from the audio stream number.

また、以上の例では、2つのオーディオストリームをミキシング(合成)して再生する場合の例を説明したが、オーディオストリームに限らず、ストリームの種類が同じであれば、各種のストリームファイルについて同様に適用することができる。例えば、ビデオストリーム(ストリームの種類がビデオストリームであるストリーム)を2つ合成して再生するピクチャインピクチャ表示をする場合にも、この構成は適用することができる。このように、本発明によれば、2つの同じ種類のストリームファイルを合成して再生することができる。   In the above example, an example in which two audio streams are mixed (synthesized) and reproduced has been described. However, the present invention is not limited to an audio stream, and the same applies to various stream files as long as the stream types are the same. Can be applied. For example, this configuration can also be applied to the case of picture-in-picture display in which two video streams (streams whose stream types are video streams) are combined and played back. As described above, according to the present invention, two stream files of the same type can be synthesized and reproduced.

例えば、メインパスで参照されるAVストリームのビデオストリーム(ビデオストリーム#1)を主画面として表示させ、主画面の中に、サブパス(やメインパス)のビデオパスで参照されるビデオストリーム(ビデオストリーム#2)を子画面として合成して表示させる、いわゆるPinP(ピクチャインピクチャ)表示などについても利用することができる。   For example, an AV stream video stream (video stream # 1) referred to in the main path is displayed as the main screen, and a video stream (video stream) referred to in the sub-path (or main path) video path is displayed in the main screen. It can also be used for so-called PinP (picture-in-picture) display in which # 2) is combined and displayed as a sub-screen.

以上により、メインのAVストリームとは別のストリームやデータファイルでオーディオや字幕などを用意する場合に、PlayListの中にメインパスとサブパスを有する構成としたので、ユーザによる音声切り替えや字幕切り替えという操作が、メインAVストリームとは異なる別ストリームや別データファイルの中から選ぶことができる。   As described above, when audio or subtitles are prepared in a stream or data file different from the main AV stream, the PlayList has a main path and sub-path, so the user can perform operations such as audio switching and subtitle switching. However, it can be selected from a different stream or a different data file from the main AV stream.

また、メインパスのPlayItemの中に、AVストリームファイルに多重化されているデータと、Sub Pathにより参照されるデータのtypeを定義するStream Number Definition Tableを設けるようにしたので、より、拡張性の高いストリームを実現することができる。   In addition, the Stream Number Definition Table that defines the type of the data multiplexed in the AV stream file and the data referenced by the Sub Path is provided in the PlayItem of the main path. A high stream can be realized.

さらに、再生装置20は、STN_table()のstream_attributeを参照することで、自分自身が有する機能に対応するストリームだけを順次選択して再生することができる。   Furthermore, the playback device 20 can sequentially select and play back only the streams corresponding to the functions of itself by referring to the stream_attribute of the STN_table ().

以上の処理をまとめると、以下のようになる。   The above processing is summarized as follows.

再生装置20は、少なくとも1つのストリームを含むメインClip AVストリームファイルの位置を示す主の再生パスであるメインパスと、メインClipAVストリームファイルのタイミングに合わせて再生されるサブClip AVストリームファイルのそれぞれの位置を示す複数のサブパスにより構成される再生管理情報としてのPlayListを取得する。そして、再生装置20は、PlayListに含まれる再生するストリームを選択するためのSTN_table()に基づいて、再生するストリームの選択を受け付ける。STN_table()は、メインClip AVストリームファイルの所定の種類のストリーム(例えば、オーディオストリーム#1)と、そのストリームの再生のタイミングに合わせて再生される、同じ種類のストリームファイル(例えば、オーディオストリーム#2)とを選択するための情報であるので、このSTN_table()(PlayItemで示されるSTN_table())に基づいて、再生するストリームの選択を受け付ける。   The playback device 20 has a main path that is a main playback path indicating the position of the main Clip AV stream file including at least one stream, and each of the sub Clip AV stream files that are played back in accordance with the timing of the main Clip AV stream file. A PlayList is obtained as reproduction management information composed of a plurality of sub-paths indicating positions. Then, the playback device 20 accepts selection of a stream to be played based on STN_table () for selecting a stream to be played back included in the PlayList. STN_table () is a predetermined type of stream (for example, audio stream # 1) of the main Clip AV stream file and the same type of stream file (for example, audio stream #) that is played in accordance with the playback timing of the stream. 2), the selection of the stream to be played back is accepted based on this STN_table () (STN_table () indicated by PlayItem).

ここで、2つの同じ種類のストリーム(オーディオストリーム)が再生するストリームとして選択された場合、再生装置20は、選択された2つのストリームファイルを読み出し、再生装置20のミキシング処理部101は、この2つのオーディオストリーム(デコードされたオーディオストリーム)を合成し、ミキシング処理部97(AVデコーダ部33)は、合成されたストリームを再生(出力)する。   Here, when two streams of the same type (audio stream) are selected as playback streams, the playback device 20 reads the two selected stream files, and the mixing processing unit 101 of the playback device 20 Two audio streams (decoded audio streams) are synthesized, and the mixing processing unit 97 (AV decoder unit 33) reproduces (outputs) the synthesized stream.

これにより、図32に示されるように、A_SN=2のオーディオ1とA_SN2=2のオーディオ5の2つが再生するストリームとしてユーザに選択された場合(切り替えられて選択された場合)、オーディオ1とオーディオ5とをミキシング(合成)して再生することができる。   As a result, as shown in FIG. 32, when two of audio 1 with A_SN = 2 and audio 5 with A_SN2 = 2 are selected by the user as a stream to be played (when switched and selected), audio 1 and The audio 5 can be mixed (synthesized) and reproduced.

また、PlayListにMain PathとSub Pathを含め、Main PathとSub Pathが異なるClipを参照する構成としたので、ストリームに拡張性を持たせることができる。また、1つのSub Pathで複数のファイルを参照可能な構成としたので(例えば、図8)、複数の異なるストリームの中からユーザが選択することができる。   In addition, since the PlayList includes the Main Path and the Sub Path and refers to the Clip having a different Main Path and Sub Path, the stream can have extensibility. Further, since a plurality of files can be referred to by one Sub Path (for example, FIG. 8), the user can select from a plurality of different streams.

さらに、Main PathのPlayItemの中に、Main Pathにより参照されるAVストリームファイルに多重化されている(含まれる)付属データ(例えば、Main Pathにより参照されるAVストリームファイルに含まれるオーディオストリーム)と、Sub Pathにより参照される付属データとを定義するテーブルとして、図14のSTN_table()を設けるようにしたので、より、拡張性の高いストリームを実現することができる。また、STN_table()にエントリーすれば、Sub Pathを容易に拡張することができる。   Further, in the Play Item of the Main Path, attached data (for example, an audio stream included in the AV stream file referenced by the Main Path) multiplexed (included) in the AV stream file referenced by the Main Path, and Since STN_table () in FIG. 14 is provided as a table for defining auxiliary data referred to by Sub Path, a stream with higher expandability can be realized. In addition, Sub Path can be easily extended by entering STN_table ().

また、STN_table()にストリームの属性情報である図16のstream_attribute()を設けるようにしたので、再生装置20側で、選択されたストリームを再生可能か否かを判定することができる。さらに、stream_attribute()を参照することで、再生機能を有するストリームだけを選択して再生することができる。   In addition, since stream_attribute () of FIG. 16 that is stream attribute information is provided in STN_table (), the playback apparatus 20 can determine whether or not the selected stream can be played back. Furthermore, by referring to stream_attribute (), it is possible to select and reproduce only a stream having a reproduction function.

さらに、STN_table()(図14)において、2つの同じ種類のストリームファイル(ここでは、オーディオストリームファイル)を定義するようにし、さらに、図20の再生装置20に2つのオーディオデコーダ(1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2)を設けるとともに、2つのオーディオデコーダによりデコードされたオーディオデータを合成(ミキシング)するミキシング処理部101を設けるようにしたので、2つの同じ種類のストリームを組み合わせて同時に再生することができる。   Furthermore, in STN_table () (FIG. 14), two same type stream files (here, audio stream files) are defined, and two audio decoders (1st audio decoder 75) are added to the playback apparatus 20 of FIG. -1 and 2nd audio decoder 75-2) and a mixing processing unit 101 for synthesizing (mixing) audio data decoded by the two audio decoders are provided. Can be played at the same time.

また、Sub Pathには、図11に示されるように、Sub Pathのタイプ(オーディオやテキスト字幕といったタイプ)を示すSubPath_type、Sub Pathが参照するサブClipの名を示す図12のClip_Information_file_name、およびSub Pathが参照するClipのイン点を示す図12のSubPlayItem_IN_timeとアウト点を示す図12のSubPlayItem_OUT_timeを含むようにしたので、Sub Pathが参照するデータを的確に特定することができる。   Further, as shown in FIG. 11, the Sub Path includes a SubPath_type that indicates the type of Sub Path (type such as audio or text subtitle), a Clip_Information_file_name in FIG. 12 includes the SubPlayItem_IN_time in FIG. 12 indicating the clip In point and the SubPlayItem_OUT_time in FIG. 12 indicating the Out point, so that the data referred to by the Sub Path can be accurately identified.

さらに、Sub Pathには、Sub PathがMain Pathとを同じタイミングで再生するためのMain Path上のAVストリームファイルを指定する指定情報である図12のsync_PlayItem_id(例えば、図7と図8のsync_PlayItem_id)と、Sub Pathが参照するデータのイン点がMain Pathの時間軸上で同期してスタートするMain Path上の時刻であるsync_start_PTS_of_PlayItem(例えば、図7と図8のsync_start_PTS_of_PlayItem)とをさらに含むため、図7や図8に示されるように、Main Pathが参照するメインClipAVストリームファイルに同期してSub Pathが参照するデータ(ファイル)を再生することができる。   Furthermore, in the Sub Path, sync_PlayItem_id in FIG. 12 (for example, sync_PlayItem_id in FIGS. 7 and 8), which is designation information for designating an AV stream file on the Main Path for reproducing the Main Path at the same timing as the Sub Path. And sync_start_PTS_of_PlayItem (for example, sync_start_PTS_of_PlayItem in FIGS. 7 and 8) that is the time on the main path at which the in point of the data referred to by the sub path starts synchronously on the time axis of the main path. 7 and FIG. 8, the data (file) referred to by the Sub Path can be reproduced in synchronization with the main ClipAV stream file referred to by the Main Path.

なお、図25のストレージドライブ31が読み出すデータは、DVD(Digital Versatile Disc)などの記録媒体に記録されているデータであってもよいし、ハードディスクに記録されているデータであってもよいし、図示せぬネットワークを介してダウンロードしたデータであってもよいし、これらが組み合わされたデータでもよい。例えば、ダウンロードされ、ハードディスクに記録されたPlayListおよびサブClip AV Streamを含むClipと、DVDに記録されたメインClip AV Streamを含むClipに基づいて、再生されてもよい。また、例えば、DVDに記録されたClipをサブClip AV Streamを含むClipとして認識とするようなPlayListと、メインClip AV Streamを含むClipとがハードディスクに記録されている場合に、ハードディスクに記録されているPlayListに基づいて、メインClip AV StreamとサブClip AV Streamがそれぞれ、ハードディスクとDVDから読み出され再生されてもよい。   Note that the data read by the storage drive 31 in FIG. 25 may be data recorded on a recording medium such as a DVD (Digital Versatile Disc), or data recorded on a hard disk, Data downloaded via a network (not shown) may be used, or data obtained by combining these may be used. For example, playback may be performed based on a clip including a PlayList and a sub Clip AV Stream downloaded and recorded on a hard disk, and a Clip including a main Clip AV Stream recorded on a DVD. Also, for example, when a PlayList that recognizes a clip recorded on a DVD as a clip including a sub clip AV stream and a clip including a main clip AV stream are recorded on the hard disk, the clip is recorded on the hard disk. Based on the PlayList, the main Clip AV Stream and the sub Clip AV Stream may be read from the hard disk and the DVD and reproduced.

また、2つのオーディオストリームをミキシングして再生する場合、再生装置20の1stオーディオデコーダ75−1はオーディオストリーム#1をデコードし、2ndオーディオデコーダ75−2はオーディオストリーム#2をデコードするのであるが、コーデック(エンコード)方式が同一(例えば、図17のDolby AC-3 audio)であるか否かを、図29のステップS54と図30のステップS74の処理でさらに判定するようにしてもよい。このことは、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2がオーディオストリームをデコードしている途中であっても、コーデック方式が同一であれば、デコード途中のデータ方式も同様であるので、ミキシング処理部101によりミキシング可能となるからである。   Further, when two audio streams are mixed and reproduced, the 1st audio decoder 75-1 of the reproduction apparatus 20 decodes the audio stream # 1, and the 2nd audio decoder 75-2 decodes the audio stream # 2. Further, whether or not the codec (encoding) system is the same (for example, Dolby AC-3 audio in FIG. 17) may be further determined by the processing in step S54 in FIG. 29 and step S74 in FIG. This is because even if the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 are in the middle of decoding the audio stream, if the codec system is the same, the data system in the middle of decoding is the same. This is because the mixing processing unit 101 can perform mixing.

なお、以上の例では、図25の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とを、ユーザが別々に選択可能な構成としたが、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義し、ミキシング再生する場合には、この組み合わせの中からユーザに選択させる構成としてもよい。すなわち、オーディオストリーム#1とミキシング再生可能なオーディオストリーム#2の組み合わせを定義しておくようにしてもよい。この場合の例を、図33乃至図37を参照して2つ説明する。   In the above example, the audio stream # 1 decoded by the 1st audio decoder 75-1 and the audio stream # 2 decoded by the 2nd audio decoder 75-2 of the playback apparatus 20 in FIG. However, when a combination of the audio stream # 1 and the audio stream # 2 is defined and mixed reproduction is performed, the user may select a combination from the combinations. That is, a combination of the audio stream # 1 and the audio stream # 2 that can be mixed and reproduced may be defined. Two examples of this case will be described with reference to FIGS.

最初に、1番目の例を説明する。図33は、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義する場合のSTN_table()のシンタクスのの第2の例(第2のSTN_table())を示す図である。なお、図中、図14と同一の部分については、繰り返しになるのでその説明は省略する。   First, the first example will be described. FIG. 33 is a diagram illustrating a second example (second STN_table ()) of the syntax of STN_table () when a combination of the audio stream # 1 and the audio stream # 2 is defined. In addition, about the part same as FIG. 14 in the figure, since it becomes repetition, the description is abbreviate | omitted.

図33において、オーディオストリームID2 (audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。このとき、audio_stream_id2に対し、stream_entry()とstream_attribute()との他に、新たにCombination_of_Primary_and_Secondaryが定義される。Combination_of_Primary_and_Secondaryは、オーディオストリーム#1(Primary)とオーディオストリーム#2(Secondary)との組み合わせを定義する情報である。すなわち、オーディオストリームID2(audio_stream_id2)で特定されるオーディオストリーム#2に対して、どのオーディオストリーム#1が組み合わせ可能であるかを示す情報が、オーディオストリームID2のforループの中で定義される。換言すれば、Combination_of_Primary_and_Secondaryにより、オーディオストリーム#1に対して組み合わせ可能なオーディオストリーム#2が定義される。このように、オーディオストリームID1のfor ループ内で組み合わせるオーディオストリームID2を定義するのではなく、オーディオストリームID1とオーディオストリームID2を個別に定義し、オーディオストリームID2のforループの中で組み合わせを定義することにより、オーディオストリームID1の登録可能数が決まっている場合にでも、組み合わせの登録を1つとカウントさせないことにより、その登録可能数を有効に使うことができる。   In FIG. 33, audio_stream_id2 is given from 0 to one audio elementary stream identified for each stream_entry () in order in the for loop of audio stream ID2 (audio_stream_id2). At this time, Combination_of_Primary_and_Secondary is newly defined for audio_stream_id2 in addition to stream_entry () and stream_attribute (). Combination_of_Primary_and_Secondary is information defining a combination of audio stream # 1 (Primary) and audio stream # 2 (Secondary). That is, information indicating which audio stream # 1 can be combined with the audio stream # 2 specified by the audio stream ID2 (audio_stream_id2) is defined in the for loop of the audio stream ID2. In other words, the audio stream # 2 that can be combined with the audio stream # 1 is defined by Combination_of_Primary_and_Secondary. Thus, instead of defining the audio stream ID2 to be combined in the for loop of the audio stream ID1, the audio stream ID1 and the audio stream ID2 are individually defined, and the combination is defined in the for loop of the audio stream ID2. Thus, even when the registerable number of the audio stream ID1 is determined, the registerable number can be used effectively by not counting the combination registration as one.

なお、図14を参照して説明したように、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。この場合、audio_stream_number2は、0ではなく1から与えられる。すなわち、audio_stream_id2の値に1を加算したものがaudio_stream_number2である。オーディオストリーム番号2は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号2であるので、1から定義される。   As described with reference to FIG. 14, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). In this case, audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number2 is obtained by adding 1 to the value of audio_stream_id2. The audio stream number 2 is an audio stream number 2 that can be seen by the user and used for audio switching.

ここで、図33のCombination_of_Primary_and_Secondaryのビットマップシンタクスの例を、図34を参照して説明する。   Here, an example of the bitmap syntax of Combination_of_Primary_and_Secondary in FIG. 33 will be described with reference to FIG.

Combination_of_Primary_and_Secondaryのビットマップシンタクスは、図34の例の場合、32bitとされる。図34において、audio_stream_idは、図33の第2のSTN_table()で定義されるaudio_stream_id(オーディオストリームID)を示しており、indicatorの値は、対応するaudio_stream_id2(オーディオストリームID2)のオーディオストリーム#2と組み合わせ可能なオーディオストリーム#1を特定するaudio_stream_idを示すフラグである。すなわち、audio_stream_idとindicatorとにより、audio_stream_id2で与えられるオーディオストリーム#2と組み合わせ可能なオーディオストリーム#1のaudio_stream_idを特定することができる。   In the example of FIG. 34, the bitmap syntax of Combination_of_Primary_and_Secondary is 32 bits. 34, audio_stream_id indicates audio_stream_id (audio stream ID) defined in the second STN_table () of FIG. 33, and the value of the indicator is the audio stream # 2 of the corresponding audio_stream_id2 (audio stream ID2). This is a flag indicating audio_stream_id for specifying a combinable audio stream # 1. That is, the audio_stream_id of the audio stream # 1 that can be combined with the audio stream # 2 given by the audio_stream_id2 can be specified by the audio_stream_id and the indicator.

すなわち、図37においてaudio_stream_id2のforループの中にCombination_of_Primary_and_Secondaryが規定されるように、それぞれのaudio_stream_id2に対して、Combination_of_Primary_and_Secondaryが存在し、ある特定のaudio_stream_id2により特定されるオーディオストリーム#2に対して組み合わせが可能なオーディオストリーム#1が、indicatorにより示されるaudio_stream_idにより特定される。   That is, as shown in FIG. 37, Combination_of_Primary_and_Secondary is defined in the for_loop of audio_stream_id2, there is a combination_of_Primary_and_Secondary for each audio_stream_id2, and a combination is possible for audio stream # 2 specified by a specific audio_stream_id2 Audio stream # 1 is specified by audio_stream_id indicated by the indicator.

具体的には、Indicatorの値が0の場合、そのaudio_stream_id2は、audio_stream_idで特定されるオーディオストリーム#1に対応していないことを示し、indicatorの値が1の場合、そのaudio_stream_id2は、audio_stream_idで特定されるオーディオストリーム#1に対応していることを示す。   Specifically, when the value of the Indicator is 0, it indicates that the audio_stream_id2 does not correspond to the audio stream # 1 specified by the audio_stream_id. When the value of the indicator is 1, the audio_stream_id2 is specified by the audio_stream_id It corresponds to the audio stream # 1.

すなわち、図34の例の場合、audio_stream_id2(オーディオストリームID2)で特定されるオーディオストリーム#2には、audio_stream_id=0と、audio_stream_id=1で特定される2つのオーディオストリーム(オーディオストリーム#1)が組み合わせ可能であることが示されている。   That is, in the case of the example in FIG. 34, audio stream # 2 specified by audio_stream_id2 (audio stream ID 2) is combined with two audio streams (audio stream # 1) specified by audio_stream_id = 0 and audio_stream_id = 1. It has been shown to be possible.

なお、図34においては、組み合わせ可能なオーディオストリーム#1を、audio_stream_idで特定するようにしたが、audio_stream_idの代わりに、オーディオストリーム番号を用いるようにしてもよい。この場合、audio_stream_idは、0ではなく1から与えられる。   In FIG. 34, audio stream # 1 that can be combined is specified by audio_stream_id, but an audio stream number may be used instead of audio_stream_id. In this case, audio_stream_id is given from 1 instead of 0.

図34のように、Combination_of_Primary_and_Secondaryを32bitのビットマップシンタクスで定義するようにしたので、32本のオーディオストリーム#1に対して、組み合わせ可能なオーディオストリーム#2をそれぞれ定義することができる。   As shown in FIG. 34, Combination_of_Primary_and_Secondary is defined with 32-bit bitmap syntax, so that it is possible to define audio streams # 2 that can be combined with 32 audio streams # 1.

図33と図34によれば、audio_stream_idおよびaudio_stream_id2、並びに、Combination_of_Primary_and_Secondaryを用いて、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義することができる。すなわち、矛盾するようなオーディオストリームの組み合わせを定義せずに済むので、ユーザは、常に再生可能なオーディオストリームの組み合わせの再生を選択することができる。   According to FIGS. 33 and 34, a combination of audio stream # 1 and audio stream # 2 can be defined using audio_stream_id, audio_stream_id2, and Combination_of_Primary_and_Secondary. That is, since it is not necessary to define a contradictory combination of audio streams, the user can always select reproduction of a reproducible combination of audio streams.

具体的な例を、図35を参照して説明する。図35は、ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を示す図である。なお、図中、字幕信号(サブピクチャ)の記載については、図24と同様であるので、その説明は省略する。   A specific example will be described with reference to FIG. FIG. 35 is a diagram illustrating an example of a stream number table representing a relationship between an audio signal provided to a user and a caption signal. In the figure, the description of the caption signal (sub-picture) is the same as in FIG.

図35においては、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#1(audio_stream_idでエントリーされるオーディオストリーム)のそれぞれにA_SNが与えられる。   In FIG. 35, A_SN is given to each of the audio streams # 1 (audio streams entered with audio_stream_id) entered in PlayItem STN_table () constituting the Main Path of the PlayList.

具体的には、A_SN=1にオーディオ2が与えられ、A_SN=2にオーディオ1が与えられ、A_SN=3にオーディオ3が与えられている。   Specifically, audio 2 is given to A_SN = 1, audio 1 is given to A_SN = 2, and audio 3 is given to A_SN = 3.

このとき、A_SN=1のオーディオ2に対しては、オーディオ4(audio_stream_id2=0、すなわち、オーディオストリーム番号2が1であるオーディオ4)が組み合わせ可能とされている。また、A_SN=2のオーディオ1に対しては、オーディオ4(audio_stream_id2=0、すなわち、オーディオストリーム番号2が1であるオーディオ4)とオーディオ5(audio_stream_id2=1、すなわち、オーディオストリーム番号2が2であるオーディオ5)とが組み合わせ可能とされている。   At this time, audio 4 (audio_stream_id2 = 0, that is, audio 4 with audio stream number 2 being 1) can be combined with audio 2 with A_SN = 1. For audio 1 with A_SN = 2, audio 4 (audio_stream_id2 = 0, ie, audio 4 with audio stream number 2 being 1) and audio 5 (audio_stream_id2 = 1, ie, audio stream number 2 being 2) It can be combined with some audio 5).

具体的には、オーディオ4(audio_stream_id2=0のオーディオ4)の場合、図34のCombination_of_Primary_and_Secondaryのビットマップシンタクスは、audio_stream_id=0とaudio_stream_id=1に対するindicatorの値がともに1とされ、audio_stream_id=2からaudio_stream_id=31までのindicatorの値は、すべて0とされる。また、オーディオ5(audio_stream_id2=1のオーディオ5)の場合、図34のCombination_of_Primary_and_Secondaryのビットマップシンタクスは、audio_stream_id=1に対するindicatorの値のみが1とされ、audio_stream_id=0と、audio_stream_id=2からaudio_stream_id=31までのindicatorの値は、すべて0とされる。   Specifically, in the case of audio 4 (audio 4 with audio_stream_id2 = 0), the combination_of_Primary_and_Secondary bitmap syntax in FIG. The values of the indicators up to = 31 are all 0. Further, in the case of audio 5 (audio 5 with audio_stream_id2 = 1), the bitmap syntax of Combination_of_Primary_and_Secondary in FIG. The values of the indicators up to are all 0.

ユーザは、A_SNが与えられているオーディオストリームの中から、再生するオーディオストリーム#1を選択し、選択したオーディオストリーム#1とミキシングするオーディオストリーム#2を、A_SNが与えられているオーディオストリームの図中右側に表示されているものの中から選択する。図35の例の場合、オーディオストリーム#1として、オーディオ2(A_SN=1)を選択する場合、ミキシング可能なオーディオストリーム#2は、オーディオ2の図中右側に表示されているオーディオ4のみであるので、これを、ミキシング再生するか否かを選択する。図35においては、A_SN=1のオーディオ2に対応するオーディオ4は、「×」、すなわち、ミキシング再生を選択しない状態とされている。ユーザは、この「×」を切り替えて「○」とすることで、オーディオ2とオーディオ4とのミキシング再生が選択された状態とすることができる。   The user selects the audio stream # 1 to be reproduced from the audio streams to which A_SN is given, and the audio stream # 2 to be mixed with the selected audio stream # 1 is an audio stream to which A_SN is given. Select from the ones displayed on the right side. In the example of FIG. 35, when audio 2 (A_SN = 1) is selected as audio stream # 1, audio stream # 2 that can be mixed is only audio 4 displayed on the right side of audio 2 in the drawing. Therefore, it is selected whether or not to perform mixing reproduction. In FIG. 35, the audio 4 corresponding to the audio 2 with A_SN = 1 is “x”, that is, the state in which mixing reproduction is not selected. The user can set the state where mixing reproduction of the audio 2 and the audio 4 is selected by switching the “x” to “◯”.

また、例えば、図35の例の場合、オーディオストリーム#1として、オーディオ1(A_SN=2)を選択する場合、ミキシング可能なオーディオストリーム#2は、オーディオ2の図中右側に表示されているオーディオ4とオーディオ5の中から選択することができる。そのため、ユーザは、オーディオストリーム#1をどのオーディオストリーム#2と再生するか否かを選択する。図35においては、A_SN=2のオーディオ1に対応するオーディオ4とオーディオ5は、「×」、すなわち、ミキシング再生を選択しない状態とされている。ユーザは、この「×」を切り替えて「○」とすることで、オーディオ2とオーディオ4、またはオーディオ2とオーディオ5のミキシング再生を選択する状態とすることができる。   Also, for example, in the case of the example of FIG. 35, when audio 1 (A_SN = 2) is selected as audio stream # 1, audio stream # 2 that can be mixed is audio displayed on the right side of audio 2 in the figure. 4 and audio 5 can be selected. Therefore, the user selects with which audio stream # 2 the audio stream # 1 is to be reproduced. In FIG. 35, the audio 4 and the audio 5 corresponding to the audio 1 with A_SN = 2 are “x”, that is, the state where the mixing reproduction is not selected. The user can set the state of selecting the audio 2 and audio 4 or the audio 2 and audio 5 mixing reproduction by switching the “x” to “o”.

この再生の選択の具体的な例としては、A_SN=1のオーディオ2が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、A_SN=1のオーディオ2とオーディオ4との組み合わせの再生(図35のオーディオ2に対応するオーディオ4が「○」となる)に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=2のオーディオ1の再生(図35のオーディオ2に対応するオーディオ4が「×」となる)に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=2のオーディオ1とオーディオ4との組み合わせの再生(図35のオーディオ1に対応するオーディオ4が「○」となる)に切り替えらる。また、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=2のオーディオ1とオーディオ5との組み合わせの再生(図35のオーディオ1に対応するオーディオ4が「×」となり、オーディオ5が「○」となる)に切り替えられる。   As a specific example of this playback selection, when audio 2 with A_SN = 1 is selected and the user commands switching of audio, a combination of audio 2 with audio 4 and audio 4 is selected. When the playback is switched to the audio (the audio 4 corresponding to the audio 2 in FIG. 35 becomes “◯”) and the user instructs to switch the audio further, the audio is reproduced from the audio 1 of A_SN = 2 (in FIG. 35). When the audio 4 corresponding to the audio 2 is switched to “x”) and the user further instructs to switch the audio, the audio is reproduced by the combination of the audio 1 and the audio 4 of A_SN = 2 (FIG. 35). The audio 4 corresponding to the audio 1 is switched to “◯”. Further, when the user instructs to switch the audio further, the audio is reproduced as a combination of the audio 1 and the audio 5 of A_SN = 2 (the audio 4 corresponding to the audio 1 in FIG. Becomes “○”.

ユーザは、このようにして再生されるオーディオストリームの選択を切り替えて、例えば、図36に示されるように、A_SN2のオーディオ1とオーディオ5との組み合わせの再生を選択することができる。これにより、オーディオ1(オーディオストリーム#1)とオーディオ5(オーディオストリーム#2)とをミキシング再生することができる。   The user can switch the selection of the audio stream to be reproduced in this way, and select reproduction of a combination of audio 1 and audio 5 of A_SN2 as shown in FIG. 36, for example. Thereby, audio 1 (audio stream # 1) and audio 5 (audio stream # 2) can be mixed and reproduced.

このように、audio_stream_idおよびaudio_stream_id2、並びに、Combination_of_Primary_and_Secondaryを用いて、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義するようにすることで、矛盾するような組み合わせを定義せずに済み、ユーザは、常に再生可能なオーディオストリームの組み合わせを選択することができる。すなわち、図35の例においては、矛盾するオーディオストリームの組み合わせであるオーディオ2+オーディオ5を定義しないようにすることで、ユーザに、選択可能なもののみを提供することができる。   Thus, by defining the combination of audio stream # 1 and audio stream # 2 using audio_stream_id and audio_stream_id2 and Combination_of_Primary_and_Secondary, it is not necessary to define conflicting combinations, and the user can , A combination of audio streams that can always be played back can be selected. That is, in the example of FIG. 35, only the selectable ones can be provided to the user by not defining the audio 2 + audio 5 that is a combination of contradictory audio streams.

換言すれば、PlayItem()の中の第2のSTN table()(図33)で、図25の1stオーディオデコーダ75−1でデコードするオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードするオーディオストリーム#2との組み合わせを、Combination_of_Primary_and_Secondaryを用いて定義するようにしたので、2つのオーディオストリームをミキシングして再生することができる。すなわち、複数の種類からなるストリームから、同じ種類(この例の場合、オーディオストリーム)のストリームをミキシング(重畳、または合成)して、同時に再生することができる。   In other words, in the second STN table () (FIG. 33) in PlayItem (), the audio stream # 1 decoded by the 1st audio decoder 75-1 in FIG. 25 and the 2nd audio decoder 75-2 are decoded. Since the combination with the audio stream # 2 is defined using Combination_of_Primary_and_Secondary, the two audio streams can be mixed and reproduced. That is, streams of the same type (in this example, an audio stream) can be mixed (superimposed or combined) from a plurality of types of streams and played back simultaneously.

また、このような構成とすることにより、ユーザは、ミキシングする2つのオーディオストリームを個々に選ぶ必要がなく、2つのオーディオストリームが組み合わせられたものの中から、再生するオーディオストリームを選択することができる。   With this configuration, the user does not need to individually select two audio streams to be mixed, and can select an audio stream to be reproduced from a combination of the two audio streams. .

次に、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義し、ミキシング再生する場合、すなわち、オーディオストリーム#1とオーディオストリーム#2の組み合わせの中からユーザに再生の選択をさせる構成とする場合の2番目の例を、図37を参照して説明する。換言すれば、図37は、オーディオストリーム#1とミキシング再生可能なオーディオストリームを、オーディオストリーム#2として定義する場合の2番目の例である。   Next, when a combination of audio stream # 1 and audio stream # 2 is defined and mixed reproduction is performed, that is, the user is allowed to select reproduction from a combination of audio stream # 1 and audio stream # 2. A second example of the case will be described with reference to FIG. In other words, FIG. 37 is a second example in the case where an audio stream that can be mixed with audio stream # 1 is defined as audio stream # 2.

図37は、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義する場合のSTN_table()のシンタクスの第3の例(第3のSTN_table())を示す図である。なお、図中、図14と同一の部分については、繰り返しになるのでその説明は省略する。   FIG. 37 is a diagram illustrating a third example (third STN_table ()) of syntax of STN_table () when defining a combination of audio stream # 1 and audio stream # 2. In addition, about the part same as FIG. 14 in the figure, since it becomes repetition, the description is abbreviate | omitted.

図37において、オーディオストリームID2 (audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。このとき、audio_stream_id2に対して、number_of_combinationsが与えられ、number_of_combinationsの後のfor文では、number_of_combinationsの数だけ、audio_stream_idが与えられる。number_of_combinationsと、number_of_combinationsの後のfor文は、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義する情報であり、audio_stream_id2で特定されるオーディオストリーム#2と組み合わせ可能なオーディオストリーム#1の数が、number_of_combinationsとされる。そして、audio_stream_id2で特定されるオーディオストリーム#2と組み合わせ可能なオーディオストリーム#1を特定するaudio_stream_idが、number_of_combinationsの後のfor文で定義される。   In FIG. 37, audio_stream_id2 is given from 0 to one audio elementary stream identified for each stream_entry () in order in the for loop of audio stream ID2 (audio_stream_id2). At this time, number_of_combinations is given to audio_stream_id2, and in the for statement after number_of_combinations, audio_stream_id is given by the number of number_of_combinations. The for statement after number_of_combinations and number_of_combinations is information defining the combination of audio stream # 1 and audio stream # 2, and the number of audio streams # 1 that can be combined with audio stream # 2 specified by audio_stream_id2 is , Number_of_combinations. Then, audio_stream_id that identifies the audio stream # 1 that can be combined with the audio stream # 2 identified by audio_stream_id2 is defined in a for statement after number_of_combinations.

すなわち、図33とは異なり、図37の第3のSTN_table()のオーディオストリームID2 (audio_stream_id2)のfor文の中では、そのオーディオストリームID2で特定されるオーディオストリーム#2に対して、オーディオストリーム#1との組み合わせ可能な数がnumber_of_combinationsで定義され、number_of_combinationsの後のfor文で、対象となるオーディオストリーム#1を特定するaudio_stream_idを直接定義している。   That is, unlike FIG. 33, in the for statement of the audio stream ID2 (audio_stream_id2) of the third STN_table () of FIG. 37, the audio stream # 2 is compared with the audio stream # 2 specified by the audio stream ID2. The number that can be combined with 1 is defined by number_of_combinations, and the audio_stream_id that identifies the target audio stream # 1 is directly defined in the for statement after number_of_combinations.

このように、第3のSTN_table()においては、オーディオストリームID2(audio_stream_id2)で特定されるオーディオストリーム#2に対して、どのオーディオストリーム#1が組み合わせ可能であるかを示す情報が、オーディオストリームID2のnumber_of_combinationsの後のfor文で定義される。すなわち、オーディオストリームID2のnumber_of_combinationsの後のfor文により、オーディオストリーム#1に対して組み合わせ可能なオーディオストリーム#2が定義される。   As described above, in the third STN_table (), information indicating which audio stream # 1 can be combined with the audio stream # 2 specified by the audio stream ID2 (audio_stream_id2) is the audio stream ID2. Defined in the for statement after number_of_combinations. That is, the audio stream # 2 that can be combined with the audio stream # 1 is defined by the for statement after the number_of_combinations of the audio stream ID2.

なお、図14を参照して説明したように、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。また、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。すなわち、number_of_combinationsの後のfor文で定義されるaudio_stream_idも、オーディオストリーム番号としてもよい。   As described with reference to FIG. 14, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). Also, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id). That is, audio_stream_id defined in the for statement after number_of_combinations may be an audio stream number.

図37によれば、number_of_combinationsと、その後のfor文を用いて、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義することができる。すなわち、矛盾するようなオーディオストリームの組み合わせを定義せずに済むので、ユーザは、常に再生可能なオーディオストリームの組み合わせの再生を選択することができる。   According to FIG. 37, the combination of audio stream # 1 and audio stream # 2 can be defined using number_of_combinations and the subsequent for statement. That is, since it is not necessary to define a contradictory combination of audio streams, the user can always select reproduction of a reproducible combination of audio streams.

この場合のストリームナンバーテーブルの具体的な例は、図35および図36を用いて説明した場合と同様である。   A specific example of the stream number table in this case is the same as that described with reference to FIGS.

すなわち、図35が図37の第3のSTN_table()に対応する場合、オーディオ4(audio_stream_id2=0、すなわち、オーディオストリーム番号2が1であるオーディオ4)に対して、組み合わせ可能なオーディオストリーム#1として、A_SN=1のオーディオ2(audio_stream_id=0)と、A_SN=2のオーディオ1(audio_stream_id=1)とが定義されていることになる。この場合、図37のaudio_stream_id2=0に対応するnumber_of_combinationsの数は2つであり、定義されるaudio_stream_idは、audio_stream_id=0とaudio_stream_id=1である。また、オーディオ5(audio_stream_id2=1、すなわち、オーディオストリーム番号2が2であるオーディオ5)に対して、組み合わせ可能なオーディオストリーム#1として、A_SN=2のオーディオ1(audio_stream_id=1)が定義されていることになる。この場合、図37のaudio_stream_id2=1に対応するnumber_of_combinationsの数は1つであり、定義されるaudio_stream_idは、audio_stream_id=1である。   That is, when FIG. 35 corresponds to the third STN_table () of FIG. 37, audio stream # 1 that can be combined with audio 4 (audio_stream_id2 = 0, that is, audio 4 with audio stream number 2 being 1). As described above, audio 2 (audio_stream_id = 0) with A_SN = 1 and audio 1 (audio_stream_id = 1) with A_SN = 2 are defined. In this case, the number of number_of_combinations corresponding to audio_stream_id2 = 0 in FIG. 37 is two, and the defined audio_stream_id is audio_stream_id = 0 and audio_stream_id = 1. Also, for audio 5 (audio_stream_id2 = 1, ie, audio 5 with audio stream number 2 being 2), audio 1 (audio_stream_id = 1) with A_SN = 2 is defined as an audio stream # 1 that can be combined. Will be. In this case, the number_of_combinations corresponding to audio_stream_id2 = 1 in FIG. 37 is one, and the defined audio_stream_id is audio_stream_id = 1.

ユーザは、図35に示されるオーディオの再生の選択を切り替えて、例えば、図36に示されるように、A_SN=2のオーディオ1とオーディオ5との組み合わせの再生を選択する。これにより、オーディオ1(オーディオストリーム#1)とオーディオ5(オーディオストリーム#2)とをミキシング再生することができる。   The user switches the audio reproduction selection shown in FIG. 35, and selects the reproduction of the combination of audio 1 and audio 5 with A_SN = 2 as shown in FIG. 36, for example. Thereby, audio 1 (audio stream # 1) and audio 5 (audio stream # 2) can be mixed and reproduced.

このように、図37のnumber_of_combinationsと、その後のfor文を用いて、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義するようにすることで、矛盾するような組み合わせを定義せずに済み、ユーザは、常に再生可能なオーディオストリームの組み合わせを選択することができる。すなわち、図35の例においては、矛盾するオーディオストリームの組み合わせであるオーディオ2+オーディオ5を定義しないようにすることで、ユーザに、選択可能なもののみを提供することができる。   In this way, by defining the combination of audio stream # 1 and audio stream # 2 using number_of_combinations in FIG. 37 and the subsequent for statement, it is not necessary to define contradictory combinations. The user can select a combination of audio streams that can always be reproduced. That is, in the example of FIG. 35, only the selectable ones can be provided to the user by not defining the audio 2 + audio 5 that is a combination of contradictory audio streams.

換言すれば、PlayItem()の中のSTN table()(図37)で、図25の1stオーディオデコーダ75−1でデコードするオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードするオーディオストリーム#2との組み合わせを、number_of_combinationsと、その後のfor文とを用いて定義するようにしたので、2つの組み合わせ可能なオーディオストリームをミキシングして再生することができる。すなわち、複数の種類からなるストリームから、同じ種類(この例の場合、オーディオストリーム)のストリームをミキシング(重畳、または合成)して、同時に再生することができる。   In other words, in STN table () (FIG. 37) in PlayItem (), audio stream # 1 decoded by 1st audio decoder 75-1 in FIG. 25 and audio stream # decoded by 2nd audio decoder 75-2. Since the combination with 2 is defined by using number_of_combinations and the subsequent for statement, it is possible to mix and reproduce the two combinable audio streams. That is, streams of the same type (in this example, an audio stream) can be mixed (superimposed or combined) from a plurality of types of streams and played back simultaneously.

また、第3のSTN_table()を用いることにより、ユーザは、ミキシングする2つのオーディオストリームを個々に選ぶ必要がなく、2つのオーディオストリームが組み合わせられたものの中から、再生するオーディオストリームを選択することができる。   Further, by using the third STN_table (), the user does not need to individually select two audio streams to be mixed, and can select an audio stream to be reproduced from a combination of the two audio streams. Can do.

次に、図38は、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義する場合のSTN_table()のシンタクスのの第4の例(第4のSTN_table())を示す図である。なお、図中、図14や図37と同一の部分については、繰り返しになるのでその説明は省略する。   Next, FIG. 38 is a diagram illustrating a fourth example (fourth STN_table ()) of the syntax of STN_table () when defining a combination of audio stream # 1 and audio stream # 2. In the figure, the same parts as those in FIGS. 14 and 37 are repeated, and the description thereof is omitted.

図38の例のオーディオストリームID (audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオストリーム#1に、0からaudio_stream_idが与えられることと、その後に配置されるstream_attribute()とについては、図14の例と同様とされている。   In the for loop of the audio stream ID (audio_stream_id) in the example of FIG. 38, audio_stream_id is assigned from 0 to one audio stream # 1 that is specified for each stream_entry () in order, and is arranged thereafter. The stream_attribute () is the same as the example in FIG.

ただし、図38の例のオーディオストリームID (audio_stream_id)のforループの中には、さらに、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義する次のような情報が含まれる。即ち、number_of_audio_stream2_entriesが0でない場合(if(number_of_audio_stream2_entries!=0))、number_of_audio_stream2_ref_entriesが与えられる。number_of_audio_stream2_ref_entriesは、audio_stream_idで特定されるオーディオストリーム#1と組み合わせ可能なオーディオストリーム#2の数を示す。そして、audio_stream_idで特定されるオーディオストリーム#1と組み合わせ可能なオーディオストリーム#2を特定するaudio_stream2_id_refが、number_of_audio_stream2_ref_entriesの後のfor文で定義される。   However, the following information defining the combination of the audio stream # 1 and the audio stream # 2 is further included in the for loop of the audio stream ID (audio_stream_id) in the example of FIG. That is, if number_of_audio_stream2_entries is not 0 (if (number_of_audio_stream2_entries! = 0)), number_of_audio_stream2_ref_entries is given. number_of_audio_stream2_ref_entries indicates the number of audio streams # 2 that can be combined with the audio stream # 1 specified by audio_stream_id. Then, audio_stream2_id_ref for specifying an audio stream # 2 that can be combined with the audio stream # 1 specified by audio_stream_id is defined by a for statement after number_of_audio_stream2_ref_entries.

なお、他の例と同様に、オーディオストリームID2ref(audio_stream_id2_ref)の代わりに、オーディオストリーム番号2ref(audio_stream_number2_ref)を用いるようにしてもよい。また、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。   As in the other examples, the audio stream number 2ref (audio_stream_number2_ref) may be used instead of the audio stream ID2ref (audio_stream_id2_ref). Also, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id).

このように、図38を用いて説明した第4の例のSTN_table()を利用しても、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義することができる。すなわち、矛盾するようなオーディオストリームの組み合わせを定義せずに済むので、ユーザは、常に再生可能なオーディオストリームの組み合わせの再生を選択することができる。   As described above, the combination of the audio stream # 1 and the audio stream # 2 can also be defined using the STN_table () of the fourth example described with reference to FIG. That is, since it is not necessary to define a contradictory combination of audio streams, the user can always select reproduction of a reproducible combination of audio streams.

ところで、上述したように、本発明の再生装置に装着される記録媒体上のアプリケーションフォーマットは、PlayListとClipの2つのレイヤを有している。そして、PlayListは、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られるメインパス(Main Path)と、そのMain Pathに並行(並列)して、1つ以上のSubPlayItemの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られるサブパス(Sub Path)を1以上含むことができる。   By the way, as described above, the application format on the recording medium mounted on the playback apparatus of the present invention has two layers, PlayList and Clip. A PlayList is composed of a main path (Main Path) created by a sequence of one or more PlayItems (by consecutive PlayItems) and a parallel (in parallel) to the Main Path (by a sequence of one or more SubPlayItems (non- One or more sub paths (sub paths) created by sub play items that may be continuous or may be continuous may be included.

従って、例えば図39に示されるように、1画面のうちの、全画面301に、メインパスで参照されるAVストリーム(図39中、Primary Videoと記述されているビデオストリーム311、および、Primary Audioと記述されているオーディオストリーム312)に対応する映画本編等のコンテンツを再生させるとともに、全画面301に配置される子画面302に、サブパスで参照されるAVストリーム(図39中、Secondary Videoと記述されているビデオストリーム313、および、Secondary Audioと記述されているオーディオストリーム314)に対応する映画の監督のコメンタリー等、メインパスで参照されるAVストリームとは別のコンテンツを再生させる、といった手法を適用することが可能になる。   Therefore, for example, as shown in FIG. 39, an AV stream (a video stream 311 described as Primary Video in FIG. 39 and a primary audio) is displayed on the entire screen 301 of one screen. The AV stream (described as Secondary Video in FIG. 39) is reproduced on the sub-screen 302 arranged on the full screen 301. A video stream 313, and a movie director corresponding to an audio stream 314) described as Secondary Audio, or the like, such as playing a content other than the AV stream referenced in the main path. It becomes possible to apply.

即ち、全画面(親画面)301と子画面302のそれぞれに別々のコンテンツを同時再生させる、といった手法を適用することが可能になる。   In other words, it is possible to apply a technique in which different contents are simultaneously reproduced on the full screen (parent screen) 301 and the child screen 302, respectively.

このような手法は、ピクチャインピクチャ(Picture in Picture)手法と称される。   Such a technique is called a picture-in-picture technique.

なお、Primary Audioと記述されているオーディオストリーム312に対応する音声と、Secondary Audioと記述されているオーディオストリーム314に対応する音声との再生とは、上述したように、それら2つのオーディオストリームに対してミキシング処理が施された結果得られる音声の出力のことをいう。   Note that the reproduction of the audio corresponding to the audio stream 312 described as Primary Audio and the audio corresponding to the audio stream 314 described as Secondary Audio is performed on these two audio streams as described above. This is the sound output obtained as a result of the mixing process.

また、実際の再生対象は、上述したように、各ストリームに対応する音声や画像であるが、以下の説明においては、説明の簡略上、各ストリームとする場合もある。即ち、所定のストリームを再生する、といった表現を使用する場合もある。   In addition, as described above, the actual reproduction target is audio or an image corresponding to each stream. However, in the following description, there are cases where each stream is used for the sake of simplicity. That is, an expression such as playing a predetermined stream may be used.

ピクチャインピクチャ手法を適用するアプリケーションを実現するためには、例えば、次のようなシンタクス(Syntax)が必要になる。即ち、例えば、図40および図41の例のSTN_ definition Tableにおけるvideo_stream_idで指定されるビデオストリーム(以下、プライマリビデオストリームと称する。例えば、図39の例では、Primary Videoと記述されているビデオストリーム311を、プライマリビデオストリーム311と称する)の数は、1つとされている。そこで、このことを考慮して、プライマリビデオストリームと同時に再生され得るストリームの組み合わせを定義するSyntaxがあれば、ピクチャインピクチャ手法の実現、即ち、ピクチャインピクチャを適用するアプリケーションの実現が可能になる。   In order to realize an application to which the picture-in-picture method is applied, for example, the following syntax is required. That is, for example, a video stream specified by video_stream_id in the STN_definition table in the examples of FIGS. 40 and 41 (hereinafter referred to as a primary video stream. For example, in the example of FIG. 39, a video stream 311 described as Primary Video is described. Is called a primary video stream 311). In view of this, if there is a Syntax that defines a combination of streams that can be reproduced simultaneously with the primary video stream, it is possible to realize a picture-in-picture technique, that is, an application that applies picture-in-picture. .

ここで、ピクチャインピクチャ手法により、プライマリビデオストリームと同時に再生され得るストリームとして、例えば本実施の形態では、次の第1乃至第4の種類のストリームが用意されている。   Here, for example, in the present embodiment, the following first to fourth types of streams are prepared as streams that can be reproduced simultaneously with the primary video stream by the picture-in-picture method.

第1の種類のストリームとは、図40および図41の例のSTN_ definition Tableにおけるaudio_stream_idで指定されるオーディオストリーム、即ち、上述したオーディオストリーム#1(以下、プライマリオーディオストリームと称する。例えば、図39の例では、Primary Audioと記述されているオーディオストリーム312を、プライマリオーディオストリーム312と称する)のことをいう。   The first type of stream is an audio stream specified by audio_stream_id in the STN_definition table in the examples of FIGS. 40 and 41, that is, the above-described audio stream # 1 (hereinafter referred to as a primary audio stream. For example, FIG. 39 In this example, the audio stream 312 described as Primary Audio is referred to as a primary audio stream 312).

第2の種類のストリームとは図40および図41の例のSTN_ definition Tableにおけるvideo_stream_id2で指定されるビデオストリーム(以下、セカンダリビデオストリームと称する。例えば、図39の例では、Secondary Videoと記述されているビデオストリーム313を、セカンダリビデオストリーム313と称する)のことをいう。   The second type of stream is a video stream specified by video_stream_id2 in the STN_definition table of the example of FIGS. 40 and 41 (hereinafter referred to as a secondary video stream. For example, in the example of FIG. 39, it is described as Secondary Video. The video stream 313 is referred to as a secondary video stream 313).

第3の種類のストリームとは図40および図41の例のSTN_ definition Tableにおけるaudio_stream_id2で指定されるオーディオストリーム、即ち、上述したオーディオストリーム#2(以下、セカンダリオーディオストリームと称する。例えば、図39の例では、Secondary Audioと記述されているオーディオストリーム314を、セカンダリオーディオストリーム314と称する)のことをいう。   The third type of stream is an audio stream specified by audio_stream_id2 in the STN_definition table in the examples of FIGS. 40 and 41, that is, the above-described audio stream # 2 (hereinafter referred to as a secondary audio stream. For example, FIG. In the example, the audio stream 314 described as Secondary Audio is referred to as a secondary audio stream 314).

第4の種類のストリームとは、サブパスで参照されるテキスト字幕ストリーム(txtST)や、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)等のことをいう。例えば図39の例では、Subtitleと記述されているストリーム315が、第4の種類のストリームの一例である。なお、以下、第4の種類のストリームを、即ち、txtSTやPG等をまとめて、サブタイトルストリームと称する。なお、サブタイトルストリームの再生位置(字幕等の表示位置)は、特に子画面内である必要は無く、全画面のうちの何れの位置でもよい。このため、図39の例では、サブタイトルストリーム315は、子画面302からはみ出すように描画されている。   The fourth type of stream is a text subtitle stream (txtST) referenced in a sub-path, a stream (PG, Presentation Graphics stream) obtained by run-length encoding a bitmap subtitle such as a DVD sub-picture, and the like. Say. For example, in the example of FIG. 39, the stream 315 described as Subtitle is an example of the fourth type of stream. Hereinafter, the fourth type of stream, that is, txtST, PG, and the like are collectively referred to as a subtitle stream. Note that the playback position of the subtitle stream (the display position of subtitles and the like) does not have to be in the child screen, and may be any position on the entire screen. For this reason, in the example of FIG. 39, the subtitle stream 315 is drawn so as to protrude from the child screen 302.

以上説明したように、ピクチャインピクチャ手法を適用するアプリケーションを実現するためには、例えば、プライマリビデオストリームと組み合わせて同時再生され得るストリームの組み合わせの定義、即ち、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせの定義が必要となる。   As described above, in order to realize an application to which the picture-in-picture method is applied, for example, the definition of the combination of streams that can be simultaneously reproduced in combination with the primary video stream, that is, the secondary video stream, the primary audio stream, the secondary It is necessary to define a combination of an audio stream and a subtitle stream.

さらに、複数の組み合わせを定義することで、全画面301に再生されるプライマリビデオストリームやプライマリオーディオスオストリームの切り替えのみならず、子画面302に再生されるセカンダリビデオストリームの切り替えや、サブタイトルストリームの切り替えも容易に行えるようになる。ただし、その切り替え操作の例については、図42と図43を参照して後述する。   Furthermore, by defining a plurality of combinations, not only switching of the primary video stream and primary audio stream reproduced on the full screen 301 but also switching of the secondary video stream reproduced on the sub-screen 302 and switching of the subtitle stream are performed. Can also be easily performed. However, an example of the switching operation will be described later with reference to FIGS. 42 and 43.

このような、プライマリビデオストリームと組み合わせて同時再生され得るストリームの組み合わせの定義は、例えば、図40と図41に示されるようにSTN_tableにて行うことが可能である。即ち、図40と図41とは、プライマリビデオストリームと組み合わせて同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義する場合のSTN_table()のシンタクスの第5の例(第5のSTN_table())を示す図である。なお、図中、上述した図37と同一の部分については、繰り返しになるのでその説明は省略する。   The definition of the combination of streams that can be simultaneously reproduced in combination with the primary video stream can be performed in STN_table as shown in FIGS. 40 and 41, for example. That is, FIG. 40 and FIG. 41 show the syntax of STN_table () when defining a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that can be simultaneously reproduced in combination with the primary video stream. It is a figure which shows the 5th example (5th STN_table ()). In the figure, the same parts as those in FIG. 37 described above are repeated, and the description thereof is omitted.

図40と図41の例では、プライマリビデオストリームと組み合わせて同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせは、次のように定義される。即ち、最初に、プライマリビデオストリームと組み合わせて同時再生され得るセカンダリビデオストリームが1以上定義される。そして、1以上のセカンダリビデオストリームのそれぞれに対して、同時に再生され得るオーディオストリーム(プライマリオーディオストリームとセカンダリオーディオストリーム)とサブタイトルストリームとが定義される。   In the example of FIGS. 40 and 41, the combination of the secondary video stream, the primary audio stream, the secondary audio stream, and the subtitle stream that can be simultaneously reproduced in combination with the primary video stream is defined as follows. That is, first, one or more secondary video streams that can be simultaneously reproduced in combination with the primary video stream are defined. Then, for each of the one or more secondary video streams, an audio stream (primary audio stream and secondary audio stream) and a subtitle stream that can be reproduced simultaneously are defined.

具体的には、図40において、number_of_video_stream2_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_id2が与えられるストリーム数を示す。video_stream_id2は、セカンダリビデオストリームを識別するための情報であり、video_stream_number2は、ビデオ切り替えに使われる、ユーザから見えるセカンダリビデオストリーム番号である。   Specifically, in FIG. 40, number_of_video_stream2_entries indicates the number of streams to which video_stream_id2 entered (registered) in STN_table () is given. video_stream_id2 is information for identifying a secondary video stream, and video_stream_number2 is a secondary video stream number that is used for video switching and is visible to the user.

図41において、ビデオストリームID2 (video_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリーム(セカンダリビデオストリームとなるビデオエレメンタリストリーム)に、0からvideo_stream_id2が与えられる。   In FIG. 41, in a for loop of video stream ID2 (video_stream_id2), video_stream_id2 from 0 to one video elementary stream (video elementary stream to be a secondary video stream) specified for each stream_entry () in order. Given.

このとき、video_stream_id2に対して、number_of_Audio_combinations_for_video2が与えられ、その後のfor文では、number_of_Audio_combinations_for_video2の数だけ、audio_stream_idとaudio_stream_id2が与えられる。number_of_Audio_combinations_for_video 2とその後のfor文とは、セカンダリビデオストリームと同時再生されるオーディオストリームの組み合わせ、即ち、audio_stream_idで特定されるプライマリオーディオストリームと、audio_stream_id2で特定されるセカンダリオーディオストリームとの組み合わせを定義する情報である。video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なオーディオストリームの組(プライマリオーディオストリームとセカンダリオーディオストリームとの組)の数が、number_of_Audio_combinations_for_video2とされる。そして、video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なオーディオストリームの組として、プライマリオーディオストリームを特定するaudio_stream_idと、セカンダリオーディオストリームを特定するaudio_stream_id2とが、number_of_Audio_combinations_for_video2の後のfor文でそれぞれ定義される。   At this time, number_of_Audio_combinations_for_video2 is given to video_stream_id2, and in the subsequent for statement, audio_stream_id and audio_stream_id2 are given by the number of number_of_Audio_combinations_for_video2. number_of_Audio_combinations_for_video 2 and the subsequent for statement are information defining a combination of audio streams that are simultaneously played with the secondary video stream, that is, a combination of a primary audio stream specified by audio_stream_id and a secondary audio stream specified by audio_stream_id2 It is. The number of sets of audio streams (a set of primary audio streams and secondary audio streams) that can be combined with the secondary video stream specified by video_stream_id2 is number_of_Audio_combinations_for_video2. Then, as a set of audio streams that can be combined with the secondary video stream identified by video_stream_id2, audio_stream_id that identifies the primary audio stream and audio_stream_id2 that identifies the secondary audio stream are defined in a for statement after number_of_Audio_combinations_for_video2, respectively. .

また、同じvideo_stream_id2に対して、number_of_Subtitle_combinations_for_video2が与えられ、その後のfor文では、number_of_Subtitle_combinations_for_video2の数だけ、PG_textST_stream_idが与えられる。number_of_Subtitle_combinations_for_video2とその後のfor文とは、セカンダリビデオストリームと同時再生されるサブタイトルストリームの組み合わせ、即ち、PG_textST_stream_idで特定されるサブタイトルストリームの組み合わせを定義する情報である。video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なサブタイトルストリームの数が、number_of_Subtitle_combinations_for_video2とされる。そして、video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なサブタイトルストリームを特定するPG_textST_stream_idが、number_of_Subtitle_combinations_for_video2の後のfor文で定義される。   Also, number_of_Subtitle_combinations_for_video2 is given to the same video_stream_id2, and PG_textST_stream_id is given to the same video_stream_id2 by the number of number_of_Subtitle_combinations_for_video2. The number_of_Subtitle_combinations_for_video2 and the subsequent for sentence are information defining a combination of subtitle streams that are reproduced simultaneously with the secondary video stream, that is, a combination of subtitle streams specified by PG_textST_stream_id. The number of subtitle streams that can be combined with the secondary video stream specified by video_stream_id2 is number_of_Subtitle_combinations_for_video2. Then, PG_textST_stream_id for specifying a subtitle stream that can be combined with the secondary video stream specified by video_stream_id2 is defined in a for sentence after number_of_Subtitle_combinations_for_video2.

なお、図14や図37を参照して説明したように、各IDの代わりに各番号、例えば、audio_stream_idの代わりに、オーディオストリーム番号(audio_stream_number)を用いたり、audio_stream_id2の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。ビデオストリームやサブタイトルストリームについても同様である。   As described with reference to FIGS. 14 and 37, each number is used instead of each ID, for example, an audio stream number (audio_stream_number) is used instead of audio_stream_id, or an audio stream number 2 is used instead of audio_stream_id2. (Audio_stream_number2) may be used. The same applies to the video stream and the subtitle stream.

図40と図41を用いて説明した第5のSTN_table()によれば、video_stream_id2を用いて、プライマリビデオストリームと同時再生されるセカンダリビデオストリームを定義することができ、さらに、そのvideo_stream_id2、および、audio_stream_id、audio_stream_id2、並びに、PG_textST_stream_idを用いて、そのセカンダリビデオストリームと同時再生され得る、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義することができる。即ち、プライマリビデオストリームと同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義することができる。   According to the fifth STN_table () described with reference to FIGS. 40 and 41, the video_stream_id2 can be used to define a secondary video stream that is played back simultaneously with the primary video stream, and the video_stream_id2 and Using audio_stream_id, audio_stream_id2, and PG_textST_stream_id, a combination of a primary audio stream, a secondary audio stream, and a subtitle stream that can be played back simultaneously with the secondary video stream can be defined. That is, a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that can be reproduced simultaneously with the primary video stream can be defined.

従って、プライマリビデオストリームと同時再生され得る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせとして、矛盾するような組み合わせを定義せずに済むので、ユーザは、プライマリビデオストリームと同時再生可能なストリームの組み合わせの再生を容易に選択することができる。   Therefore, since it is not necessary to define a conflicting combination as a combination of the secondary video stream, the primary audio stream, the secondary audio stream, and the subtitle stream that can be played back simultaneously with the primary video stream, the user can It is possible to easily select a combination of streams that can be reproduced simultaneously.

具体的な例を、図42と図43を参照して説明する。図42は、図40と図41を用いて説明した第5のSTN_table()が用いられた場合の、ユーザに提供するプライマリオーディオストリームまたはセカンダリオーディオストリームに対応する音声信号、セカンダリビデオストリームに対応する映像信号、および、サブタイトルストリームに対応する字幕信号の組み合わせの関係を表すストリームナンバーテーブルの例を示す図である。なお、図中、音声信号(オーディオ)と字幕信号(サブピクチャ)との記載については、図24または図35と同様であるので、その説明は省略する。   A specific example will be described with reference to FIGS. FIG. 42 corresponds to the audio signal and secondary video stream corresponding to the primary audio stream or secondary audio stream provided to the user when the fifth STN_table () described with reference to FIGS. 40 and 41 is used. It is a figure which shows the example of the stream number table showing the relationship between the combination of a video signal and a subtitle signal corresponding to a subtitle stream. In the figure, the description of the audio signal (audio) and the subtitle signal (sub-picture) is the same as in FIG. 24 or FIG.

図42においては、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるセカンダリビデオストリーム(video_stream_id2でエントリーされるセカンダリビデオストリーム)のそれぞれにV2_SN(Video2 Stream Number:セカンダリビデオストリーム番号とも称する)が与えられる。   In FIG. 42, V2_SN (Video2 Stream Number: also referred to as secondary video stream number) is assigned to each secondary video stream (secondary video stream entered with video_stream_id2) entered in STN_table () of PlayItem that constitutes the main path of the PlayList. Is given.

具体的には、V2_SN=1にビデオ2が与えられ、V2_SN=2にビデオ1が与えられている。   Specifically, video 2 is given to V2_SN = 1, and video 1 is given to V2_SN = 2.

このとき、V2_SN=1のビデオ2に対しては、プライマリオーディオストリームとしてオーディオ2(図41のvideo_stream_id2がビデオ2を特定するIDである場合のfor文中において、audio_stream_idでエントリーされるプライマリオーディオストリーム)が、セカンダリオーディオストリームとしてオーディオ4(図41のvideo_stream_id2がビデオ2を特定するIDである場合のfor文中において、audio_stream_id2でエントリーされるセカンダリオーディオストリーム)が、サブタイトルストリームとしてサブピクチャ3(図41のvideo_stream_id2がビデオ2を特定するIDである場合のfor文中において、PG_textST_stream_idでエントリーされるサブタイトルストリーム)が、それぞれ組み合わせ可能とされている。   At this time, for video 2 with V2_SN = 1, audio 2 (primary audio stream entered with audio_stream_id in the for statement when video_stream_id2 in FIG. 41 is an ID for identifying video 2) is the primary audio stream. As a secondary audio stream, audio 4 (secondary audio stream entered with audio_stream_id2 in the for sentence when video_stream_id2 in FIG. 41 is an ID for identifying video 2) is sub-picture 3 (video_stream_id2 in FIG. The subtitle streams entered by PG_textST_stream_id in the for sentence in the case of the ID for specifying the video 2 can be combined.

また、V2_SN=2のビデオ1に対しては、プライマリオーディオストリームとしてオーディオ1(図41のvideo_stream_id2がビデオ1を特定するIDである場合のfor文中において、audio_stream_idでエントリーされるプライマリオーディオストリーム)が、セカンダリオーディオストリームとしてオーディオ4若しくはオーディオ5(図41のvideo_stream_id2がビデオ1を特定するIDである場合のfor文中において、2つのaudio_stream_id2のそれぞれでエントリーされる2つのセカンダリオーディオストリームのそれぞれ)が、サブタイトルストリームとしてサブピクチャ1(図41のvideo_stream_id2がビデオ1を特定するIDである場合のfor文中において、PG_textST_stream_idでエントリーされるサブタイトルストリーム)が、それぞれ組み合わせ可能とされている。   For video 1 with V2_SN = 2, audio 1 (primary audio stream entered with audio_stream_id in the for statement when video_stream_id2 in FIG. 41 is an ID for identifying video 1) is used as a primary audio stream. As the secondary audio stream, audio 4 or audio 5 (each of the two secondary audio streams entered in each of the two audio_stream_id2 in the for statement when video_stream_id2 in FIG. 41 is an ID for identifying video 1) is a subtitle stream. Sub-picture 1 (sub-title stream entered with PG_textST_stream_id in the for sentence when video_stream_id2 in FIG. 41 is an ID for identifying video 1) can be combined.

即ち、図41のvideo_stream_id2がビデオ1を特定するIDである場合のfor文中において、V2_SN=2のビデオ1と同時再生可能なオーディオストリームの組として、次の第1の組と第2の組とがそれぞれ定義されている。第1の組とは、プライマリオーディオストリームがオーディオ1であり、セカンダリオーディオストリームがオーディオ4である組のことをいう。第2の組とは、プライマリオーディオストリームがオーディオ1であり、セカンダリオーディオストリームがオーディオ5である第2の組のことをいう。   That is, in the for statement in the case where video_stream_id2 in FIG. 41 is an ID for identifying video 1, the following first set and second set are set as audio stream sets that can be played back simultaneously with video 1 with V2_SN = 2. Are defined respectively. The first set is a set in which the primary audio stream is audio 1 and the secondary audio stream is audio 4. The second set refers to a second set in which the primary audio stream is audio 1 and the secondary audio stream is audio 5.

かかる図42のストリームナンバーテーブルがユーザに呈示された場合(ここでは、呈示形態は特に問わない)、ユーザは、はじめに、映画本編等と同時再生させる監督のコメンタリー等の映像に対応するセカンダリビデオストリームとして、即ち、子画面(図39の例では子画面302)に表示させる映像に対応するセカンダリビデオストリームとして、ビデオ2(VS_SN=1)とビデオ1(VS_SN2)とのうちの何れか一方を選択することができる(そのような選択操作ができる)。   When the stream number table shown in FIG. 42 is presented to the user (in this case, the presentation form is not particularly limited), the user first starts the secondary video stream corresponding to the video of the director's commentary or the like to be played back simultaneously with the main movie or the like. That is, one of video 2 (VS_SN = 1) and video 1 (VS_SN2) is selected as the secondary video stream corresponding to the video to be displayed on the sub-screen (sub-screen 302 in the example of FIG. 39). (Such selection operation is possible).

例えば、セカンダリビデオストリームとしてビデオ2(VS_SN=1)が選択された場合には、図42に示されるように、そのビデオ2(VS_SN=1)と同時再生可能な組み合わせは、オーディオ2、オーディオ4、およびサブピクチャ3の組み合わせのみである。従って、セカンダリビデオストリームとしてビデオ2(VS_SN=1)が選択された時点で、ユーザの選択操作は終了となる。   For example, when video 2 (VS_SN = 1) is selected as the secondary video stream, as shown in FIG. 42, the combinations that can be reproduced simultaneously with video 2 (VS_SN = 1) are audio 2 and audio 4 , And a combination of sub-pictures 3 only. Therefore, when the video 2 (VS_SN = 1) is selected as the secondary video stream, the user's selection operation ends.

一方、図43に示されるように、セカンダリビデオストリームとしてビデオ1(VS_SN=2)が選択された場合には、そのビデオ1(VS_SN=2)と同時再生可能な組み合わせとしては、オーディオ1、オーディオ4、およびサブピクチャ1の第1の組み合わせと、オーディオ1、オーディオ5、およびサブピクチャ1の第2の組み合わせ、といった2通りの組み合わせが存在する。従って、セカンダリビデオストリームとしてビデオ1(VS_SN=2)を選択した場合、ユーザは、さらに、かかる第1の組み合わせと第2の組み合わせとのうちの何れか一方を選択することができる(そのような選択操作ができる)。   On the other hand, as shown in FIG. 43, when video 1 (VS_SN = 2) is selected as the secondary video stream, the combinations that can be reproduced simultaneously with video 1 (VS_SN = 2) include audio 1 and audio 4 and a first combination of sub-picture 1 and two combinations of audio 1, audio 5 and a second combination of sub-picture 1 exist. Therefore, when video 1 (VS_SN = 2) is selected as the secondary video stream, the user can further select one of the first combination and the second combination (such as such Select operation).

具体的には、例えばここでは、図35で説明した選択操作と同様に、ユーザは、ビデオ1(VS_SN=2)と同時再生させるストリームに対して(ストリームナンバーテーブル上の対応する表示の右方に対して)、再生を選択するときには、「×」から「○」に切り換える一方、再生を選択しないときには、「×」のまま保持する、といった選択操作を実行することができる。なお、図35を用いて説明した場合と同様に、「○」は再生を選択する状態を示すシンボルとされている一方、「×」は再生を選択していない状態を示すシンボルとされている。   Specifically, for example, here, as in the selection operation described with reference to FIG. 35, the user selects the right side of the corresponding display on the stream number table with respect to the stream to be simultaneously played with video 1 (VS_SN = 2). On the other hand, when selecting playback, it is possible to execute a selection operation such as switching from “×” to “◯” while holding “X” when not selecting playback. As in the case described with reference to FIG. 35, “◯” is a symbol indicating a state in which reproduction is selected, while “x” is a symbol indicating a state in which reproduction is not selected. .

図43の例では、かかる選択操作により、オーディオ1、オーディオ4、およびサブピクチャ1の第1の組み合わせが選択された結果が示されている。即ち、図43に示されるように、V2_SN=2のビデオ1と同時再生されるプライマリオーディオストリームとしてオーディオ1が選択されるので、その選択状態は、「×」から「○」に切り換えられる。また、V2_SN=2のビデオ1と同時再生されるセカンダリオーディオストリームとしてオーディオ4が選択されるので(オーディオ5が選択されないので)、オーディオ4の選択状態は、「×」から「○」に切り換えられる一方、オーディオ5の選択状態は「×」のまま保持される。また、V2_SN=2のビデオ1と同時再生されるサブタイトルストリームとしてサブピクチャ1が選択されるので、その選択状態は、「×」から「○」に切り換えられる。   In the example of FIG. 43, the result of selecting the first combination of audio 1, audio 4, and sub-picture 1 by such a selection operation is shown. That is, as shown in FIG. 43, since audio 1 is selected as the primary audio stream that is played back simultaneously with video 1 of V2_SN = 2, the selection state is switched from “×” to “◯”. Also, since audio 4 is selected as the secondary audio stream that is played back simultaneously with video 1 of V2_SN = 2 (because audio 5 is not selected), the selection state of audio 4 is switched from “×” to “◯”. On the other hand, the selection state of the audio 5 is kept “x”. Further, since sub-picture 1 is selected as a subtitle stream that is played back simultaneously with video 1 with V2_SN = 2, the selection state is switched from “×” to “◯”.

即ち、以上の一連の選択操作により、ビデオ1、オーディオ1、オーディオ4、および、サブピクチャ1を、メインビデオ(プライマリビデオストリームのことである)とともに再生可能な状態(そのような再生を選択する状態)とすることができる。   That is, by the series of selection operations described above, the video 1, audio 1, audio 4, and sub-picture 1 can be reproduced together with the main video (which is a primary video stream) (such reproduction is selected. State).

なお、上述した例では、プライマリビデオストリームと同時再生させるストリームの選択操作として、セカンダリビデオストリームを軸とする操作、即ち、先にセカンダリビデオストリームを選択した後、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームを選択する操作について説明した。   In the above-described example, as an operation for selecting a stream to be reproduced simultaneously with the primary video stream, an operation with the secondary video stream as an axis, that is, after selecting the secondary video stream first, the primary audio stream, the secondary audio stream, and The operation for selecting a subtitle stream has been described.

しかしながら、かかる選択操作として、上述した例のみならず、例えば、図35等を用いて上述した操作と同様にして、先にプライマリオーディオストリームを選択した後、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームを選択する操作を採用してもよい。即ち、図43のストリームナンバーテーブルのうちの、A_SN=1であるオーディオ2、A_SN=2であるオーディオ1、および、A_SN=3であるオーディオ3のうちの何れか1つを、プライマリオーディオストリームとして先に選択した後、図35等を用いて上述した操作と同様の操作により、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームを選択する、といった選択操作を採用することもできる。   However, as such a selection operation, not only the above-described example, but also, for example, in the same manner as the operation described above using FIG. 35 and the like, after the primary audio stream is first selected, the secondary video stream, the secondary audio stream, and An operation for selecting a subtitle stream may be employed. That is, any one of the audio 2 with A_SN = 1, the audio 1 with A_SN = 2, and the audio 3 with A_SN = 3 in the stream number table of FIG. 43 is set as the primary audio stream. A selection operation of selecting the secondary video stream, the secondary audio stream, and the subtitle stream by the same operation as that described above with reference to FIG.

また、例えば、先にサブタイトルストリームを選択した後、プライマリオーディオストリーム、セカンダリビデオストリーム、および、セカンダリオーディオストリームを選択する操作を採用することもできる。即ち、図43のストリームナンバーテーブルのうちの、S_SN=1であるサブピクチャ3、S_SN=2でサブピクチャ1、および、S_SN=3であるサブピクチャ2のうちの何れか1つを、サブタイトルストリームとして先に選択した後、図43中図示はされていないが、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリームを選択する、といった選択操作を採用することもできる。   Further, for example, an operation of selecting a primary audio stream, a secondary video stream, and a secondary audio stream after selecting a subtitle stream first may be employed. That is, any one of sub-picture 3 with S_SN = 1, sub-picture 1 with S_SN = 2, and sub-picture 2 with S_SN = 3 in the stream number table of FIG. As shown in FIG. 43, a selection operation such as selecting a secondary video stream, a primary audio stream, and a secondary audio stream may be employed.

なお、本実施の形態では、セカンダリオーディオストリームのユーザの切り換え操作は禁止されている。このため、図43の例では、セカンダリオーディオストリームに対するA_SNは与えられていない。即ち、図43の例では、オーディオ1乃至3がプライマリオーディオストリームとして利用され、オーディオ4,5がセカンダリオーディオストリームとして利用されている。   In this embodiment, the user switching operation of the secondary audio stream is prohibited. For this reason, in the example of FIG. 43, A_SN for the secondary audio stream is not given. That is, in the example of FIG. 43, audios 1 to 3 are used as primary audio streams, and audios 4 and 5 are used as secondary audio streams.

ところで、以上説明した図40と図41の第5のSTN_table()を利用するシンタクスにより、ピクチャインピクチャ手法(図39参照)を実現させる場合、Subpath_typeの種類として上述した図11を用いて説明した第1の例の種類を利用すると、例えば図44に示されるPlayListが生成される。   By the way, when the picture-in-picture method (see FIG. 39) is realized by the syntax using the fifth STN_table () of FIG. 40 and FIG. 41 described above, the type of Subpath_type has been described with reference to FIG. When the type of the first example is used, for example, a PlayList shown in FIG. 44 is generated.

図44の例では、メインパス(Main path)を構成するプレイアイテム1(PlayItem1)により参照されるclip AV Stream -0(メインClip AV Stream)に含まれるVideo(ビデオストリーム)とAudio(オーディオストリーム)とのそれぞれが、プライマリビデオストリームとプライマリオーディオストリームのそれぞれとなる。即ち、図39の例に対応させると、clip AV Stream -0に含まれるVideoとAudioとのそれぞれが、プライマリビデオストリーム311とプライマリオーディオストリーム312のそれぞれとして、全画面301に再生表示されるとともに、音声出力される。   In the example of FIG. 44, Video (video stream) and Audio (audio stream) included in clip AV Stream-0 (main Clip AV Stream) referred to by play item 1 (PlayItem 1) constituting the main path (Main path). Are a primary video stream and a primary audio stream. That is, in correspondence with the example of FIG. 39, each of Video and Audio included in clip AV Stream-0 is reproduced and displayed on the full screen 301 as a primary video stream 311 and a primary audio stream 312, respectively. Sound is output.

一方、サブパス1(Sub path-1)に含まれるサブプレイアイテム(SubPlayItem:SPI)により参照されるClip AV Stream -1に含まれる2ndVideo(ビデオストリーム)が、セカンダリビデオストリームとなり、また、サブパス2(Sub path-2)がに含まれるサブプレイアイテム(SPI)としてのClip AV Stream -1に含まれる2ndAudio(オーディオストリーム)が、セカンダリオーディオストリームとなる。即ち、図39の例に対応させると、Clip AV Stream -1に含まれる2ndVideoと2ndAudioとのそれぞれが、セカンダリビデオストリーム313とセカンダリオーディオストリーム314のそれぞれとして、子画面302に再生表示されるとともに、音声出力される。   On the other hand, 2ndVideo (video stream) included in Clip AV Stream-1 referred to by a sub play item (SubPlayItem: SPI) included in sub path 1 (Sub path-1) is a secondary video stream, and sub path 2 ( 2ndAudio (audio stream) included in Clip AV Stream-1 as a sub play item (SPI) included in Sub path-2) is a secondary audio stream. That is, in correspondence with the example of FIG. 39, each of 2ndVideo and 2ndAudio included in Clip AV Stream-1 is reproduced and displayed on the child screen 302 as a secondary video stream 313 and a secondary audio stream 314, respectively. Sound is output.

ただし、Clip AV Stream -0に含まれるAudioをプライマリオーディオストリームとして全画面301に対応つけて再生(音声出力)させ、かつ、Clip AV Stream -1に含まれる2ndAudioをセカンダリオーディオストリームとして子画面302に対応つけて再生(音声出力)させるとは、上述したように、それら2つのオーディオストリームに対してミキシング処理が施された結果得られる音声が再生出力されることを指す。   However, the audio included in Clip AV Stream-0 is played back (sound output) as a primary audio stream in association with the entire screen 301, and the 2ndAudio included in Clip AV Stream-1 is displayed as a secondary audio stream on the child screen 302. Playing in correspondence (sound output) means that, as described above, the sound obtained as a result of performing the mixing process on these two audio streams is played back and output.

このように、図44の例では、SubPath_typeの種類として図11の例の種類が利用されて、その結果、メインパス、サブパス1、および、サブパス2により、ピクチャインピクチャ手法が実現されている。   As described above, in the example of FIG. 44, the type of the example of FIG. 11 is used as the type of SubPath_type, and as a result, the picture-in-picture technique is realized by the main path, the subpath 1, and the subpath 2.

しかしながら、図44の例では、プライマリビデオストリームであるClip AV Stream -0のVideoと同時に再生されるセカンダリビデオストリームとセカンダリオーディオストリームとのそれぞれは、同一のClip AV Stream -1内に含まれる2ndVideoと2ndAudioとのそれぞれであるにも関わらず、別々のサブパス1とサブパス2とのそれぞれで定義されている。なぜならば、図11の例では、参照されるES(エレメンタリストリーム)の本数は1本のみである、というSubPath_typeの種類しか用意されていないためである。即ち、図11の例では、Audio,IG,Text,Videoといった各種類のESが、同一のClipに含まれるClip AV Streamファイルに含まれているか否かによらず、ES1本ずつに対して、SubPath_typeが1つずつ常に割り当てられる、というSubPath_typeの種類しか用意されていないためである。   However, in the example of FIG. 44, each of the secondary video stream and the secondary audio stream that are played back simultaneously with the video of the clip AV Stream-0 that is the primary video stream is the 2ndVideo included in the same Clip AV Stream-1. In spite of being 2ndAudio, it is defined in each of separate subpath 1 and subpath 2. This is because, in the example of FIG. 11, only the SubPath_type type that only one ES (elementary stream) is referenced is prepared. That is, in the example of FIG. 11, each type of ES such as Audio, IG, Text, and Video is included in each Clip AV Stream file included in the same Clip. This is because only the SubPath_type type that SubPath_type is always assigned one by one is prepared.

即ち、図44の例によらず、図11の例のSubPath_typeの種類が利用される場合、メインパスで参照されるESと別に、再生対象のESが2本以上存在するときには、それらの2本以上のESは別々のサブパスにそれぞれ分けられて、即ち、2つの別のSPIのそれぞれとして定義されることになる。   That is, regardless of the example of FIG. 44, when the type of SubPath_type in the example of FIG. 11 is used, when there are two or more ESs to be reproduced, apart from the ES referenced in the main path, these two are used. The above ESs are divided into separate sub-paths, that is, defined as two different SPIs.

この場合、それらの2本以上のESが同一のClipに含まれるClip AV Streamファイルに含まれているならば、上述したSubPlayItem_IN_time,SubPlayItem_OUT_time等は同一となるにも関わらず、それぞれ個別に持つ(その結果何重にも持つ)必要が生じてしまい、SubPlayItem_IN_time、および、SubPlayItem_OUT_timeの情報が冗長となる、という第1の問題点が発生する。   In this case, if these two or more ESs are included in the Clip AV Stream file included in the same Clip, the above-mentioned SubPlayItem_IN_time, SubPlayItem_OUT_time, etc. are the same even though they are the same. As a result, there is a need for multiple times), and the first problem is that the information of SubPlayItem_IN_time and SubPlayItem_OUT_time becomes redundant.

また、この場合、再生対象のESごとにサブパスを定義しなければならないので、PlayListの構造が必要以上に複雑になる、という第2の問題点も発生する。   Further, in this case, since a sub path must be defined for each ES to be reproduced, a second problem that the structure of the PlayList becomes more complicated than necessary occurs.

さらに、かかる第2の問題点から、次のような第3の問題点も発生する。   Furthermore, from the second problem, the following third problem also occurs.

即ち、例えば、本実施の形態では、再生装置(例えば上述した図25の再生装置20や後述する図49の再生装置401)には、同時に2本のTS(2つのClip)までしか読めないという制限(縛り)が課せられている。かかる制限が課せられた再生装置では、このような複雑な構造のPlayListを再生しようとすると、そのPlayList内に定義されているメインパスと、何れのサブパスを組み合わせて再生すればよいのかを直ちに決められない、即ち、そのような組み合わせを決定するために複雑な処理の実行が必要になる、という第3の問題点が発生する。   That is, for example, in this embodiment, the playback device (for example, the playback device 20 in FIG. 25 described above or the playback device 401 in FIG. 49 described later) can read only up to two TSs (two clips) at the same time. Restrictions are imposed. In a playback apparatus with such restrictions, when a PlayList having such a complicated structure is to be played, it is immediately determined which of the main path defined in the PlayList and which sub-path should be combined for playback. The third problem arises that it is not possible, that is, it is necessary to execute complicated processing to determine such a combination.

そこで、本発明人は、かかる第1乃至第3の問題点を解決すべく、SubPath_typeの種類として、複数のESを取り扱える種類、即ち、複数のESを同時に参照可能とする種類を追加する、という手法をさらに発明した。かかる手法が適用されたSubPath_typeの種類の第2の例が図45に示されている。   Therefore, in order to solve the first to third problems, the present inventor adds, as the type of SubPath_type, a type that can handle a plurality of ESs, that is, a type that can simultaneously reference a plurality of ESs. The method was further invented. A second example of the type of SubPath_type to which such a technique is applied is shown in FIG.

即ち、図45は、SubPath_type(サブパスのタイプ)の種類の第2の例であって、図11とは異なる例、即ち、図11の例にも存在する種類に対して、かかる第1乃至第3の問題点を解決可能な種類を追加した例を説明する図である。すなわち、かかる第1乃至第3の問題点を解決するためには、例えば図45に示される第2のSubPath_typeを採用すればよい。   That is, FIG. 45 is a second example of the type of SubPath_type (subpath type) and is different from the example of FIG. 11, that is, for the types existing in the example of FIG. It is a figure explaining the example which added the kind which can solve 3 problems. That is, in order to solve the first to third problems, for example, the second SubPath_type shown in FIG. 45 may be adopted.

図45において、SubPath_type=0乃至4は、図11の対応するタイプと同一とされているので、ここではその説明については省略する。   In FIG. 45, SubPath_type = 0 to 4 are the same as the corresponding types in FIG. 11, so the description thereof is omitted here.

ただし、SubPath_type=2乃至4の「Meaning」において、図45の例では「Out-of-mux」という記述がなされているが、図11の例ではその記述は省略されている。そこで、その記述について説明する。即ち、この「Out-of-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照されるESが含まれるTSとが異なっている場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるプレイアイテムが含まれるTSに多重化されていないサブパスのタイプ(種類)であることを示している。以下、かかる種類を、メインパスTS非多重型のパスと称する。   However, in “Meaning” with SubPath_type = 2 to 4, the description “Out-of-mux” is described in the example of FIG. 45, but the description is omitted in the example of FIG. The description will be described. That is, the description of “Out-of-mux” is the type (type) of the subpath when the TS including the ES referred to in the subpath is different from the TS including the ES referred to in the main path. That is, the ES referred to in the sub path indicates that the sub path type is not multiplexed in the TS including the play item referred to in the main path. Hereinafter, this type is referred to as a main path TS non-multiplex type path.

また、SubPath_type=2,3のように、メインパスで参照されるESとサブパスで参照されるESとが非同期である場合、そのサブパスのタイプ(種類)を、以下、非同期型のパスと称する。一方、SubPath_type=4,5のように、メインパスで参照されるESとサブパスで参照されるESとが同期する場合、そのサブパスのタイプ(種類)を、以下、同期型のパスと称する。   Further, when the ES referred to in the main path and the ES referred to in the sub path are asynchronous as in SubPath_type = 2, 3, the type (kind) of the sub path is hereinafter referred to as an asynchronous path. On the other hand, when the ES referenced by the main path and the ES referenced by the sub path are synchronized as in SubPath_type = 4, 5, the type (type) of the sub path is hereinafter referred to as a synchronous path.

SubPath_type=5は、Out-of-mux and AV Synchronized type of one or more elementary streams path(Primary audio/PG/IG/Secondary audio path).Out of mux and AV synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=5は、メインパスTS非多重型、かつ、同期型のパスであって、1本以上のES(Primary audio/PG/IG/Secondary audio)のパスや、ピクチャインピクチャプレゼンテーションパスとされている。   SubPath_type = 5 is Out-of-mux and AV Synchronized type of one or more elementary streams path (Primary audio / PG / IG / Secondary audio path) .Out of mux and AV synchronized type of Picture-in-Picture presentation path which Contains one or more elementary streams paths. In other words, SubPath_type = 5 is a main path TS non-multiplexed and synchronous path, and includes one or more ES (Primary audio / PG / IG / Secondary audio) paths, picture-in-picture presentation paths, and so on. Has been.

すなわち、SubPath_type=5は、図11を用いて説明した例におけるSubPath_type=5,6のそれぞれで示される種類も含まれ、2nd Audio Presentation path(2番目のオーディオプレゼンテーションパス)(2ndオーディオストリームを参照するためのパス)や、2nd Video Presentation path(2番目のビデオプレゼンテーションパス)(2ndビデオストリームを参照するためのパス)を含むものである。   That is, SubPath_type = 5 includes the types indicated by SubPath_type = 5 and 6 in the example described with reference to FIG. 11, and refers to the 2nd Audio Presentation path (second audio presentation path) (refers to the 2nd audio stream). For example) and a 2nd Video Presentation path (second video presentation path) (path for referring to the 2nd video stream).

ここで、ピクチャインピクチャプレゼンテーションパスとは、上述したピクチャインピクチャ手法(図39参照)において、所定のプライマリビデオストリームについての、プライマリオーディオストリームストリーム、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームのうちの1以上のパス(そのようなサブパスのタイプ)であることをいう。   Here, the picture-in-picture presentation path refers to a primary audio stream stream, a secondary video stream, a secondary audio stream, and a subtitle stream for a predetermined primary video stream in the above-described picture-in-picture method (see FIG. 39). One or more paths (types of such sub paths).

SubPath_type=6は、Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。即ち、SubPath_type=8は、メインパスTS非多重型、かつ、非同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   SubPath_type = 6 is Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths. That is, SubPath_type = 8 is a main path TS non-multiplexed and asynchronous path, and is a picture-in-picture presentation path (one or more ES paths).

SubPath_type=7は、In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。   SubPath_type = 7 is In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths.

ここで、「In-mux」という記述は、サブパスで参照されるESが含まれるTSと、メインパスで参照される1以上のESが含まれるTSとが同一の場合のサブパスのタイプ(種類)、即ち、サブパスで参照されるESが、メインパスで参照されるESを含むTSに多重化されているサブパスのタイプ(種類)であることを示している。換言すれば、メインクリップに含まれるメインTSに、メインのClip AVストリームと、サブのClip AVストリームとが含まれている状態である。以下、かかる種類を、メインパスTS多重型のパスと称する。   Here, the description “In-mux” is a subpath type (kind) when a TS including an ES referenced by a subpath is the same as a TS including one or more ESs referenced by a main path. That is, it is indicated that the ES referred to in the subpath is the type (kind) of the subpath multiplexed in the TS including the ES referred to in the main path. In other words, the main TS included in the main clip includes the main Clip AV stream and the sub Clip AV stream. Hereinafter, this type is referred to as a main path TS multiplexing type path.

即ち、SubPath_type=7は、メインパスTS多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   That is, SubPath_type = 7 is a main path TS multiplexing type and synchronous type path, which is a picture-in-picture presentation path (one or more ES paths).

そして、SubPath_type=8乃至255は予備(reserved)とされている。 SubPath_type = 8 to 255 is reserved.

図45の例のSubpath_typeの種類を利用することにより、新たに追加されたSubPath_type=5,6,7を利用することが可能となる。ここで、SubPath_type=7においては、PlayItemにより参照されるMainTS、すなわち、メインClip AVストリームには、SubPathにより参照されるSubSTも含まれる。そのため、図17を用いて説明したStream_entry()に代わって、type=3が定義された、図46に示される第2のStream_entry()が用いられる。   By using the type of Subpath_type in the example of FIG. 45, it is possible to use newly added SubPath_type = 5, 6, and 7. Here, in SubPath_type = 7, MainTS referred to by PlayItem, that is, the main Clip AV stream includes SubST referred to by SubPath. Therefore, instead of Stream_entry () described with reference to FIG. 17, second Stream_entry () shown in FIG. 46, in which type = 3 is defined, is used.

すなわち、第2のStream_entry()において定義されているtype=3は、対応するPlayItemにおいてSubPath_type=7の場合に、MainClipに含まれ、SubPathによって参照されるエレメンタリストリームを識別するためのものである。   That is, type = 3 defined in the second Stream_entry () is for identifying an elementary stream that is included in the MainClip and referenced by the SubPath when SubPath_type = 7 in the corresponding PlayItem. .

なお、図46において、図15と同一の部分については、その説明を適宜省略する。   46, the description of the same parts as those in FIG. 15 will be omitted as appropriate.

すなわち、type=3では、SubPathがMainPathと同じClipを参照し、換言すれば、MainClipに複数のエレメンタリストリームが多重化され、MainPathとSubPathとのいずれも、MainClipに多重化されているエレメンタリストリームのうちのいずれかを参照している場合に、SubPath_type=7において、MainClipの複数のエレメンタリストリームの中から、SubPathによって参照される1つのエレメンタリストリームを再生時に特定するために、ref_to_stream_PID_of_MainClipにより、MainClipのパケットID(PID)が指定される。また、ref_to_SubPath_idによりSubPath_idが示され、このSubPath_idにより図9のPlayList()で定義されたSubPathが特定され、このSubpathから対応するSubPlayItemが呼び出されることにより(図10)、エレメンタリストリームの再生時間(In_time, Out_time)等を把握することができる(図12)ようになされている。   That is, when type = 3, SubPath refers to the same Clip as MainPath, in other words, a plurality of elementary streams are multiplexed on MainClip, and both MainPath and SubPath are multiplexed on MainClip. When referring to any one of the streams, Ref_to_stream_PID_of_MainClip is used to specify one elementary stream referenced by SubPath from among a plurality of elementary streams of MainClip when SubPath_type = 7. MainClip packet ID (PID) is specified. Also, SubPath_id is indicated by ref_to_SubPath_id, the SubPath defined in PlayList () of FIG. 9 is specified by this SubPath_id, and the corresponding SubPlayItem is called from this Subpath (FIG. 10), so that the elementary stream playback time ( (In_time, Out_time) and the like can be grasped (FIG. 12).

このように、type(type1乃至type3の3つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipが、さらに、SubPathから参照されている場合であっても、Clipの中から1つのエレメンタリストリームを特定することができる。   As described above, when a type (three types of type 1 to type 3) is used and a PlayItem and one or more SubPaths to be played back are prepared, a clip referred to by the PlayItem is further Even if it is referenced from SubPath, one elementary stream can be specified from the Clip.

以上説明したような図45の例のSubpath_typeの種類を利用することで、即ち、図11の例にも存在したSubPath_type=1乃至4とともに、新たに追加されたSubPath_type=5,6,7を利用することで、ピクチャインピクチャ手法(図39参照)を実現させる場合のPlayListとして、図44の例のような複雑な構造のPlayListの代わりに、例えば図47に示されるような簡単な構造のPlayListの作成/利用が可能になる。   By using the type of Subpath_type in the example of FIG. 45 as described above, that is, using the newly added SubPath_type = 5, 6, 7 together with SubPath_type = 1 to 4 that also existed in the example of FIG. Thus, as a PlayList for realizing the picture-in-picture method (see FIG. 39), a PlayList having a simple structure as shown in FIG. 47, for example, instead of a PlayList having a complicated structure as in the example of FIG. Can be created / used.

即ち、図47の例でも、メインパス(Main path)に含まれるプレイアイテム1(PlayItem1)が参照するClip AV Stream -0に含まれるVideo(ビデオストリーム)とAudio(オーディオストリーム)とのそれぞれが、プライマリビデオストリームとプライマリオーディオストリームのそれぞれとなる。即ち、図39の例に対応させると、clip AV Stream -0に含まれるVideoとAudioとのそれぞれが、プライマリビデオストリーム311とプライマリオーディオストリーム312のそれぞれとして、全画面301に再生されるとともに、音声出力される。   That is, also in the example of FIG. 47, each of Video (video stream) and Audio (audio stream) included in Clip AV Stream-0 referred to by PlayItem 1 (PlayItem1) included in the main path is Each is a primary video stream and a primary audio stream. That is, in correspondence with the example of FIG. 39, each of Video and Audio included in clip AV Stream-0 is reproduced on the full screen 301 as a primary video stream 311 and a primary audio stream 312, respectively. Is output.

また、図47の例でも、プライマリビデオストリームであるClip AV Stream -0のVideoと同時に再生されるセカンダリビデオストリームとセカンダリオーディオストリームとのそれぞれは、同一のClip AV Stream -1内に含まれる2ndVideoと2ndAudioとのそれぞれとされている。   Also in the example of FIG. 47, each of the secondary video stream and the secondary audio stream that are played back simultaneously with the video of Clip AV Stream-0 that is the primary video stream is the same as the 2nd Video included in the same Clip AV Stream-1. Each with 2ndAudio.

そこで、図47の例では、サブパスA(Sub path-A)のタイプとして、上述したSubPath_type=7、即ち、メインパスTS非多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパスが採用されている。これにより、サブパスA(Sub path-A)が参照するサブプレイアイテム(SPI)として、Clip AV Stream -1に含まれる2ndVideoと2ndAudioとの2つのESを同時に参照できるようになる。その結果、図39の例に対応させると、1つのサブパスA(Sub path-A)のみで参照されるClip AV Stream -1に含まれる2ndVideoと2ndAudioとのそれぞれが、セカンダリビデオストリーム313とセカンダリオーディオストリーム314のそれぞれとして、子画面302に再生されるとともに、音声出力される。   Therefore, in the example of FIG. 47, as the type of sub path A (Sub path-A), the above-mentioned SubPath_type = 7, that is, the main path TS non-multiplexed type and synchronous type path, which is a picture-in-picture presentation path. Is adopted. As a result, two ESs of 2ndVideo and 2ndAudio included in Clip AV Stream-1 can be referenced simultaneously as a sub play item (SPI) referred to by sub path A (Sub path-A). As a result, when corresponding to the example of FIG. 39, 2ndVideo and 2ndAudio included in Clip AV Stream -1 referred to by only one sub path A (Sub path-A) are represented by secondary video stream 313 and secondary audio, respectively. Each of the streams 314 is reproduced on the child screen 302 and output as audio.

その際、サブパスA(Sub path-A)のタイプとして、上述したSubPath_type=5が採用されている場合、セカンダリビデオストリーム313とセカンダリオーディオストリーム314とは、プライマリビデオストリーム311と同期して再生されることになる。   At this time, when the above-described SubPath_type = 5 is adopted as the type of sub path A (Sub path-A), the secondary video stream 313 and the secondary audio stream 314 are reproduced in synchronization with the primary video stream 311. It will be.

換言すると、セカンダリビデオストリーム313とセカンダリオーディオストリーム314とを、プライマリビデオストリーム311と非同期で再生したい場合には(或いは非同期で再生する必要がある場合には)、サブパスA(Sub path-A)のタイプとして、上述したSubPath_type=8、即ち、メインパスTS非多重型、かつ、非同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)を採用すればよい。   In other words, when it is desired to reproduce the secondary video stream 313 and the secondary audio stream 314 asynchronously with the primary video stream 311 (or when it is necessary to reproduce asynchronously), the sub path A (Sub path-A) As the type, SubPath_type = 8, that is, a main path TS non-multiplexed type and asynchronous type path, which is a picture-in-picture presentation path (one or more ES paths) may be adopted.

このように、図47の例では、図45の例のSubpath_typeの種類が採用された結果、メインパスの他1つのサブパスのみで、ピクチャインピクチャ手法が実現されている。   As described above, in the example of FIG. 47, as a result of adopting the type of Subpath_type in the example of FIG. 45, the picture-in-picture technique is realized only by one subpath other than the main path.

即ち、同一のClip AV Stream -1に含まれる2ndvideoと2ndAudioとのそれぞれをセカンダリビデオストリーム313とセカンダリオーディオストリーム314として利用する、といったピクチャインピクチャ手法を実現する場合、図11の例のSubpath_typeの種類を利用して生成された図44の例のPlayListでは、同一のClip AV Stream -1に含まれる2ndvideoと2ndAudioとのそれぞれは2つの別々のサブパスで参照されていた。これに対して、図45の例のSubpath_typeを利用して生成された図47の例のPlayListでは、同一のClip AV Stream -1に含まれる2ndvideoと2ndAudioとのそれぞれは1つのサブパスのみで参照できるようになっている。   That is, when realizing a picture-in-picture method in which 2ndvideo and 2ndAudio included in the same Clip AV Stream-1 are used as the secondary video stream 313 and the secondary audio stream 314, the type of Subpath_type in the example of FIG. 44, the 2ndvideo and 2ndAudio included in the same Clip AV Stream-1 are referred to by two separate subpaths. On the other hand, in the PlayList of the example of FIG. 47 generated using the Subpath_type of the example of FIG. 45, each of 2ndvideo and 2ndAudio included in the same Clip AV Stream-1 can be referred to by only one subpath. It is like that.

その結果、2ndvideoと2ndAudioとのそれぞれについての、SubPlayItem_IN_time,SubPlayItem_OUT_time等は1つ持てばよいため、上述した第1の問題点を解決することが可能になる。   As a result, it is only necessary to have one SubPlayItem_IN_time, SubPlayItem_OUT_time, etc. for each of 2ndvideo and 2ndAudio, so that the first problem described above can be solved.

また、図44の例と図47の例のPlayListを比較すれば明らかなように、その構造を簡素化できるので、第2の問題点と第3の問題点を解決することが可能になる。   Further, as apparent from comparing the PlayList in the example of FIG. 44 and the example of FIG. 47, the structure can be simplified, so that the second problem and the third problem can be solved.

さらに、図45の例のSubpath_typeの種類のうちのSubPath_type=7、即ち、メインパスTS多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)を利用することで、例えば図48に示されるようなPlayListを作成することが可能になる。その結果、図48の例のPlayListを利用したピクチャインピクチャ手法の実現も容易に可能になる。   Furthermore, SubPath_type = 7 of the types of Subpath_type in the example of FIG. 45, that is, a main path TS multiplexing type and synchronous type path, which uses a picture-in-picture presentation path (one or more ES paths). Thus, for example, a PlayList as shown in FIG. 48 can be created. As a result, the picture-in-picture technique using the PlayList in the example of FIG. 48 can be easily realized.

図48の例では、メインパス(Main path)が参照するプレイアイテム1(PlayItem1)により参照されるMain TSには、Clip AV Stream -0(ただし、図47のClip AV Stream -0とは異なるClip AV Stream)が含まれており、Clip AV Stream -0には、PlayItem1によって参照されるMain TSと、SubPlayItemによって参照されるSub TSが含まれている。そして、Main TSに含まれるVideo(ビデオストリーム)とAudio(オーディオストリーム)とのそれぞれが、プライマリビデオストリームとプライマリオーディオストリームのそれぞれとなる。即ち、図39の例に対応させると、Clip AV Stream -0に含まれるVideoとAudioとのそれぞれが、プライマリビデオストリーム311とプライマリオーディオストリーム312のそれぞれとして、全画面301に再生されるとともに音声出力される。   In the example of FIG. 48, the Main TS referred to by the play item 1 (PlayItem 1) referred to by the main path (Main path) includes Clip AV Stream-0 (however, a Clip different from the Clip AV Stream-0 of FIG. 47). AV Stream) is included, and Clip AV Stream-0 includes a Main TS referenced by PlayItem1 and a Sub TS referenced by SubPlayItem. Then, each of Video (video stream) and Audio (audio stream) included in the Main TS becomes a primary video stream and a primary audio stream, respectively. That is, in correspondence with the example of FIG. 39, each of Video and Audio included in Clip AV Stream-0 is reproduced on the full screen 301 as the primary video stream 311 and the primary audio stream 312, respectively, and the sound is output. Is done.

また、図48の例では、プライマリビデオストリームであるMain TSのVideoと同時に再生されるセカンダリビデオストリームとセカンダリオーディオストリームとのそれぞれは、同じMain TSに含まれるClip AV Stream -0に含まれる2ndVideoと2ndAudioとのそれぞれとなる。   Also, in the example of FIG. 48, each of the secondary video stream and the secondary audio stream that are played back simultaneously with the video of the Main TS that is the primary video stream is the second video included in the Clip AV Stream-0 included in the same Main TS. Each with 2ndAudio.

この場合、図48の例のPlayListを作成するためには、サブパスA(Sub path-A)のタイプとして、SubPath_type=7を採用すればよい。これにより、サブパスA(Sub path-A)に含まれるサブプレイアイテム(SPI)が参照するESとして、メインパスでも参照しているMain TSのClip AV Stream -0に含まれるSubSTの2ndVideoと2ndAudioとの2つのESを参照できるようになる。その結果、図39の例に対応させると、サブパスA(Sub path-A)で参照されるClip AV Stream -0に含まれる2ndVideoと2ndAudioとのそれぞれを、セカンダリビデオストリーム313とセカンダリオーディオストリーム314のそれぞれとして、子画面302に再生するとともに、音声出力することができるようになる。すなわち一つのファイルがメインパス、サブパスを含むように構成することにより、更に別のファイルに含まれるストリームを同時に再生させることも可能となる。   In this case, in order to create the PlayList in the example of FIG. 48, SubPath_type = 7 may be adopted as the type of sub path A (Sub path-A). As a result, as the ES that the sub play item (SPI) included in the sub path A (Sub path-A) refers to, the SubST 2nd Video and 2nd Audio included in the Clip AV Stream-0 of the Main TS that is also referenced in the main path The two ESs can be referred to. As a result, according to the example of FIG. 39, 2ndVideo and 2ndAudio included in Clip AV Stream-0 referred to by sub path A (Sub path-A) are respectively converted into secondary video stream 313 and secondary audio stream 314. Respectively, it is possible to reproduce on the sub-screen 302 and output sound. That is, by configuring so that one file includes a main path and a sub path, a stream included in another file can be reproduced simultaneously.

その他、図48に示されるように、PlayItem-1に対するサブパスとして、サブパスAに加えて、Clip AV Stream -0が含まれているMainTSとは異なるTSに含まれているClip AV Stream -1(ただし、図44のClip AV Stream -1とは異なるClip AV Stream)を参照するサブパスB(Subpath-B)が定義されている場合には、上述したように、本実施の形態の再生装置は、2つのTS(Clip)を同時に読み出すことが可能であるので、MainTSに含まれるVideo,Audio,2ndVideo,2ndAudioとともに、SubTSに含まれるPG等も読み出すことが可能になる。   In addition, as shown in FIG. 48, as a sub-path for PlayItem-1, in addition to sub-path A, Clip AV Stream -1 included in a TS different from MainTS including Clip AV Stream-0 (however, 44, when a subpath B (Subpath-B) that refers to a Clip AV Stream that is different from Clip AV Stream -1 in FIG. 44 is defined, as described above, the playback device according to the present embodiment has 2 Since one TS (Clip) can be read out simultaneously, it is possible to read out the PG included in the SubTS as well as the Video, Audio, 2ndVideo, and 2ndAudio included in the MainTS.

以上、ピクチャインピクチャ手法(図39参照)を適用するために必要なSyntaxの例、即ち、図40と図41の例のSTN_table()や、図45の例のSubPath_typeの種類について説明した。   Heretofore, the syntax example necessary for applying the picture-in-picture method (see FIG. 39), that is, the STN_table () in the example of FIGS. 40 and 41 and the type of SubPath_type in the example of FIG. 45 have been described.

かかるピクチャインピクチャ手法を実現するためには、プライマリビデオストリームとセカンダリビデオストリームとを同時再生できる機能を有する再生装置、例えば図49に示されるような再生装置の適用が必要である。   In order to realize such a picture-in-picture method, it is necessary to apply a playback device having a function of simultaneously playing a primary video stream and a secondary video stream, for example, a playback device as shown in FIG.

即ち、図49は、本発明を適用した再生装置の構成例であって、図25の例とは異なる構成例を示すブロック図である。   That is, FIG. 49 is a block diagram showing a configuration example of a playback apparatus to which the present invention is applied, which is different from the example of FIG.

図49の例の再生装置401は、上述したメインパスとサブパスを有するPlayListであって、ピクチャインピクチャ手法を実現するためのPlayList(例えば図47や図48の例のPlayList)に従った再生を行うことができる。   The playback device 401 in the example of FIG. 49 is a PlayList having the above-described main path and sub path, and performs playback according to the PlayList (for example, the PlayList in the examples of FIGS. 47 and 48) for realizing the picture-in-picture method. It can be carried out.

なお、図49において、図25と対応する部分(ブロック)には対応する符号が付してあり、それらの説明については適宜省略する。   49, parts (blocks) corresponding to those in FIG. 25 are denoted by the corresponding reference numerals, and description thereof will be omitted as appropriate.

図49の例の再生装置401には、図25の例の再生装置20と同様の機能と構成を有する、ストレージドライブ31、スイッチ32、およびコントローラ34が設けられている。ただし、コントローラ34の機能は追加されている。追加された機能の詳細については後述する。さらに、図49の例の再生装置401には、図25の例の再生装置20のAVデコーダ部33とは機能と構成が若干異なるAVデコーダ部403が設けられている。   The playback device 401 in the example of FIG. 49 is provided with a storage drive 31, a switch 32, and a controller 34 that have the same functions and configurations as the playback device 20 in the example of FIG. However, the function of the controller 34 is added. Details of the added function will be described later. Further, the playback device 401 in the example of FIG. 49 is provided with an AV decoder unit 403 having a slightly different function and configuration from the AV decoder unit 33 of the playback device 20 in the example of FIG.

即ち、図49の例のAVデコーダ部403には、図25の例のAVデコーダ部33とほぼ同様の機能と構成を有するバッファ51乃至ミキシング処理部101が設けられている他、さらに、図25の例のAVデコーダ部33には設けられていないPIDフィルタ411乃至プリロード用バッファ414が設けられている。   That is, the AV decoder unit 403 in the example of FIG. 49 is provided with a buffer 51 through a mixing processing unit 101 having substantially the same functions and configurations as the AV decoder unit 33 in the example of FIG. The AV decoder unit 33 in this example is provided with a PID filter 411 to a preload buffer 414 which are not provided.

なお、「図25の例のAVデコーダ部33とほぼ同様の機能と構成を有する」といったように「ほぼ」と記述したのは、ビデオデコーダ72やビデオプレーン生成部92の呼称が、1stビデオデコーダ72や1stビデオプレーン生成部92と変更されていたり、PIDフィルタ56の出力が1つ増加していたり等、若干異なるところがあるからである。   Note that “almost” is described as “having substantially the same function and configuration as the AV decoder unit 33 in the example of FIG. 25” because the name of the video decoder 72 and the video plane generating unit 92 is the 1st video decoder. This is because there are some differences such as a change to 72 or the 1st video plane generation unit 92, or an increase in the output of the PID filter 56 by one.

以下、図49の例のAVデコーダ部403のうちの、図25の例のAVデコーダ部33とは異なる箇所について説明する。   In the following, portions of the AV decoder unit 403 in the example of FIG. 49 that are different from the AV decoder unit 33 in the example of FIG. 25 will be described.

AVデコータ部403は、ピクチャインピクチャ手法を実現するために、プライマリビデオストリームとセカンダリビデオストリームとをデコードする必要がある。このため、図25の例のAVデコーダ部33に設けられていたビデオデコーダ72とビデオプレーン生成部92とのそれぞれは、図49の例のAVデコーダ部403においては、プライマリビデオストリーム用の1stビデオデコーダ72と1stビデオプレーン生成部92とのそれぞれとして設けられている。さらに、図49の例のAVデコーダ部403には、1stビデオデコーダ72と1stビデオプレーン生成部92とのそれぞれと同様の機能と構成を有する、セカンダリビデオストリーム用の2ndビデオデコーダ412と2ndビデオプレーン生成部413とのそれぞれが設けられている。   The AV decoder unit 403 needs to decode the primary video stream and the secondary video stream in order to realize the picture-in-picture method. Therefore, each of the video decoder 72 and the video plane generation unit 92 provided in the AV decoder unit 33 in the example of FIG. 25 is the first video for the primary video stream in the AV decoder unit 403 in the example of FIG. Each of the decoder 72 and the 1st video plane generating unit 92 is provided. Further, the AV decoder unit 403 in the example of FIG. 49 includes a 2nd video decoder 412 and a 2nd video plane for secondary video streams having the same functions and configurations as the 1st video decoder 72 and the 1st video plane generating unit 92, respectively. Each of the generators 413 is provided.

また、PIDフィルタ411には、メインClipAV Streamのビデオストリーム、または、サブClip AV Streamのビデオストリームが、PIDフィルタ55またはPIDフィルタ56を介して入力されてくる。そこで、PIDフィルタ411は、入力されたビデオストリームを、そのPID(パケットID)に応じて、後段の1stビデオデコーダ72または2ndビデオデコーダ412に振り分けて出力する。即ち、PIDフィルタ411は、プライマリビデオストリームが入力された場合には、そのプライマリビデオストリームを1stビデオデコーダ72に供給する。これに対して、PIDフィルタ411は、セカンダリビデオストリームが入力された場合には、そのセカンダリビデオストリームを2ndビデオデコーダ412に供給する。   Also, the main ClipAV Stream video stream or the sub Clip AV Stream video stream is input to the PID filter 411 via the PID filter 55 or the PID filter 56. Therefore, the PID filter 411 distributes the input video stream to the subsequent 1st video decoder 72 or 2nd video decoder 412 according to the PID (packet ID) and outputs the result. That is, when a primary video stream is input, the PID filter 411 supplies the primary video stream to the 1st video decoder 72. In contrast, when a secondary video stream is input, the PID filter 411 supplies the secondary video stream to the 2nd video decoder 412.

なお、本実施の形態では、プライマリビデオストリームとして、メインClipAV Streamのビデオストリームのみが利用され、サブClip AV Streamのビデオストリームは利用されないとされている。ただし、将来、サブClip AV Streamのビデオストリームもプライマリビデオストリームとして利用され得ることも考慮して、PIDフィルタ56から供給されたサブClip AV Streamのビデオストリームも1stビデオデコーダ72に供給され得るように、PIDフィルタ411が構成されている。   In the present embodiment, only the main ClipAV Stream video stream is used as the primary video stream, and the sub Clip AV Stream video stream is not used. However, the sub-Clip AV Stream video stream supplied from the PID filter 56 can also be supplied to the 1st video decoder 72 in consideration that the sub-Clip AV Stream video stream may be used as the primary video stream in the future. The PID filter 411 is configured.

プリロード用バッファ414は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームを一時記憶する。即ち、上述したように、本実施の形態では、再生装置401には、一度に2つのTS(Clip)しか読み出せないという制限が課せられている。そこで、再生装置401は、インタラクティブグラフィックスストリームを予め取得しておくことで(プリロードしておくことで)、ビデオストリームやオーディオストリームを再生するときに、プリロードしておいたインタラクティブグラフィックスストリームも同時再生することができる、といった機能を有している。かかる機能を実現するために、即ち、プリロードされたインタラクティブグラフィックスストリームを、ビデオストリームやオーディオストリームが再生されるタイミングまで保存しておくために、プリロード用バッファ414が図49の例のAVデコード部403に設けられているのである。   The preload buffer 414 temporarily stores the interactive graphics stream supplied from the interactive graphics decoder 74. That is, as described above, in the present embodiment, the playback device 401 is restricted to read only two TSs (Clip) at a time. Therefore, the playback device 401 obtains the interactive graphics stream in advance (by preloading), so that when the video stream or the audio stream is played back, the preloaded interactive graphics stream is simultaneously received. It has the function of being able to reproduce. In order to realize such a function, that is, to store the preloaded interactive graphics stream until the timing when the video stream or the audio stream is reproduced, the preload buffer 414 includes the AV decoding unit in the example of FIG. 403 is provided.

次に、かかる図49の例の再生装置401が実行するピクチャインピクチャ手法による処理の一例であって、プライマリビデオストリーム等の再生中等に、再生対象のセカンダリビデオストリーム等を切り替えるために必要な一連の処理(以下、セカンダリビデオ切り換え処理と称する)の一例について、図50と図51のフローチャートを参照して説明する。   49 is an example of processing by the picture-in-picture method executed by the playback apparatus 401 in the example of FIG. 49, and is a series necessary for switching the secondary video stream to be played back during playback of the primary video stream or the like. An example of this process (hereinafter referred to as secondary video switching process) will be described with reference to the flowcharts of FIGS.

図50のステップS101において、コントローラ34は、セカンダリビデオストリーム番号(IDでもよい)の順番リストと、セカンダリビデオストリームに組み合わされているプライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームのリストを、図40と図41とを用いて説明した第5のSTN_table()から取得する。   In step S101 of FIG. 50, the controller 34 displays an order list of secondary video stream numbers (which may be IDs) and a list of primary audio streams, secondary audio streams, and subtitle streams combined with the secondary video streams. 40 and the fifth STN_table () described with reference to FIG.

ここでは、このステップS101の処理後、取得されたリストに基づいて、例えば上述した図42のようなストリームナンバーテーブルが生成され、そのストリームナンバーテーブル自身またはそれに基づいて生成された所定のGUI(Graphical User Interface)画像がユーザに呈示されるとする。そして、これにより、処理はステップS102に進むとする。   Here, after the processing of step S101, based on the acquired list, for example, the above-described stream number table as shown in FIG. 42 is generated, and the stream number table itself or a predetermined GUI (Graphical) generated based on the stream number table is generated. User Interface) image is presented to the user. As a result, the process proceeds to step S102.

ステップS102において、コントローラ34は、ユーザからのセカンダリビデオストリームに対する切り替えの指令を受け付ける。   In step S102, the controller 34 receives a switching instruction for the secondary video stream from the user.

即ち、上述した図42と図43を用いて説明したユーザの切り替え操作の内容が、ステップS102において、ユーザからのセカンダリビデオストリームに対する切り替えの指令としてコントローラ34に受け付けられることになる。   That is, the content of the user switching operation described with reference to FIGS. 42 and 43 described above is received by the controller 34 as a switching command for the secondary video stream from the user in step S102.

ステップS103において、コントローラ34は、再生しているセカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルの組み合わせの次の組み合わせの番号を取得する。   In step S103, the controller 34 acquires the number of the next combination of the secondary video stream, the primary audio stream, the secondary audio stream, and the subtitle that are being reproduced.

具体的には、例えば、図42の例のストリームナンバーテーブルがユーザに呈示されたとすると、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルの組み合わせとして、次の第1の組み合わせ乃至第3の組み合わせが存在することになる。即ち、第1の組み合わせとは、ビデオ2、オーディオ2、オーディオ4、サブピクチャ3の組み合わせをいう。第2の組み合わせとは、ビデオ1、オーディオ1、オーディオ4、サブピクチャ1の組み合わせをいう。第3の組み合わせとは、ビデオ1、オーディオ1、オーディオ5、サブピクチャ1の組み合わせをいう。そこで、例えばここでは、第1の組み合わせ、第2の組み合わせ、および、第3の組み合わせのそれぞれの組み合わせの番号として、1、2−1、2−2のそれぞれが与えられているとする。そして、例えばここでは、ステップS102の処理で、図43の例の選択操作結果、即ち、第2の組み合わせの選択指令がコントローラ34に受け付けられたとする。この場合、ステップS103の処理では、次の組み合わせの番号として2−1が取得される。   Specifically, for example, if the stream number table in the example of FIG. 42 is presented to the user, the following first combination to the following are combinations of secondary video streams, primary audio streams, secondary audio streams, and subtitles. There will be 3 combinations. That is, the first combination is a combination of video 2, audio 2, audio 4, and sub-picture 3. The second combination is a combination of video 1, audio 1, audio 4, and sub-picture 1. The third combination is a combination of video 1, audio 1, audio 5, and sub-picture 1. Thus, for example, here, it is assumed that 1, 2-1, and 2-2 are given as the numbers of the combinations of the first combination, the second combination, and the third combination, respectively. For example, here, it is assumed that the selection operation result of the example of FIG. 43, that is, the selection command for the second combination is received by the controller 34 in the process of step S <b> 102. In this case, in the process of step S103, 2-1 is acquired as the next combination number.

ステップS104において、コントローラ34は、stream_attribute()を参照して、取得した番号(初回のステップS104の処理では、直前のステップS103の処理で取得した番号)に対応する複数のストリームの再生する機能を有するか否かを判定する。   In step S104, the controller 34 refers to stream_attribute () and has a function of reproducing a plurality of streams corresponding to the acquired number (in the first step S104, the number acquired in the immediately previous step S103). It is determined whether or not it has.

具体的には、例えば、オーディオストリームの再生機能に着目すると、図43の例の選択操作結果、即ち、第2の組み合わせの選択指令がコントローラ34に受け付けられた場合には、オーディオ1とオーディオ4とのそれぞれの再生機能を有するか否かの判定がステップS104の処理として実行される。   Specifically, for example, focusing on the audio stream playback function, if the controller 34 accepts the selection operation result in the example of FIG. 43, that is, the second combination selection command, the audio 1 and audio 4 The determination as to whether or not each has a reproduction function is executed as the process of step S104.

なお、オーディオストリームの再生機能の有無の判定手法の具体例については、上述した図30のステップS74の処理の説明の際に併せて説明しているので、ここでは省略する。   Note that a specific example of the method for determining whether or not the audio stream has a playback function has been described in conjunction with the description of step S74 in FIG.

また、その他、ビデオストリーム等他のストリームの再生機能の有無の判定もステップS104の処理として併せて実行することも可能である。   In addition, it is also possible to determine whether or not there is a playback function for other streams such as a video stream as the processing in step S104.

ステップS104において、取得した番号に対応する複数のストリームの再生する機能を有していないと判定した場合、コントローラ34は、ステップS105において、現在の組み合わせの番号の次の組み合わせの番号を取得する。即ち、現在の組み合わせ番号で特定されるオーディオストリーム等を再生する機能を有しない場合には、その組み合わせ番号は飛ばされ(再生対象とならず)、次の組み合わせ番号が取得される。その後、処理はステップS104に戻され、それ以降の処理が繰り返される。即ち、再生装置401自身が再生する機能を有するオーディオストリーム等を特定する組み合わせ番号が取得されるまで、ステップS104とS105のループ処理が繰り返される。   If it is determined in step S104 that the plurality of streams corresponding to the acquired number are not played back, the controller 34 acquires the number of the next combination after the current combination number in step S105. That is, when the audio stream or the like specified by the current combination number is not reproduced, the combination number is skipped (not subject to reproduction), and the next combination number is acquired. Thereafter, the process returns to step S104, and the subsequent processes are repeated. That is, the loop processing of steps S104 and S105 is repeated until a combination number specifying an audio stream or the like having a function to be played back by the playback device 401 itself is acquired.

ステップS104において、取得した番号(1回目の処理の場合は上述したように直前のステップS103の処理で取得された番号であり、2回目以降の処理の場合は直前のステップS105の処理で取得された番号である)に対応する複数のストリームの再生する機能を有すると判定された場合、処理は図51のステップS106に進む。   In step S104, the acquired number (in the case of the first process, the number acquired in the process of the immediately preceding step S103 as described above, and in the process of the second and subsequent processes, it is acquired in the process of the immediately preceding step S105. If it is determined that a function for reproducing a plurality of streams corresponding to the number of the corresponding streams is determined, the process proceeds to step S106 in FIG.

ステップS106において、コントローラ34は、stream_entry()びtype情報に基づいて、取得した番号に対応するセカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリーム各々を含むClipを調べる。即ち、取得した番号に対応するセカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリームは各々、メインClipにあるのか、それとも、サブClipにあるのかが確認される。なお、各ストリームの確認手法の具体例については、上述した図30のステップS76の処理の説明の際に併せて説明しているので、ここでは省略する。   In step S106, the controller 34 examines a clip including each of the secondary video stream, primary audio stream, secondary audio stream, and subtitle stream corresponding to the acquired number based on the stream_entry () and type information. That is, it is confirmed whether the secondary video stream, primary audio stream, secondary audio stream, and subtitle stream corresponding to the acquired number are in the main clip or the sub clip. Note that a specific example of the confirmation method for each stream has been described in the description of the processing in step S76 in FIG.

ステップS107において、コントローラ34は、所望のセカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリーム各々を特定する。即ち、ステップS107の処理で、メインClipまたはサブClipの中の中から、取得した番号に対応する所望の各ストリームが特定される。なお、各ストリームの特定手法の具体例については、上述した図30のステップS77の処理の説明の際に併せて説明しているので、ここでは省略する。   In step S107, the controller 34 specifies each desired secondary video stream, primary audio stream, secondary audio stream, and subtitle stream. That is, in the process of step S107, each desired stream corresponding to the acquired number is specified from the main clip or the sub clip. A specific example of the method for identifying each stream has been described in the description of the processing in step S77 in FIG. 30 described above, and is omitted here.

ステップS108において、コントローラ34は、特定されたそれぞれの所望のストリームが多重化されているClip(メインClipまたはサブClip)から、所望のセカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリーム各々を読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるClipから所望のストリームを読み出す。具体的には、コントローラ34は、ステップS106の処理で特定したClipから、ステップS7の処理で特定したストリームを読み出すようストレージドライブ31に指示する。   In step S108, the controller 34 selects each desired secondary video stream, primary audio stream, secondary audio stream, and subtitle stream from a clip (main clip or sub clip) in which each specified desired stream is multiplexed. To the storage drive 31. Based on this instruction, the storage drive 31 reads a desired stream from the target Clip. Specifically, the controller 34 instructs the storage drive 31 to read the stream identified in step S7 from the Clip identified in step S106.

ステップS109において、コントローラ34は、読み出された各々のストリーム、すなわち、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリームなどを再生するようAVデコーダ部403に指示する。具体的には、コントローラ34は、読み出された所望のセカンダリビデオストリームを2ndビデオデコーダ412にデコードさせるよう、読み出された所望のプライマリオーディオストリームを1stオーディオデコーダ75−1にデコードさせるよう、読み出された所望のセカンダリオーディオストリームを2ndオーディオデコーダ75−2にデコードさせるよう、読み出された所望のサブタイトルストリームをプレゼンテーショングラフィックスデコーダ73等にデコードさせるよう、それぞれ指示する。   In step S109, the controller 34 instructs the AV decoder unit 403 to reproduce each of the read streams, that is, the secondary video stream, the primary audio stream, the secondary audio stream, the subtitle stream, and the like. Specifically, the controller 34 reads so as to cause the 2nd video decoder 412 to decode the read desired secondary video stream, and to cause the 1st audio decoder 75-1 to decode the read desired primary audio stream. Instruct the presentation graphics decoder 73 to decode the read desired subtitle stream so that the desired secondary audio stream is decoded by the second audio decoder 75-2.

ステップS110において、AVデコーダ部403は、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、およびサブタイトルストリームをデコードし出力し、処理が終了される。   In step S110, the AV decoder unit 403 decodes and outputs the secondary video stream, primary audio stream, secondary audio stream, and subtitle stream, and the process ends.

その際、プライマリオーディオストリームとセカンダリオーディオストリームとについては、上述した図30のステップS80の処理の説明の際に併せて説明したように、ミキシングされた結果得られるオーディオ信号が出力されることになる。   At this time, for the primary audio stream and the secondary audio stream, as described in the description of the processing in step S80 in FIG. 30 described above, an audio signal obtained as a result of mixing is output. .

このようなセカンダリビデオ切り替え処理の結果、図39を用いて説明したピクチャインピクチャ手法が実現される。即ち、図39の例では、プライマリビデオストリーム311に対応する映像が全画面311に表示(再生)されている最中に、ステップS110の処理で出力されたセカンダリビデオストリーム313に対応する映像が子画面302に表示(再生)され、ステップS110の処理で出力されたサブタイトルストリーム315に対応する字幕等が全画面311の所定の位置に表示(再生)され、ステップS110の処理で出力されたプライマリオーディオストリーム311とセカンダリオーディオストリーム402とがミキシングされた結果得られる音声が、図39には図示せぬスピーカから出力(再生)される。   As a result of such secondary video switching processing, the picture-in-picture method described with reference to FIG. 39 is realized. That is, in the example of FIG. 39, while the video corresponding to the primary video stream 311 is being displayed (reproduced) on the full screen 311, the video corresponding to the secondary video stream 313 output in the process of step S110 is a child. The primary audio that is displayed (reproduced) on the screen 302 and that is displayed (reproduced) at a predetermined position on the entire screen 311 and that corresponds to the subtitle stream 315 that is output in the process of step S110 and that is output in the process of step S110 Audio obtained as a result of mixing the stream 311 and the secondary audio stream 402 is output (reproduced) from a speaker not shown in FIG.

以上説明したように、図40と図41の例のSTN_tableを採用することで、ピクチャインピクチャ手法を実現することが可能になる。   As described above, the picture-in-picture technique can be realized by adopting the STN_table in the examples of FIGS. 40 and 41.

このようなピクチャインピクチャ手法を実現する場合、図11の例のSubPath_typeの種類を利用して生成されるPlaylist(例えば図44参照)を利用することも可能であるが、上述したように、同一のClip AV Streamに含まれているセカンダリビデオストリームやセカンダリオーディオストリーム等は、それぞれ別々のサブパスに分けられること、即ち、2つの別のSPIとして定義されることになってしまう。その結果、上述した各種問題点、例えばPlayListの構造が必要以上に複雑になるという問題点が発生する。   When realizing such a picture-in-picture method, it is possible to use a playlist (for example, see FIG. 44) generated by using the type of SubPath_type in the example of FIG. 11, but as described above, the same The secondary video stream, secondary audio stream, etc. included in the Clip AV Stream are divided into separate sub-paths, that is, defined as two different SPIs. As a result, the various problems described above, for example, the problem that the structure of the PlayList becomes more complicated than necessary occurs.

そこで、これらの各種問題点を解決する場合には、同一Clip AV Stream内の2以上のES(セカンダリビデオストリームやセカンダリオーディオストリーム等)を1つのサブパスで参照できるように、即ち、同一Clip AV Stream内の2以上のESを1つのSPIとして定義できるようなSubPath_typeの種類、即ち例えば図45を用いて説明したSubPath_typeの種類を採用すればよい。   Therefore, when solving these various problems, two or more ESs (secondary video stream, secondary audio stream, etc.) in the same Clip AV Stream can be referred to by one sub-path, that is, the same Clip AV Stream. The type of SubPath_type that can define two or more ESs as one SPI, that is, the type of SubPath_type described with reference to FIG. 45, for example, may be employed.

ただし、PlayListの作成者側の観点に立つと、図45の例のSubPath_typeの種類を採用することで簡単な構造のPlayListを作成できるようになったとは言え、即ち、作成された結果のPlayListの構造が簡単になったとは言え、そのような簡単な構造のPlayListを作成するまでには、次のような困難な作業が必要になる。即ち、PlayListの作成者は、ピクチャインピクチャ手法を実現するために、どのような種類のストリームの組み合わせが可能であり、どのような種類のストリームの組み合わせが不可能であるのかを自分自身で判断した上で、即ち、どのような種類のサブパスを含めるのかを自分自身で判断した上で、PlayListを作成しなければいけない、といった困難な作業が必要になる。従って、PlayListの作成者側から、PlayListを簡単に作成したいという要望が挙げられるようになることは想像に難くない。   However, from the viewpoint of the creator of the PlayList, it can be said that the PlayList having a simple structure can be created by adopting the type of SubPath_type in the example of FIG. Although the structure has been simplified, the following difficult work is required to create a PlayList with such a simple structure. In other words, the creator of the PlayList decides for himself what kinds of streams can be combined and what kinds of streams cannot be combined in order to realize the picture-in-picture method. In other words, it is necessary to create a PlayList after determining by itself what kind of sub-paths to include. Therefore, it is not difficult to imagine that the creator of PlayList will come up with a desire to easily create PlayList.

従って、かかる要望に予め応えるべく、本発明人は、さらに、PlayListの種類に応じて、作成可能(そのPlayListに含めることが可能なサブパス)を、図45を用いて説明したSubPath_typeにより制限する、といった手法を発明した。なお、以下、かかる手法を、サブパス制限手法と称する。   Therefore, in order to respond to such a request in advance, the present inventors further restrict the creation (subpaths that can be included in the PlayList) according to the type of PlayList by the SubPath_type described with reference to FIG. I invented such a technique. Hereinafter, this method is referred to as a sub-path restriction method.

サブパス制限手法を適用することで、1つのPlayListに含め得るサブパスが限定されるため、作成者にとっては、PlayListにどのようなサブパスを含めるのかを判断した上でサブパスを作成することが容易になり、ひいては、PlayListの作成自体も容易になる、という効果を奏することが可能になる。   By applying the sub-path restriction method, the sub-paths that can be included in one PlayList are limited. Therefore, it is easy for the creator to create sub-paths after determining what sub-paths are included in the PlayList. As a result, it is possible to produce an effect that the creation of the PlayList itself becomes easy.

以下、サブパス制限手法について、詳しく説明していく。   Hereinafter, the sub path limiting method will be described in detail.

ただし、サブパス制限手法では、再生装置が一度に読み出すことが可能なTSの数によって、その制限内容が変化する。本実施の形態では、上述したように、再生装置が一度に読み出すことが可能なTSは2つとされている。そこで、以下、再生装置が一度に読み出すことが可能なTSは2つである場合のサブパス制限手法について説明していく。   However, in the sub-path restriction method, the restriction contents vary depending on the number of TSs that can be read by the playback apparatus at one time. In the present embodiment, as described above, the number of TSs that can be read by the playback apparatus at a time is two. Thus, hereinafter, a sub-path limiting method in the case where the playback apparatus can read two TSs at a time will be described.

本実施の形態では、PlayListは、Browsable Slideshow(非同期型)と、Movie Type/Time-based Slideshow(同期型)といった2種類に大別される。PlayListの種類が非同期型であるのか或いは同期型であるのかといった区別は、そのPlayListにより参照されるClipのClip_Information_fileに含まれるapplication_type(アプリケーションタイプ)に従って行うことが可能である。   In the present embodiment, the PlayList is roughly divided into two types, namely, a Browsable Slideshow (asynchronous type) and a Movie Type / Time-based Slideshow (synchronous type). The distinction as to whether the type of PlayList is asynchronous or synchronous can be made according to application_type (application type) included in the Clip_Information_file of the Clip referenced by the PlayList.

application_typeは、あるClipについてのClip Informationファイル中のClipInfo()に記述されている。ただし、ここでは、説明の簡略上、ClipInfo()のシンタクスの説明については省略し、以下、そのClipinfo()に記述され得るapplication_typeの種類についてのみ、図52を参照して説明する。   application_type is described in ClipInfo () in the Clip Information file for a certain Clip. However, here, for simplicity of explanation, description of the syntax of ClipInfo () is omitted, and only the types of application_type that can be described in Clipinfo () will be described below with reference to FIG.

即ち、図52は、application_typeの種類の例を説明する図である。   That is, FIG. 52 is a diagram illustrating an example of the type of application_type.

図52に示されるように、application_type=0は、予備(reserved)とされている。application_type=1は、映画のアプリケーション用のMainTSとされている。ここで「MainTS」とは、Playlistにおいてメインパスにより参照されるPlayItemとしてのTS、即ち、Main TSを指している。application_type=2は、Time-based Slideshow用のMainTS、即ち、静止画のスライドショー用のMainTSとされている。application_type=3は、Browsable Slideshow用のTS、即ち、ビデオのスライドショー用のMainTSとされている。application_type=4は、SubPath用のBrowsable SlideshowのTSとされている。これは、例えば、上述したapplication_type=3と非同期で再生されるBGM(サウンド)データを保持するClip AVストリームに対してのClip Info()に付与される。application_type=5は、SubPathのインタラクティブグラフィックス用のTSとされている。application_type=6は、SubPathのテキストサブタイトル(テキスト字幕データ)用のTSとされている。application_type=7は、1つ以上のES(エレメンタリストリーム)を含むSubPath用のTSとされている。application_type=8乃至255は、予備(reserved)とされている。   As shown in FIG. 52, application_type = 0 is reserved. application_type = 1 is MainTS for movie application. Here, “MainTS” refers to a TS as a PlayItem referred to by the main path in the Playlist, that is, the Main TS. application_type = 2 is a MainTS for Time-based Slideshow, that is, a MainTS for a slide show of still images. application_type = 3 is a TS for Browsable Slideshow, that is, a MainTS for a video slide show. application_type = 4 is a TS of a Browsable Slideshow for SubPath. This is given to Clip Info () for a Clip AV stream that holds BGM (sound) data that is reproduced asynchronously with application_type = 3, for example. application_type = 5 is a TS for SubPath interactive graphics. application_type = 6 is a TS for a SubPath text subtitle (text subtitle data). application_type = 7 is a TS for SubPath including one or more ESs (elementary streams). application_type = 8 to 255 is reserved.

そこで、本実施の形態では、PlayListにより示されるMain TSについてのClipInfo()に記述されているapplication_typeが、application_type=3の場合、そのPlayListはBrowsable Slideshow(非同期型)に分類され、application_type=1or2の場合、そのPlayListはMovie Type/Time-based Slideshow(同期型)に分類されるとする。   So, in this Embodiment, when application_type described in ClipInfo () about Main TS indicated by PlayList is application_type = 3, the PlayList is classified as Browsable Slideshow (asynchronous type), and application_type = 1or2 In this case, it is assumed that the PlayList is classified as Movie Type / Time-based Slideshow (synchronous type).

この場合、PlayListの種類(非同期型または同期型)に対する、そのPlayListが持ち得るSubPath(サブパス)の組み合わせは、図53に示される組み合わせのみ許可する、という制限がサブパス制限手法により課されることになる。   In this case, the subpath restriction method imposes a restriction that only the combinations shown in FIG. 53 are allowed for combinations of SubPaths that the PlayList can have for the type of PlayList (asynchronous type or synchronous type). Become.

図53において、「number of SubPaths」の項目には、PlayListにより示されるMain TSが持ち得る、左方の「SubPath_type」の項目に示される種類のSubPathの個数が記述されている。   In FIG. 53, the item “number of SubPaths” describes the number of types of SubPaths indicated by the item “SubPath_type” on the left side that can be possessed by the Main TS indicated by the PlayList.

また、図53における「SubPath_type」の項目の各記述値(SubPath_typeの種類)は、上述した図11を用いて説明した種類ではなく、図45を用いて説明した種類に対応している。   Also, each description value (SubPath_type type) of the item “SubPath_type” in FIG. 53 corresponds to the type described with reference to FIG. 45 instead of the type described with reference to FIG. 11 described above.

図53に示されるように、PlayListの種類が非同期型の場合、即ち、application_type(of Main TS)=3であるBrowsable slideshowの場合、(1)0本以上のSubPath_type=2のSubPath、(2)0本以上のSubPath_type=3のSubPathのみが許可される。換言すると、(1)と(2)以外のSubPathの組み合わせは禁止される。   As shown in FIG. 53, when the type of PlayList is asynchronous, that is, in the case of a Browsable slideshow with application_type (of Main TS) = 3, (1) zero or more SubPath_type = 2 SubPaths, (2) Only zero or more SubPath_type = 3 SubPaths are allowed. In other words, combinations of SubPaths other than (1) and (2) are prohibited.

また、(2)の組み合わせであっても、application_type=3のMain TSにIGが含まれる場合には、SubPath_type=3のSubPathは禁止される(図53中*2参照)。これは、次の制約によるものである。   Even in the combination of (2), when IG is included in the Main TS of application_type = 3, SubPath of SubPath_type = 3 is prohibited (see * 2 in FIG. 53). This is due to the following restrictions.

即ち、IGの観点に立つと、IGを含むPlayListは、次の第1の種類と第2の種類に大別される。第1の種類とは、参照されるMain TSにIGが多重化されていて、そのMain TSのAudio/VideoとIGが同期再生される、という種類をいう。第2の種類とは、SubPath_type=3のSubPatを含み、IGはプリロードされる(このIGはポップアップメニューに使われる)、という種類をいう。なお、この第2の種類のPlayListを再生可能とするために、上述したように、図49の再生装置401にはプリロード用バッファ414が設けられているのである。   That is, from the viewpoint of IG, PlayList including IG is roughly divided into the following first type and second type. The first type is a type in which an IG is multiplexed on a referenced Main TS, and Audio / Video and IG of the Main TS are reproduced in synchronization. The second type includes a SubPat of SubPath_type = 3 and IG is preloaded (this IG is used for a pop-up menu). Note that, as described above, the playback device 401 in FIG. 49 is provided with the preload buffer 414 so that the second type PlayList can be played back.

また、本実施の形態の再生装置はIGデコーダを1つしか有しないため、具体的には例えば図49の再生装置401はインタラクティブグラフィックスデコーダ74を1つしか有しないため、次の制限が課せられている。即ち、上述した第1の種類のPlayListでは、IGデコーダがMain TSのIGをデコード中に、別のIGをプリロードできない、という制限が課せられている。一方、上述した第2のPlayListでは、IGデコーダ中にプリロードされた第1のIGが入力されている状態のとき、別のMain TSからの第2のIGをIGデコーダへ入力できない、という制限が課せられている。   Further, since the playback device of this embodiment has only one IG decoder, specifically, for example, the playback device 401 of FIG. 49 has only one interactive graphics decoder 74, the following restrictions are imposed. It has been. That is, in the first type PlayList described above, there is a restriction that another IG cannot be preloaded while the IG decoder is decoding the IG of the Main TS. On the other hand, in the second PlayList described above, there is a limitation that when the first IG preloaded in the IG decoder is being input, the second IG from another Main TS cannot be input to the IG decoder. Imposed.

以上のことから、Main TSに多重化されているIGを参照するSTN_table()を含むPlayListは、SubPath_type=3のSubPathを持てないという制約が課せられることになる。かかる制約のため、application_type=3のMainTsにIGが含まれる場合には、SubPath_type=3のSubPathは禁止される、としたのである(図53中*2参照)。   From the above, the PlayList including STN_table () that refers to the IG multiplexed in the Main TS is subject to the restriction that it cannot have a SubPath of SubPath_type = 3. Because of this restriction, when IG is included in MainTs of application_type = 3, SubPath of SubPath_type = 3 is prohibited (see * 2 in FIG. 53).

一方、PlayListの種類が同期型の場合、即ち、application_type(of Main TS)=1 or 2であるMovie Type/Time-based Slideshowの場合、(3)0本以上のSubPath_type=3のSubPath、(4)0本以上のSubPath_type=4のSubPath、(5)0本以上のSubPath_type=5のSubPath、(6)0本以上のSubPath_type=6のSubPath、(7)0本または1本のSubPath_type=7のSubPathのみが許可される。換言すると、SubPath_type=2のSubPathの組み合わせは禁止される。   On the other hand, when the type of PlayList is synchronous, that is, in the case of Movie Type / Time-based Slideshow where application_type (of Main TS) = 1 or 2, (3) zero or more SubPath_type = 3 SubPaths, (4 ) 0 or more SubPath_type = 4 SubPaths, (5) 0 or more SubPath_type = 5 SubPaths, (6) 0 or more SubPath_type = 6 SubPaths, (7) 0 or 1 SubPath_type = 7 Only SubPath is allowed. In other words, the combination of SubPaths with SubPath_type = 2 is prohibited.

また、(3)の組み合わせであっても、application_type=3のMainTSにIGが含まれる場合、または、SubPath_type=5のSubPathが参照するTSにIGが含まれる場合には、SubPath_type=3のSubPathは禁止される(図53中*1参照)。これも、上述した制約によるものである。   Even in the combination of (3), when IG is included in MainTS of application_type = 3, or when IG is included in TS that is referenced by SubPath of SubPath_type = 5, SubPath of SubPath_type = 3 is Prohibited (refer to * 1 in FIG. 53). This is also due to the constraints described above.

さらに、本実施の形態では、上述したように、PlayListが一度に参照することができるClipの数、すなわち、再生装置が一度に読み出すことが可能なTS(Clip)は2つとされている。そこで、同一のPlayListにより参照されるESが多くても2つのClipに含まれていること、すなわち、同時に再生されるESは、多くても2つのClip AVストリームファイルから同時に参照されることを保証するために、次に示される条件を満たすという制限がサブパス制限手法により課せられている。   Furthermore, in the present embodiment, as described above, the number of Clips that can be referred to by the PlayList at a time, that is, the TS (Clip) that can be read by the playback device at a time is two. Therefore, it is guaranteed that ESs referenced by the same PlayList are included in at most two Clips, that is, ESs that are played back simultaneously are referenced simultaneously from at most two Clip AV stream files. In order to do this, a restriction that the following condition is satisfied is imposed by the subpath restriction method.

即ち、サブパス制限手法により課せられている、STN_table()によって参照される、primary_video_stream、primary_audio_stream、PG_textST_stream(Text subtitle streamを除く)、IG_stream、,secondary_video_stream(IG for Pop-up menuを除く)、および、secondary_audio_streamのそれぞれを組み合わせる時の条件とは、次の通りである。   That is, imposed by the sub path restriction method, referred to by STN_table (), primary_video_stream, primary_audio_stream, PG_textST_stream (excluding Text subtitle stream), IG_stream, secondary_video_stream (excluding IG for Pop-up menu), and secondary_audio_stream The conditions when combining each of these are as follows.

ある値のprimary_video_stream_numberで特定されるES、ある値のprimary_audio_stream_number で特定されるES、ある値のPG_textST_stream_numberで特定されるES、ある値のIG_stream_number valueで特定されるES、ある値の secondary_video_stream_number で特定されるES、ある値のsecondary_audio_stream_number で特定されるESにおいて、同時に再生可能である組み合わせは、多くても2つのClip AVストリームファイルに格納されている必要がある。なお、除いたText subtitle streamや、IG for Pop-up menuは、プリロード型のストリームであるため、同時に再生(表示)するものであっても、同時には光ディスク、ハードディスク等から読み出さないため、上記のように2つのClip AVストリームファイルとは別のClip AVストリームファイルに格納されていても良い。   ES identified by a certain primary_video_stream_number, ES identified by a certain primary_audio_stream_number, ES identified by a certain PG_textST_stream_number, ES identified by a certain IG_stream_number value, ES identified by a certain secondary_video_stream_number In the ES specified by a certain value of secondary_audio_stream_number, combinations that can be reproduced simultaneously need to be stored in at most two Clip AV stream files. The excluded Text subtitle stream and IG for Pop-up menu are preload-type streams, so even if they are played (displayed) at the same time, they are not read from the optical disk, hard disk, etc. at the same time. As described above, it may be stored in a Clip AV stream file different from the two Clip AV stream files.

なお、STN_table()によって参照されるESは、3本以上のClip AVストリームファイルに格納されていてもよいが、同時に再生可能であるESは、そのうちの多くても2つのClip AVストリームファイルに格納されるようになされている。   Note that the ES referenced by STN_table () may be stored in three or more Clip AV stream files, but ESs that can be played simultaneously are stored in at most two Clip AV stream files. It is made to be done.

また、PlayList内にあるPlayItem(MainPath)とSubPathの数の組み合わせは、図54に示されるように、次の(a)乃至(c)のうちのいずれかの組み合わせである必要がある、という制限もサブパス制限手法により課せられている。即ち、(a)の組み合わせとは、1つのPlayItemのみの組み合わせ(図54中、一番上の行の組み合わせ)をいう。(b)の組み合わせとは、1つのPlayItemと1つのSubPathとの組み合わせ(図54中、中央の行の組み合わせ)をいう。(c)の組み合わせとは、1つのPlayItemと1つSubPathと1つのSubPath_type=7のSubPathとの組み合わせ、即ち、1つのPlayItemと2つSubPath(ただし、そのうちの1つのSubPath_type=7であること)との組み合わせ(図54中、一番下の行の組み合わせ)をいう。   Further, the restriction that the combination of the number of PlayItems (MainPath) and SubPaths in the PlayList needs to be any one of the following (a) to (c) as shown in FIG. Is also imposed by the subpath restriction technique. That is, the combination (a) refers to a combination of only one PlayItem (the combination in the top row in FIG. 54). The combination (b) refers to a combination of one PlayItem and one SubPath (combination of the center row in FIG. 54). The combination of (c) is a combination of one PlayItem, one SubPath, and one SubPath_type = 7, that is, one PlayItem and two SubPaths (provided that one of them is SubPath_type = 7) (The combination of the bottom row in FIG. 54).

以上説明した各種制限による結果として、所定の種類のPlayListについて作成可能なSubPath_typeを制限する、といった手法が、サブパス制限手法の一例である。   As a result of the various restrictions described above, a technique of restricting SubPath_type that can be created for a predetermined type of PlayList is an example of a subpath restriction technique.

換言すると、サブパス制限手法とは、PlayListの種類(上述した例では、Main TSのapplication_typeで区別される種類)、再生装置が一度に読み出すことが可能なTSの数(上述した例では2つ)、および、PlayListのサブパス(SubPath)で参照されるESにプリロードされるIGが含まれているか否か(上述した例ではSubPath_type=3等のSubPathであるか否か)といった条件(制限)が存在し、これらの条件を満たすように、そのPlayListに含めるSubPathを決定する、ひいては、そのようにして決定したSubPathを含むPlayListを作成する、といった手法であるともいえる。   In other words, the sub-path restriction method is the type of PlayList (in the above example, the type distinguished by the application_type of the Main TS), and the number of TSs that can be read at once by the playback device (in the above example, two). And there is a condition (restriction) such as whether pre-loaded IG is included in the ES referenced by the sub-path (SubPath) of the PlayList (in the above example, whether it is a SubPath such as SubPath_type = 3) Then, it can be said that the SubPath included in the PlayList is determined so as to satisfy these conditions, and in turn, a PlayList including the SubPath determined in this way is created.

以下、図55乃至図58を参照して、かかるサブパス制限手法により作成されたPlayListの具体例について説明する。   Hereinafter, a specific example of the PlayList created by the subpath restriction method will be described with reference to FIGS. 55 to 58.

図55は、Browsable Slideshow(非同期型)のPlayListであって、SubPath_type=3のSubPathが存在しない場合のPlayList、即ち、SubPath_type=2のSub_Path-1乃至Sub_Path-3のみが存在する場合のPlayListの一例を示している。なお、SubPath_type=3のSubPathが存在しない理由は、PlayListのPlayItem-1/PlayItem-2が参照しているClip AV Stream -0(すなわち、Main TS)にIGが含まれているためである。なお、この例は、複数の静止画をユーザ操作によって連続して表示していくBrowsable Slideshowを表しているため、Clip AVストリームファイル-0に含まれる、「video」のストリームは、静止画データを保持している。   FIG. 55 shows an example of a PlayList for a Browsable Slideshow (asynchronous type), in which there is no SubPath with SubPath_type = 3, that is, a PlayList with only Sub_Path-1 to Sub_Path-3 with SubPath_type = 2. Is shown. The reason why SubPath of SubPath_type = 3 does not exist is that IG is included in Clip AV Stream-0 (ie, Main TS) referenced by PlayItem-1 / PlayItem-2 of PlayList. Since this example represents a Browsable Slideshow in which a plurality of still images are continuously displayed by a user operation, the “video” stream included in the Clip AV stream file-0 includes still image data. keeping.

図55の例のPlayListを作成するために利用された制限(条件)の内容は次の通りである。即ち、図53を用いて上述した、「(1)0本以上のSubPath_type=2のSubPath、(2)0本以上のSubPath_type=3のSubPathのみを許可する」という制限と、「(1)と(2)以外のSubPathの組み合わせは禁止する」という制限と、「(2)の組み合わせであっても、application_type=3のMainTSにIGが含まれる場合には、SubPath_type=3のSubPathは禁止される(図53中*2参照)」という制限とが利用されて、図55の例のPlayListが作成されている。   The details of the restrictions (conditions) used to create the PlayList in the example of FIG. 55 are as follows. In other words, the restriction “(1) zero or more SubPath_type = 2 SubPaths, (2) only zero or more SubPath_type = 3 SubPaths” described above with reference to FIG. 53, and “(1) The restriction that “SubPath combinations other than (2) are prohibited” and “SubPath of SubPath_type = 3 are prohibited if IG is included in MainTS of application_type = 3 even in the combination of (2). The PlayList in the example of FIG. 55 is created using the limitation “* 2 in FIG. 53”.

このような図55の例に対して、図56は、Browsable Slideshow(非同期型)のPlayListであって、SubPath_type=3のSubPathが存在する場合のPlayList、即ち、SubPath_type=2のSub_Path-1,2に加えてさらに、SubPath_type=3のSub_Path-3が存在する場合のPlayListの一例を示している。なお、SubPath_type=3のSubPathが存在する理由は、PlayListのPlayItem-1/PlayItem-2が参照しているClip AV Stream -0にIGが含まれていない、即ち、SubPath_type=3のSubPathにより、Clip AV Stream -0とは異なるClip AV Stream -3のIGを参照するためである。   In contrast to the example of FIG. 55, FIG. 56 shows a PlayList in the case of a Browsable Slideshow (asynchronous type) PlayList when SubPath of SubPath_type = 3 exists, that is, Sub_Path-1, 2 of SubPath_type = 2. In addition, an example of a PlayList in the case where Sub_Path-3 of SubPath_type = 3 exists is shown. Note that the SubPath of SubPath_type = 3 exists because the Clip AV Stream-0 referenced by PlayItem-1 / PlayItem-2 of the PlayList does not include IG, that is, the SubPath of SubPath_type = 3 This is because the IG of Clip AV Stream-3 different from AV Stream-0 is referred to.

図56の例のPlayListを作成するために利用された制限(条件)の内容は、図55の例の上述した制限内容と同一である。   The contents of the restrictions (conditions) used to create the PlayList in the example of FIG. 56 are the same as the above-described restrictions of the example of FIG.

換言すると、図53中*2で示される制限、即ち、「(2)の組み合わせであっても、application_type=3のMainTSにIGが含まれる場合には、SubPath_type=3のSubPathは禁止される」という制限を課す必要がある場合のPlayListの例が、図55の例であり、そのような制限を課す必要がない場合のPlayListの例が、図56の例である。   In other words, the restriction indicated by * 2 in FIG. 53, that is, “Subpath of SubPath_type = 3 is prohibited when IG is included in MainTS of application_type = 3 even in the combination of (2)”. An example of the PlayList when it is necessary to impose such a restriction is the example of FIG. 55, and an example of the PlayList when there is no need to impose such a restriction is the example of FIG.

このように、図55と図56は、Browsable Slideshow(非同期型)のPlayListの例を示している。これに対して、図57と図58は、Movie Type Slideshow(同期型)のPlayListの例を示している。   As described above, FIGS. 55 and 56 illustrate an example of a PlayList of Browsable Slideshow (asynchronous type). On the other hand, FIG. 57 and FIG. 58 show examples of Movie Type Slideshow (synchronous) PlayList.

即ち、図57は、同期型のPlayListのうちの、セカンダリビデオストリーム(2ndVideo)とセカンダリオーディオストリーム(2ndAudio)とがMain TS(すなわち、Clip AV Stream -0)に多重化されていない場合のPlayListであって、SubPath_type=6のSub_Path-1,2が存在する場合のPlayListの一例を示している。   That is, FIG. 57 shows the PlayList when the secondary video stream (2ndVideo) and the secondary audio stream (2ndAudio) are not multiplexed on the Main TS (ie, Clip AV Stream-0) in the synchronous PlayList. An example of the PlayList in the case where Sub_Path-1, 2 of SubPath_type = 6 exists is shown.

図57の例のPlayListを作成するために利用された制限(条件)の内容は次の通りである。即ち、図53を用いて上述した、「(6)0本以上のSubPath_type=6のSubPathを許可する」という制限が利用されて、図57の例のPlayListが作成されている。   The details of the restrictions (conditions) used to create the PlayList in the example of FIG. 57 are as follows. That is, the PlayList in the example of FIG. 57 is created using the restriction “(6) Allow 0 or more SubPath_type = 6 SubPaths” described above with reference to FIG.

このような図57の例に対して、図58は、同期型のPlayListにより参照されるMainTS、すなわちClip AVストリームファイル-0が、MainSTとSubSTとを含み、セカンダリビデオストリーム(2ndVideo)とセカンダリオーディオストリーム(2ndAudio)がMain TS(Clip-0)に多重化されている場合のPlayListであって、それゆえ、SubPath_type=7のSub_Path-1が存在し、さらに、SubPath_type=5のSub_Path-2,3が存在する場合のPlayListの一例を示している。   In contrast to the example of FIG. 57, FIG. 58 shows that the Main TS referred to by the synchronous PlayList, that is, the Clip AV stream file-0 includes MainST and SubST, and the secondary video stream (2nd Video) and secondary audio. This is a PlayList when the stream (2ndAudio) is multiplexed with the Main TS (Clip-0), and therefore, Sub_Path-1 with SubPath_type = 7 exists, and Sub_Path-2,3 with SubPath_type = 5 An example of a PlayList in the case where there is is shown.

図58の例のPlayListを作成するために利用された制限(条件)の内容は次の通りである。即ち、図53を用いて上述した、「(5)0本以上のSubPath_type=5のSubPathを許可する」という制限と、「(7)0本のSubPathとSubPath_type=7のSubPathを許可する」という制限とが利用されて、図58の例のPlayListが作成されている。   The details of the restrictions (conditions) used to create the PlayList in the example of FIG. 58 are as follows. That is, as described above with reference to FIG. 53, the restriction “(5) Allow 0 or more SubPath_type = 5 SubPaths” and “(7) Allow 0 SubPath and SubPath_type = 7 SubPaths”. Using the restriction, the PlayList in the example of FIG. 58 is created.

また、以上説明したようなサブパス制限手法により作成されたPlayListは、例えば図49の再生装置401により再生可能とされている。   Also, the PlayList created by the sub-path restriction method as described above can be reproduced by, for example, the reproduction device 401 in FIG.

例えば、非同期型のPlayListの場合、即ち、application_type=3であるBrowsable slideshowのPlayListの場合、再生装置401は、そのPlayListを次のようにして再生することができる。即ち、再生装置401は、PlayListが1本以上のSubPath_type=3(Interactive graphics presentation menu、)のSubPathsを参照している場合、SubPath_type=3用のClip AVストリーム、即ち、インタラクティブグラフィックスストリームをPlayListの再生前にプリロードして、プリロード用バッファ414に蓄積させる。また、再生装置401は、PlayListが1本以上のSubPath_type=2のSubPathを参照している場合、1つずつしかSubPathを参照できないので(一度に読み出すことが可能なTSは2つであり、そのうちの1つはMainPathにより参照されるMainTSであるので)、SubPath_type=2の1以上のSubPathのうちの所定の1つを参照して再生する。   For example, in the case of an asynchronous PlayList, that is, in the case of a PlayList of Browsable slideshow with application_type = 3, the playback device 401 can play back the PlayList as follows. That is, when the PlayList refers to one or more SubPaths of SubPath_type = 3 (Interactive graphics presentation menu,), the clip AV stream for SubPath_type = 3, that is, the interactive graphics stream is converted to the PlayList. It is preloaded before reproduction and accumulated in the preload buffer 414. Further, when the PlayList refers to one or more SubPath_type = 2 SubPaths, the playback apparatus 401 can refer to SubPaths only one by one (two TSs can be read at one time, of which Since one is a MainTS referred to by MainPath), reproduction is performed with reference to a predetermined one of one or more SubPaths with SubPath_type = 2.

なお、Interactive graphics presentation menuには、ユーザによるON/OFFの操作入力を基に、表示させたり、表示を取り消したりすることが可能な“Pop-up menu”と、常時表示される“Always-on”の2種類の表示方法が用意されており、application_type=3のPlayListの再生処理の詳細例については、図59,図60を参照して後述する。   The interactive graphics presentation menu includes a “Pop-up menu” that can be displayed or canceled based on the ON / OFF operation input by the user, and an “Always-on” that is always displayed. ”Is prepared, and a detailed example of playback processing of PlayList with application_type = 3 will be described later with reference to FIGS. 59 and 60.

また、例えば同期型のPlayListの場合、即ち、application_type=1または2であるMovie Type/Time-based SlideshowのPlayListの場合、再生装置401は、そのPlayListを次のようにして再生することができる。即ち、再生装置401は、PlayListが1本以上のSubPath_type=3またはSubPath_type=4のSubPathを参照している場合、SubPath_type=3またはSubPath_type-4用のClip AVストリーム、即ち、インタラクティブグラフィックスストリームまたはテキストサブタイトルストリームをPlayListの再生前にプリロードして、プリロード用バッファ414またはバッファ54に蓄積させる。また、再生装置401は、PlayListが1本以上SubPath_type=5or6のSubPathを参照している場合、Playerは1つずつしかSubPathを参照できないので(一度に読み出すことが可能なTSは2つであり、そのうちの1つはMainPathにより参照されるMainTSであるので)、SubPath_type=5または6の1以上のSubPathのうちの所定の1つを参照して再生する。ただし、SubPath_type=7のSubPathが1以上含まれている場合には、そのSubPathはMain TSに含まれるESを参照しているので、再生装置401は、SubPath_type=5または6の1以上のSubPathのうちの所定の1つを参照して再生している最中に、さらに、SubPath_type=7の1つのSubPathを参照して再生することができる。   For example, in the case of a synchronous PlayList, that is, in the case of a PlayList of Movie Type / Time-based Slideshow where application_type = 1 or 2, the playback device 401 can play back the PlayList as follows. That is, the playback device 401, when the PlayList refers to one or more SubPath_type = 3 or SubPath_type = 4 SubPath, a Clip AV stream for SubPath_type = 3 or SubPath_type-4, that is, an interactive graphics stream or text The subtitle stream is preloaded before the PlayList is played back and stored in the preload buffer 414 or the buffer 54. In addition, when the PlayList refers to one or more SubPaths of SubPath_type = 5or6, the Player can refer to the SubPath only one by one (two TSs can be read at a time, Since one of them is a MainTS referenced by MainPath), playback is performed with reference to a predetermined one of one or more SubPaths with SubPath_type = 5 or 6. However, if one or more SubPaths of SubPath_type = 7 are included, the SubPath refers to the ES included in the Main TS, so the playback device 401 uses one or more SubPaths of SubPath_type = 5 or 6 During playback while referring to a predetermined one of them, playback can be performed with reference to one SubPath of SubPath_type = 7.

なお、application_type=1or2のPlayListの再生処理の詳細例については、図61乃至図64を参照して後述する。   A detailed example of PlayList playback processing with application_type = 1or2 will be described later with reference to FIGS. 61 to 64.

次に、図59,図60のフローチャートを参照して、application_type=3のPlayListの再生処理の一例について説明する。   Next, an example of playback processing of PlayList with application_type = 3 will be described with reference to the flowcharts of FIGS.

例えば、図49のコントローラ34は、再生対象のPlayListのMainPathで参照されるMain TSのapplication_typeを調査し、その調査によりapplication_type=3であることを認識した場合、application_type=3のPlayListの再生処理を開始させる。   For example, when the controller 34 in FIG. 49 investigates the application_type of the Main TS that is referenced by the MainPath of the PlayList to be played, and recognizes that application_type = 3 by the investigation, the playback process of the PlayList with application_type = 3 Let it begin.

図59のステップS121において、コントローラ34は、Main TSはIG(インタラクティブグラフィックスストリーム)を含むか否かを判定する。   In step S121 of FIG. 59, the controller 34 determines whether or not the Main TS includes an IG (interactive graphics stream).

ステップS121において、Main TSはIGを含まないと判定された場合、処理は図60のステップS126に進む。ただし、ステップS126以降の処理については後述する。   If it is determined in step S121 that the Main TS does not include IG, the process proceeds to step S126 in FIG. However, the processing after step S126 will be described later.

これに対して、ステップS121において、Main TSはIGを含むと判定された場合、処理はステップS122に進む。   On the other hand, when it is determined in step S121 that the Main TS includes IG, the process proceeds to step S122.

ステップS122において、コントローラ34は、SubPath_type=3のSub Pathは存在するか否かを判定する。   In step S122, the controller 34 determines whether or not there is a Sub Path of SubPath_type = 3.

ステップS122において、SubPath_type=3のSub Pathは存在しないと判定された場合、処理は図60のステップS126に進む。ただし、ステップS126以降の処理については後述する。   When it is determined in step S122 that there is no Sub Path of SubPath_type = 3, the process proceeds to step S126 in FIG. However, the processing after step S126 will be described later.

これに対して、ステップS122において、SubPath_type=3のSub Pathは存在すると判定された場合、処理はステップS123に進む。ステップS123において、コントローラ34は、選択されたSub Path(SubPath_type=3のSub Path)が参照するClipを調べる。   On the other hand, if it is determined in step S122 that there is a Sub Path of SubPath_type = 3, the process proceeds to step S123. In step S123, the controller 34 examines the Clip referred to by the selected Sub Path (Sub Path of SubPath_type = 3).

そして、コントローラ34は、そのClipから、Sub Pathにより特定されるストリーム、すなわち、IGを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるIGを読み出す。そして、コントローラ34は、読み出されたIGを、インタラクティブグラフィックスデコーダ74にデコードさせるように指示する。これにより処理はステップS124に進む。   Then, the controller 34 instructs the storage drive 31 to read the stream specified by the Sub Path, that is, the IG from the Clip. Based on this instruction, the storage drive 31 reads the target IG. Then, the controller 34 instructs the interactive graphics decoder 74 to decode the read IG. Accordingly, the process proceeds to step S124.

ステップS124において、インタラクティブグラフィックスデコーダ74は、読み出されたClip内のIGをデコードする。そして、ステップS125において、インタラクティブグラフィックスデコーダ74は、デコードされたIGをプリロード用バッファ414に格納する。   In step S124, the interactive graphics decoder 74 decodes the IG in the read Clip. In step S125, the interactive graphics decoder 74 stores the decoded IG in the preload buffer 414.

このようにしてステップS125の処理が終了したとき、または、上述したようにステップS121若しくはS122の処理でNOであると判定されたとき、処理は図60のステップS126に進む。   When the process of step S125 is completed in this way, or when it is determined NO in step S121 or S122 as described above, the process proceeds to step S126 of FIG.

ステップS126において、コントローラ34は、SubPath_type=2のSub Pathは存在するか否かを判定する。   In step S126, the controller 34 determines whether there is a Sub Path of SubPath_type = 2.

ステップS126において、SubPath_type=2のSub Pathは存在しないと判定された場合、処理はステップS129に進む。ただし、ステップS129以降の処理については後述する。   If it is determined in step S126 that there is no SubPath of SubPath_type = 2, the process proceeds to step S129. However, the processing after step S129 will be described later.

これに対して、ステップS126において、SubPath_type=2のSub Pathは存在すると判定された場合、処理はステップS127に進む。ステップS127において、コントローラ34は、選択されたSubPath(SubPath_type=2のSub Path)が参照するClipを調べる。   On the other hand, if it is determined in step S126 that there is a Sub Path of SubPath_type = 2, the process proceeds to step S127. In step S127, the controller 34 checks the Clip referred to by the selected SubPath (SubPath_type = 2 Sub Path).

そして、コントローラ34は、そのClipからSubPathにより特定されるストリーム、すなわち、オーディオストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるオーディオストリームを読み出す。そして、コントローラ34は、読み出されたオーディオストリームを、例えば2ndオーディオデコーダ75−2にデコードさせるように指示する。これにより処理はステップS128に進む。   Then, the controller 34 instructs the storage drive 31 to read out the stream specified by the SubPath from the Clip, that is, the audio stream. Based on this instruction, the storage drive 31 reads the target audio stream. Then, the controller 34 instructs the 2nd audio decoder 75-2 to decode the read audio stream, for example. Accordingly, the process proceeds to step S128.

ステップS128において、2ndオーディオデコーダ75−2は、読み出されたClip内のオーディオストリームをデコードする。   In step S128, the 2nd audio decoder 75-2 decodes the audio stream in the read Clip.

このようにして、ステップS128の処理が終了したとき、または、ステップS126の処理でNOであると判定されたとき、処理はステップS129に進む。   In this way, when the process of step S128 ends or when it is determined NO in the process of step S126, the process proceeds to step S129.

ステップS129において、AVデコーダ部403は、メインClip AV Streamをデコードする。ここで、メインClip AV Streamとは、再生対象のPlaylistのMainPathにより参照されるMain TSに含まれているビデオストリームやオーディオストリーム等のこと、例えばピクチャインピクチャ手法ではプライマリビデオストリームやプライマリオーディオストリーム等のことをいう。即ち、AVデコーダ部403のうちの、1stビデオデコーダ72や1stオーディオデコーダ75−1等が、このステップS129の処理を実行する。   In step S129, the AV decoder unit 403 decodes the main Clip AV Stream. Here, the main Clip AV Stream is a video stream, an audio stream, or the like included in the Main TS referred to by the Main Path of the playlist to be played back. For example, in the picture-in-picture method, a primary video stream, a primary audio stream, etc. I mean. That is, in the AV decoder unit 403, the 1st video decoder 72, the 1st audio decoder 75-1, and the like execute the process of step S129.

ステップS130において、AVデコーダ部403は、デコードされたメインClip AV Streamと、デコードされたSubPathストリームを合成し、出力する。ここで、デコードされたSubPathストリームとは、図59のステップS124の処理でデコードされてステップS125の処理でプリロード用バッファ414に格納されたIGや、図60のステップS128の処理でデコードされたオーディオストリームのことをいう。   In step S <b> 130, the AV decoder unit 403 combines the decoded main Clip AV Stream and the decoded SubPath stream, and outputs them. Here, the decoded SubPath stream is the IG decoded in step S124 in FIG. 59 and stored in the preload buffer 414 in step S125, or the audio decoded in step S128 in FIG. A stream.

ステップS131において、コントローラ34は、ステップS130の処理で合成されたストリームを出力中に、SubPath_type=2のSubPathの切り替え指示(ユーザの切り替え操作)があったか否かを判定する。   In step S131, the controller 34 determines whether or not there is a subpath switching instruction (user switching operation) of SubPath_type = 2 while outputting the stream synthesized in the process of step S130.

ステップS131において、合成されたストリームを出力中に、SubPath_type=2のSubPathの切り替え指示があったと判定された場合、処理はステップS127に戻され、それ以降の処理が繰り返される。即ち、メインClip AV Streamと合成されるオーディオストリームが切り替えられる。   If it is determined in step S131 that a subpath switching instruction of SubPath_type = 2 has been issued while outputting the combined stream, the process returns to step S127, and the subsequent processes are repeated. That is, the audio stream to be combined with the main Clip AV Stream is switched.

これに対して、ステップS131において、合成されたストリームを出力中に、SubPath_type=2のSubPathの切り替え指示がなかったと判定された場合、application_type=3のPlayListの再生処理が終了となる。   On the other hand, if it is determined in step S131 that there is no SubPath_type = 2 SubPath switching instruction while outputting the combined stream, the playback process of the PlayList of application_type = 3 ends.

次に、図61乃至図64のフローチャートを参照して、application_type=1or2のPlayListの再生処理の一例について説明する。   Next, an example of PlayList playback processing with application_type = 1or2 will be described with reference to the flowcharts of FIGS.

例えば、図49のコントローラ34は、再生対象のPlayListのMainPathで参照されるMain TSのapplication_typeを調査し、その調査の結果、application_type=1or2であることを認識した場合、application_type=1or2のPlayListの再生処理を開始させる。   For example, when the controller 34 in FIG. 49 checks the application_type of the Main TS that is referenced by the MainPath of the PlayList to be played back and recognizes that application_type = 1or2 as a result of the check, playback of the PlayList with application_type = 1or2 Start processing.

図61のステップS141において、コントローラ34は、Main TSはIG(インタラクティブグラフィックスストリーム)を含むか否かを判定する。   In step S141 in FIG. 61, the controller 34 determines whether or not the Main TS includes an IG (interactive graphics stream).

ステップS141において、Main TSはIGを含まないと判定された場合、処理はステップS146に進む。ただし、ステップS146以降の処理については後述する。   If it is determined in step S141 that the Main TS does not include IG, the process proceeds to step S146. However, the processing after step S146 will be described later.

これに対して、ステップS141において、Main TSはIGを含むと判定された場合、処理はステップS142に進む。   On the other hand, when it is determined in step S141 that Main TS includes IG, the process proceeds to step S142.

ステップS142において、コントローラ34は、SubPath_type=3のSub Pathは存在するか否かを判定する。   In step S142, the controller 34 determines whether or not there is a Sub Path of SubPath_type = 3.

ステップS142において、SubPath_type=3のSub Pathは存在しないと判定された場合、処理はステップS146に進む。ただし、ステップS146以降の処理については後述する。   If it is determined in step S142 that there is no Sub Path of SubPath_type = 3, the process proceeds to step S146. However, the processing after step S146 will be described later.

これに対して、ステップS142において、SubPath_type=3のSub Pathは存在すると判定された場合、処理はステップS143に進む。ステップS143において、コントローラ34は、選択されたSubPath(SubPath_type=3のSub Path)が参照するClipを調べる。   On the other hand, if it is determined in step S142 that there is a Sub Path of SubPath_type = 3, the process proceeds to step S143. In step S143, the controller 34 checks the Clip referred to by the selected SubPath (Sub Path of SubPath_type = 3).

そして、コントローラ34は、そのClipから、SubPathにより特定されるストリーム、すなわち、IGを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるIGを読み出す。そして、コントローラ34は、読み出されたIGを、インタラクティブグラフィックスデコーダ74にデコードさせるように指示する。これにより処理はステップS144に進む。   Then, the controller 34 instructs the storage drive 31 to read the stream specified by the SubPath, that is, the IG from the Clip. Based on this instruction, the storage drive 31 reads the target IG. Then, the controller 34 instructs the interactive graphics decoder 74 to decode the read IG. Accordingly, the process proceeds to step S144.

ステップS144において、インタラクティブグラフィックスデコーダ74は、読み出されたClip内のIGをデコードする。そして、ステップS145において、インタラクティブグラフィックスデコーダ74は、デコードされたIGをプリロード用バッファ414に格納する。   In step S144, the interactive graphics decoder 74 decodes the IG in the read Clip. In step S145, the interactive graphics decoder 74 stores the decoded IG in the preload buffer 414.

このようにしてステップS145の処理が終了したとき、または、上述したようにステップS141若しくはS142の処理でNOであると判定されたとき、処理はステップS146に進む。   When the process of step S145 is completed in this way, or when it is determined NO in step S141 or S142 as described above, the process proceeds to step S146.

ステップS146において、コントローラ34は、SubPath_type=4のSub Pathは存在するか否かを判定する。   In step S146, the controller 34 determines whether or not there is a Sub Path of SubPath_type = 4.

ステップS146において、SubPath_type=4のSub Pathは存在しないと判定された場合、処理は図62のステップS149に進む。ただし、ステップS149以降の処理については後述する。   If it is determined in step S146 that there is no SubPath of SubPath_type = 4, the process proceeds to step S149 in FIG. However, the processing after step S149 will be described later.

これに対して、ステップS146において、SubPath_type=4のSub Pathは存在すると判定された場合、処理はステップS147に進む。ステップS147において、コントローラ34は、選択されたSubPath(SubPath_type=4のSub Path )が参照するClipを調べる。   On the other hand, if it is determined in step S146 that there is a Sub Path of SubPath_type = 4, the process proceeds to step S147. In step S147, the controller 34 checks the Clip referred to by the selected SubPath (Sub Path of SubPath_type = 4).

そして、コントローラ34は、そのClipから、SubPathにより特定されるストリーム、すなわち、テキストサブタイトルストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるテキストサブタイトルストリームを読み出す。そして、コントローラ34は、読み出されたテキストサブタイトルを、Text-STコンポジション76にデコードさせるように指示する。これにより処理はステップS148に進む。   Then, the controller 34 instructs the storage drive 31 to read the stream specified by the SubPath, that is, the text subtitle stream, from the Clip. Based on this instruction, the storage drive 31 reads the target text subtitle stream. Then, the controller 34 instructs the Text-ST composition 76 to decode the read text subtitle. Accordingly, the process proceeds to step S148.

ステップS148において、Text-STコンポジション76は、読み出されたClip内のテキストサブタイトルをデコードする。   In step S148, the Text-ST composition 76 decodes the text subtitle in the read Clip.

このようにしてステップS148の処理が終了したとき、または、上述したステップS146の処理でNOであると判定されたとき、処理は図62のステップS149に進む。   Thus, when the process of step S148 is completed or when it is determined NO in the process of step S146 described above, the process proceeds to step S149 of FIG.

ステップS149において、コントローラ34は、SubPath_type=7のSub Pathは存在するか否かを判定する。   In step S149, the controller 34 determines whether there is a Sub Path of SubPath_type = 7.

ステップS149において、SubPath_type=7のSub Pathは存在しないと判定された場合、処理は図63のステップS152に進む。ただし、ステップS152以降の処理については後述する。   If it is determined in step S149 that there is no SubPath of SubPath_type = 7, the process proceeds to step S152 in FIG. However, the processing after step S152 will be described later.

これに対して、ステップS149において、SubPath_type=7のSub Pathは存在すると判定された場合、処理はステップS150に進む。ステップS150において、コントローラ34は、選択されたSubPath(SubPath_type=7のSub Path )が参照するClipを調べる。   On the other hand, when it is determined in step S149 that there is a Sub Path of SubPath_type = 7, the process proceeds to step S150. In step S150, the controller 34 examines the Clip referred to by the selected SubPath (SubPath_type = 7 Sub Path).

そして、コントローラ34は、そのClipから、SubPathにより特定されるストリーム、すなわち、ビデオ/オーディオストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるビデオ/オーディオストリームを読み出す。そして、コントローラ34は、読み出されビデオ/オーディオストリームを、例えば2ndビデオデコーダ412/2ndオーディオデコーダ75−2にデコードさせるように指示する。これにより処理はステップS151に進む。   Then, the controller 34 instructs the storage drive 31 to read out the stream specified by the SubPath, that is, the video / audio stream, from the Clip. The storage drive 31 reads the target video / audio stream based on this instruction. Then, the controller 34 instructs the 2nd video decoder 412 / 2nd audio decoder 75-2 to decode the read video / audio stream, for example. Accordingly, the process proceeds to step S151.

ステップS151において、2ndビデオデコーダ412/2ndオーディオデコーダ75−2は、読み出されたClip内のビデオ/オーディオストリームをデコードする。   In step S151, the 2nd video decoder 412 / 2nd audio decoder 75-2 decodes the video / audio stream in the read Clip.

このようにしてステップS151の処理が終了したとき、または、上述したステップS149の処理でNOであると判定されたとき、処理は図63のステップS152に進む。   Thus, when the process of step S151 is completed or when it is determined NO in the process of step S149 described above, the process proceeds to step S152 of FIG.

ステップS152において、コントローラ34は、SubPath_type=5のSub Pathは存在するか否かを判定する。   In step S152, the controller 34 determines whether or not there is a Sub Path of SubPath_type = 5.

ステップS152において、SubPath_type=5のSub Pathは存在しないと判定された場合、処理はステップS156に進む。ただし、ステップS156以降の処理については後述する。   If it is determined in step S152 that there is no SubPath_type = 5 Sub Path, the process proceeds to step S156. However, the processing after step S156 will be described later.

これに対して、ステップS152において、SubPath_type=5のSub Pathは存在すると判定された場合、処理はステップS153に進む。ステップS153において、コントローラ34は、選択されたSubPath(SubPath_type=5のSub Path)が参照するClipを調べる。   In contrast, if it is determined in step S152 that there is a Sub Path of SubPath_type = 5, the process proceeds to step S153. In step S153, the controller 34 checks the Clip referred to by the selected SubPath (Sub Path of SubPath_type = 5).

ステップS154において、コントローラ34は、stream_attribute()に記述されている内容に基づいて、そのClip内にあるオーディオストリームを再生する機能はあるか否かを判定する。なお、オーディオストリームの再生機能の有無の判定方法の具体例については、上述した図30のステップS74の処理の説明の際に併せて説明しているので、ここでは省略する。   In step S154, the controller 34 determines whether or not there is a function for playing back an audio stream in the Clip based on the contents described in stream_attribute (). A specific example of the method for determining whether or not the audio stream has a playback function has been described in conjunction with the description of the processing in step S74 in FIG.

ステップS154において、Clip内にあるオーディオストリームを再生する機能は無いと判定された場合、処理はステップS156に進む。ただし、ステップS156以降の処理については後述する。   If it is determined in step S154 that there is no function for reproducing the audio stream in the Clip, the process proceeds to step S156. However, the processing after step S156 will be described later.

これに対して、ステップS154において、Clip内にあるオーディオストリームを再生する機能はあると判定した場合、コントローラ34は、そのClipから、SubPathによって特定されるストリーム、すなわち、オーディオストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるオーディオストリームを読み出す。そして、コントローラ34は、読み出されたオーディオストリームを、例えば2ndオーディオデコーダ75−2にデコードさせるように指示する。これにより処理はステップS155に進む。   On the other hand, if it is determined in step S154 that the audio stream in the Clip is played, the controller 34 reads the stream specified by the SubPath, that is, the audio stream, from the Clip. 31 is instructed. Based on this instruction, the storage drive 31 reads the target audio stream. Then, the controller 34 instructs the 2nd audio decoder 75-2 to decode the read audio stream, for example. Accordingly, the process proceeds to step S155.

ステップS155において、2ndオーディオデコーダ75−2は、読み出されたClip内のオーディオストリームをデコードする。   In step S155, the 2nd audio decoder 75-2 decodes the audio stream in the read Clip.

このようにしてステップS155の処理が終了したとき、または、上述したステップS152若しくはS154の処理でNOであると判定されたとき、処理はステップS156に進む。   In this way, when the process of step S155 ends, or when it is determined NO in the process of step S152 or S154 described above, the process proceeds to step S156.

ステップS156において、コントローラ34は、SubPath_type=6のSub Pathは存在するか否かを判定する。   In step S156, the controller 34 determines whether or not there is a Sub Path of SubPath_type = 6.

ステップS156において、SubPath_type=6のSub Pathは存在しないと判定された場合、処理は図64のステップS161に進む。ただし、ステップS161以降の処理については後述する。   If it is determined in step S156 that there is no Sub Path of SubPath_type = 6, the process proceeds to step S161 in FIG. However, the processing after step S161 will be described later.

これに対して、ステップS156において、SubPath_type=6のSub Pathは存在すると判定された場合、処理はステップS157に進む。ステップS157において、コントローラ34は、選択されたSubPath(SubPath_type=6のSub Path)が参照するClipを調べる。   On the other hand, if it is determined in step S156 that there is a Sub Path of SubPath_type = 6, the process proceeds to step S157. In step S157, the controller 34 checks the Clip referred to by the selected SubPath (Sub Path of SubPath_type = 6).

ステップS158において、コントローラ34は、stream_attribute()に記述されている内容に基づいて、そのClip内にあるオーディオストリームを再生する機能はあるか否かを判定する。なお、オーディオストリームの再生機能の有無の判定方法の具体例については、上述した図30のステップS74の処理の説明の際に併せて説明しているので、ここでは省略する。   In step S158, the controller 34 determines whether or not there is a function for playing back an audio stream in the Clip, based on the contents described in stream_attribute (). A specific example of the method for determining whether or not the audio stream has a playback function has been described in conjunction with the description of the processing in step S74 in FIG.

ステップS158において、Clip内にあるオーディオストリームを再生する機能は無いと判定された場合、コントローラ34は、そのClipから、SubPathによって特定されるストリーム、すなわち、ビデオストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるビデオストリームを読み出す。ただし、この場合、コントローラ34は、読み出されたClipに含まれるオーディオストリームのデコードの禁止を指示し、かつ、読み出されたビデオストリームを、例えば2ndビデオデコーダ412にデコードさせるように指示する。これにより処理はステップS160に進む。ただし、ステップS160以降の処理については後述する。   If it is determined in step S158 that there is no function to play back the audio stream in the Clip, the controller 34 instructs the storage drive 31 to read the stream specified by the SubPath, that is, the video stream from the Clip. . Based on this instruction, the storage drive 31 reads the target video stream. However, in this case, the controller 34 instructs prohibition of decoding of the audio stream included in the read Clip, and instructs the 2nd video decoder 412 to decode the read video stream, for example. Accordingly, the process proceeds to step S160. However, the processing after step S160 will be described later.

これに対して、ステップS158において、Clip内にあるオーディオストリームを再生する機能はあると判定された場合、コントローラ34は、そのClipから、SubPathによって特定されるストリーム、すなわち、ビデオストリームおよびオーディオストリームを読み出すようストレージドライブ31に指示する。ストレージドライブ31は、この指示に基づいて、対象となるビデオストリームおよびオーディオストリームを読み出す。そして、コントローラ34は、読み出されたオーディオストリームを、例えば2ndオーディオデコーダ75−2にデコードさせるように指示し、かつ、読み出されたビデオストリームを、例えば2ndビデオデコーダ412にデコードさせるように指示する。これにより処理はステップS159に進む。   On the other hand, if it is determined in step S158 that the audio stream in the Clip has a function to be played back, the controller 34 determines the stream specified by the SubPath from the Clip, that is, the video stream and the audio stream. The storage drive 31 is instructed to read. Based on this instruction, the storage drive 31 reads the target video stream and audio stream. Then, the controller 34 instructs the 2nd audio decoder 75-2 to decode the read audio stream, for example, and instructs the 2nd video decoder 412 to decode the read video stream, for example. To do. Accordingly, the process proceeds to step S159.

ステップS159において、2ndオーディオデコーダ75−2は、読み出されたClip内のオーディオストリームをデコードする。   In step S159, the 2nd audio decoder 75-2 decodes the audio stream in the read Clip.

このようにしてステップS159の処理が終了したとき、または、上述したステップS158の処理でNOであると判定されたとき、処理はステップS160に進む。   In this way, when the process of step S159 ends, or when it is determined NO in the process of step S158 described above, the process proceeds to step S160.

ステップS160において、2ndビデオデコーダ412は、読み出されたClip内のビデオストリームをデコードする。   In step S160, the 2nd video decoder 412 decodes the video stream in the read Clip.

このようにしてステップS160の処理が終了したとき、または、上述したステップS156の処理でNOであると判定されたとき、処理は図64のステップS161に進む。   Thus, when the process of step S160 is completed or when it is determined NO in the process of step S156 described above, the process proceeds to step S161 of FIG.

ステップS161において、AVデコーダ部403は、メインClip AV Streamをデコードする。ここで、メインClip AV Streamとは、再生対象のPlaylistのMainPathにより参照されるMain TSに含まれているビデオストリームやオーディオストリーム等のことであり、Main TSに含まれている。メインClip AV Streamとは、例えば、ピクチャインピクチャ手法ではプライマリビデオストリームやプライマリオーディオストリーム等のことをいう。即ち、AVデコーダ部403のうちの、1stビデオデコーダ72や1stオーディオデコーダ75−1等が、このステップS161の処理を実行する。   In step S161, the AV decoder unit 403 decodes the main Clip AV Stream. Here, the main Clip AV Stream is a video stream, an audio stream, or the like included in the Main TS referred to by the MainPath of the playlist to be played back, and is included in the Main TS. The main Clip AV Stream means, for example, a primary video stream or a primary audio stream in the picture-in-picture method. That is, in the AV decoder unit 403, the 1st video decoder 72, the 1st audio decoder 75-1, etc. execute the processing of step S161.

ステップS162において、AVデコーダ部403は、デコードされたメインClip AV Streamと、デコードされたSubPathストリームを合成し、出力する。ここで、デコードされたSubPathストリームとは、図61のステップS144の処理でデコードされてステップS145の処理でプリロード用バッファ414に格納されたIG、図61のステップS148の処理でデコードされたテキストサブタイトル、図62のステップS151の処理でデコードされたオーディオストリーム、図63のステップS155の処理でデコードされたオーディオストリーム、図62のステップS159の処理でデコードされたオーディオストリーム、および、図62のステップS160の処理でデコードされたビデオストリームのうちの0以上のことをいう。   In step S162, the AV decoder unit 403 combines the decoded main Clip AV Stream and the decoded SubPath stream, and outputs them. Here, the decoded SubPath stream is the IG decoded in step S144 in FIG. 61 and stored in the preload buffer 414 in step S145, and the text subtitle decoded in step S148 in FIG. 62, the audio stream decoded in step S151 in FIG. 62, the audio stream decoded in step S155 in FIG. 63, the audio stream decoded in step S159 in FIG. 62, and step S160 in FIG. This means zero or more of the video streams decoded by the above process.

ステップS163において、コントローラ34は、ステップS162の処理で合成されたストリームを出力中にSubPathの切り替え指示(ユーザの切り替え操作)があったか否かを判定する。   In step S163, the controller 34 determines whether or not there has been a SubPath switching instruction (user switching operation) while outputting the stream synthesized in step S162.

ステップS163において、合成されたストリームを出力中にSubPathの切り替え指示が無かったと判定された場合、application_type=1or2のPlayListの再生処理が終了となる。   If it is determined in step S163 that there has been no SubPath switching instruction while outputting the combined stream, the PlayList playback process with application_type = 1or2 ends.

これに対して、ステップS163において、合成されたストリームを出力中にSubPathの切り替え指示が有ったと判定された場合、処理はステップS164に進む。   On the other hand, if it is determined in step S163 that there has been a SubPath switching instruction while outputting the combined stream, the process proceeds to step S164.

ステップS164において、コントローラ34は、その切り替え指示により選択されたSubPathのSubPath_typeを調べる。   In step S164, the controller 34 checks the SubPath_type of the SubPath selected by the switching instruction.

ステップS165において、コントローラ34は、ステップS164の調査結果がSubPath_type=3であるか否かを判定する。   In step S165, the controller 34 determines whether or not the investigation result in step S164 is SubPath_type = 3.

ステップS165において、SubPath_type=3であると判定された場合、処理は図61のステップS143に戻され、処理が繰り返される。即ち、メインClip AV Streamと合成されるIGが切り替えられる。   If it is determined in step S165 that SubPath_type = 3, the process returns to step S143 in FIG. 61 and the process is repeated. That is, the IG combined with the main Clip AV Stream is switched.

これに対して、ステップS165において、SubPath_type=3ではないと判定された場合、処理はステップS166に進む。   On the other hand, if it is determined in step S165 that SubPath_type = 3 is not satisfied, the process proceeds to step S166.

ステップS166において、コントローラ34は、ステップS164の調査結果がSubPath_type=4であるか否かを判定する。   In step S166, the controller 34 determines whether or not the investigation result in step S164 is SubPath_type = 4.

ステップS166において、SubPath_type=4であると判定された場合、処理は図61のステップS147に戻され、処理が繰り返される。即ち、メインClip AV Streamと合成されるテキストサブタイトルが切り替えられる。   If it is determined in step S166 that SubPath_type = 4, the process returns to step S147 of FIG. 61 and the process is repeated. That is, the text subtitle combined with the main Clip AV Stream is switched.

これに対して、ステップS166において、SubPath_type=4ではないと判定された場合、処理はステップS167に進む。   On the other hand, if it is determined in step S166 that SubPath_type = 4 is not satisfied, the process proceeds to step S167.

ステップS167において、コントローラ34は、ステップS164の調査結果がSubPath_type=7であるか否かを判定する。   In step S167, the controller 34 determines whether or not the investigation result in step S164 is SubPath_type = 7.

ステップS167において、SubPath_type=7であると判定された場合、処理は図62のステップS150に戻され、処理が繰り返される。即ち、メインClip AV Streamと合成されるビデオ/オーディオストリームが切り替えられる。   If it is determined in step S167 that SubPath_type = 7, the process returns to step S150 in FIG. 62 and the process is repeated. That is, the video / audio stream synthesized with the main Clip AV Stream is switched.

これに対して、ステップS167において、SubPath_type=7ではないと判定された場合、処理はステップS168に進む。   On the other hand, when it is determined in step S167 that SubPath_type = 7 is not satisfied, the process proceeds to step S168.

ステップS168において、コントローラ34は、ステップS164の調査結果がSubPath_type=5であるか否かを判定する。   In step S168, the controller 34 determines whether or not the investigation result in step S164 is SubPath_type = 5.

ステップS168において、SubPath_type=5であると判定された場合、処理は図63のステップS153に戻され、処理が繰り返される。即ち、メインClip AV Streamと合成されるオーディオストリームが切り替えられる。   If it is determined in step S168 that SubPath_type = 5, the process returns to step S153 in FIG. 63 and the process is repeated. That is, the audio stream to be combined with the main Clip AV Stream is switched.

これに対して、ステップS168において、SubPath_type=5ではないと判定された場合、処理はステップS169に進む。   On the other hand, if it is determined in step S168 that SubPath_type = 5 is not satisfied, the process proceeds to step S169.

ステップS169において、コントローラ34は、ステップS164の調査結果がSubPath_type=6であるか否かを判定する。   In step S169, the controller 34 determines whether or not the investigation result in step S164 is SubPath_type = 6.

ステップS169において、SubPath_type=6であると判定された場合、処理は図63のステップS157に戻され、処理が繰り返される。即ち、メインClip AV Streamと合成されるオーディオストリームやビデオストリームが切り替えられる。   If it is determined in step S169 that SubPath_type = 6, the process returns to step S157 of FIG. 63 and the process is repeated. That is, the audio stream and video stream to be combined with the main Clip AV Stream are switched.

これに対して、ステップS169において、SubPath_type=6ではないと判定された場合、application_type=1or2のPlayListの再生処理が終了となる。   On the other hand, if it is determined in step S169 that SubPath_type = 6 is not satisfied, the PlayList playback process with application_type = 1or2 is terminated.

以上説明したように、ピクチャインピクチャ手法を適用するアプリケーションを実現するためには、例えば、プライマリビデオストリームと組み合わせて同時再生され得るストリームの組み合わせの定義、即ち、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせの定義が必要となる。   As described above, in order to realize an application to which the picture-in-picture method is applied, for example, the definition of the combination of streams that can be simultaneously reproduced in combination with the primary video stream, that is, the secondary video stream, the primary audio stream, the secondary It is necessary to define a combination of an audio stream and a subtitle stream.

さらに、複数の組み合わせを定義することで、全画面301に再生されるプライマリビデオストリームやプライマリオーディオスオストリームの切り替えのみならず、子画面302に再生されるセカンダリビデオストリームの切り替えや、サブタイトルストリームの切り替えも容易に行えるようになる。   Furthermore, by defining a plurality of combinations, not only switching of the primary video stream and primary audio stream reproduced on the full screen 301 but also switching of the secondary video stream reproduced on the sub-screen 302 and switching of the subtitle stream are performed. Can also be easily performed.

次に、図65および図66を参照して、再生装置20において再生可能なデータが記録された記録媒体21の製造方法について、記録媒体21がディスク状の記録媒体だった場合を例として説明する。   Next, with reference to FIGS. 65 and 66, a method of manufacturing the recording medium 21 on which data that can be reproduced by the reproducing apparatus 20 is recorded will be described by taking the case where the recording medium 21 is a disc-shaped recording medium as an example. .

即ち、図65に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。 That is, as shown in FIG. 65, a master disk made of glass or the like is prepared, and a recording material made of photoresist or the like is applied thereon. As a result, a recording master is produced.

そして、図66に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置20や再生装置401において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、Playlist、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置20や再生装置401において再生可能な記録媒体21に記録されるソフトウェアが製作される。   As shown in FIG. 66, in the software production processing unit, video data in a format that can be played back by the playback device 20 or the playback device 401 encoded by the encoding device (video encoder) is stored in a temporary buffer. Audio data encoded by the audio encoder is stored in the temporary buffer, and data other than the stream (for example, Indexes, Playlist, PlayItem, etc.) encoded by the data encoder is further stored in the temporary buffer. The Video data, audio data, and data other than the stream stored in each buffer are multiplexed together with a synchronization signal by a multiplexer (MPX), and an error correction code is added by an error correction code circuit (ECC). Is done. Then, predetermined modulation is applied by a modulation circuit (MOD), and software recorded once on a magnetic tape or the like according to a predetermined format and recorded on the recording medium 21 that can be reproduced by the reproducing device 20 or the reproducing device 401 is provided. Produced.

このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。   This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. In response to this recording signal, the laser beam is modulated, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.

その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。   Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.

この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。   A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.

このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。   A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.

その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置20や再生装置401によって再生可能なデータが記録された記録媒体21が完成する。   Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 21 on which data that can be reproduced by the reproducing apparatus 20 or the reproducing apparatus 401 is recorded is completed.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図67に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図67において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   67, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Run. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT and LCD, an output unit 507 including a speaker, a storage unit 508 including a hard disk, a modem, a terminal adapter, and the like. A communicator 509 is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is connected to the input / output interface 505 as necessary, and a removable medium 521 made up of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、図67に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 67, this recording medium is not only composed of a package medium consisting of a removable medium 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. These are configured by a hard disk including a ROM 502 storing a program and a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.

なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.

また、ドライブ510は、装着されたリムーバブルメディア521に記録されたデータを読み出すことができるのみならず、装着されたリムーバブルメディア521にデータを記録することができる。そして、パーソナルコンピュータ500が、図66を用いて説明したソフト製作処理部と同様の機能を有する(例えば、CPU501を用いて、ソフト製作処理部と同様の機能を実現するためのプログラムを実行する)ことが可能であるのは言うまでもない。   Further, the drive 510 can read data recorded on the attached removable medium 521 and can record data on the attached removable medium 521. The personal computer 500 has the same function as the software production processing unit described with reference to FIG. 66 (for example, the CPU 501 is used to execute a program for realizing the same function as the software production processing unit). It goes without saying that it is possible.

すなわち、パーソナルコンピュータ500は、図66を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、CPU501の処理により生成するか、または、外部の装置で生成された図66を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、通信部509またはドライブ510に装着されたリムーバブルメディア521を介して取得することができる。そして、パーソナルコンピュータ500は、生成または取得された図66を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、ドライブ510に装着されたリムーバブルメディア521に記録する記録装置としての機能を実現することができる。   That is, the personal computer 500 generates data similar to the data generated by the software production processing unit described with reference to FIG. 66 by the processing of the CPU 501 or uses FIG. 66 generated by an external device. Data similar to the data generated by the software production processing unit described above can be acquired via the communication unit 509 or the removable medium 521 attached to the drive 510. Then, the personal computer 500 serves as a recording device that records data similar to the data generated or acquired by the software production processing unit described with reference to FIG. 66 on the removable medium 521 attached to the drive 510. Function can be realized.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

20 再生装置, 31 ストレージドライブ, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57乃至59 スイッチ, 71 バックグラウンドデコーダ, 72 ビデオデコーダ/1stビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部/1stビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 ミキシング処理部, 401 再生装置, 403 AVデコーダ部, 411 PIDフィルタ, 412 2ndビデオデコーダ, 413 2ndビデオプレーン生成部, 414プリロード用バッファ   20 playback devices, 31 storage drives, 32 switches, 33 AV decoder units, 34 controllers, 51 to 54 buffers, 55, 56 PID filters, 57 to 59 switches, 71 background decoders, 72 video decoders / first video decoders, 73 presentations Graphics decoder, 74 interactive graphics decoder, 75 audio decoder, 76 Text-ST composition, 77 switch, 91 background plane generator, 92 video plane generator / 1st video plane generator, 93 presentation graphics plane generator , 94 Interactive graphics plane generator, 95 Buffer 96 Video data processor, 97 Mixi Grayed processing unit, 101 a mixing processing unit 401 reproducing apparatus, 403 AV decoder unit, 411 PID filter, 412 2nd video decoder, 413 2nd video plane generating unit, 414 preload buffer

Claims (3)

メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類されている再生管理情報であって、前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは前記所定の種類に対して許可されたタイプの再生パスである、という第1の条件を少なくとも満たしている前記再生管理情報を取得する取得手段と、
前記取得手段により取得された前記再生管理情報に基づいて、再生するストリームの選択を、前記メインストリーム群と前記第1のサブストリーム群との第1の組み合わせ、または、前記メインストリーム群と前記第2のサブストリーム群との第2の組み合わせとして受け付ける受付手段と、
前記受付手段により前記第1の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第1のサブストリーム群を前記第1の副の再生パスを参照して読み出し、前記受付手段により前記第2の組み合わせが受け付けられた場合、前記メインストリーム群を前記主の再生パスを参照して読み出すとともに、前記第2のサブストリーム群を前記第2の副の再生パスを参照して読み出す読み出し手段と、
前記読み出し手段により読み出された前記メインストリーム群とともに、前記第1のサブストリーム群と前記第2のサブストリーム群とのうちの前記読み出し手段により読み出された方を再生する再生手段と
を備え、
前記再生管理情報の種類には、同期型と非同期型とがあり、
前記第1の条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、
前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、
前記読み出し手段が一度に読み出すことが可能な前記ファイルの読み出し個数が予め決められており、
前記再生管理情報は、前記第1の条件に加えてさらに、一度に読み出される前記ファイルの総数が前記読み出し個数以下となるように、1以上の前記副の再生パスを決定する、という第2の条件を満たしている
再生装置。
Different from the main reproduction path indicating the position of the main stream group on the time axis, the first sub reproduction path indicating the position of the first substream group on the time axis, and the first substream group The second sub-stream group includes a second sub-reproduction path indicating the position on the time axis, and is classified into a predetermined type of a plurality of types predefined according to the type of the main stream group. A first sub-reproduction path and a second sub-reproduction path, each of which is a type of reproduction path permitted for the predetermined type. Obtaining means for obtaining the reproduction management information satisfying at least a condition;
Based on the reproduction management information acquired by the acquisition means, the selection of a stream to be reproduced is performed by a first combination of the main stream group and the first substream group, or the main stream group and the first stream. Receiving means for accepting the second combination with the two substream groups;
When the first combination is received by the receiving unit, the main stream group is read with reference to the main reproduction path, and the first substream group is referred to the first sub reproduction path. When the second combination is received by the receiving unit, the main stream group is read with reference to the main reproduction path, and the second substream group is read by the second sub stream. Read means for reading with reference to the reproduction path;
Reproducing means for reproducing the one of the first substream group and the second substream group read by the reading means together with the main stream group read by the reading means. ,
The types of reproduction management information include a synchronous type and an asynchronous type,
The first condition is that when the type of the reproduction management information is the asynchronous type, the type of the secondary reproduction path is a non-multiplex type path, and is an audio presentation path of a browsable slide show. Type or non-multiplexed path, which is either the second type which is an interactive graphics menu, and the type of the playback management information is the synchronous type, the type of the secondary playback path Is a condition that the type is other than the first type,
The main stream group, the first substream group, and the second substream group are included in any file,
The number of reading of the file that can be read by the reading means at a time is predetermined,
In addition to the first condition, the reproduction management information further determines one or more secondary reproduction paths so that the total number of the files read at one time is equal to or less than the read number. A playback device that meets the requirements.
少なくとも1つのストリームを含むファイルの再生を管理する再生管理情報を含むデータが記録された記録媒体であって、
前記再生管理情報は、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、
前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは、前記所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、
前記再生管理情報の種類には、同期型と非同期型とがあり、
前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、
前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定する
データが記録された記録媒体。
A recording medium on which data including reproduction management information for managing reproduction of a file including at least one stream is recorded,
The reproduction management information includes a main reproduction path indicating a position on the time axis of the main stream group, a first sub reproduction path indicating a position on the time axis of the first substream group, and the first A second sub-reproduction path indicating a position on the time axis of a second sub-stream group different from the sub-stream group, and a plurality of types defined in advance according to the type of the main stream group Classified into a given type,
Each of the first sub reproduction path and the second sub reproduction path satisfies at least a condition that the reproduction path is a type permitted for the predetermined type;
The types of reproduction management information include a synchronous type and an asynchronous type,
The condition is that when the type of the playback management information is the asynchronous type, the secondary playback path type is a non-multiplexed path and the audio presentation path of the browsable slide show is the first type, Alternatively, if the path is a non-multiplexed path and one of the second types that is an interactive graphics menu, and the type of the playback management information is the synchronous type, the secondary playback path type is It is a condition that it is a type other than the first type,
The main stream group, the first substream group, and the second substream group are included in any file, and the total number of the files to be read at a time is determined in advance in the playback device. A recording medium on which data for determining the first sub reproduction path and the second sub reproduction path is recorded so that the number of data can be read at one time or less.
再生装置において再生可能なデータが記録される記憶媒体の製造方法であって、
前記再生管理情報は、メインストリーム群の時間軸上の位置を示す主の再生パス、第1のサブストリーム群の時間軸上の位置を示す第1の副の再生パス、および、前記第1のサブストリーム群とは異なる第2のサブストリーム群の時間軸上の位置を示す第2の副の再生パスを含み、前記メインストリーム群の種類に応じて予め定義されている複数の種類のうちの所定の種類に分類され、
前記第1の副の再生パスと前記第2の副の再生パスのそれぞれは、前記所定の種類に対して許可されたタイプの再生パスであるという条件を少なくとも満たしており、
前記再生管理情報の種類には、同期型と非同期型とがあり、
前記条件は、前記再生管理情報の種類が前記非同期型である場合、前記副の再生パスのタイプは、非多重型のパスであって、ブラウザブルスライドショーのオーディオプレゼンテーションパスである第1タイプか、または、非多重型のパスであって、インタラクティブグラフィックスメニューである第2タイプのいずれかであり、前記再生管理情報の種類が前記同期型である場合、前記副の再生パスのタイプは、前記第1タイプ以外のタイプであるという条件であり、
前記メインストリーム群、前記第1のサブストリーム群、および、前記第2のサブストリーム群は、いずれかのファイルに含まれており、一度に読み出される前記ファイルの総数が、再生装置において予め決められた、一度に読み出すことが可能な読み出し個数以下となるように、前記第1の副の再生パスおよび前記第2の副の再生パスを決定する
データ構造を有するデータを生成し、
生成されたデータを記録媒体に記録する
ステップを含む記録媒体の製造方法。
A method of manufacturing a storage medium on which data that can be played back by a playback device is recorded,
The reproduction management information includes a main reproduction path indicating a position on the time axis of the main stream group, a first sub reproduction path indicating a position on the time axis of the first substream group, and the first A second sub-reproduction path indicating a position on the time axis of a second sub-stream group different from the sub-stream group, and a plurality of types defined in advance according to the type of the main stream group Classified into a given type,
Each of the first sub reproduction path and the second sub reproduction path satisfies at least a condition that the reproduction path is a type permitted for the predetermined type;
The types of reproduction management information include a synchronous type and an asynchronous type,
The condition is that when the type of the playback management information is the asynchronous type, the secondary playback path type is a non-multiplexed path and the audio presentation path of the browsable slide show is the first type, Alternatively, if the path is a non-multiplexed path and one of the second types that is an interactive graphics menu, and the type of the playback management information is the synchronous type, the secondary playback path type is It is a condition that it is a type other than the first type,
The main stream group, the first substream group, and the second substream group are included in any file, and the total number of the files to be read at a time is determined in advance in the playback device. In addition, data having a data structure for determining the first sub reproduction path and the second sub reproduction path is generated so as to be equal to or less than the number of readouts that can be read at one time,
A method for manufacturing a recording medium, comprising the step of recording the generated data on a recording medium.
JP2011196706A 2005-08-30 2011-09-09 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF Expired - Fee Related JP5218872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011196706A JP5218872B2 (en) 2005-08-30 2011-09-09 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005250163 2005-08-30
JP2005250163 2005-08-30
JP2011196706A JP5218872B2 (en) 2005-08-30 2011-09-09 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011174437A Division JP5472229B2 (en) 2005-08-30 2011-08-10 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011222707A Division JP5472251B2 (en) 2005-08-30 2011-10-07 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD

Publications (2)

Publication Number Publication Date
JP2012022771A JP2012022771A (en) 2012-02-02
JP5218872B2 true JP5218872B2 (en) 2013-06-26

Family

ID=45323169

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2011152906A Active JP5234144B2 (en) 2005-08-30 2011-07-11 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP2011174437A Expired - Fee Related JP5472229B2 (en) 2005-08-30 2011-08-10 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD
JP2011196706A Expired - Fee Related JP5218872B2 (en) 2005-08-30 2011-09-09 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP2011222707A Active JP5472251B2 (en) 2005-08-30 2011-10-07 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2011152906A Active JP5234144B2 (en) 2005-08-30 2011-07-11 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP2011174437A Expired - Fee Related JP5472229B2 (en) 2005-08-30 2011-08-10 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011222707A Active JP5472251B2 (en) 2005-08-30 2011-10-07 REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD

Country Status (1)

Country Link
JP (4) JP5234144B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331509A (en) * 1995-05-30 1996-12-13 Victor Co Of Japan Ltd Image recording medium, its manufacture and reproducing method
JP4348920B2 (en) * 2002-09-24 2009-10-21 ソニー株式会社 Information processing apparatus and method, program, and recording medium
CN100466713C (en) * 2002-11-28 2009-03-04 索尼株式会社 Reproduction device, reproduction method, reproduction program, and recording medium
JP4228767B2 (en) * 2003-04-25 2009-02-25 ソニー株式会社 REPRODUCTION DEVICE, REPRODUCTION METHOD, REPRODUCTION PROGRAM, AND RECORDING MEDIUM
JP4386258B2 (en) * 2003-11-28 2009-12-16 シャープ株式会社 Recording / reproducing apparatus and server apparatus
KR20050078907A (en) * 2004-02-03 2005-08-08 엘지전자 주식회사 Method for managing and reproducing a subtitle of high density optical disc
WO2005074394A2 (en) * 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium having a data structure for managing various data and recording and reproducing methods and apparatuses
CN1906694B (en) * 2004-02-16 2010-12-22 索尼株式会社 Reproduction device, reproduction method, program, recording medium, and data structure
JP4923751B2 (en) * 2005-08-30 2012-04-25 ソニー株式会社 REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF

Also Published As

Publication number Publication date
JP2012022771A (en) 2012-02-02
JP2012075113A (en) 2012-04-12
JP5472229B2 (en) 2014-04-16
JP5234144B2 (en) 2013-07-10
JP2011248999A (en) 2011-12-08
JP5472251B2 (en) 2014-04-16
JP2011234419A (en) 2011-11-17

Similar Documents

Publication Publication Date Title
JP4923751B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP4968506B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP4081772B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
US9076495B2 (en) Reproducing apparatus, reproducing method, computer program, program storage medium, data structure, recording medium, recording device, and manufacturing method of recording medium
JP4822081B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING MEDIUM
JP4849343B2 (en) Data generation method, recording apparatus and method, and program
JP4968562B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP5218872B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP2008193604A (en) Reproducing apparatus and method, and program
JP4720676B2 (en) Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium
JP4900708B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP5201428B2 (en) Data generation method, recording apparatus and method, and program
JP4821456B2 (en) Information processing apparatus, information processing method, program, data structure, and recording medium
JP2008052836A (en) Information processing apparatus, information processing method, program, and program storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5218872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees