JP4849343B2 - Data generation method, recording apparatus and method, and program - Google Patents

Data generation method, recording apparatus and method, and program Download PDF

Info

Publication number
JP4849343B2
JP4849343B2 JP2007211923A JP2007211923A JP4849343B2 JP 4849343 B2 JP4849343 B2 JP 4849343B2 JP 2007211923 A JP2007211923 A JP 2007211923A JP 2007211923 A JP2007211923 A JP 2007211923A JP 4849343 B2 JP4849343 B2 JP 4849343B2
Authority
JP
Japan
Prior art keywords
stream
video
audio
main
substream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007211923A
Other languages
Japanese (ja)
Other versions
JP2008022568A (en
Inventor
綾子 岩瀬
元樹 加藤
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007211923A priority Critical patent/JP4849343B2/en
Publication of JP2008022568A publication Critical patent/JP2008022568A/en
Application granted granted Critical
Publication of JP4849343B2 publication Critical patent/JP4849343B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、データ生成方法記録装置および方法、並びに、プログラムに関し、特に、ストリームデータを再生する場合に用いて好適な、データ生成方法記録装置および方法、並びに、プログラムに関する。 The present invention relates to a data generation method , a recording apparatus and method, and a program, and more particularly, to a data generation method , a recording apparatus and method, and a program that are suitable for reproducing stream data.

異なったコンテンツを同時視聴するために、複数のコンテンツの映像データをデコードした後、非圧縮の画像データを合成して、その後、D/A変換を実行し、映像出力端子へ出力して、外部の表示装置に表示させる技術がある(例えば、特許文献1)。
特開2005−20242号公報
In order to view different contents simultaneously, after decoding video data of multiple contents, uncompressed image data is synthesized, then D / A conversion is performed and output to the video output terminal. There is a technique for displaying on a display device (for example, Patent Document 1).
Japanese Patent Laying-Open No. 2005-20242

上述したように、複数のコンテンツの映像データを合成して表示させる場合のみならず、1つのコンテンツが、複数の映像データを含む場合などにおいても、複数の映像データを合成して出力させることが求められている。   As described above, not only when video data of a plurality of contents are combined and displayed, but also when a single content includes a plurality of video data, a plurality of video data can be combined and output. It has been demanded.

複数の映像データが合成されて出力される場合、主な表示画面に対する副となる表示画面の表示方法を、再生装置に依存させるのではなく、例えば、コンテンツごとに、または、コンテンツの所定の再生箇所ごとに、コンテンツの作成元またはコンテンツの配給元などが設定することは困難であった。   When a plurality of pieces of video data are combined and output, the display method of the display screen that is the sub-screen with respect to the main display screen does not depend on the playback device, for example, for each content or for predetermined playback of the content It has been difficult for the content creator or content distributor to set for each location.

本発明はこのような状況に鑑みてなされたものであり、主な表示画面に対する副となる表示画面の表示方法を指定することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to specify a display method of a display screen that is a sub-screen with respect to a main display screen.

本発明のデータ生成方法は、再生装置においてコンテンツ再生に用いる再生管理データを生成するデータ生成方法であって、メインストリームの映像と、サブストリームの映像とを取得し、前記メインストリームに対応して再生される音声を取得し、前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、前記メインストリームを再生する時間軸上の位置を示す第1の情報と、前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報とを含むデータ構造を有する再生管理データを生成するステップを含む。 The data generation method of the present invention is a data generation method for generating playback management data used for content playback in a playback device, and acquires a video of a main stream and a video of a substream, and corresponds to the main stream. Acquires the audio to be played back, and if there is audio to be played back corresponding to the substream, it is played back corresponding to the substream, which is synthesized with the audio played back corresponding to the main stream. First information indicating a position on the time axis for acquiring the audio to be played and reproducing the main stream; second information indicating a position on the time axis for reproducing a substream different from the main stream; an information about the display state of the image of the sub-stream is combined with the picture of the main stream, movies of the main stream When executed on the basis of the information indicating the brightness of the image of the sub-streams are combined, the image of the main stream, and the information about the display state containing information about the process for synthesizing the video of the sub stream Generating reproduction management data having a data structure including the same.

前記サブストリームの映像の明るさを示す情報は、透過処理を行うべき明るさを示す情報の少なくとも1つの閾値であり、前記サブストリームの映像の明るさが、前記閾値以上または以下となる映像部分に対して透過処理を行うことができる。   The information indicating the brightness of the video of the substream is at least one threshold value of information indicating the brightness to be subjected to the transmission process, and the video portion in which the brightness of the video of the substream is greater than or less than the threshold value Can be subjected to a transparent process.

本発明のデータ生成方法においては、メインストリームの映像と、サブストリームの映像とが取得され、メインストリームに対応して再生される音声が取得され、サブストリームに対応して再生される音声が存在する場合には、メインストリームに対応して再生される音声と合成される、サブストリームに対応して再生される音声が取得され、メインストリームを再生する時間軸上の位置を示す第1の情報と、メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、メインストリームの映像と合成されるサブストリームの映像の表示状態に関する情報であって、メインストリームの映像と合成されるサブストリームの映像の明るさを示す情報に基づいて実行される、メインストリームの映像と、サブストリームの映像とを合成する処理に関する情報を含む表示状態に関する情報とを含むデータ構造を有する再生管理データが生成される。 In the data generation method of the present invention, the main stream video and the sub stream video are acquired, the audio reproduced corresponding to the main stream is acquired, and the audio reproduced corresponding to the sub stream exists. In this case, the first information indicating the position on the time axis at which the audio to be reproduced corresponding to the sub-stream, which is synthesized with the audio to be reproduced corresponding to the main stream, is acquired and the main stream is reproduced is obtained. Second information indicating a position on the time axis for reproducing a substream different from the main stream, and information on a display state of the substream video to be synthesized with the mainstream video , the mainstream video The main stream video and the sub stream are executed based on information indicating the brightness of the sub stream video to be combined with Reproduction management data is generated with a data structure containing information about the display state containing information about the process of synthesizing and over arm video.

本発明の記録装置は、再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体にデータを記録する記録装置において、メインストリームの映像と、サブストリームの映像とを取得する第1の取得手段と、前記メインストリームに対応して再生される音声を取得する第2の取得手段と、前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得する第3の取得手段と、前記メインストリームを再生する時間軸上の位置を示す第1の情報と、前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報とを含むデータ構造を有する再生管理データを生成する生成手段と、取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録する記録手段とを備える。
前記サブストリームの映像の明るさを示す情報は、透過処理を行うべき明るさを示す情報の少なくとも1つの閾値であり、前記サブストリームの映像の明るさが、前記閾値以上または以下となる映像部分に対して透過処理を行うことができる。
The recording apparatus of the present invention is a first acquisition for acquiring a main stream video and a substream video in a recording apparatus for recording data on a recording medium on which playback management data used for content playback is recorded in the playback apparatus. Means, a second acquisition means for acquiring audio to be played back corresponding to the main stream, and playback corresponding to the main stream if there is audio to be played back corresponding to the substream. Third acquisition means for acquiring the audio reproduced corresponding to the substream, synthesized with the audio to be reproduced, first information indicating a position on the time axis for reproducing the main stream, and the main Second information indicating a position on the time axis for reproducing a substream different from the stream, and the substream to be combined with the video of the main stream. An information about the display state of the image of streams, said executed based on the information indicating the brightness of the image of the sub-stream is combined with the picture of the main stream, and the video of the main stream, the sub-stream Generating means for generating reproduction management data having a data structure including information relating to the display state including information relating to processing for synthesizing video; and the acquired video and audio of the main stream, and the acquired sub-stream And recording means for recording the video and audio or the video of the substream and the generated reproduction management data on the recording medium.
The information indicating the brightness of the video of the substream is at least one threshold value of information indicating the brightness to be subjected to the transmission process, and the video portion in which the brightness of the video of the substream is greater than or less than the threshold value Can be subjected to a transparent process.

本発明の記録方法は、再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体の記録方法であって、メインストリームの映像と、サブストリームの映像とを取得し、前記メインストリームに対応して再生される音声を取得し、前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、前記メインストリームを再生する時間軸上の位置を示す第1の情報と、前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報とを含むデータ構造を有する再生管理データを生成し、取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録するステップを含む。 The recording method of the present invention is a recording method of a recording medium on which playback management data used for content playback in a playback device is recorded, and acquires a main stream video and a sub stream video, and corresponds to the main stream If there is audio to be reproduced corresponding to the substream, the audio corresponding to the substream is combined with the audio to be reproduced corresponding to the main stream. The first information indicating the position on the time axis for acquiring the audio to be reproduced and reproducing the main stream, and the second information indicating the position on the time axis for reproducing a substream different from the main stream When the a information about the display state of the image of the sub-stream is combined with the picture of the main stream, film of the mainstream When executed on the basis of the information indicating the brightness of the image of the sub-streams are combined, the image of the main stream, and the information about the display state containing information about the process for synthesizing the video of the sub stream Generating the reproduction management data having a data structure including the acquired video and audio of the main stream, the acquired video and audio of the substream or the video of the substream, and the generated reproduction management data Recording on a recording medium.

本発明のプログラムは、再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体にデータを記録する処理をコンピュータに実行させるためのプログラムであって、メインストリームの映像と、サブストリームの映像とを取得し、前記メインストリームに対応して再生される音声を取得し、前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、前記メインストリームを再生する時間軸上の位置を示す第1の情報と、前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報とを含むデータ構造を有する再生管理データを生成し、取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録するステップを含む。 The program of the present invention is a program for causing a computer to execute a process of recording data on a recording medium on which playback management data used for content playback in a playback device is recorded, and a main stream video and a substream video And audio to be played back corresponding to the main stream, and if there is audio to be played back corresponding to the substream, the audio played back corresponding to the main stream and The first information indicating the position on the time axis for obtaining the synthesized audio to be reproduced corresponding to the substream and reproducing the main stream, and the time for reproducing the substream different from the main stream Second information indicating a position on the axis, and video of the substream combined with the video of the main stream An information about the display state, synthetic wherein is performed based on the information indicating the brightness of the image of the sub-stream is combined with the picture of the main stream, and the video of the main stream, the video of the sub stream Generating reproduction management data having a data structure including information regarding the display state including information regarding processing to be performed, and acquiring the video and audio of the main stream acquired, video and audio of the substream acquired, or the substream And recording the generated reproduction management data on the recording medium.

本発明の記録装置、記録方法、およびプログラムにおいては、メインストリームの映像と、サブストリームの映像とが取得され、メインストリームに対応して再生される音声が取得され、サブストリームに対応して再生される音声が存在する場合には、メインストリームに対応して再生される音声と合成される、サブストリームに対応して再生される音声が取得され、メインストリームを再生する時間軸上の位置を示す第1の情報と、メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、メインストリームの映像と合成されるサブストリームの映像の表示状態に関する情報であって、メインストリームの映像と合成されるサブストリームの映像の明るさを示す情報に基づいて実行される、メインストリームの映像と、サブストリームの映像とを合成する処理に関する情報を含む表示状態に関する情報とを含むデータ構造を有する再生管理データが生成され、取得されたメインストリームの映像および音声、取得されたサブストリームの映像および音声またはサブストリームの映像、並びに生成された再生管理データが記録媒体に記録される。 In the recording apparatus, recording method, and program of the present invention, a main stream video and a sub stream video are acquired, audio to be played back corresponding to the main stream is acquired, and played back corresponding to the sub stream If there is audio to be played back, the audio to be played back corresponding to the substream that is synthesized with the audio played back corresponding to the main stream is acquired, and the position on the time axis for playing back the main stream is determined. a first information indicating a second information indicating a position on the time axis for reproducing a different sub-stream from the main stream, an information about the display state of the image of the sub-stream to be combined with the picture of the main stream The main stream is executed based on information indicating the brightness of the sub-stream video to be combined with the main-stream video. And image beam, the sub-stream of the reproduction management data having a data structure containing information about the display state containing information about the process for synthesizing the images are generated, the video and audio of the acquired mainstream obtained sub Stream video and audio or sub-stream video and the generated reproduction management data are recorded on a recording medium.

以上のように、本発明によれば、メインストリームファイルの映像と、サブストリームファイルの映像とを合成することができ、特に、再生管理情報に含まれるサブストリームファイルの映像の表示状態に関する情報を基に、メインストリームファイルの映像と、サブストリームファイルの映像とを合成することができるので、例えば、ピクチャインピクチャ表示における副表示画面の大きさと表示位置は、再生装置の仕様に依存することなく、コンテンツの製作者、または、コンテンツの配給元が、適宜定めることができる。   As described above, according to the present invention, the video of the main stream file and the video of the substream file can be combined, and in particular, information regarding the display state of the video of the substream file included in the playback management information is obtained. Based on this, the video of the main stream file and the video of the substream file can be synthesized. For example, the size and display position of the sub display screen in picture-in-picture display do not depend on the specifications of the playback device. The content creator or the content distributor can be determined as appropriate.

また、本発明によれば、少なくとも1つのストリームを含むメインストリームファイルの再生を管理する情報である再生管理情報を含むデータ構造を有するデータを提供することができ、特に、再生管理情報に、メインストリームファイルの時間軸上の位置を示す主の再生パスを含む第1の情報と、メインストリームファイルとは異なるサブストリームファイルの副の再生パスを含む第2の情報と、メインストリームファイルの映像と合成されるサブストリームファイルの映像の表示状態に関する情報とを含むデータ構造を有するデータを提供することができるので、例えば、ピクチャインピクチャ表示における副表示画面の大きさと表示位置は、再生装置の仕様に依存することなく、コンテンツの製作者、または、コンテンツの配給元が、適宜定めることができる。   Further, according to the present invention, it is possible to provide data having a data structure including reproduction management information that is information for managing reproduction of a main stream file including at least one stream. First information including a main reproduction path indicating a position on the time axis of the stream file, second information including a sub reproduction path of a substream file different from the main stream file, video of the main stream file, and Since it is possible to provide data having a data structure including information related to the display state of the video of the substream file to be combined, for example, the size and display position of the sub display screen in picture-in-picture display are the specifications of the playback device. Without depending on the content creator or content distributor, It can be determined Yichun.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した再生装置20(図35を参照して後述する)に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。記録媒体は、後述する光ディスクの他、磁気ディスクや半導体メモリであってもよい。   FIG. 1 is a diagram showing an example of an application format on a recording medium mounted on a playback apparatus 20 (described later with reference to FIG. 35) to which the present invention is applied. The recording medium may be a magnetic disk or a semiconductor memory in addition to the optical disk described later.

アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayList(プレイリスト)とClip(クリップ)の2つのレイヤを有している。ここでは、1つのAVストリームとそれに付随する情報であるClipインフォメーションのペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。また、ClipインフォメーションをClipインフォメーションファイルとも称する。   The application format has two layers, PlayList (playlist) and Clip (clip), for managing AV (Audio Visual) streams. Here, a pair of one AV stream and Clip information as information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. Clip information is also referred to as a Clip information file.

一般的に、コンピュータなどで用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。   In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a Clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.

Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。   When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.

PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図1に示されるように1つ、または複数のPlayItemにより構成される。   The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Accordingly, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.

図1において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。   In FIG. 1, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.

例えば、図1のディスクナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。   For example, when the disc navigation program shown in FIG. 1 specifies the left PlayItem included in the first PlayList from the left as the information indicating the playback position at that time, it is included in the left Clip referred to by the PlayItem. The first half of the AV stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.

ディスクナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ディスクナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このディスクナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述され、記録媒体上に用意される。   The disc navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The disc navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This disc navigation program is described in a programming language such as Java (registered trademark), and is prepared on a recording medium.

本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに平行(並列)して、1つ以上のSubPlayItemの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置20(図35を参照して後述する)に装着される記録媒体上のアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)をPlayListの中に持つ。   In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and is parallel (in parallel) to the Main Path in the PlayList. ) And a reproduction path created by a sequence of one or more SubPlayItems (by subplay items that may be discontinuous or continuous) is referred to as a sub path. That is, the application format on the recording medium mounted on the playback device 20 (described later with reference to FIG. 35) includes a sub path (Sub Path) to be played back in association with the main path in the PlayList. Have.

図2は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。   FIG. 2 is a diagram illustrating the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.

図2の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。   In the case of the example of FIG. 2, the PlayList has one main path made up of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. A subpath of Subpath_id = 0 includes one SubPlayItem, a subpath of Subpath_id = 1 includes two SubPlayItems, and a subpath of Subpath_id = 2 includes one SubPlayItem.

Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。   The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.

1つのPlayItemが参照するClipAVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、ClipAVストリームファイルには、ClipAVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、ClipAVストリームファイルには、ClipAVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリームが1つ以上含まれてもよいし、含まれなくてもよい。また、ClipAVストリームファイルには、ClipAVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、ClipAVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClipAVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。   A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the ClipAV stream file may or may not include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the ClipAV stream file. Also good. Further, the ClipAV stream file may or may not include one or more bitmap subtitle streams that are played back at the same timing as the video stream included in the ClipAV stream file. In addition, the ClipAV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the ClipAV stream file. The video stream included in the ClipAV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be reproduced in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more Interactive graphics stream data is multiplexed.

すなわち、1つのPlayItemが参照するClipAVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリーム、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。   That is, a Clip AV stream file referenced by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream, or an interactive graphics stream.

また、1つのSubPlayItemは、PlayItemが参照するClipAVストリームファイルとは異なるストリーム(別ストリーム)のオーディオストリームデータや字幕データを参照する。   One SubPlayItem refers to audio stream data and subtitle data of a stream (different stream) different from the ClipAV stream file referred to by the PlayItem.

メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中からしか音声や字幕を選択することができない。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClipAVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを参照することができる。   When playing a PlayList that has only the main path, the user can select audio and subtitles only from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. Can not do it. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem, A sub-picture stream can be referenced.

このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClipAVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。   In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the ClipAV stream referred to by MainPath, it is possible to add SubPlayItem later.

図3は、メインパスとサブパスの例を説明する図である。図3においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。   FIG. 3 is a diagram illustrating an example of a main path and a sub path. In FIG. 3, a playback path of audio that is played back at the same timing as the main path (synchronized with AV) is represented using sub paths.

図3のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、図3のメインAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図3の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、Clip(ここでは、Auxiliary audio stream)の中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸(再生時間軸)上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図3の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸(再生時間軸)上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図3の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。   The PlayList in FIG. 3 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main AV stream in FIG. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the case of the example in FIG. 3, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for designating the playback section of the Sub Path in the Clip (Auxiliary audio stream here). Furthermore, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be played on the main path time axis (playback time axis). In the example of FIG. 3, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. Thereby, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis (playback time axis) of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 3, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.

ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。サブパスに使われるClipのオーディオサンプルのクロックは、メインパスのオーディオサンプルのクロックにロックされている。   Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities). The audio sample clock of Clip used for the sub path is locked to the audio sample clock of the main path.

換言すると、SubPlayItem()には、Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報が含まれている。Sub Pathに使われるClip AVストリームがSTCを含まないため、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClipAVストリーム(メインAVストリーム)とは異なるClipAVストリームのオーディオストリームを参照して、再生することができる。   In other words, in SubPlayItem (), information specifying the Clip referred to by the Sub Path, information specifying the playback section of the Sub Path, and information specifying the time at which the Sub Path starts playback on the time axis of the Main path It is included. Since the Clip AV stream used in Sub Path does not include STC, information included in SubPlayItem () (information specifying Clip referred to by Sub Path, information specifying Sub Path playback section, and time axis of Main path) Based on the above (information specifying the time at which the Sub Path starts playback), playback can be performed with reference to an audio stream of a ClipAV stream different from the ClipAV stream (main AV stream) referred to by the main path.

このように、PlayItemとSubPlayItemは、ClipAVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClipAVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClipAVストリームファイルは異なるファイルとなる。   Thus, PlayItem and SubPlayItem manage ClipAV stream files, respectively. Here, the ClipAV stream file (main AV stream) managed by PlayItem and the ClipAV stream file managed by SubPlayItem are different files.

なお、図3の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。   Similar to the example of FIG. 3, a subtitle stream playback path that is played back at the same timing as the main path can also be expressed using a sub path.

図4は、メインパスとサブパスの別の例を説明する図である。図4においては、メインパスと同じタイミングで(AV同期して)再生されるビデオとオーディオの再生パスを、サブパスを使用して表している。   FIG. 4 is a diagram illustrating another example of the main path and the sub path. In FIG. 4, the video and audio playback paths that are played back at the same timing as the main path (synchronized with AV) are represented using sub-paths.

メインパスのPlayItem−1が参照するストリームファイルは、Clip−0のプライマリ(primary)ビデオストリームおよびプライマリオーディオストリーム、並びに、PG(Presentation Graphics)ストリームおよびIG(Intaractive Graphics)ストリームの前半部分であり、PlayItem−2が参照するメインAVストリームファイルは、Clip−0のプライマリ(primary)ビデオストリームおよびプライマリオーディオストリーム、並びに、PGストリームおよびIGストリームの後半である。   The stream file referred to by PlayItem-1 in the main path is the first half of Clip-0 primary (primary) video stream and primary audio stream, and PG (Presentation Graphics) stream and IG (Intaractive Graphics) stream. -2 refers to the main video stream file of Clip-0, the primary video stream and the primary audio stream, and the latter half of the PG stream and the IG stream.

そして、サブパスのSubPlayItemが参照するストリームファイルは、Clip-1のセカンダリ(2ndary)ビデオストリームと、セカンダリオーディオストリームである。   The stream files referred to by SubPlayItems of the sub path are the clip-1 secondary (2ndary) video stream and the secondary audio stream.

例えば、メインパスにより参照されるプライマリ(primary)ビデオストリームおよびプライマリオーディオストリーム、並びに、PGストリームおよびIGストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスにより参照されるセカンダリビデオストリームと、セカンダリオーディオストリームをその映画に対して監督がコメントしているボーナストラックとし、メインパスで参照されるビデオおよびオーディオのストリームにサブパスで参照されるビデオおよびオーディオのストリームをミキシング(重ねて)再生するような場合に、このような構成が利用される。   For example, a primary video stream and a primary audio stream referred to by the main path, and a PG stream and an IG stream as one movie content (AV content), and a secondary video stream and a secondary audio referred to by the sub path are used. When the stream is a bonus track that the director has commented on for the movie, and the video and audio stream referenced in the sub path is mixed with the video and audio stream referenced in the main path. In addition, such a configuration is used.

また、セカンダリストリームがプライマリのストリームと同期(必ず同時に再生されるようなプレイリストの設定)していない場合であっても、ユーザが、映画を見ながら、ボーナストラックを合成させて表示させる指令を再生装置(プレーヤ)へ入力した場合に、メインパスで参照されるプライマリストリームの映像および音声と、サブパスで参照されるセカンダリストリームの映像および音声とがミキシングされて再生される場合には、同様にこのような構成が用いられる。   Also, even when the secondary stream is not synchronized with the primary stream (a playlist setting that is always played back simultaneously), the user gives a command to synthesize and display the bonus track while watching the movie. Similarly, when the video and audio of the primary stream referenced in the main path and the video and audio of the secondary stream referenced in the sub path are mixed and reproduced when input to the playback device (player) Such a configuration is used.

図4においては、メインパスに2つのPlayItemがPlayItem_id=0,1と配置され、サブパス(Subpath_id=0)に1つのSubPlayItemが配置されている。そして、SubPath(図19にて後述する)で呼び出すSubPlayItem(図21にて後述する)は、Subpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。   In FIG. 4, two PlayItems are arranged as PlayItem_id = 0, 1 in the main path, and one SubPlayItem is arranged in the sub path (Subpath_id = 0). SubPlayItem (described later in FIG. 21) called by SubPath (described later in FIG. 19) includes SubPlayItem_IN_time and SubPlayItem_out_time for designating the playback path of Subpath.

図4を用いて説明したプライマリビデオ、プライマリオーディオに対して、セカンダリビデオ、セカンダリオーディオが重畳されて再生出力される場合、音声は、合成されて出力され、映像は、図5に示されるように、プライマリビデオが表示される主表示画面1に対して、セカンダリビデオが、所定の位置で所定の大きさの副表示画面2によって重ねあわされて表示される。   When the secondary video and secondary audio are superimposed on the primary video and primary audio described with reference to FIG. 4 and reproduced and output, the audio is synthesized and output, and the video is as shown in FIG. On the main display screen 1 on which the primary video is displayed, the secondary video is displayed superimposed on the sub display screen 2 having a predetermined size at a predetermined position.

なお、図4においては、メインパスによって参照されたものがプライマリストリームであり、サブパスによって参照されたものがセカンダリストリームであるが、プライマリストリームおよびセカンダリストリームは、それぞれ、メインパスによって参照されていても、サブパスによって参照されていてもよい。例えば、プライマリストリームおよびセカンダリストリームがいずれもメインパスによって参照されていてもよいし、プライマリストリームおよびセカンダリストリームがいずれもサブパスによって参照されていてもよい。   In FIG. 4, what is referred to by the main path is the primary stream and what is referred to by the sub path is the secondary stream. However, the primary stream and the secondary stream may be referred to by the main path, respectively. , May be referenced by a subpath. For example, both the primary stream and the secondary stream may be referred to by the main path, and both the primary stream and the secondary stream may be referred to by the sub path.

すなわち、このような構成は、図5に示されるように、プライマリビデオストリームを主画面として表示させ、主画面の中に、セカンダリストリームを子画面として合成して表示させる、いわゆるPinP(ピクチャインピクチャ:Picture-in-Picture)表示を行う場合に利用することができる。   That is, as shown in FIG. 5, such a configuration displays a primary video stream as a main screen, and a so-called PinP (picture-in-picture) that combines and displays a secondary stream as a sub-screen in the main screen. : Picture-in-Picture) display can be used.

図6は、再生装置20(図35を参照して後述する)において再生可能なデータファイルのファイルシステムの例を示す図である。図6には、一例として、再生装置20において再生可能なデータファイルが光ディスクなどの記録媒体によって供給されている場合を示しており、このファイルシステムはディレクトリ構造を有している。なお、再生装置20において再生可能なデータファイルが光ディスク以外の記録媒体に記録されて供給されている場合や、内部の記録媒体に記録され再生される場合などにおいても、再生装置20において再生可能なデータファイルは、図6に示されるようなファイルシステムを有すると好適である。   FIG. 6 is a diagram showing an example of a file system of a data file that can be played back by the playback device 20 (described later with reference to FIG. 35). FIG. 6 shows, as an example, a case where a data file that can be played back by the playback device 20 is supplied by a recording medium such as an optical disk, and this file system has a directory structure. Even when a data file that can be played back by the playback device 20 is recorded and supplied on a recording medium other than the optical disk, or when it is recorded and played back on an internal recording medium, the playback device 20 can play back the data file. The data file preferably has a file system as shown in FIG.

このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディレクトリが用意され、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これらのファイルをそれぞれIndexファイル、NavigationObjectファイルと称する。また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。   In this file system, a directory with the name “BDMV” is prepared under “root”, and a file with the name “Index.bdmv” and a file “NavigationObject.bdmv” Contains a file with a name. Hereinafter, these files will be referred to as an Index file and a NavigationObject file, respectively, as appropriate. As appropriate, each file is referred to by adding “file” to “file name”, or each directory is referred to by adding “directory” to “directory name”.

Indexファイルは、上述したインデックステーブルが記載されたファイルであり、再生装置20において再生可能なデータファイルを再生するメニューに関する情報を含む。再生装置20は、例えば、再生装置20において再生可能なデータファイルに含まれるコンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面をIndexファイルに基づいて、表示装置に表示させる。Indexファイルのインデックステーブルには各項目が選択されたときに実行するNavigationObjectを設定することができ、ユーザにより再生メニュー画面から1つの項目が選択された場合、再生装置20はIndexファイルのインデックステーブルに設定されているNavigationObjectのコマンドを実行する。   The Index file is a file in which the above-described index table is described, and includes information related to a menu for reproducing a data file that can be reproduced by the reproducing apparatus 20. The playback device 20 includes, for example, a playback menu that includes items such as all content included in a data file that can be played back by the playback device 20, playback of only a specific chapter, repeated playback, and display of an initial menu. The screen is displayed on the display device based on the Index file. The navigation object to be executed when each item is selected can be set in the index table of the index file. When one item is selected from the playback menu screen by the user, the playback device 20 stores the navigation object in the index file index table. Execute the set NavigationObject command.

NavigationObjectファイルは、NavigationObjectを含むファイルである。NavigationObjectは、再生装置20において再生可能なデータファイルに含まれているPlayListの再生を制御するコマンドを含み、例えば、再生装置20は、このファイルシステムに含まれているNavigationObjectの中から1つを選択して、実行することにより、コンテンツを再生させることができる。   The NavigationObject file is a file containing NavigationObject. The NavigationObject includes a command for controlling playback of a PlayList included in a data file that can be played back by the playback device 20. For example, the playback device 20 selects one of the NavigationObjects included in the file system. Then, the content can be reproduced by executing.

BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ(BACKUPディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、「CLIPINF」の名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定されたディレクトリ(AUXDATAディレクトリ)が設けられている。   The BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), and a directory with the name “CLIPINF” (CLIPINF directory). , A directory (STREAM directory) in which the name “STREAM” is set, and a directory (AUXDATA directory) in which the name “AUXDATA” is set.

BACKUPディレクトリには、再生装置20において再生可能なファイルやデータをバックアップするためのファイルやデータが記録される。   In the BACKUP directory, files and data for backing up files and data that can be played back by the playback device 20 are recorded.

PLAYLISTディレクトリには、PlayListファイルが格納される。各PlayListファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.mpls」を付加した名称が命名される。PlayListファイルについては、図7を用いて後述する。   A PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name consisting of a 5-digit number. The PlayList file will be described later with reference to FIG.

CLIPINFディレクトリには、Clip Informationファイルが格納される。各Clip Informationファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.clpi」を付加した名称が命名される。   A Clip Information file is stored in the CLIPINF directory. Each Clip Information file is named by adding the extension “.clpi” to a file name consisting of five digits as shown in the figure.

STREAMディレクトリには、Clip AVストリームファイルやサブストリームファイルが格納される。各ストリームファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.m2ts」を付加した名称が命名される。   In the STREAM directory, a Clip AV stream file and a substream file are stored. Each stream file is given a name obtained by adding an extension “.m2ts” to a file name consisting of five digits as shown in the figure.

AUXDATAディレクトリには、Clip AVストリームファイルやサブストリームファイルに含まれずに、Clip AVストリームファイルやサブストリームファイルから参照されるデータや、Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデータなどのファイルが格納される。図6の例においては、AUXDATAディレクトリには、「11111.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名前が設定された効果音などのサウンドデータが格納されている。   The AUXDATA directory is not included in the Clip AV stream file or substream file, but is referred to from the Clip AV stream file or substream file, or data used independently of the Clip AV stream file or substream file. And other files are stored. In the example of FIG. 6, the AUXDATA directory stores sound data such as subtitle font files named “11111.otf” and sound effects with the name “sound.bdmv”. ing.

また、再生装置20において再生可能なデータファイルが光ディスクによって配布されている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルオーサに割り当てられた識別子であるauthor_id、および、author_idに示されるタイトルオーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子であるdisc_idが、ユーザなどにより書き換えることができないセキュアな電子データとして、または、物理的にピットによって記録されている。   Further, when a data file that can be played back by the playback device 20 is distributed by an optical disk, for example, the content author such as a production company or a movie distribution company, or the title author that is the supply source of the recording medium is displayed. Author_id, which is an identifier assigned to each title author for identification, and disc_id, which is an identifier assigned to identify the type of optical disc produced by the title author indicated by author_id, are rewritten by the user or the like. It cannot be recorded as secure electronic data or physically by pits.

また、再生装置20において再生可能なデータファイルが光ディスク以外のリムーバブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされ、再生装置内部の記録媒体に記録されていたり、内部の記憶部に記憶されている場合も、author_id、および、author_idに相当するidが割り当てられてそれぞれ区別可能なようになされ、図6に示す場合と同様のディレクトリ構造を有していると好適である。また、再生装置20において再生可能なデータファイルには、author_id、および、author_idに相当するidが割り当てられていないとしても、図6を用いて説明した場合と同様に、「Index.bdmv」の名前が設定されたファイル、「NavigationObject.bdmv」の名前が設定されたファイルが含まれており、「BACKUP」の名前が設定されたファイル群、「PLAYLIST」の名前が設定されたファイル群、「CLIPINF」の名前が設定されたファイル群、「STREAM」の名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル群のうち、適宜必要なファイル群が含まれている。   In addition, when a data file that can be played back by the playback device 20 is recorded on a removable recording medium other than the optical disk, or downloaded via a network and recorded on a recording medium inside the playback device, an internal storage unit Also, the author_id and the id corresponding to the author_id are assigned so that they can be distinguished from each other, and it is preferable to have a directory structure similar to that shown in FIG. Further, even if the data file that can be played back by the playback device 20 is not assigned author_id and id corresponding to author_id, the name “Index.bdmv” is the same as in the case described with reference to FIG. , Files with the name “NavigationObject.bdmv”, files with the name “BACKUP”, files with the name “PLAYLIST”, “CLIPINF Among the file group set with the name "STREAM", the file group set with the name "STREAM", and the file group set with the name "AUXDATA", necessary file groups are included as appropriate.

次に、図2乃至図4を用いて説明したメインパスとサブパスの構造を具体的に実現するための、図6を用いて説明したそれぞれのファイルのデータ構造(シンタクス)を説明する。   Next, the data structure (syntax) of each file described with reference to FIG. 6 for specifically realizing the structure of the main path and the sub path described with reference to FIGS. 2 to 4 will be described.

図7に、PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するPlayListファイルのデータ構造を示す。   FIG. 7 shows the data structure of a PlayList file having the extension “.mpls” stored in the PLAYLIST directory.

type_indicatorは、このファイルの種類を示す情報が記載されているものであり、このフィールドには、ISO646に従って、”MPLS”と符号化されなくてはならない。   type_indicator describes information indicating the type of the file, and this field must be encoded as “MPLS” in accordance with ISO646.

version_numberは、このxxxxx.mplsのバージョンナンバを示す4個のキャラクター文字を示すものであり、vesrion_numberはISO”0089”と符号化されなければならない。   version_number indicates four character characters indicating the version number of this xxxxx.mpls, and vesrion_number must be encoded as ISO “0089”.

PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示すものである。   PlayList_start_address indicates the start address of PlayList () with the relative number of bytes from the start byte of the PlayList file as a unit.

PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示すものである。   PlayListMark_start_address indicates the head address of PlayListMark () with the relative number of bytes from the head byte of the PlayList file as a unit.

PlayListEntsnsionData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListEntsnsionData()の先頭アドレスを示すものである。   PlayListEntsnsionData_start_address indicates the start address of PlayListEntsnsionData () with the relative number of bytes from the start byte of the PlayList file as a unit.

AppInfoPlayList()には、PlayListの再生コントロールに関するパラメータが格納されている。   AppInfoPlayList () stores parameters related to playback control of the PlayList.

PlayList()には、PlayListのメインパスやサブパスなどに関するパラメータが格納されている。PlayList()の詳細は、図18を用いて後述する。   PlayList () stores parameters related to the main path and sub path of the PlayList. Details of PlayList () will be described later with reference to FIG.

PlayListMark()には、PlayListのマーク情報が格納されている。また、PlayListExtensionData()の中には、プライベートデータが挿入できるようになっている。   PlayListMark () stores PlayList mark information. Also, private data can be inserted into PlayListExtensionData ().

図8に、PlayListExtensionData()のシンタクスを示す。   FIG. 8 shows the syntax of PlayListExtensionData ().

Lengthは、このlengthフィールドの直後からPlayListExtensionData()の最後までのPlayListExtensionData()のバイト数を示すものである。   Length indicates the number of bytes of PlayListExtensionData () from immediately after this length field to the end of PlayListExtensionData ().

data_block_start_addressは、PlayListExtensionData()の先頭のバイトからの相対バイト数を単位として、最初のdata_block()の先頭アドレスを示すものである。   data_block_start_address indicates the head address of the first data_block () with the relative number of bytes from the head byte of PlayListExtensionData () as a unit.

number_of_PL_ext_data_entriesは、PlayListExtensionData()の中に含まれているPlayListExtensionDataのエントリー数を示すものである。PlayListExtensionData()内には、同じIDが2個以上存在してはならない。   number_of_PL_ext_data_entries indicates the number of entries of PlayListExtensionData included in PlayListExtensionData (). In PlayListExtensionData (), two or more same IDs must not exist.

ID1/ID2には、このPlayListExtensionData()のdata_blockに記載される情報の種類を識別することができる情報(識別子など)が記載される。   In ID1 / ID2, information (identifier etc.) that can identify the type of information described in the data_block of this PlayListExtensionData () is described.

PL_ext_data_start_addressは、そのPlayListExtensionDataが開始されるdata_blockの番号を示すものである。PlayListExtensionDataの先頭データは、 data_blockの先頭にアラインされなければならない。   PL_ext_data_start_address indicates the number of data_block where the PlayListExtensionData is started. The top data of PlayListExtensionData must be aligned to the top of data_block.

PL_ext_data_lengthは、バイト単位でPlayListExtensionDataの大きさを示すものである。   PL_ext_data_length indicates the size of PlayListExtensionData in bytes.

data_blockは、PlayListExtensionDataが格納される領域であり、PlayListExtensionData()内の全てのdata_blockは、同じサイズでなければならない。   data_block is an area in which PlayListExtensionData is stored, and all data_blocks in PlayListExtensionData () must have the same size.

そして、data_blockには、図5を用いて説明したセカンダリビデオが表示される副表示画面2の表示位置や大きさを示す情報を記載することができる。data_blockには、ピクチャインピクチャ(Picture-in-Picture)の表示設定を示すメタデータを記載することができる。   In the data_block, information indicating the display position and size of the secondary display screen 2 on which the secondary video described with reference to FIG. 5 is displayed can be described. In data_block, metadata indicating the display setting of picture-in-picture can be described.

図9に、data_blockに記載されるpip_metadata(Picture-in-Pictureの表示設定を示すメタデータ)のシンタクスの第1の例を示す。   FIG. 9 shows a first example of the syntax of pip_metadata (metadata indicating picture-in-picture display settings) described in data_block.

lengthは、このlengthフィールドの直後からpip_metadata()の最後までのpip_metadata()のバイト数を示すものである。   The length indicates the number of bytes of pip_metadata () from immediately after this length field to the end of pip_metadata ().

pip_metadata_typeのフィールドは、pip_metadataの種類を示すものである。図10に示されるように、pip_metadata_type=0x01の場合、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームは同期型、すなわち、Main PathのPlayItemの時間軸(再生時間軸)に同期して再生されるので、プライマリストリームに対して、セカンダリストリームが同期して常に再生出力される。また、pip_metadata_type=0x02の場合、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームは非同期型、すなわち、Sub PathのSubPlayItemの時間軸に同期して再生されるが、Main PathのPlayItemの時間軸には同期しなくてもよいので、ユーザの操作入力により、セカンダリストリームの表示が指令された場合のみ、セカンダリストリームが再生出力されるようになされている。   The field of pip_metadata_type indicates the type of pip_metadata. As shown in FIG. 10, in the case of pip_metadata_type = 0x01, the secondary video stream in which picture-in-picture display is specified by this pip_metadata () is synchronous, that is, synchronized with the time axis (playback time axis) of the PlayItem of the Main Path Therefore, the secondary stream is always reproduced and output in synchronization with the primary stream. In addition, when pip_metadata_type = 0x02, the secondary video stream for which picture-in-picture display is specified by this pip_metadata () is asynchronous, that is, is played back in synchronization with the time axis of the Sub Path SubPlayItem, but the Main Path PlayItem Therefore, the secondary stream is reproduced and output only when the secondary stream display is instructed by the user's operation input.

すなわち、pip_metadata_type = 0x02で、「SubPlayItemに同期する」とは、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームは、main pathの時間軸とは非同期であるが、Sub Pathの時間軸には同期しているという意味である。すなわち、pip_metadata_type = 0x02である場合のpip_metadata()は、ユーザのアクション(操作入力)によってセカンダリビデオの表示がスタートした瞬間を基準に考えた場合のSubPlayItem再生中の副表示画面2の表示位置および大きさを示すものである。   That is, pip_metadata_type = 0x02 and "synchronize with SubPlayItem" means that the secondary video stream for which picture-in-picture display is specified by this pip_metadata () is asynchronous with the time axis of the main path, but the time of the Sub Path It means that the axis is synchronized. That is, pip_metadata () in the case of pip_metadata_type = 0x02 is the display position and size of the sub display screen 2 during playback of the SubPlayItem, based on the moment when the secondary video display is started by the user's action (operation input) This is an indication.

ref_to_PlayItem / SubPath_idは、pip_metadataが適応されるPlayItemのPlayItem_idの値を示すか、または、pip_metadataが適応されるSubPlayItemのSubPath_idの値を示すものである。すなわち、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームがMain Pathと同期する場合(pip_metadata_type=0x01である場合)、ref_to_PlayItmとなり、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームがSub Pathと同期する場合(pip_metadata_type=0x02である場合)、ref_to_SubPath_idとなる。   ref_to_PlayItem / SubPath_id indicates the value of PlayItem_id of PlayItem to which pip_metadata is applied, or the value of SubPath_id of SubPlayItem to which pip_metadata is applied. That is, when the secondary video stream in which picture-in-picture display is specified by this pip_metadata () is synchronized with the main path (when pip_metadata_type = 0x01), it becomes ref_to_PlayItm, and picture-in-picture display is specified by this pip_metadata () When the secondary video stream is synchronized with Sub Path (when pip_metadata_type = 0x02), ref_to_SubPath_id is set.

pip_metadata_time_stampは、pip_metadataが適応されるPlayItemのタイムスタンプであり、pip_metadata_time_stampに示されるタイミングでpip_metadata()により指定される表示位置および大きさで、セカンダリビデオストリームの映像が副表示画面2に表示される。   pip_metadata_time_stamp is the time stamp of the PlayItem to which pip_metadata is applied, and the video of the secondary video stream is displayed on the sub display screen 2 at the display position and size specified by pip_metadata () at the timing indicated by pip_metadata_time_stamp.

すなわち、pip_metadata_time_stampは、ref_to_PlayItem/SubPath_idで参照されるPlayItemのIn_time/Out_timeの間にあるpresentation-timeを指す必要がある。そして、このpip_metadata()によりピクチャインピクチャ表示が指定されるセカンダリビデオストリームがSub Pathと同期の場合(すなわち、pip_metadata_type=0x02のとき)には、SubPlayItemの時間軸のなかでpip_metadata_time_stampに示されるタイミングでpip_metadata()により指定される表示位置および大きさで、セカンダリビデオストリームの映像が副表示画面2に表示される。   That is, pip_metadata_time_stamp needs to indicate the presentation-time between In_time / Out_time of PlayItem referenced by ref_to_PlayItem / SubPath_id. When the secondary video stream for which picture-in-picture display is specified by pip_metadata () is synchronized with the Sub Path (that is, when pip_metadata_type = 0x02), at the timing indicated by pip_metadata_time_stamp in the time axis of SubPlayItem The video of the secondary video stream is displayed on the secondary display screen 2 at the display position and size specified by pip_metadata ().

pip_entry_video_PIDは、ピクチャインピクチャ表示に用いられるセカンダリビデオのPIDの値を示すものである。   pip_entry_video_PID indicates the PID value of the secondary video used for picture-in-picture display.

pip_horizontal_positionは、プライマリビデオのフレーム(図5の主表示画面1)上において、セカンダリビデオが表示される副表示画面2の左上隅のX座標を示すものである。また、pip_vertical_positionは、プライマリビデオのフレーム(図5の主表示画面1)上において、セカンダリビデオが表示される副表示画面2の左上隅のY座標を示すものである。   pip_horizontal_position indicates the X coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5). Further, pip_vertical_position indicates the Y coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5).

なお、例えば、副表示画面2の右下隅のX座標およびY座標の指定や、あらかじめ定められた複数の表示位置のうちのいずれかを指定するなど、pip_horizontal_positionおよびpip_vertical_positionによる副表示画面2の左上隅のX座標およびY座標の指定以外の方法によって、セカンダリビデオが表示される副表示画面2の表示位置を指定するようにしてもよいことはもちろんである。   Note that, for example, the upper left corner of the sub display screen 2 by pip_horizontal_position and pip_vertical_position, such as designation of the X and Y coordinates of the lower right corner of the sub display screen 2 or designation of any of a plurality of predetermined display positions Of course, the display position of the secondary display screen 2 on which the secondary video is displayed may be designated by a method other than the designation of the X and Y coordinates.

pip_scaleは、セカンダリビデオが表示される副表示画面2の大きさを示す情報が記載されるフィールドであり、例えば、プライマリビデオに対するセカンダリビデオの大きさの比率、セカンダリビデオのオリジナルの画像の大きさに対する縮小率、または、副表示画面2を構成する画素が、縦横それぞれ何画素で構成されているかを示す情報などが記載される。   pip_scale is a field in which information indicating the size of the secondary display screen 2 on which the secondary video is displayed is described, for example, the ratio of the size of the secondary video to the primary video, the size of the original image of the secondary video Information indicating the reduction ratio or the number of pixels constituting the sub display screen 2 in the vertical and horizontal directions is described.

図10に、図9のpip_metadata_typeの値とその意味を示す。   FIG. 10 shows the value of pip_metadata_type in FIG. 9 and its meaning.

pip_metadata_type=0x00は、将来の拡張のために意味が未設定とされている値である。pip_metadata_type=0x01の場合、このpip_metadata()は同期型、すなわち、Main PathのPlayItemの時間軸に同期しているので、プライマリストリームに対して、セカンダリストリームが同期して常に再生出力されるものであり、pip_metadata_type=0x02の場合、このpip_metadata()は非同期型、すなわち、Sub PathのSubPlayItemの時間軸に同期するようになされているので、ユーザの操作入力により、セカンダリストリームの表示が指令された場合のみ、セカンダリビデオストリームの映像が副表示画面2に再生出力されるようになされているものである。また、pip_metadata_typeの上述した3つの値以外は、将来の拡張のために意味が未設定とされている。   pip_metadata_type = 0x00 is a value whose meaning is not set for future expansion. In the case of pip_metadata_type = 0x01, this pip_metadata () is synchronous, that is, synchronized with the time axis of the PlayItem in the Main Path, so that the secondary stream is always reproduced and output in synchronization with the primary stream. In the case of pip_metadata_type = 0x02, this pip_metadata () is asynchronous, that is, synchronized with the time axis of SubPlayItem of Sub Path, so only when secondary stream display is commanded by user operation input The video of the secondary video stream is reproduced and output on the sub display screen 2. In addition to the above three values of pip_metadata_type, no meaning is set for future expansion.

図11に、data_blockに記載されるpip_metadataのシンタクスの、図9における場合と異なる第2の例を示す。なお、図9における場合と同一名称で同一定義のデータフィールドに関する説明は適宜省略する。   FIG. 11 shows a second example of the syntax of pip_metadata described in data_block, which is different from the case in FIG. In addition, the description regarding the data field having the same name and the same definition as in FIG. 9 is omitted as appropriate.

number_of_pip_entriesは、ピクチャインピクチャのアプリケーション数を示すフィールドである。   number_of_pip_entries is a field indicating the number of picture-in-picture applications.

Synchronous_PIP_metadata_flagは、ピクチャインピクチャのアプリケーション(すなわち、セカンダリビデオストリーム)がどのパスに同期するかを示すものである。すなわち、Synchronous_PIP_metadata_flagの値が0'の場合、このピクチャインピクチャのアプリケーションは、SubPathに同期するものであり、ref_to_PlayItem / SubPath_id では、ref_to_SubPath_idが登録される。これに対して、Synchronous_PIP_metadata_flagの値が1'の場合、このピクチャインピクチャのアプリケーションは、MainPathに同期するものであり、ref_to_PlayItem / SubPath_id では、ref_to_PlayItemが登録される。   Synchronous_PIP_metadata_flag indicates to which path a picture-in-picture application (that is, a secondary video stream) is synchronized. That is, when the value of Synchronous_PIP_metadata_flag is 0 ′, this picture-in-picture application is synchronized with SubPath, and ref_to_SubPath_id is registered in ref_to_PlayItem / SubPath_id. On the other hand, when the value of Synchronous_PIP_metadata_flag is 1 ′, this picture-in-picture application is synchronized with MainPath, and ref_to_PlayItem / SubPath_id registers ref_to_PlayItem.

すなわち、図11のSynchronous_PIP_metadata_flagは、図9を用いて説明したpip_metadataにおけるpip_metadata_type(図10)とほぼ同一の内容を定義するための情報である。   That is, Synchronous_PIP_metadata_flag in FIG. 11 is information for defining substantially the same content as pip_metadata_type (FIG. 10) in pip_metadata described with reference to FIG.

number_of_pip_metadata_entriesは、ref_to_PlayItem/ref_to_SubPath_idのVideoストリームのためのPinP Metadataの総数を示すフィールドである。   number_of_pip_metadata_entries is a field indicating the total number of PinP Metadata for the video stream of ref_to_PlayItem / ref_to_SubPath_id.

pip_metadata_typeは、このピクチャインピクチャのメタデータの種類を示すものであり、例えば、セカンダリビデオストリームが表示される副表示画面2の位置と大きさを示す情報以外に、例えば、セカンダリビデオストリームの原映像に対して表示される映像の回転や色の指定などに関する情報を記載することができるものである。   pip_metadata_type indicates the type of metadata of this picture-in-picture. For example, in addition to information indicating the position and size of the secondary display screen 2 on which the secondary video stream is displayed, for example, the original video of the secondary video stream Information relating to the rotation of the displayed video, the designation of the color, and the like can be described.

すなわち、図11のpip_metadata_typeは、図9を用いて説明したpip_metadataにおけるpip_metadata_typeとは定義の異なる情報である。   That is, pip_metadata_type in FIG. 11 is information whose definition is different from that of pip_metadata_type in pip_metadata described with reference to FIG.

また、図12に、data_blockに記載されるpip_metadataのシンタクスの、図9および図11における場合と異なる第3の例を示す。   FIG. 12 shows a third example of the syntax of pip_metadata described in data_block, which is different from those in FIGS. 9 and 11.

Lengthは、このlengthフィールドの直後からpip_metadata()の最後までのpip_metadata()のバイト数を示す情報が記載されるフィールドである。   Length is a field in which information indicating the number of bytes of pip_metadata () immediately after this length field to the end of pip_metadata () is described.

number_of_metadata_block_entriesは、pip_metadata()の中に含まれているmetadata blockのエントリー数を示す情報が記載されるフィールドである。   number_of_metadata_block_entries is a field in which information indicating the number of metadata block entries included in pip_metadata () is described.

metadata_block_header[k]()には、metadata blockに関連するヘッダー情報を含む情報が記載される。   In metadata_block_header [k] (), information including header information related to the metadata block is described.

ref_to_PlayItem_id[k]は、pip_metadataが適用されるPlayItemのPlayItem_idの値を示す情報が記載されるフィールドである。   ref_to_PlayItem_id [k] is a field in which information indicating the value of PlayItem_id of PlayItem to which pip_metadata is applied is described.

ref_to_secondary_video_stream_id[k]は、pip_metadataが適用されるセカンダリビデオのidで、ref_to_PlayItem_idによって参照されるPlayItem内のSTN_table(図22にて後述する)で定義されているsecondary_video_stream_idの値を示す情報が記載されるフィールドである。   ref_to_secondary_video_stream_id [k] is the id of the secondary video to which pip_metadata is applied, and is a field in which information indicating the value of secondary_video_stream_id defined in STN_table (described later in FIG. 22) in PlayItem referenced by ref_to_PlayItem_id is described. It is.

pip_timeline_type[k]は、pip_metadata_time_stampが参照する時間軸のタイプを表す情報が記載されるフィールドである。なお、pip_timeline_type[k]の値とその意味については後述する。   pip_timeline_type [k] is a field in which information indicating the type of time axis referred to by pip_metadata_time_stamp is described. The value of pip_timeline_type [k] and its meaning will be described later.

is_luma_keyは、このフラグが1にセットされている場合は、luma-keyingがlower_limit_luma_keyとupper_limit_luma_keyの値に従って、セカンダリビデオストリームに適用される。   When this flag is set to 1, is_luma_key is applied to the secondary video stream according to the values of lower_limit_luma_key and upper_limit_luma_key.

lower_limit_luma_keyは、luma keyingのためのセカンダリビデオの輝度値の下限を示す情報が記載されるフィールドである。   lower_limit_luma_key is a field in which information indicating the lower limit of the luminance value of the secondary video for luma keying is described.

upper_limit_luma_keyは、luma keyingのためのセカンダリビデオの輝度値の上限を示す情報が記載されるフィールドである。   upper_limit_luma_key is a field in which information indicating the upper limit of the luminance value of the secondary video for luma keying is described.

ここでluma keyingとは、明るさ(輝度値)の成分差を利用して不要な部分を切り抜いた画像を、映像に重ねて合成することを意味する。すなわち、is_luma_keyのフラグが1に設定されている場合には、lower_limit_luma_keyとupper_limit_luma_keyで定義された、輝度値の下限から上限までの範囲で指定された輝度値を持つ画像を透明に設定することにより、この明るさ情報で指定された範囲の画像が取り除かれたセカンダリビデオがプライマリビデオに重ねて合成される。   Here, “luma keying” means that an image in which an unnecessary part is cut out by using a difference in brightness (luminance value) is superimposed on the video. That is, when the flag of is_luma_key is set to 1, by setting the image having the luminance value specified in the range from the lower limit to the upper limit of the luminance value defined by lower_limit_luma_key and upper_limit_luma_key to be transparent, The secondary video from which the image in the range specified by the brightness information is removed is combined with the primary video.

これにより、必要最小限のセカンダリビデオを表示することで、セカンダリビデオの不要な部分によって、プライマリビデオが見にくくなるのを防止することができるのに加え、セカンダリビデオとプライマリビデオの合成をより柔軟に行うことができる。   This allows you to display the minimum amount of secondary video to prevent the primary video from becoming difficult to see due to unnecessary portions of the secondary video, and to make the composition of the secondary video and primary video more flexible. It can be carried out.

また、この実施例では、lower_limit_luma_keyとupper_limit_luma_keyとの2つの閾値を用いることにより、透明に設定できるとして説明したが、本発明はそれに限らず、閾値をどちらか一方にすることにより、輝度値が、例えば、upper_limit_luma_key以下またはlower_limit_luma_key以上となる部分のみを透明に設定するなどとしてもよい。   Further, in this embodiment, it has been described that it can be set to be transparent by using two threshold values of lower_limit_luma_key and upper_limit_luma_key, but the present invention is not limited thereto, and by setting the threshold value to either one, the luminance value is For example, only a portion below upper_limit_luma_key or above lower_limit_luma_key may be set to be transparent.

metadata_block_data_start_address[k]は、pip_metadata()の先頭のバイトからの相対バイト数を単位として、最初のmetadata_block_data[k]()の先頭アドレスを示す情報が記載されるフィールドである。なお、pip_metadata()内にエントリーされているmetadata_block_data_start_address[k]は、アドレス値の照準で登録されていなければならない。   metadata_block_data_start_address [k] is a field in which information indicating the first address of the first metadata_block_data [k] () is described in units of the relative number of bytes from the first byte of pip_metadata (). Note that metadata_block_data_start_address [k] entered in pip_metadata () must be registered with the aim of the address value.

padding_wordには、metadata_block_data_start_address[k]の値によって、padding wordが挿入される。   In padding_word, a padding word is inserted according to the value of metadata_block_data_start_address [k].

metadata_block_data[k]()には、metadata blockのデータ情報を含む情報が記載される。   In metadata_block_data [k] (), information including data information of the metadata block is described.

number_pip_metadata_entries[k]は、metadata_block_dataにあるpip_metadataの総数を示す情報が記載されるフィールドである。   number_pip_metadata_entries [k] is a field in which information indicating the total number of pip_metadata in metadata_block_data is described.

pip_metadata_time_stamp[i]は、pip_metadataが適用される時間を表す、例えば、45kHzのタイムスタンプを含む情報が記載されるフィールドである。なお、連続する2つのpip_metadata_time_stampの最小間隔は1秒である。なお、pip_timeline_typeの値に応じたpip_metadata_time_stampの意味については、後述する。   pip_metadata_time_stamp [i] is a field in which information including a time stamp of 45 kHz, for example, indicating the time to which pip_metadata is applied is described. Note that the minimum interval between two consecutive pip_metadata_time_stamps is 1 second. The meaning of pip_metadata_time_stamp corresponding to the value of pip_timeline_type will be described later.

pip_composition_metadata()は、プライマリビデオのフレームの大きさや位置などに関する情報が記載されるフィールドである。   pip_composition_metadata () is a field in which information on the size and position of the primary video frame is described.

pip_horizontal_position[i]は、プライマリビデオのフレーム(図5の主表示画面1)上において、セカンダリビデオが表示される副表示画面2の左上隅のX座標を示すものである。pip_vertical_position[i]は、プライマリビデオのフレーム(図5の主表示画面1)上において、セカンダリビデオが表示される副表示画面2の左上隅のY座標を示すものである。   pip_horizontal_position [i] indicates the X coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5). pip_vertical_position [i] indicates the Y coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5).

pip_scale[i]は、図13に示すように、セカンダリビデオのオリジナルの画像の大きさに対する縮小率を、1倍、1/2倍、1/4倍、1.5倍、またはfull Screen(セカンダリビデオが図5の主表示画面1の全画面に表示される)にする情報が記載されるフィールドである。   As shown in FIG. 13, pip_scale [i] is a reduction ratio with respect to the original image size of the secondary video of 1 ×, 1/2 ×, 1/4 ×, 1.5 ×, or full Screen (secondary This is a field for describing information to be displayed on the entire screen of the main display screen 1 in FIG.

なお、pip_metadata_time_stamp[i]のpip_composition_metadata()は、pip_metadata_time_stamp[i]からpip_metadata_time_stamp[i+1]のintervalの間、有効になる。ただし、最後のpip_compositoin_metadataの有効intervalは、最後のpip_metadata_time_stampから、ref_to_secondary_video_stream_id[k]によって示されるSubPathのpresentation end timeまでとなる。   Note that pip_composition_metadata () of pip_metadata_time_stamp [i] is valid during an interval from pip_metadata_time_stamp [i] to pip_metadata_time_stamp [i + 1]. However, the effective interval of the last pip_compositoin_metadata is from the last pip_metadata_time_stamp to the SubPath presentation end time indicated by ref_to_secondary_video_stream_id [k].

次に、図14を参照してpip_timeline_typeの値とその意味を説明し、図15乃至図17を参照してpip_timeline_typeの値に応じたpip_metadata_time_stampの意味を説明する。   Next, the value of pip_timeline_type and its meaning will be described with reference to FIG. 14, and the meaning of pip_metadata_time_stamp corresponding to the value of pip_timeline_type will be described with reference to FIGS.

pip_timeline_type=0は、将来の拡張のために意味が未設定とされている値である。   pip_timeline_type = 0 is a value whose meaning is not set for future expansion.

pip_timeline_type=1は、ピクチャインピクチャプレゼンテーションパスは同期型のタイプであることを意味する。このときref_to_secondary_video_stream_idで指し示されているSubpathのタイプは、5または7でなければならない(Subpathのタイプの詳細は、図20にて後述する)。   pip_timeline_type = 1 means that the picture-in-picture presentation path is a synchronous type. At this time, the type of Subpath indicated by ref_to_secondary_video_stream_id must be 5 or 7 (details of the Subpath type will be described later with reference to FIG. 20).

pip_metadata_time_stampはこのとき、図15に示すように、ref_to_PlayItem_idのPlayItemの時間軸を参照し、関連付けられたSubPlayItemの再生区間を示している。すなわちSubPlayItemの再生区間はref_to_PlayItem_id[k]で参照されるPlayItemの時間軸に投影される。pip_metadata_time_stamp[0]は、SubPath内のSubPlayItem[0]の再生区間の先頭を示している。   At this time, as shown in FIG. 15, pip_metadata_time_stamp refers to the PlayItem time axis of ref_to_PlayItem_id and indicates the playback section of the associated SubPlayItem. That is, the playback section of SubPlayItem is projected on the time axis of PlayItem referenced by ref_to_PlayItem_id [k]. pip_metadata_time_stamp [0] indicates the beginning of the playback section of SubPlayItem [0] in SubPath.

pip_timeline_type=2は、ピクチャインピクチャプレゼンテーションパスは非同期型のタイプであることを意味する。このときref_to_secondary_video_stream_idで指し示されているSubpathのタイプは、6でなければならない。この場合SubPath_type=6のSubPathには1つのSubPlayItemしか含まれていない。   pip_timeline_type = 2 means that the picture-in-picture presentation path is an asynchronous type. At this time, the type of the Subpath indicated by ref_to_secondary_video_stream_id must be 6. In this case, the SubPath of SubPath_type = 6 includes only one SubPlayItem.

pip_metadata_time_stampはこのとき、図16に示すように、Subpathの時間軸を参照し、ref_to_secondary_video_stream_id[k]によって示されるSubPathのSubPlayItemの再生区間を示している。pip_metadata_time_stamp[0]は、SubPlayItemの再生区間の先頭を示している。   At this time, as shown in FIG. 16, pip_metadata_time_stamp refers to the subpath time axis and indicates the playback path of the SubPath SubPlayItem indicated by ref_to_secondary_video_stream_id [k]. pip_metadata_time_stamp [0] indicates the beginning of the playback section of SubPlayItem.

pip_timeline_type=3は、ピクチャインピクチャプレゼンテーションパスは非同期型のタイプであることを意味する。このときref_to_secondary_video_stream_idで指し示されているSubpathのタイプは、6でなければならない。   pip_timeline_type = 3 means that the picture-in-picture presentation path is an asynchronous type. At this time, the type of the Subpath indicated by ref_to_secondary_video_stream_id must be 6.

pip_metadata_time_stampはこのとき、図17に示すように、ref_to_PlayItem_idのPlayItemの時間軸を参照し、ref_to_PlayItem_id[k]のPlayItemの再生区間を示している。pip_metadata_time_stamp[0]は、ref_to_PlayItem_id[k]のPlayItemの再生区間の先頭を示している。   At this time, as shown in FIG. 17, pip_metadata_time_stamp refers to the PlayItem time axis of ref_to_PlayItem_id and indicates the playback section of the PlayItem of ref_to_PlayItem_id [k]. pip_metadata_time_stamp [0] indicates the head of the playback section of the PlayItem of ref_to_PlayItem_id [k].

図18は、PlayList()のシンタクスを示す図である。   FIG. 18 is a diagram illustrating the syntax of PlayList ().

lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図2の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図2および図4に示されるように、PlayItem_id=0,1,2が割り振られる。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 2, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIGS. 2 and 4, PlayItem_id = 0, 1, and 2 are allocated.

number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図2の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図2に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。   number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 2, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 2, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.

図19は、SubPath()のシンタクスを示す図である。   FIG. 19 is a diagram illustrating the syntax of SubPath ().

lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、8ビットのreserved_for_future_useが用意される。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeについては、図20を参照して後述する。SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図2のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 8-bit reserved_for_future_use is prepared. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. This SubPath_type will be described later with reference to FIG. 15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that designates the SubPath playback method, and indicates whether the SubPath playback is repeated during the main path playback or the SubPath playback is performed only once. For example, it is used when the playback timing of the clip specified by the main AV stream and the sub path is different (for example, when the main path is used as a still image slide show and the sub path audio path is used as the main path BGM). . 8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 and two SubPlayItems with SubPath_id = 1 in FIG. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.

図20は、SubPath_type(サブパスのタイプ)の例を説明する図である。すなわち、SubPathの種類は、例えば、図20に示されるように定義されている。   FIG. 20 is a diagram illustrating an example of SubPath_type (subpath type). That is, the type of SubPath is defined as shown in FIG. 20, for example.

また、それぞれのサブパスタイプのうち、「Out-of-mux・・・type」という記述は、サブパスで参照されるES(エレメンタリストリーム)が含まれるTS(トランスポートストリーム)、すなわち、Clipと、メインパスで参照されるプレイアイテム(1以上のES)が含まれるTS(Clip)とが異なっている場合のサブパスのタイプ(種類)、すなわち、サブパスで参照されるESが、メインパスで参照されるプレイアイテムが含まれるTS(Clip)に多重化されていないサブパスのタイプ(種類)であることを示している。以下、かかる種類を、メインパス非多重型のパスと称する。   In addition, in each subpath type, the description “Out-of-mux... Type” is a TS (transport stream) including an ES (elementary stream) referred to in the subpath, that is, a clip. The type (kind) of the sub path when the play item (one or more ES) referred to in the main path is different from the TS (Clip), that is, the ES referred to in the sub path is referred to in the main path. This indicates that the sub-path type is not multiplexed in the TS (Clip) including the play item. Hereinafter, this type is referred to as a main path non-multiplex type path.

図20において、SubPath_type=0,1は、reservedとされている。SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   In FIG. 20, SubPath_type = 0, 1 is reserved. SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 indicates that in the playlist, the audio presentation path referred to by the sub path and the main path referred to by the play item are asynchronous.

SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 indicates that in the playlist, the interactive graphics menu referenced by the sub path and the main path referenced by the play item are asynchronous.

SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。   SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 indicates that in the playlist, the text subtitle presentation path referenced by the sub path and the main path referenced by the play item are synchronized.

ここで、SubPath_type=2,3のように、メインパスで参照されるESとサブパスで参照されるESとが非同期である場合、そのサブパスのタイプ(種類)を、以下、非同期型のパスと称する。一方、SubPath_type=4のように、メインパスで参照されるESとサブパスで参照されるESとが同期する場合、そのサブパスのタイプ(種類)を、以下、同期型のパスと称する。   Here, when the ES referred to in the main path and the ES referred to in the sub path are asynchronous as in SubPath_type = 2, 3, the type (type) of the sub path is hereinafter referred to as an asynchronous path. . On the other hand, when the ES referenced by the main path and the ES referenced by the sub path are synchronized as in SubPath_type = 4, the type (type) of the sub path is hereinafter referred to as a synchronous path.

SubPath_type=5は、Out-of-mux and AV Synchronized type of one or more elementary streams path(Primary audio/PG/IG/Secondary audio path).Out of mux and AV synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。すなわち、SubPath_type=5は、メインパスTS非多重型、かつ、同期型のパスであって、1本以上のES(Primary audio/PG/IG/Secondary audio)のパスや、ピクチャインピクチャプレゼンテーションパスとされている。   SubPath_type = 5 is Out-of-mux and AV Synchronized type of one or more elementary streams path (Primary audio / PG / IG / Secondary audio path) .Out of mux and AV synchronized type of Picture-in-Picture presentation path which Contains one or more elementary streams paths. That is, SubPath_type = 5 is a main path TS non-multiplexed and synchronous path, and includes one or more ES (Primary audio / PG / IG / Secondary audio) paths, picture-in-picture presentation paths, and so on. Has been.

ここで、ピクチャインピクチャプレゼンテーションパスとは、上述したピクチャインピクチャの手法において、所定のプライマリビデオストリーム(メインパスで参照されるビデオストリーム)についての、プライマリオーディオストリームストリーム、セカンダリビデオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームのうちの1以上のパス(そのようなサブパスのタイプ)であることをいう。   Here, the picture-in-picture presentation path refers to a primary audio stream stream, a secondary video stream, and a secondary audio stream for a predetermined primary video stream (a video stream referred to in the main path) in the above-described picture-in-picture method. , And one or more paths (types of such sub paths) in the subtitle stream.

SubPath_type=6は、Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。すなわち、SubPath_type=6は、メインパスTS非多重型、かつ、非同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   SubPath_type = 6 is Out-of-mux and AV non-Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths. That is, SubPath_type = 6 is a main path TS non-multiplexed and asynchronous path, and is a picture-in-picture presentation path (one or more ES paths).

SubPath_type=7は、In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams pathsとされている。   SubPath_type = 7 is In-mux type and AV Synchronized type of Picture-in-Picture presentation path which contains one or more elementary streams paths.

ここで、「In-mux type」という記述は、サブパスで参照されるESが含まれるTS(Clip)と、メインパスで参照されるプレイアイテム(1以上のES)が含まれるTS(Clip)とが同一の場合のサブパスのタイプ(種類)、すなわち、サブパスで参照されるESが、メインパスで参照されるプレイアイテムが含まれるTS(Clip)に多重化されているサブパスのタイプ(種類)であることを示している。以下、かかる種類を、メインパス多重型のパスと称する。   Here, the description “In-mux type” includes a TS (Clip) that includes an ES referenced by a sub path, and a TS (Clip) that includes a play item (one or more ESs) referenced by a main path. Is the type (type) of sub-paths that are the same, that is, the type (type) of sub-paths that are multiplexed in the TS (Clip) that contains the play item referenced in the main path. It shows that there is. Hereinafter, this type is referred to as a main path multiplexing type path.

すなわち、SubPath_type=7は、メインパスTS多重型、かつ、同期型のパスであって、ピクチャインピクチャプレゼンテーションパス(1以上のESのパス)とされている。   That is, SubPath_type = 7 is a main path TS multiplexing type and synchronous type path, which is a picture-in-picture presentation path (one or more ES paths).

SubPath_type=8乃至255は、reservedとされている。   SubPath_type = 8 to 255 is reserved.

図21は、SubPlayItem(i)のシンタクスを示す図である。   FIG. 21 is a diagram illustrating the syntax of SubPlayItem (i).

lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().

図21においては、SubPlayItemが1つのClipを参照する場合と、複数のClipを参照する場合に分けられている。   In FIG. 21, SubPlayItem is divided into a case of referring to one Clip and a case of referring to a plurality of Clips.

最初に、SubPlayItemが1つのClipを参照する場合について説明する。   First, a case where SubPlayItem refers to one Clip will be described.

SubPlayItemには、Clipを指定するためのClip_Information_file_ name[0]が含まれる。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。このsync_PlayItem_id と sync_start_PTS_of_PlayItemは、上述したように、図3と図4の場合(メインAVストリームとサブパスにより示されるファイルの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。   SubPlayItem includes Clip_Information_file_name [0] for specifying Clip. In addition, Clip_codec_identifier [0] that specifies the codec method of Clip, reserved_for_future_use, is_multi_Clip_entries that is a flag indicating the presence or absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts to be played on the time axis of the main path. As described above, the sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 3 and 4 (when the playback timing of the file indicated by the main AV stream and the sub path is the same), and the file indicated by the main AV stream and the sub path. Are not used (for example, when the still image referred to by the main path and the audio referred to by the sub path are not synchronized as in the BGM of a slide show composed of still images). Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.

次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図4に示されるように、SubPlayItemが複数のClip を参照する場合を示す。   Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 4, a case where SubPlayItem refers to a plurality of Clips is shown.

num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーデック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。   num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec method of Clip, ref_to_STC_id [SubClip_entry_id] that is information on STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.

なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図4の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。   Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 4, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is _ Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.

ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。   Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.

図22は、PlayItem()のシンタクスを示す図である。   FIG. 22 is a diagram illustrating the syntax of PlayItem ().

lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図3の例の場合、Clip_Information_file_ name[0]により、メインAVストリームが参照される。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、is_multi_angle、connection_condition、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。さらに、Clipの中のPlayItemの再生区間を指定するためのIN_time と OUT_timeを含む。図3の例の場合、IN_time と OUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。また、UO_mask_table()、PlayItem_random_access_mode、still_modeを含む。is_multi_angleが複数ある場合については、本発明と直接的には関係ないのでその説明を省略する。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 3, the main AV stream is referred to by Clip_Information_file_name [0]. Also included is Clip_codec_identifier [0] that specifies the codec format of Clip, reserved_for_future_use, is_multi_angle, connection_condition, and ref_to_STC_id [0] that is information regarding STC discontinuity points (system time base discontinuity points). Furthermore, IN_time and OUT_time for specifying the playback section of PlayItem in Clip are included. In the example of FIG. 3, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time. Also, UO_mask_table (), PlayItem_random_access_mode, and still_mode are included. The case where there are a plurality of is_multi_angles is not directly related to the present invention, and the description thereof will be omitted.

PlayItem()の中のSTN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipsの中から選ぶことができる仕組みを提供するものである。また、STN_table()は、2つのオーディオストリームのミキシング再生を選ぶことができる仕組みを提供するものである。   STN_table () in PlayItem () refers to the PlayItem's operations such as audio switching and subtitle switching when the target PlayItem and one or more SubPaths to be played back are prepared. It provides a mechanism that allows the user to select from Clips and Clips referenced by one or more of these SubPaths. STN_table () provides a mechanism that allows selection of mixing reproduction of two audio streams.

図23は、STN_table()のシンタクスの第1の例を示す図である。STN_table()は、PlayItemの属性として設定されている。   FIG. 23 is a diagram illustrating a first example of the syntax of STN_table (). STN_table () is set as an attribute of PlayItem.

lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。number_of_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_idが与えられるストリーム数を示す。video_stream_idは、ビデオストリームを識別するための情報であり、video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length. number_of_video_stream_entries indicates the number of streams to which video_stream_id entered (registered) in STN_table () is given. video_stream_id is information for identifying a video stream, and video_stream_number is a video stream number that is used for video switching and is visible to the user.

number_of_audio_stream_entriesは、STN_table()の中でエントリーされるaudio_stream_idが与えられる1番目のオーディオストリームのストリーム数を示す。audio_stream_idは、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。number_of_audio_stream2_entriesは、STN_table()の中でエントリーされるaudio_stream_id2が与えられる2番目のオーディオストリームのストリーム数を示す。audio_stream_id2は、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。具体的には、STN_table()でエントリーされるnumber_of_audio_stream_entriesのオーディオストリームは、後述する図35の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリームであり、STN_table()でエントリーされるnumber_of_audio_stream2_entriesのオーディオストリームは、後述する図35の再生装置20の2ndオーディオデコーダ75−2でデコードされるオーディオストリームである。このように、図23、並びに、後述する図33および図34のSTN_table()では、2つのオーディオデコーダのそれぞれにデコードさせるオーディオストリームをエントリーすることができる。   number_of_audio_stream_entries indicates the number of streams of the first audio stream to which audio_stream_id entered in STN_table () is given. The audio_stream_id is information for identifying the audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. number_of_audio_stream2_entries indicates the number of streams of the second audio stream to which audio_stream_id2 entered in STN_table () is given. The audio_stream_id2 is information for identifying an audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. Specifically, the number_of_audio_stream_entries audio stream entered in STN_table () is an audio stream decoded by the 1st audio decoder 75-1 of the playback apparatus 20 shown in FIG. 35 described later, and number_of_audio_stream2_entries entered in STN_table (). The audio stream is an audio stream decoded by a 2nd audio decoder 75-2 of the playback apparatus 20 shown in FIG. Thus, in FIG. 23 and STN_table () in FIGS. 33 and 34 described later, audio streams to be decoded by the two audio decoders can be entered.

なお、以下において、図35の再生装置20の1stオーディオデコーダ75−1でデコードされるnumber_of_audio_stream_entriesのオーディオストリーム、すなわち、プライマリオーディオストリームをオーディオストリーム#1と称し、図35の再生装置20の2ndオーディオデコーダ75−2でデコードされるnumber_of_audio_stream2_entriesのオーディオストリーム、すなわち、セカンダリオーディオストリームをオーディオストリーム#2と称する。また、オーディオストリーム#1は、オーディオストリーム#2よりも優先されるオーディオストリームであるものとする。   In the following description, the number_of_audio_stream_entries audio stream decoded by the 1st audio decoder 75-1 of the playback apparatus 20 in FIG. 35, that is, the primary audio stream is referred to as audio stream # 1, and the 2nd audio decoder of the playback apparatus 20 in FIG. The audio stream of number_of_audio_stream2_entries decoded in 75-2, that is, the secondary audio stream is referred to as audio stream # 2. Also, it is assumed that the audio stream # 1 is an audio stream that has priority over the audio stream # 2.

number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。   number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.

number_of_IG_stream_entriesは、STN_table()の中でエントリーされる IG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。   number_of_IG_stream_entries indicates the number of streams provided with IG_stream_id entered in STN_table (). In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.

ここで、stream_entry()のシンタクスについて図24を参照して説明する。   Here, the syntax of stream_entry () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_entry ()の最後までのバイト数を示す8ビットの符号なし整数である。typeは、上述したストリーム番号が与えられるストリームを一意に特定するために必要な情報の種類を示す8ビットのフィールドである。   length is an 8-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_entry (). type is an 8-bit field indicating the type of information necessary to uniquely specify the stream to which the above-described stream number is given.

type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。   In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.

type=2では、SubPathが一度に複数個のClipsを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。   In type = 2, when SubPath refers to multiple Clips at a time and each Clip multiplexes multiple elementary streams, multiple elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.

このように、type(type=1とtype=2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。   In this way, by using type (two types of type = 1 and type = 2), when PlayItem and one or more SubPaths to be played back are prepared, this PlayItem refers to One elementary stream can be identified from Clips referenced by Clip and one or more SubPaths. Note that type = 1 indicates a clip (main clip) referred to by the main path, and type = 2 indicates a clip (sub clip) referred to by the sub path.

図23のSTN_table()の説明に戻って、ビデオストリームID(video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からvideo_stream_idが与えられる。なお、ビデオストリームID(video_stream_id)の代わりに、ビデオストリーム番号(video_stream_number)を用いるようにしてもよい。この場合、video_stream_numberは、0ではなく1から与えられる。すなわち、video_stream_idの値に1を加算したものがvideo_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。   Returning to the description of STN_table () in FIG. 23, video_stream_id is given from 0 to one video elementary stream that is identified for each stream_entry () in turn in the for loop of the video stream ID (video_stream_id). Note that a video stream number (video_stream_number) may be used instead of the video stream ID (video_stream_id). In this case, video_stream_number is given from 1 instead of 0. That is, video_stream_number is obtained by adding 1 to the value of video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.

同様に、オーディオストリームID(audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。この場合、audio_stream_numberは、0ではなく1から与えられる。すなわち、audio_stream_idの値に1を加算したものがaudio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the audio stream ID (audio_stream_id), audio_stream_id is assigned from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id). In this case, audio_stream_number is given from 1 instead of 0. That is, audio_stream_number is obtained by adding 1 to the value of audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.

同様に、オーディオストリームID2(audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。この場合、audio_stream_number2は、0ではなく1から与えられる。すなわち、audio_stream_id2の値に1を加算したものがaudio_stream_number2である。オーディオストリーム番号2は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号2であるので、1から定義される。   Similarly, audio_stream_id2 is given from 0 to one audio elementary stream specified for each stream_entry () in order in the for loop of the audio stream ID2 (audio_stream_id2). As in the case of the video stream, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). In this case, audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number2 is obtained by adding 1 to the value of audio_stream_id2. The audio stream number 2 is an audio stream number 2 that can be seen by the user and used for audio switching.

すなわち、図23のSTN_table()においては、number_of_audio_stream_entries(オーディオストリーム#1)のオーディオストリームと、number_of_audio_stream2_entries(オーディオストリーム#2)のオーディオストリームとが定義される。換言すれば、STN_table()を用いて、オーディオストリーム#1とオーディオストリーム#2とをエントリーすることができるので、ユーザは、同期して再生するオーディオストリームを2本選択することができる。   That is, in STN_table () of FIG. 23, an audio stream of number_of_audio_stream_entries (audio stream # 1) and an audio stream of number_of_audio_stream2_entries (audio stream # 2) are defined. In other words, since the audio stream # 1 and the audio stream # 2 can be entered using the STN_table (), the user can select two audio streams to be reproduced in synchronization.

同様に、字幕ストリームID(PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。なお、ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。   Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.

同様に、グラフィックスストリームID(IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。   Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.

次に、図23のSTN_table()のstream_attribute()について説明する。   Next, stream_attribute () of STN_table () in FIG. 23 will be described.

reserved_for_future_useの後のfor文では、video streamの分だけvideo streamが参照され、ディスク製造者が、オーディオストリームに対してMain PathおよびSub Pathを設定した分だけaudio streamが参照され、PG textST streamの分だけPG textST streamが参照され、IG streamの分だけIG streamが参照される。   In the for statement after reserved_for_future_use, the video stream is referenced by the amount of the video stream, the audio stream is referenced by the disc manufacturer who has set the Main Path and Sub Path for the audio stream, and the amount of PG textST stream. Only the PG textST stream is referred to, and the IG stream is referred to by the amount of the IG stream.

ビデオストリームID(video_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報が記述されている。   The stream_attribute () in the for loop of the video stream ID (video_stream_id) gives stream attribute information of one video elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one video elementary stream specified for each stream_entry () is described.

同様に、オーディオストリームID(audio_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図24のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of the audio stream ID (audio_stream_id) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 24, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、オーディオストリームID2(audio_stream_id2)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図24のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of audio stream ID2 (audio_stream_id2) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 24, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、字幕ストリームID(PG_txtST_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕エレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the subtitle stream ID (PG_txtST_stream_id) gives stream attribute information of one bitmap subtitle elementary stream or text subtitle elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one bitmap subtitle elementary stream specified for each stream_entry () is described.

同様に、グラフィックスストリームID(IG_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the graphics stream ID (IG_stream_id) gives stream attribute information of one interactive graphics elementary stream specified for each stream_entry (). That is, stream attribute information of one interactive graphics elementary stream specified for each stream_entry () is described in the stream_attribute ().

ここで、stream_attribute()のシンタクスについて図25を参照して説明する。   Here, the syntax of stream_attribute () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().

stream_coding_typeは、図26に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream、HDMV LPCM audio、Dolby AC-3 audio、dts audio、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。   stream_coding_type indicates the encoding type of the elementary stream as shown in FIG. As encoding types of elementary streams, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, and Text subtitle stream are described.

video_formatは、図27に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。   video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.

frame_rateは、図28に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。   As shown in FIG. 28, frame_rate indicates the frame rate of the video elementary stream. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.

aspect_ratioは、図29に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。   The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.

audio_presentation_typeは、図30に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。   audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.

sampling_frequencyは、図31に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。   Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.

audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).

PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.

IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.

textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.

character_codeは、図32に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。   The character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including KSC 5653 for Roman character (Korean), GB 18030-2000 (Chinese), GB2312 (Chinese) and BIG5 (Chinese) are described.

以下に、図25のstream_attribute()のシンタクスについて、図25と、図26乃至図32を用いて具体的に説明する。   Hereinafter, the syntax of stream_attribute () in FIG. 25 will be specifically described with reference to FIG. 25 and FIGS. 26 to 32.

エレメンタリストリームの符号化タイプ(図25のstream_coding_type)がMPEG-2 video stream(図26)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図27)、フレームレート(図28)、およびアスペクト比情報(図29)が含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 25) is an MPEG-2 video stream (FIG. 26), stream_attribute () includes the video format (FIG. 27) and frame rate (FIG. 28) of the elementary stream. ), And aspect ratio information (FIG. 29).

エレメンタリストリームの符号化タイプ(図25のstream_coding_type)がHDMV LPCM audio、Dolby AC-3 audio、またはdts audio(図26)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図30)、サンプリング周波数(図31)、および言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 25) is HDMV LPCM audio, Dolby AC-3 audio, or dts audio (FIG. 26), the stream_attribute () includes the presentation type information of the audio elementary stream. (FIG. 30), sampling frequency (FIG. 31), and language code.

エレメンタリストリームの符号化タイプ(図25のstream_coding_type)がPresentation graphics stream(図26)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 25) is a Presentation graphics stream (FIG. 26), the stream_attribute () includes the language code of the bitmap subtitle elementary stream.

エレメンタリストリームの符号化タイプ(図25のstream_coding_type)がInteractive graphics stream(図26)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 25) is Interactive graphics stream (FIG. 26), stream_attribute () includes the language code of the interactive graphics elementary stream.

エレメンタリストリームの符号化タイプ(図25のstream_coding_type)がText subtitle stream(図26)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図32)、言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 25) is a Text subtitle stream (FIG. 26), stream_attribute () includes the character code (FIG. 32) and language code of the text subtitle elementary stream. .

なお、これらの属性情報はこれに限定されない。   Note that the attribute information is not limited to this.

このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定された1つのエレメンタリストリームの属性情報をstream_attribute()によって知ることができる。   As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of one identified elementary stream can be known by stream_attribute ().

再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。   By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.

例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。   For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).

また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザが音声切り替えを指示した場合、再生装置は、オーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。   Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback apparatus to switch the audio, the playback apparatus sequentially selects only the audio elementary stream whose language code is Japanese from the for loop of the audio stream ID (Audio stream id). And play.

さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(例えば、映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、オーディオストリーム#1(通常の映画で出力される音声)と、オーディオストリーム#2(監督や出演者によるコメント)とを、再生する音声として指定(選択)した場合、再生装置は、オーディオストリーム#1とオーディオストリーム#2とをミキシング(重畳)して、ビデオストリームとともに再生する。   Furthermore, for example, when playing back an AV stream (for example, a movie) made up of a video stream and an audio stream referred to by the main path, the user instructs the playback device to switch the audio, and the audio stream # 1 ( When the audio to be output in a normal movie) and the audio stream # 2 (comment by a director or performer) are designated (selected) as audio to be played back, the playback apparatus uses the audio stream # 1 and the audio stream # 2. Are mixed (superposed) and reproduced together with the video stream.

なお、オーディオストリーム#1とオーディオストリーム#2とは、図23のSTN_table()を参照しても分かるように、両方ともメインパスにより参照されるClipに含まれるオーディオストリームとしてもよい。また、オーディオストリーム#1とオーディオストリーム#2のうちの、一方をメインパスにより参照されるClipに含まれるオーディオストリームとし、他方をサブパスにより参照されるClipに含まれるオーディオストリームとしてもよい。このように、メインパスにより参照されるメインAVストリームに重畳された複数のオーディオストリームを2つ選択して、ミキシングして再生することも可能である。   Note that the audio stream # 1 and the audio stream # 2 may both be audio streams included in the Clip referred to by the main path, as can be seen by referring to the STN_table () in FIG. Also, one of the audio stream # 1 and the audio stream # 2 may be an audio stream included in a clip referred to by the main path, and the other may be an audio stream included in the clip referenced by the sub path. As described above, it is possible to select two audio streams superimposed on the main AV stream referred to by the main path, mix them, and reproduce them.

このようにして、PlayItem()の中のSTN_table()は、このPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から選ぶことができる仕組みを提供するようにしたので、メインAVストリームが記録されている、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。   In this way, STN_table () in PlayItem () can be used for operations such as audio switching and subtitle switching by the user when this PlayItem and one or more SubPaths to be played back are prepared. Since a mechanism is provided that allows the user to select from the clip referenced by this PlayItem and the clip referenced by one or more SubPaths, a stream different from the AV stream to be reproduced, Interactive operations can also be performed on data files.

また、1つのPlayListの中にSubPathを複数使用し、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、後で、SubPlayItemを追加できる構成とすることができる。例えば、Main Pathが参照するClipAVストリームファイルとこれに対応付けられるPlayListがあり、このPlayListが新たなSub Pathを追加したPlayListに書き換えられた場合、新たなPlayListに基づいて、Main Pathが参照するClipAVストリームファイルとともに、Main Pathが参照するClipAVストリームファイルとは異なるClipAVストリームファイルを参照して、再生を行うことができる。このように、拡張性を有する構成とすることができる。   Also, since a plurality of SubPaths are used in one PlayList and each SubPath refers to a SubPlayItem, an AV stream with high expandability and high flexibility can be realized. That is, it can be configured such that SubPlayItem can be added later. For example, when there is a ClipAV stream file referred to by the Main Path and a PlayList associated with the ClipAV stream file, and this PlayList is rewritten to a PlayList added with a new Sub Path, the ClipAV referenced by the Main Path is based on the new PlayList. Along with the stream file, reproduction can be performed by referring to a ClipAV stream file different from the ClipAV stream file referred to by the Main Path. Thus, it can be set as the structure which has an expandability.

さらに、PlayItem()の中のSTN_table()は、後述する図35の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とをミキシングして再生することができる仕組みを提供するようにした。例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、PlayItemが参照するClipのオーディオストリームをオーディオストリーム#1とし、SubPathが参照するClipのオーディオストリームをオーディオストリーム#2とし、これらををミキシングして再生することができる仕組みを提供するようにした。また、例えば、PlayItemが参照するClip(メインClip)に含まれる2つのオーディオストリームを、それぞれオーディオストリーム#1とオーディオストリーム#2とし、これらをミキシングして再生することができる仕組みを提供するようにした。これにより、メインAVストリームが記録されている、再生するメインのオーディオストリームとは異なるオーディオストリーム(例えば、監督のコメントのストリーム)の重畳再生を行うことができる。また、メインAVストリームに重畳されている2つのオーディオストリーム#1とオーディオストリーム#2とを重畳(ミキシング)して再生することができる。   Furthermore, STN_table () in PlayItem () is an audio stream # 1 decoded by the 1st audio decoder 75-1 of the playback apparatus 20 shown in FIG. 35 to be described later, and an audio stream decoded by the 2nd audio decoder 75-2. A system that can mix and play # 2 is provided. For example, when PlayItem () and one or more SubPaths to be played back are prepared, the clip audio stream referenced by PlayItem is defined as audio stream # 1, and the clip audio stream referenced by SubPath is defined as audio stream # 1. An audio stream # 2 is provided, and a mechanism capable of mixing and reproducing these is provided. Also, for example, two audio streams included in a clip (main clip) referred to by PlayItem are set as an audio stream # 1 and an audio stream # 2, respectively, and these can be mixed and played back. did. Accordingly, it is possible to perform superimposed reproduction of an audio stream (for example, a director's comment stream) that is different from the main audio stream to be reproduced, in which the main AV stream is recorded. Also, the two audio streams # 1 and # 2 superimposed on the main AV stream can be superimposed (mixed) and reproduced.

また、STN_table()によって、プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義することができる。図33および図34は、STN_table()のシンタクスの第2の例を示す図である。   In addition, a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that are simultaneously reproduced in combination with the primary video stream can be defined by STN_table (). 33 and 34 are diagrams illustrating a second example of the syntax of STN_table ().

図33と図34とは、プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義する場合のSTN_table()のシンタクスの例を示す図である。なお、図中、図23と同一の部分については、繰り返しになるのでその説明は省略する。   FIG. 33 and FIG. 34 show examples of the syntax of STN_table () when defining a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that is simultaneously played in combination with the primary video stream. FIG. In the figure, the same parts as those in FIG. 23 are repeated, and the description thereof is omitted.

図33と図34の例では、プライマリビデオストリームと組み合わせて同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせは、次のように定義される。すなわち、最初に、プライマリビデオストリームと組み合わせて同時再生されるセカンダリビデオストリームが1以上定義される。そして、1以上のセカンダリビデオストリームのそれぞれに対して、同時に再生されるオーディオストリーム(プライマリオーディオストリームとセカンダリオーディオストリーム)とサブタイトルストリームとが定義される。   In the example of FIGS. 33 and 34, a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that are simultaneously reproduced in combination with the primary video stream is defined as follows. That is, first, one or more secondary video streams that are simultaneously reproduced in combination with the primary video stream are defined. For each of the one or more secondary video streams, an audio stream (primary audio stream and secondary audio stream) and a subtitle stream that are played back simultaneously are defined.

具体的には、図33において、number_of_video_stream2_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_id2が与えられるストリーム数を示す。video_stream_id2は、セカンダリビデオストリームを識別するための情報であり、video_stream_number2は、ビデオ切り替えに使われる、ユーザから見えるセカンダリビデオストリーム番号である。   Specifically, in FIG. 33, number_of_video_stream2_entries indicates the number of streams to which video_stream_id2 entered (registered) in STN_table () is given. video_stream_id2 is information for identifying a secondary video stream, and video_stream_number2 is a secondary video stream number that is used for video switching and is visible to the user.

図34において、ビデオストリームID2(video_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリーム(セカンダリビデオストリームとなるビデオエレメンタリストリーム)に、0からvideo_stream_id2が与えられる。   In FIG. 34, one video elementary stream (video elementary stream to be a secondary video stream) specified for each stream_entry () in order in the for loop of video stream ID 2 (video_stream_id 2) has a video_stream_id 2 from 0 to 0. Given.

このとき、video_stream_id2に対して、number_of_Audio_combinations_for_video2が与えられ、その後のfor文では、number_of_Audio_combinations_for_video2の数だけ、audio_stream_idとaudio_stream_id2が与えられる。number_of_Audio_combinations_for_video2とその後のfor文とは、セカンダリビデオストリームと同時再生されるオーディオストリームの組み合わせ、すなわち、audio_stream_idで特定されるプライマリオーディオストリームと、audio_stream_id2で特定されるセカンダリオーディオストリームとの組み合わせを定義する情報である。video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なオーディオストリームの組(プライマリオーディオストリームとセカンダリオーディオストリームとの組)の数が、number_of_Audio_combinations_for_video2とされる。そして、video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なオーディオストリームの組として、プライマリオーディオストリームを特定するaudio_stream_idと、セカンダリオーディオストリームを特定するaudio_stream_id2とが、number_of_Audio_combinations_for_video2の後のfor文でそれぞれ定義される。   At this time, number_of_Audio_combinations_for_video2 is given to video_stream_id2, and in the subsequent for statement, audio_stream_id and audio_stream_id2 are given by the number of number_of_Audio_combinations_for_video2. number_of_Audio_combinations_for_video2 and the subsequent for statement are information that defines a combination of audio streams that are played back simultaneously with a secondary video stream, that is, a combination of a primary audio stream specified by audio_stream_id and a secondary audio stream specified by audio_stream_id2. is there. The number of sets of audio streams (a set of primary audio streams and secondary audio streams) that can be combined with the secondary video stream specified by video_stream_id2 is number_of_Audio_combinations_for_video2. Then, as a set of audio streams that can be combined with the secondary video stream identified by video_stream_id2, audio_stream_id that identifies the primary audio stream and audio_stream_id2 that identifies the secondary audio stream are defined in a for statement after number_of_Audio_combinations_for_video2, respectively. .

また、同じvideo_stream_id2に対して、number_of_Subtitle_combinations_for_video2が与えられ、その後のfor文では、number_of_Subtitle_combinations_for_video2の数だけ、PG_textST_stream_idが与えられる。number_of_Subtitle_combinations_for_video2とその後のfor文とは、セカンダリビデオストリームと同時再生されるサブタイトルストリームの組み合わせ、すなわち、PG_textST_stream_idで特定されるサブタイトルストリームの組み合わせを定義する情報である。video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なサブタイトルストリームの数が、number_of_Subtitle_combinations_for_video2とされる。そして、video_stream_id2で特定されるセカンダリビデオストリームと組み合わせ可能なサブタイトルストリームを特定するPG_textST_stream_idが、number_of_Subtitle_combinations_for_video2の後のfor文で定義される。   Also, number_of_Subtitle_combinations_for_video2 is given to the same video_stream_id2, and PG_textST_stream_id is given to the same video_stream_id2 by the number of number_of_Subtitle_combinations_for_video2. The number_of_Subtitle_combinations_for_video2 and the subsequent for sentence are information defining a combination of subtitle streams that are reproduced simultaneously with the secondary video stream, that is, a combination of subtitle streams specified by PG_textST_stream_id. The number of subtitle streams that can be combined with the secondary video stream specified by video_stream_id2 is number_of_Subtitle_combinations_for_video2. Then, PG_textST_stream_id for specifying a subtitle stream that can be combined with the secondary video stream specified by video_stream_id2 is defined in a for sentence after number_of_Subtitle_combinations_for_video2.

なお、図23を参照して説明した場合と同様に、各IDの代わりに各番号、例えば、audio_stream_idの代わりに、オーディオストリーム番号(audio_stream_number)を用いたり、audio_stream_id2の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。ビデオストリームやサブタイトルストリームについても同様である。   Similarly to the case described with reference to FIG. 23, each number is used instead of each ID, for example, an audio stream number (audio_stream_number) is used instead of audio_stream_id, or an audio stream number 2 ( audio_stream_number2) may be used. The same applies to the video stream and the subtitle stream.

図33と図34によれば、video_stream_id2を用いて、プライマリビデオストリームと同時再生されるセカンダリビデオストリームを定義することができ、さらに、video_stream_id2、および、audio_stream_id、audio_stream_id2、並びに、PG_textST_stream_idを用いて、そのセカンダリビデオストリームと同時再生される、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義することができる。すなわち、プライマリビデオストリームと同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義することができる。   According to FIG. 33 and FIG. 34, it is possible to define a secondary video stream that is played back simultaneously with the primary video stream using video_stream_id2, and further, using video_stream_id2, audio_stream_id, audio_stream_id2, and PG_textST_stream_id, A combination of a primary audio stream, a secondary audio stream, and a subtitle stream that are played back simultaneously with the secondary video stream can be defined. That is, it is possible to define a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that are played back simultaneously with the primary video stream.

従って、プライマリビデオストリームと同時再生される、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせとして、矛盾するような組み合わせを定義せずに済むので、ユーザは、プライマリビデオストリームと同時再生可能なストリームの組み合わせの再生を容易に選択することができる。   Therefore, it is not necessary to define a contradictory combination as a combination of the secondary video stream, the primary audio stream, the secondary audio stream, and the subtitle stream that is played back simultaneously with the primary video stream. It is possible to easily select a combination of streams that can be reproduced simultaneously.

また、PlayItem()の中のSTN_table()は、このPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このSubpathのSubpath_typeを5乃至7、すなわちピクチャインピクチャプレゼンテーションパス(セカンダリビデオストリーム、セカンダリオーディオストリーム、および、プレゼンテーショングラフィックストリームのうちの1以上のパス)と定義することにより、図5を用いて説明したようにして、主に再生表示されるプライマリビデオストリームに対して、セカンダリビデオストリームを表示することにより、ピクチャインピクチャ表示を行うことができるようになる。   Also, STN_table () in PlayItem () has a Subpath_type of 5 to 7, that is, a picture-in-picture presentation, when this PlayItem and one or more SubPaths to be played back in association with this PlayItem are prepared. By defining a path (one or more paths of a secondary video stream, a secondary audio stream, and a presentation graphic stream), as described with reference to FIG. On the other hand, picture-in-picture display can be performed by displaying the secondary video stream.

また、ピクチャインピクチャの表示設定を、図9、図11、または図12を用いて説明したようにして、pip_metadataに記載するようにしたので、図5を用いて説明した副表示画面2の大きさや表示位置は、再生装置に依存することなく、コンテンツの作成元またはコンテンツの提供元などが任意に設定することができる。また、ピクチャインピクチャの表示設定は、ピクチャインピクチャ表示されるビデオストリーム(セカンダリビデオストリーム)のデータ自体に記載されるのではなく、図9、図11、または図12を用いて説明したpip_metadataに記載される。すなわち、図5を用いて説明した副表示画面2の大きさや表示位置を変更したい場合は、ピクチャインピクチャ表示されるビデオストリーム(セカンダリビデオストリーム)を修正する必要はなく、pip_metadataの記載を修正するようにすればよい。   Since the picture-in-picture display setting is described in pip_metadata as described with reference to FIG. 9, FIG. 11, or FIG. 12, the size of the sub display screen 2 described with reference to FIG. The sheath display position can be arbitrarily set by the content creator or the content provider without depending on the playback device. In addition, the picture-in-picture display setting is not described in the data itself of the video stream (secondary video stream) displayed in picture-in-picture, but in the pip_metadata described with reference to FIG. 9, FIG. 11, or FIG. be written. That is, when it is desired to change the size or display position of the sub display screen 2 described with reference to FIG. 5, it is not necessary to correct the video stream (secondary video stream) displayed in picture-in-picture, and the description of pip_metadata is corrected. What should I do?

また、ピクチャインピクチャの表示設定を、図9、図11、または図12を用いて説明したようにして、pip_metadataに記載するようにしたことにより、図5を用いて説明した副表示画面2に表示される映像の大きさは、セカンダリビデオストリームの元となる画像の大きさにも依存することなく、コンテンツの作成元またはコンテンツの提供元などが任意に設定することができる。   Further, the display setting of the picture-in-picture is described in pip_metadata as described with reference to FIG. 9, FIG. 11, or FIG. 12, so that the sub display screen 2 described with reference to FIG. The size of the displayed video does not depend on the size of the image that is the source of the secondary video stream, and can be arbitrarily set by the content creator or the content provider.

次に、本発明を適用した再生装置について説明する。図35は、本発明を適用した再生装置20の構成例を示すブロック図である。この再生装置20は、上述したメインパスとサブパスを有するPlayListを再生する再生装置20である。   Next, a playback apparatus to which the present invention is applied will be described. FIG. 35 is a block diagram illustrating a configuration example of the playback device 20 to which the present invention has been applied. The playback device 20 is a playback device 20 that plays the PlayList having the main path and the sub path described above.

再生装置20には、ストレージドライブ31、スイッチ32、AVデコーダ部33、およびコントローラ34が設けられている。   The playback device 20 is provided with a storage drive 31, a switch 32, an AV decoder unit 33, and a controller 34.

図35の例の場合、最初に、コントローラ34がストレージドライブ31を介してPlayListファイルを読み出し、PlayListファイルの情報に基づいて、ストレージドライブ31を介してHDD、ブルーレイディスク、またはDVDなどの記録媒体からAVストリームやAVデータを読み出す。ユーザは、ユーザインターフェースを用いて、コントローラ34に対し、音声や字幕などの切り替えの指令を行うことができる。また、コントローラ34には、再生装置20の言語設定の初期情報が図示せぬ記憶部などから供給される。   In the example of FIG. 35, first, the controller 34 reads out the PlayList file via the storage drive 31, and based on the information of the PlayList file, from the recording medium such as HDD, Blu-ray disc, or DVD via the storage drive 31 Read AV stream and AV data. The user can instruct the controller 34 to switch between audio and subtitles using the user interface. Further, the controller 34 is supplied with initial information of the language setting of the playback device 20 from a storage unit (not shown).

PlayListファイルには、Main Path、Sub Pathの情報の他、STN_table()が含まれている。コントローラ34は、PlayListファイルに含まれるPlayItemが参照するメインClip AVストリームファイル(以下、メインClipと称する)、SubPlayItemが参照するサブClip AVストリームファイル(以下、サブClipと称する)、およびSubPlayItemが参照するテキストサブタイトルデータを、ストレージドライブ31を介して記録媒体などから読み出す。ここで、PlayItemが参照するメインClipとSubPlayItemが参照するサブClipとが、異なる記録媒体に記録されていてもよい。例えば、メインClipが記録媒体に記録されており、対応するサブClipは図示せぬネットワークを介して供給され、HDDに記憶されたものであってもよい。また、コントローラ34は、自分自身(再生装置20)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置20の言語設定の初期情報に対応するエレメンタリストリームだけを選択し、再生するよう制御する。   The PlayList file includes STN_table () in addition to Main Path and Sub Path information. The controller 34 refers to a main Clip AV stream file (hereinafter referred to as a main Clip) referred to by a PlayItem included in the PlayList file, a sub Clip AV stream file (hereinafter referred to as a sub Clip) referred to by a SubPlayItem, and a SubPlayItem referred to. Text subtitle data is read from a recording medium or the like via the storage drive 31. Here, the main clip referred to by PlayItem and the sub Clip referred to by SubPlayItem may be recorded on different recording media. For example, the main clip may be recorded on a recording medium, and the corresponding sub clip may be supplied via a network (not shown) and stored in the HDD. In addition, the controller 34 selects and plays an elementary stream corresponding to the playback function of itself (playback device 20), or only the elementary stream corresponding to the initial information of the language setting of the playback device 20. Select and control to play.

また、コントローラ34は、PlayListファイルのPlayListExtensionData()のID1/ID2に記載されている情報(または識別子)を参照し、このPlayListExtensionData()のdata_blockに、ピクチャインピクチャ表示に関する情報(pip_metadata)が記載されていることを検出した場合、図9または図11を用いて説明したpip_metadataを参照して、図5を用いて説明した副表示画面2に表示されるセカンダリビデオの表示設定を取得し、AVデコーダ部33のビデオプレーン生成部92によるプライマリビデオストリームとセカンダリビデオストリームの映像の合成を制御する。   Further, the controller 34 refers to information (or identifier) described in ID1 / ID2 of PlayListExtensionData () of the PlayList file, and information (pip_metadata) related to picture-in-picture display is described in the data_block of this PlayListExtensionData (). If it is detected that the secondary video is displayed, the secondary video display setting displayed on the secondary display screen 2 described with reference to FIG. 5 is acquired with reference to pip_metadata described with reference to FIG. The video plane generating unit 92 of the unit 33 controls the synthesis of the primary video stream and the secondary video stream.

AVデコーダ部33には、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57乃至59、PIDフィルタ60、バックグラウンドデコーダ71、1stビデオデコーダ72−1、2ndビデオデコーダ72−2、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、およびミキシング処理部101が設けられている。   The AV decoder unit 33 includes buffers 51 to 54, PID filter 55, PID filter 56, switches 57 to 59, PID filter 60, background decoder 71, 1st video decoder 72-1, 2nd video decoder 72-2, presentation graphic. Decoder 73, interactive graphics decoder 74, 1st audio decoder 75-1, 2nd audio decoder 75-2, Text-ST composition 76, switch 77, background plane generator 91, video plane generator 92, presentation graphic spray A generation unit 93, an interactive graphics plane generation unit 94, a buffer 95, a video data processing unit 96, a mixing processing unit 97, and a mixing processing unit 101.

1stビデオデコーダ72−1は、プライマリビデオストリームをデコードするためのものであり、2ndビデオデコーダ72−2は、セカンダリビデオストリームをデコードするためのものである。また、1stオーディオデコーダ75−1は、オーディオストリーム#1(プライマリオーディオストリーム)をデコードするためのものであり、2ndオーディオデコーダ75−2は、オーディオストリーム#2(セカンダリオーディオストリーム)をデコードするためのものである。具体的には、図23、並びに、図33および図34のSTN_table()において、video_stream_idで与えられるビデオストリームをデコードするためのものが1stビデオデコーダ72−1であり、video_stream_id2で与えられるビデオストリームをデコードするためのものが2ndビデオデコーダ72−2であり、audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、audio_stream_id2で与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。   The 1st video decoder 72-1 is for decoding the primary video stream, and the 2nd video decoder 72-2 is for decoding the secondary video stream. The 1st audio decoder 75-1 is for decoding the audio stream # 1 (primary audio stream), and the 2nd audio decoder 75-2 is for decoding the audio stream # 2 (secondary audio stream). Is. Specifically, in STN_table () of FIG. 23 and FIGS. 33 and 34, the 1st video decoder 72-1 is for decoding the video stream given by video_stream_id, and the video stream given by video_stream_id 2 is The one for decoding is the 2nd video decoder 72-2, the one for decoding the audio stream given by audio_stream_id is the 1st audio decoder 75-1, and the one for decoding the audio stream given by audio_stream_id2 This is a 2nd audio decoder 75-2.

このように、再生装置20は、2つのビデオストリームをデコードするために2つのビデオデコーダ(1stビデオデコーダ72−1、2ndビデオデコーダ72−2)を有し、2つのオーディオストリームをデコードするために、2つのオーディオデコーダ(1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2)を有している。なお、以下において、1stビデオデコーダ72−1と2ndビデオデコーダ72−2とを個々に区別しない場合、ビデオデコーダ72と称し、1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2とを個々に区別しない場合、オーディオデコーダ75と称する。   As described above, the playback device 20 includes two video decoders (1st video decoder 72-1, 2nd video decoder 72-2) for decoding two video streams, and for decoding two audio streams. Two audio decoders (1st audio decoder 75-1 and 2nd audio decoder 75-2) are provided. In the following, when the 1st video decoder 72-1 and the 2nd video decoder 72-2 are not individually distinguished, they are referred to as the video decoder 72, and the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 are individually distinguished. Otherwise, it is referred to as an audio decoder 75.

コントローラ34により読み出されたファイルデータは、図示せぬ復調、ECC復号部により、復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ34からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ34からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClipのデータをバッファ52に供給し、サブClipのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClipのデータをバッファリングし、バッファ53は、サブClipのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   The file data read by the controller 34 is demodulated by a demodulation / ECC decoding unit (not shown), and error correction is performed on the demodulated multiplexed stream. The switch 32 selects the demodulated and error-corrected data for each stream type based on the control from the controller 34 and supplies the selected data to the corresponding buffers 51 to 54. Specifically, the switch 32 supplies background image data to the buffer 51, supplies main clip data to the buffer 52, and supplies sub-clip data to the buffer 53 based on control from the controller 34. The switch 32 is switched to supply the Text-ST data to the buffer 54. The buffer 51 buffers background image data, the buffer 52 buffers main clip data, the buffer 53 buffers sub-clip data, and the buffer 54 buffers Text-ST data. To do.

メインClipは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClipは、ビデオとビットマップ字幕とインタラクティブグラフィックスとオーディオのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。   The main clip is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub clip is a stream obtained by multiplexing one or more streams of video, bitmap subtitles, interactive graphics, and audio. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.

また、メインClipとサブClipおよびテキストサブタイトルデータを、ストレージドライブ31(記録媒体)から読み出すときに、それぞれのファイルを時分割に交互に読み出しても良いし、または、サブClipやテキストサブタイトルデータをメインClipから読み出す前に、すべてバッファ(バッファ53またはバッファ54)へプリロードしてもよい。   When reading the main clip, sub-clip, and text subtitle data from the storage drive 31 (recording medium), each file may be read alternately in a time-division manner, or the sub-clip and text subtitle data are stored in the main All data may be preloaded into the buffer (buffer 53 or buffer 54) before reading from the clip.

再生装置20は、これらのファイルのデータを、ストレージドライブ31を介して記録媒体から読み出し、ビデオ、ビットマップ字幕、インタラクティブグラフィックス、およびオーディオを再生する。   The playback device 20 reads the data of these files from the recording medium via the storage drive 31, and plays back video, bitmap subtitles, interactive graphics, and audio.

具体的には、メインClip用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClipをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームを1stビデオデコーダ72−1または2ndビデオデコーダ72−2のいずれかに供給するためのPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   Specifically, the stream data read from the buffer 52 which is the main clip read buffer is output to the PID (packet ID) filter 55 in the subsequent stage at a predetermined timing. The PID filter 55 distributes the input main clip to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 55 supplies the video stream to the PID filter 60 for supplying either the 1st video decoder 72-1 or the 2nd video decoder 72-2, and the presentation graphics stream to the presentation graphics decoder 73. The interactive graphics stream is supplied to the switch 57 serving as the supply source, the interactive stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2. It supplies to the switch 59 used as a supply source.

プレゼンテーショングラフィックスストリームは、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、例えば、テキスト字幕データである。   The presentation graphics stream is, for example, bitmap subtitle data, and the text subtitle data is, for example, text subtitle data.

サブClip用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClipをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、供給されたビデオストリームを1stビデオデコーダ72−1または2ndビデオデコーダ72−2のいずれかに供給するためのPIDフィルタ60へ供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   The stream data read from the buffer 53 serving as a sub-clip read buffer is output to the subsequent PID (packet ID) filter 56 at a predetermined timing. The PID filter 56 distributes the input sub clip to the decoder of each elementary stream in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 56 supplies the supplied video stream to the PID filter 60 for supplying either the 1st video decoder 72-1 or the 2nd video decoder 72-2, and the presentation graphics stream is supplied to the presentation graphics decoder. 73, the interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio streams are supplied to the first audio decoder 75-1 and the second audio decoder 75-. 2 is supplied to the switch 59 which is a supply source to the power source 2.

バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。   Data read from the buffer 51 that buffers background image data is supplied to the background decoder 71 at a predetermined timing. The background decoder 71 decodes the background image data and supplies the decoded background image data to the background plane generation unit 91.

スイッチ57は、PIDフィルタ55から供給されたメインClipに含まれるプレゼンテーショングラフィックスストリームと、サブClip に含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。   The switch 57 selects one of the presentation graphics stream included in the main clip supplied from the PID filter 55 and the presentation graphics stream included in the sub clip, and selects the selected presentation graphics stream. This is supplied to the presentation graphics decoder 73 in the subsequent stage. The presentation graphics decoder 73 decodes the presentation graphics stream, and supplies the decoded presentation graphics stream data to the switch 77 serving as a supply source to the presentation graphics plane generation unit 93.

また、スイッチ58は、PIDフィルタ55から供給されたメインClipに含まれるインタラクティブグラフィックスストリームと、サブClipに含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。すなわち、インタラクティブグラフィックスデコーダ74へ同時に入力されるインタラクティブグラフィックスストリームは、メインClipまたはサブClipのどちらかから分離されたストリームである。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、インタラクティブグラフィックスプレーン生成部94に供給する。   The switch 58 selects one of the interactive graphics stream included in the main clip supplied from the PID filter 55 and the interactive graphics stream included in the sub clip, and selects the selected interactive graphics stream. Is supplied to the interactive graphics stream decoder 74 in the subsequent stage. That is, the interactive graphics stream that is simultaneously input to the interactive graphics decoder 74 is a stream separated from either the main clip or the sub clip. The interactive graphics decoder 74 decodes the interactive graphics stream and supplies the decoded interactive graphics stream data to the interactive graphics plane generating unit 94.

さらに、スイッチ59は、PIDフィルタ55から供給されたメインClipに含まれるオーディオストリームと、サブClip に含まれるオーディオストリームのうちのいずれか1つを選択し、選択したオーディオストリームを、後段の1stオーディオデコーダ75−1または、2ndオーディオデコーダ75−2に供給する。ここで、1stオーディオデコーダ75−1へ同時に入力されるオーディオストリームは、メインClipまたはサブClipのどちらかから分離されたストリームである。また、同様に、2ndオーディオデコーダ75−2へ同時に入力されるオーディオストリームも、メインClipまたはサブClipのどちらかから分離されたストリームである。例えば、メインClipにオーディオストリーム#1とオーディオストリーム#2とが含まれていた場合、PIDフィルタ55は、オーディオストリームのPIDに基づいて、オーディオストリーム#1とオーディオストリーム#2とをフィルタリングし、スイッチ59に供給する。   Further, the switch 59 selects one of the audio stream included in the main clip supplied from the PID filter 55 and the audio stream included in the sub clip, and selects the selected audio stream as the 1st audio in the subsequent stage. The data is supplied to the decoder 75-1 or the second audio decoder 75-2. Here, the audio stream simultaneously input to the 1st audio decoder 75-1 is a stream separated from either the main clip or the sub clip. Similarly, the audio stream input to the 2nd audio decoder 75-2 at the same time is a stream separated from either the main clip or the sub clip. For example, when the audio stream # 1 and the audio stream # 2 are included in the main clip, the PID filter 55 filters the audio stream # 1 and the audio stream # 2 based on the PID of the audio stream, and switches 59.

スイッチ59は、例えば、PIDフィルタ55から供給されたオーディオストリーム#1を、1stオーディオデコーダ75−1に供給するようスイッチを選択し、PIDフィルタ55から供給されたオーディオストリーム#2を、2ndオーディオデコーダ75−2に供給するようスイッチを選択する。   For example, the switch 59 selects the switch so that the audio stream # 1 supplied from the PID filter 55 is supplied to the 1st audio decoder 75-1, and the audio stream # 2 supplied from the PID filter 55 is changed to the 2nd audio decoder. Select the switch to supply to 75-2.

PIDフィルタ60は、PIDフィルタ55から供給されたメインClipに含まれていたビデオストリーム、または、PIDフィルタ56から供給されたサブClipに含まれていたビデオストリームの入力を受け、コントローラ34の制御に基づいて、プライマリビデオストリームであるか、セカンダリビデオストリームであるかを判別し、プライマリビデオストリームを1stビデオデコーダ72−1に供給し、セカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。   The PID filter 60 receives an input of the video stream included in the main clip supplied from the PID filter 55 or the video stream included in the sub clip supplied from the PID filter 56, and controls the controller 34. Based on this, it is determined whether the video stream is a primary video stream or a secondary video stream, the primary video stream is supplied to the 1st video decoder 72-1, and the secondary video stream is supplied to the 2nd video decoder 72-2.

PIDフィルタ60により振り分けられたビデオストリームは、後段の1stビデオデコーダ72−1または2ndビデオデコーダ72−2に供給される。1stビデオデコーダ72−1または2ndビデオデコーダ72−2は、供給されたビデオストリームをデコードし、デコードしたビデオデータをビデオプレーン生成部92へ出力する。   The video stream distributed by the PID filter 60 is supplied to the 1st video decoder 72-1 or 2nd video decoder 72-2 at the subsequent stage. The 1st video decoder 72-1 or the 2nd video decoder 72-2 decodes the supplied video stream and outputs the decoded video data to the video plane generation unit 92.

ビデオプレーン生成部92は、1stビデオデコーダ72−1および2ndビデオデコーダ72−2からビデオデータが供給された場合、pip_metadataを参照したコントローラ34の制御に基づいて、供給されたビデオデータを合成して、図5を用いて説明したような、主表示画面1および副表示画面2により構成されるビデオプレーンを生成し、これをビデオデータ処理部96に供給する。また、ビデオプレーン生成部92は、1stビデオデコーダ72−1のみからビデオデータが供給された場合、供給されたビデオデータを用いてビデオプレーンを生成し、これをビデオデータ処理部96に供給する。なお、2つのビデオデータを合成することは、例えば、ミキシングする、重畳するとも称される。   When the video data is supplied from the 1st video decoder 72-1 and the 2nd video decoder 72-2, the video plane generation unit 92 combines the supplied video data based on the control of the controller 34 referring to pip_metadata. As described with reference to FIG. 5, a video plane constituted by the main display screen 1 and the sub display screen 2 is generated and supplied to the video data processing unit 96. In addition, when video data is supplied only from the 1st video decoder 72-1, the video plane generating unit 92 generates a video plane using the supplied video data, and supplies this to the video data processing unit 96. Note that combining two video data is also referred to as mixing or superimposing, for example.

1stオーディオデコーダ75−1は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。また、2ndオーディオデコーダ75−2は、オーディオストリームをデコードし、デコードしたオーディオストリームのデータをミキシング処理部101に供給する。   The 1st audio decoder 75-1 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101. The 2nd audio decoder 75-2 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101.

ここで、オーディオストリーム#1とオーディオストリーム#2とを重畳して再生するような場合(ユーザにより再生するオーディオストリームとして、2つのオーディオストリームが選択された場合)、1stオーディオデコーダ75−1によりデコードされたオーディオストリーム#1と、2ndオーディオデコーダ75−2によりデコードされたオーディオストリーム#2とが、ミキシング処理部101に供給される。   Here, when audio stream # 1 and audio stream # 2 are superimposed and reproduced (when two audio streams are selected as audio streams to be reproduced by the user), decoding is performed by 1st audio decoder 75-1. The audio stream # 1 and the audio stream # 2 decoded by the 2nd audio decoder 75-2 are supplied to the mixing processing unit 101.

ミキシング処理部101は、1stオーディオデコーダ75−1からのオーディオデータと、2ndオーディオデコーダ75−2からのオーディオデータとをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオデータと2ndオーディオデコーダ75−2から出力されるオーディオデータとをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。   The mixing processing unit 101 mixes (superimposes) the audio data from the 1st audio decoder 75-1 and the audio data from the 2nd audio decoder 75-2, and outputs the mixed data to the subsequent mixing processing unit 97. In the present embodiment, mixing (superimposing) the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2 is also referred to as synthesis. In other words, synthesis means to mix two audio data.

また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、この場合、メニュー選択などによる効果音のデータである。ミキシング処理部97は、ミキシング処理部101によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオデータと2ndオーディオデコーダ75−2から出力されたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、音声信号として出力する。   The sound data selected by the switch 32 is supplied to the buffer 95 and buffered. The buffer 95 supplies the sound data to the mixing processing unit 97 at a predetermined timing. In this case, the sound data is sound effect data by menu selection or the like. The mixing processing unit 97 is the audio data mixed by the mixing processing unit 101 (audio data obtained by mixing the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2). The sound data supplied from the buffer 95 is mixed (superimposed or synthesized) and output as an audio signal.

テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。   The data read from the buffer 54 that is a text subtitle read buffer is output to the text subtitle composition (decoder) 76 at the subsequent stage at a predetermined timing. The text subtitle composition 76 decodes the Text-ST data and supplies it to the switch 77.

スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClipまたはサブClipのいずれかから分離されたストリームである(スイッチ57により選択される)。したがって、プレゼンテーショングラフィックスプレーン93へ同時に出力される字幕画像は、メインClipからのプレゼンテーショングラフィックスストリーム、またはサブClipからのからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。   The switch 77 selects either the presentation graphics stream decoded by the presentation graphics decoder 73 or Text-ST (text subtitle data), and supplies the selected data to the presentation graphics plane generating unit 93. . That is, the subtitle image simultaneously supplied to the presentation graphics plane 93 is an output of either the presentation graphics decoder 73 or the text subtitle (Text-ST) composition 76. The presentation graphics stream that is simultaneously input to the presentation graphics decoder 73 is a stream separated from either the main clip or the sub clip (selected by the switch 57). Therefore, the subtitle image that is simultaneously output to the presentation graphics plane 93 is a decoding output of the presentation graphics stream from the main clip, the presentation graphics stream from the sub clip, or the text subtitle data.

バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。   Based on the background image data supplied from the background decoder 71, for example, the background plane generation unit 91 generates a background plane that becomes a wallpaper image when the video image is displayed in a reduced size, and this is converted into the video data. This is supplied to the processing unit 96.

プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。   The presentation graphics plane generation unit 93 generates, for example, a presentation graphics plane which is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the switch 77 and supplied, and this is converted into a video. The data is supplied to the data processor 96. The interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74, and supplies this to the video data processing unit 96.

ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、ビデオプレーン生成部92からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。また、ミキシング処理部97は、ミキシング処理部101からのオーディオデータ(1stオーディオデコーダ75−1によりデコードされたオーディオデータと2ndオーディオデコーダ75−2によりデコードされたオーディオデータとがミキシングされたオーディオデータ)と、バッファ95からのサウンドデータをミキシング(合成または重畳)し、音声信号として出力する。   The video data processing unit 96 includes a background plane from the background plane generation unit 91, a video plane from the video plane generation unit 92, a presentation graphics plane from the presentation graphics plane generation unit 93, and an interactive graphics plane generation unit. The interactive graphics plane from 94 is synthesized and output as a video signal. Also, the mixing processing unit 97 is the audio data from the mixing processing unit 101 (audio data obtained by mixing the audio data decoded by the 1st audio decoder 75-1 and the audio data decoded by the 2nd audio decoder 75-2). The sound data from the buffer 95 is mixed (synthesized or superimposed) and output as an audio signal.

これらのスイッチ57乃至59、並びにスイッチ77は、ユーザインターフェースを介するユーザからの選択、または、対象となるデータが含まれるファイル側に基づいて、スイッチを切り替える。例えば、サブClip AVストリームファイルのみにしか、オーディオストリームが含まれていない場合、スイッチ59はサブ側にスイッチを切り替える。   The switches 57 to 59 and the switch 77 are switched based on selection from the user via the user interface or the file side including the target data. For example, when the audio stream is included only in the sub clip AV stream file, the switch 59 switches the switch to the sub side.

次に、図35の再生装置20における再生処理を、図36のフローチャートを参照して説明する。なお、この処理は、ユーザによりユーザインターフェースを介して、所定のAVストリームの再生が指令されたとき開始される。   Next, playback processing in the playback apparatus 20 of FIG. 35 will be described with reference to the flowchart of FIG. Note that this process is started when a reproduction of a predetermined AV stream is instructed by the user via the user interface.

ステップS1において、コントローラ34は、ストレージドライブ31を介して、記録媒体や図示せぬHDD(Hard Disk Drive)に記録されているPlayListファイルを読み出す。例えば、図7を用いて説明したPlayListファイル(×××××.mpls)が読み出される。   In step S <b> 1, the controller 34 reads out a PlayList file recorded on a recording medium or an HDD (Hard Disk Drive) (not shown) via the storage drive 31. For example, the PlayList file (xxxxxx.mpls) described with reference to FIG. 7 is read.

ステップS2において、コントローラ34は、読み出したPlayListファイルを基に、再生するストリームにセカンダリビデオが存在するか否かを判断する。   In step S2, the controller 34 determines whether or not secondary video exists in the stream to be played based on the read PlayList file.

具体的には、コントローラ34は、読み出したPlayListファイルの中のPlayItemの中の、例えば、図33および図34を用いて説明したSTN_table()のセカンダリビデオループ(video_stream_id2のforループ)を実行することにより、再生するストリームにセカンダリビデオが存在するか否かを判断する。   Specifically, the controller 34 executes the secondary video loop (for loop of video_stream_id2) of STN_table () described with reference to FIGS. 33 and 34 in the PlayItems in the read PlayList file, for example. Thus, it is determined whether or not the secondary video exists in the stream to be reproduced.

ステップS2において、セカンダリビデオが存在しないと判断された場合、ステップS3において、図37乃至図39を用いて後述するプライマリビデオ再生処理が実行される。   If it is determined in step S2 that there is no secondary video, in step S3, a primary video playback process described later with reference to FIGS. 37 to 39 is executed.

ステップS4において、コントローラ34は、読み出されたPlayListファイルに対応するストリームの再生は終了であるか否かを判断する。ステップS4において、ストリームの再生は終了ではないと判断された場合、処理は、ステップS3に戻り、それ以降の処理が繰り返され、ストリームの再生は終了であると判断された場合、処理が終了される。   In step S4, the controller 34 determines whether or not the reproduction of the stream corresponding to the read PlayList file has been completed. If it is determined in step S4 that the reproduction of the stream is not finished, the process returns to step S3, and the subsequent processes are repeated. If it is determined that the reproduction of the stream is finished, the process is finished. The

ステップS2において、セカンダリビデオが存在すると判断された場合、ステップS5において、コントローラ34は、pip_metadataを読み出す。なお、上記の通りセカンダリビデオが含まれることを確認してから、PlayItemに関連するpip_metadataだけをメモリに保持するようにしても良いし、また、図7乃至図9で説明したようにpip_metadataは、Playlistの一部であるため、ステップS1のPlayListファイル読み出し時にpip_metadataも同時に読み出すようにしても良い。   If it is determined in step S2 that a secondary video exists, the controller 34 reads pip_metadata in step S5. In addition, after confirming that secondary video is included as described above, only pip_metadata related to PlayItem may be stored in the memory, or pip_metadata as described with reference to FIGS. Since it is a part of Playlist, pip_metadata may be read simultaneously when reading the PlayList file in step S1.

具体的には、コントローラ34は、例えば、現在のPlayItem_idおよびSTN_table()により判別されるsecondary_video_stream_idに基づいて、対象となるpip_metadataを特定し、PlayListファイルから特定したpip_metadataを読み出す。   Specifically, for example, the controller 34 identifies the target pip_metadata based on the secondary_video_stream_id determined by the current PlayItem_id and STN_table (), and reads the identified pip_metadata from the PlayList file.

ステップS6において、コントローラ34は、読み出したpip_metadataの記載を基に、セカンダリストリームは、プライマリストリームに同期している(すなわち、メインパスのPlayItemの時間軸に同期している)か否かを判断する。   In step S6, the controller 34 determines whether the secondary stream is synchronized with the primary stream (that is, synchronized with the time axis of the PlayItem of the main path) based on the read description of pip_metadata. .

具体的には、例えば、pip_metadataのデータ構造が、図9を用いて説明したものであった場合、コントローラ34は、図10を用いて説明したpip_metadata_typeの値を基に、セカンダリストリームは、プライマリストリームに同期しているか否かを判断し、pip_metadataのデータ構造が、図11を用いて説明したものであった場合、コントローラ34は、Synchronous_PIP_metadata_flagを参照し、セカンダリストリームは、プライマリストリームに同期しているか否かを判断することができる。   Specifically, for example, when the data structure of pip_metadata is the one described with reference to FIG. 9, the controller 34 determines that the secondary stream is the primary stream based on the value of pip_metadata_type described with reference to FIG. If the data structure of pip_metadata is the one described with reference to FIG. 11, the controller 34 refers to Synchronous_PIP_metadata_flag, and is the secondary stream synchronized with the primary stream? It can be determined whether or not.

また、例えば、pip_metadataのデータ構造が、図12を用いて説明したものであった場合、コントローラ34は、Subpath_typeによって、セカンダリストリームは、プライマリストリームと同期しているか否かを判断することができる。   For example, when the data structure of pip_metadata is the one described with reference to FIG. 12, the controller 34 can determine whether the secondary stream is synchronized with the primary stream based on the Subpath_type.

なお、pip_metadataのデータ構造が、図9または図11を用いて説明したものであった場合、セカンダリストリームがプライマリストリームに同期しているか否かは、pip_metadata以外にも、図12のpip_metadataのデータ構造と同様に、Subpath_typeによって判断することもできる。すなわち、コントローラ34は、Subpath_typeにより、セカンダリストリームがプライマリストリームに同期しているか否かを判断することができる。   If the data structure of pip_metadata is the one described with reference to FIG. 9 or FIG. 11, whether or not the secondary stream is synchronized with the primary stream is not limited to pip_metadata but the data structure of pip_metadata in FIG. As with, it can also be determined by Subpath_type. That is, the controller 34 can determine whether or not the secondary stream is synchronized with the primary stream based on the Subpath_type.

ステップS6において、セカンダリストリームは、プライマリストリームに同期していると判断された場合、ステップS7に進み、コントローラ34は、図17を参照して説明したように、プライマリストリームの表示時刻が、セカンダリストリームの再生区間の先頭を示すSubPlayItem_IN_timeとなっているか否かを判断する。   If it is determined in step S6 that the secondary stream is synchronized with the primary stream, the process proceeds to step S7, and the controller 34 determines that the display time of the primary stream is the secondary stream as described with reference to FIG. It is determined whether or not SubPlayItem_IN_time indicating the head of the playback section is reached.

ステップS7において、プライマリストリームの表示時刻が、SubPlayItem_IN_timeでないと判断された場合、ステップS8において、図37乃至図39を用いて後述するプライマリビデオ再生処理が実行される。   If it is determined in step S7 that the display time of the primary stream is not SubPlayItem_IN_time, in step S8, a primary video playback process described later with reference to FIGS. 37 to 39 is executed.

一方、ステップS7において、プライマリストリームの表示時刻が、SubPlayItem_IN_timeであると判断された場合、ステップS9において、図40乃至図42を用いて後述するプライマリおよびセカンダリビデオ再生処理が実行される。   On the other hand, when it is determined in step S7 that the display time of the primary stream is SubPlayItem_IN_time, primary and secondary video playback processing, which will be described later with reference to FIGS. 40 to 42, is executed in step S9.

ステップS10において、コントローラ34は、プライマリストリームの表示時刻が、セカンダリストリームの再生区間の終了を示すSubPlayItem_OUT_timeであるか否かを判断する。ステップS10において、SubPlayItem_OUT_timeでないと判断された場合、ステップS9に戻り、それ以降の処理が繰り返され、SubPlayItem_OUT_timeであると判断された場合、ステップS11において、コントローラ34は、読み出されたPlayListファイルに対応するストリームの再生は終了であるか否かを判断する。   In step S10, the controller 34 determines whether or not the display time of the primary stream is SubPlayItem_OUT_time indicating the end of the playback section of the secondary stream. If it is determined in step S10 that it is not SubPlayItem_OUT_time, the process returns to step S9, and the subsequent processing is repeated. If it is determined that it is SubPlayItem_OUT_time, in step S11, the controller 34 corresponds to the read PlayList file. It is determined whether or not the reproduction of the stream to be completed is complete.

ステップS11において、ストリームの再生は終了ではないと判断された場合、処理は、ステップS7に戻り、それ以降の処理が繰り返され、ストリームの再生は終了であると判断された場合、処理が終了される。   If it is determined in step S11 that the reproduction of the stream is not complete, the process returns to step S7, and the subsequent processes are repeated. If it is determined that the reproduction of the stream is complete, the process is terminated. The

一方、ステップS6において、セカンダリストリームは、プライマリストリームに同期していない(すなわち、サブパスのSubPlayItemの時間軸に同期している)と判断された場合、ユーザからセカンダリビデオストリームの表示が指示されるまで、プライマリビデオストリームのみが表示されるので、ステップS12において、図37乃至図39を用いて後述するプライマリビデオ再生処理が実行される。   On the other hand, when it is determined in step S6 that the secondary stream is not synchronized with the primary stream (that is, synchronized with the time axis of the SubPlayItem of the sub path), until the user gives an instruction to display the secondary video stream Since only the primary video stream is displayed, in step S12, a primary video playback process described later with reference to FIGS. 37 to 39 is executed.

ステップS13において、コントローラ34は、ユーザから、セカンダリビデオストリームの表示の指示を受けたか否かを判断する。   In step S13, the controller 34 determines whether or not an instruction to display a secondary video stream has been received from the user.

ステップS13において、セカンダリストリームの表示の指示を受けていないと判断された場合、ステップS14において、コントローラ34は、読み出されたPlayListファイルに対応するストリームの再生は終了であるか否かを判断する。ステップS14において、ストリームの再生は終了ではないと判断された場合、処理は、ステップS12に戻り、それ以降の処理が繰り返され、ストリームの再生は終了であると判断された場合、処理が終了される。   If it is determined in step S13 that the secondary stream display instruction has not been received, in step S14, the controller 34 determines whether or not the reproduction of the stream corresponding to the read PlayList file has ended. . If it is determined in step S14 that the reproduction of the stream is not completed, the process returns to step S12, and the subsequent processes are repeated. If it is determined that the reproduction of the stream is completed, the process is terminated. The

一方、ステップS13において、セカンダリビデオストリームの表示の指示を受けたと判断された場合、ステップS15において、図40乃至図42を用いて後述するプライマリおよびセカンダリビデオ再生処理が実行される。   On the other hand, when it is determined in step S13 that an instruction to display a secondary video stream has been received, in step S15, primary and secondary video playback processing described later with reference to FIGS. 40 to 42 is executed.

ステップS16において、コントローラ34は、ユーザから、セカンダリビデオストリームの表示終了の指令を受けたか否かを判断する。ステップS16において、セカンダリストリームの表示終了の指令を受けたと判断された場合、処理は、ステップS12に戻り、それ以降の処理が繰り返される。   In step S <b> 16, the controller 34 determines whether a secondary video stream display end command has been received from the user. If it is determined in step S16 that a secondary stream display end command has been received, the process returns to step S12, and the subsequent processes are repeated.

ステップS16において、セカンダリビデオストリームの表示終了の指令を受けていないと判断された場合、ステップS17において、コントローラ34は、読み出されたPlayListファイルに対応するストリームの再生は終了であるか否かを判断する。ステップS17において、ストリームの再生は終了ではないと判断された場合、処理は、ステップS15に戻り、それ以降の処理が繰り返され、ストリームの再生は終了であると判断された場合、処理が終了される。   If it is determined in step S16 that the secondary video stream display end instruction has not been received, in step S17, the controller 34 determines whether or not the reproduction of the stream corresponding to the read PlayList file has ended. to decide. If it is determined in step S17 that the reproduction of the stream is not complete, the process returns to step S15, and the subsequent processes are repeated. If it is determined that the reproduction of the stream is complete, the process is terminated. The

このような処理により、読み出されたPlayListファイルに対応するストリームの再生において、セカンダリストリームが存在するか否か、存在する場合は、プライマリストリーム(メインパス)に同期しているか否かを基に、セカンダリストリームをプライマリストリームに重畳させて常に表示させるか否かが決まり、プライマリストリーム(メインパス)に同期していない場合は、ユーザからセカンダリストリームの表示が指令されたか、または、セカンダリストリームの表示終了が指令されたかに基づいて、セカンダリストリームをプライマリストリームに重畳させるか否かが決まる。   Through such processing, in the playback of the stream corresponding to the read PlayList file, whether or not the secondary stream exists, and if so, based on whether or not it is synchronized with the primary stream (main path) If the secondary stream is superimposed on the primary stream and always displayed, it is not synchronized with the primary stream (main path). If the secondary stream display is instructed by the user or the secondary stream display Whether or not to superimpose the secondary stream on the primary stream is determined based on whether or not the termination is instructed.

次に、図37乃至図39のフローチャートを参照して、図36のステップS3、ステップS8、またはステップS12において実行される、プライマリビデオ再生処理について説明する。   Next, the primary video playback process executed in step S3, step S8, or step S12 of FIG. 36 will be described with reference to the flowcharts of FIGS.

ステップS41において、コントローラ34は、メインClip、サブClip、およびテキストサブタイトルデータ(Text-STデータ)を読み出す。具体的には、コントローラ34は、図18を用いて説明したPlayListに含まれる、図22を用いて説明したPlayItemに基づいて、メインClipを読み出す。また、コントローラ34は、PlayListに含まれるSubPathで参照される、図21を用いて説明したSubPlayItemに基づいて、サブClipと、テキストサブタイトルデータを読み出す。   In step S41, the controller 34 reads out the main clip, the sub clip, and the text subtitle data (Text-ST data). Specifically, the controller 34 reads out the main clip based on the PlayItem described with reference to FIG. 22 included in the PlayList described with reference to FIG. In addition, the controller 34 reads out the sub clip and the text subtitle data based on the SubPlayItem described with reference to FIG. 21 that is referred to by the SubPath included in the PlayList.

ステップS42において、コントローラ34は、読み出したデータ(メインClip、サブClip、およびテキストサブタイトルデータ)を対応するバッファ51乃至54に供給するようスイッチ32を制御する。具体的には、コントローラ34は、バックグラウンドイメージデータをバッファ51に供給し、メインClipのデータをバッファ52に供給し、サブClipのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。   In step S42, the controller 34 controls the switch 32 so as to supply the read data (main clip, sub clip, and text subtitle data) to the corresponding buffers 51 to 54. Specifically, the controller 34 supplies background image data to the buffer 51, supplies main clip data to the buffer 52, supplies sub clip data to the buffer 53, and Text-ST data to the buffer 54. The switch 32 is switched so as to be supplied.

ステップS43において、スイッチ32はコントローラ34からの制御に基づいて、スイッチ32を切り替える。これにより、バックグラウンドイメージデータはバッファ51に供給され、メインClipのデータはバッファ52に供給され、サブClipのデータはバッファ53に供給され、テキストサブタイトルデータはバッファ54に供給される。   In step S <b> 43, the switch 32 switches the switch 32 based on the control from the controller 34. As a result, the background image data is supplied to the buffer 51, the main clip data is supplied to the buffer 52, the sub clip data is supplied to the buffer 53, and the text subtitle data is supplied to the buffer 54.

ステップS44において、各バッファ51乃至54は、供給されたデータをそれぞれバッファリングする。具体的には、バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClipのデータをバッファリングし、バッファ53は、サブClipのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   In step S44, each of the buffers 51 to 54 buffers the supplied data. Specifically, the buffer 51 buffers background image data, the buffer 52 buffers main clip data, the buffer 53 buffers sub-clip data, and the buffer 54 stores Text- Buffer ST data.

ステップS45において、バッファ51は、バックグラウンドイメージデータをバックグラウンドデコーダ71に出力する。   In step S <b> 45, the buffer 51 outputs the background image data to the background decoder 71.

ステップS46において、バッファ52はメインClipのストリームデータをPIDフィルタ55に出力する。   In step S46, the buffer 52 outputs the stream data of the main clip to the PID filter 55.

ステップS47において、PIDフィルタ55は、メインClip AVストリームファイルを構成するTSパケットに付されているPIDに基づいて、各エレメンタリストリームのデコーダへ振り分ける。具体的には、PIDフィルタ55は、ビデオストリームをPIDフィルタ60を介して1stビデオデコーダ72−1に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1への供給元となるスイッチ59に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞれ異なるPIDが付されている。   In step S47, the PID filter 55 distributes to the decoders of the elementary streams based on the PIDs attached to the TS packets constituting the main Clip AV stream file. Specifically, the PID filter 55 supplies the video stream to the 1st video decoder 72-1 through the PID filter 60, and supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73. The interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1. That is, different PIDs are attached to the video stream, presentation graphics stream, interactive graphics stream, and audio stream, respectively.

ステップS48において、バッファ53は、サブClipのストリームデータをPIDフィルタ56に出力する。   In step S <b> 48, the buffer 53 outputs the sub clip stream data to the PID filter 56.

ステップS49において、PIDフィルタ56は、PIDに基づいて、各エレメンタリストリームのデコーダへ振り分ける。具体的には、PIDフィルタ56は、供給されたビデオストリームをPIDフィルタ60を介して1stビデオデコーダ72−1へ供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。   In step S49, the PID filter 56 distributes to the decoder of each elementary stream based on the PID. Specifically, the PID filter 56 supplies the supplied video stream to the 1st video decoder 72-1 through the PID filter 60, and the switch 57 serving as a supply source of the presentation graphics stream to the presentation graphics decoder 73. The interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2. To supply.

ステップS50において、PIDフィルタ55およびPIDフィルタ56の後段のスイッチ57乃至59およびPIDフィルタ60は、ユーザインターフェースを介するコントローラ34からの制御に基づいて、メインClip とサブClipのいずれかを選択する。具体的には、スイッチ57は、PIDフィルタ55から供給されたメインClipまたはサブClipのプレゼンテーショングラフィックスストリームを選択し、後段のプレゼンテーショングラフィックスデコーダ73に供給する。また、スイッチ58は、PIDフィルタ55から供給されたメインClipまたはサブClipのインタラクティブグラフィックスストリームを選択し、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。さらに、スイッチ59は、PIDフィルタ55から供給されたメインClip、または、PIDフィルタ56から供給されたサブClipのオーディオストリーム(ここでは、音声が切り替えられる前であるので、オーディオストリーム#1)を選択し、後段の1stオーディオデコーダ75−1に供給する。なお、音声を切り替えるような指令がユーザにより行われた場合には、スイッチ59は、メインClipのオーディオストリームを2ndオーディオデコーダ75−2に供給したり、サブClipのオーディオストリームを1stオーディオデコーダ75−1や2ndオーディオデコーダ75−2に供給したりもするが、ここでは、音声が切り替えられる前の再生処理について説明しているので、その説明は省略している。   In step S50, the switches 57 to 59 and the PID filter 60 following the PID filter 55 and the PID filter 56 select either the main clip or the sub clip based on the control from the controller 34 via the user interface. Specifically, the switch 57 selects the presentation graphics stream of the main clip or the sub clip supplied from the PID filter 55 and supplies it to the presentation graphics decoder 73 at the subsequent stage. The switch 58 selects the interactive graphics stream of the main clip or the sub clip supplied from the PID filter 55 and supplies the selected interactive graphics stream to the subsequent interactive graphics stream decoder 74. Further, the switch 59 selects the audio stream of the main clip supplied from the PID filter 55 or the sub clip supplied from the PID filter 56 (in this case, the audio stream # 1 before the audio is switched). And supplied to the first audio decoder 75-1. When the user issues a command to switch the audio, the switch 59 supplies the main clip audio stream to the 2nd audio decoder 75-2 or the sub clip audio stream to the 1st audio decoder 75-. Although it may be supplied to the 1st and 2nd audio decoders 75-2, here, since the playback process before the sound is switched is described, the description thereof is omitted.

ステップS51において、バッファ54は、テキストサブタイトルデータをテキストサブタイトルコンポジション76に出力する。   In step S 51, the buffer 54 outputs the text subtitle data to the text subtitle composition 76.

ステップS52において、バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、これをバックグラウンドプレーン生成部91に出力する。   In step S <b> 52, the background decoder 71 decodes the background image data and outputs it to the background plane generation unit 91.

ステップS53において、1stビデオデコーダ72−1は、ビデオストリーム(すなわち、供給されたプライマリビデオストリーム)をデコードし、これをビデオプレーン生成部92に出力する。   In step S <b> 53, the 1st video decoder 72-1 decodes the video stream (that is, the supplied primary video stream), and outputs this to the video plane generating unit 92.

ステップS54において、プレゼンテーショングラフィックスデコーダ73は、スイッチ57により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、これを後段のスイッチ77に出力する。   In step S54, the presentation graphics decoder 73 decodes the presentation graphics stream selected and supplied by the switch 57, and outputs it to the subsequent switch 77.

ステップS55において、インタラクティブグラフィックスデコーダ74は、スイッチ58により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを後段のインタラクティブグラフィックスプレーン生成部94に出力する。   In step S55, the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58, and outputs this to the subsequent interactive graphics plane generating unit 94.

ステップS56において、1stオーディオデコーダ75−1は、スイッチ59により選択され、供給されたオーティオストリーム(オーディオストリーム#1)をデコードし、これを後段のミキシング処理部101に出力する。音声の切り替えがユーザにより指示されていない状態における再生処理では、2ndオーディオデコーダ75−2からオーディオデータが出力されることはないので、ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたオーディオデータを、そのまま後段のミキシング処理部97に供給する。   In step S56, the 1st audio decoder 75-1 decodes the supplied audio stream (audio stream # 1) selected by the switch 59 and outputs it to the mixing processing unit 101 at the subsequent stage. In the reproduction process in a state where the user is not instructed to switch the audio, since the audio data is not output from the 2nd audio decoder 75-2, the mixing processing unit 101 is output from the 1st audio decoder 75-1. The audio data is supplied to the subsequent mixing processing unit 97 as it is.

ステップS57において、Text-STコンポジション76は、テキストサブタイトルデータをデコードし、これを後段のスイッチ77に出力する。   In step S57, the Text-ST composition 76 decodes the text subtitle data and outputs it to the subsequent switch 77.

ステップS58において、スイッチ77は、プレゼンテーショングラフィックスデコーダ73またはText-STコンポジション76からのデータのいずれかを選択する。具体的には、スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれか1つを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。   In step S58, the switch 77 selects either the presentation graphics decoder 73 or the data from the Text-ST composition 76. Specifically, the switch 77 selects any one of the presentation graphics stream decoded by the presentation graphics decoder 73 and Text-ST (text subtitle data), and the selected data is displayed in the presentation graphics sprayer. Supplied to the generator 93.

ステップS59において、バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、バックグラウンドプレーンを生成する。   In step S <b> 59, the background plane generation unit 91 generates a background plane based on the background image data supplied from the background decoder 71.

ステップS60において、ビデオプレーン生成部92は1stビデオデコーダ72−1から供給されたビデオデータに基づいて、ビデオプレーンを生成する。   In step S60, the video plane generating unit 92 generates a video plane based on the video data supplied from the 1st video decoder 72-1.

ステップS61において、プレゼンテーショングラフィックスプレーン生成部93は、ステップS58の処理でスイッチ77により選択され、供給されたプレゼンテーショングラフィックスデコーダ73からのデータまたはText-STコンポジション76からのデータに基づいて、プレゼンテーショングラフィックスプレーンを生成する。   In step S61, the presentation graphics plane generating unit 93 performs presentation based on the data from the presentation graphics decoder 73 or the data from the Text-ST composition 76 selected and supplied by the switch 77 in the process of step S58. Generate a graphics plane.

ステップS62において、インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成する。   In step S <b> 62, the interactive graphics plane generating unit 94 generates an interactive graphics plane based on the interactive graphics stream data supplied from the interactive graphics decoder 74.

ステップS63において、バッファ95は、ステップS43の処理で選択され、供給されたサウンドデータをバッファリングし、所定のタイミングでミキシング処理部97に供給する。   In step S63, the buffer 95 buffers the sound data selected and supplied in the process of step S43, and supplies it to the mixing processing unit 97 at a predetermined timing.

ステップS64において、ビデオデータ処理部96は、各プレーンのデータを合成し、出力する。具体的には、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、およびインタラクティブグラフィックスプレーン生成部94からのデータを合成し、ビデオデータとして出力する。   In step S64, the video data processing unit 96 combines and outputs the data of each plane. Specifically, the data from the background plane generation unit 91, the video plane generation unit 92, the presentation graphics plane generation unit 93, and the interactive graphics plane generation unit 94 are combined and output as video data.

ステップS65において、ミキシング処理部97は、オーディオデータ(ミキシング処理部101から出力されたオーディオデータ)とサウンドデータをミキシング(合成)し、出力して、処理は、図36のステップS3に戻り、ステップS4に進むか、または、図36のステップS8に戻り、ステップS7に進むか、図36のステップS12に戻り、ステップS13に進む。   In step S65, the mixing processing unit 97 mixes (synthesizes) and outputs the audio data (audio data output from the mixing processing unit 101) and sound data, and the process returns to step S3 in FIG. The process proceeds to S4 or returns to Step S8 in FIG. 36 and proceeds to Step S7 or returns to Step S12 in FIG. 36 and proceeds to Step S13.

図37乃至図39を用いて説明した処理により、PlayListに含まれるメインパスとサブパスによりメインClip、サブClip、およびテキストサブタイトルデータが参照され、再生される。ここで、表示される映像は、プライマリビデオストリームの映像のみであり、図5を用いて説明した副表示画面2は表示されない。PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指定するClip AVストリームファイルとは異なるClipを指定可能な構成としたので、メインパスのPlayItemが指すメインClipとは異なるClipであるサブClipのデータとメインClipのデータを一緒に(同じタイミングで)再生することができる。   Through the processing described with reference to FIGS. 37 to 39, the main clip, sub-clip, and text subtitle data are referred to and reproduced by the main path and sub-path included in the PlayList. Here, the video to be displayed is only the video of the primary video stream, and the secondary display screen 2 described with reference to FIG. 5 is not displayed. Since the main path and sub path are provided in the PlayList, and a clip that is different from the clip AV stream file specified by the main path can be specified by the sub path, the clip is different from the main clip indicated by the PlayItem of the main path. The sub clip data and the main clip data can be reproduced together (at the same timing).

なお、図37乃至図39において、ステップS45,ステップS46の処理は、その順番が逆であってもよいし、平行して実行されてもよい。また、ステップS47、ステップS49の処理も、その順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップS52乃至ステップS57の処理も、その順番が逆であってもよいし、平行して実行されてもよい。また、ステップS59乃至ステップS62の処理も、その順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップS64,ステップS65の処理も、その順番が逆であってもよいし、平行して実行されてもよい。すなわち、図35において、縦に同じ階層のバッファ51乃至54の処理、スイッチ57乃至59の処理、デコーダ71乃至76の処理、プレーン生成部91乃至94の処理、ビデオデータ処理部96およびミキシング処理部97の処理は、それぞれ、平行して実行されてもよいし、その順番は問わない。   In FIG. 37 to FIG. 39, the processes in steps S45 and S46 may be performed in reverse order or in parallel. In addition, the processes of step S47 and step S49 may be performed in reverse order or in parallel. Further, the processing of steps S52 to S57 may be performed in reverse order or in parallel. Further, the processing in steps S59 to S62 may be performed in reverse order or in parallel. Furthermore, the processing of step S64 and step S65 may be performed in reverse order or in parallel. That is, in FIG. 35, the processing of buffers 51 to 54 in the same vertical layer, the processing of switches 57 to 59, the processing of decoders 71 to 76, the processing of plane generation units 91 to 94, the video data processing unit 96, and the mixing processing unit The processes 97 may be executed in parallel, and the order thereof is not limited.

次に、図40乃至図42のフローチャートを参照して、図36のステップS9またはステップS15において実行される、プライマリおよびセカンダリビデオ再生処理について説明する。   Next, the primary and secondary video playback processing executed in step S9 or step S15 in FIG. 36 will be described with reference to the flowcharts in FIGS.

ステップS101乃至ステップS106において、図37および図38を用いて説明したステップS41乃至ステップS46と基本的に同様の処理が実行される。   In steps S101 to S106, basically the same processing as that in steps S41 to S46 described with reference to FIGS. 37 and 38 is executed.

すなわち、コントローラ34により、メインClip、サブClip、およびテキストサブタイトルデータ(Text-STデータ)が読み出され、読み出したデータ(メインClip、サブClip、およびテキストサブタイトルデータ)を対応するバッファ51乃至54に供給するようスイッチ32が制御される。スイッチ32により、コントローラ34からの制御に基づいて、バックグラウンドイメージデータはバッファ51に供給され、メインClipのデータはバッファ52に供給され、サブClipのデータはバッファ53に供給され、テキストサブタイトルデータはバッファ54に供給され、バッファ51乃至54にバッファリングされる。バッファ51は、バックグラウンドイメージデータをバックグラウンドデコーダ71に出力する。バッファ52はメインClipのストリームデータをPIDフィルタ55に出力する。   That is, the main clip, sub clip, and text subtitle data (Text-ST data) are read by the controller 34, and the read data (main clip, sub clip, and text subtitle data) are stored in the corresponding buffers 51 to 54. The switch 32 is controlled to supply. Based on the control from the controller 34, the switch 32 supplies the background image data to the buffer 51, the main clip data to the buffer 52, the sub clip data to the buffer 53, and the text subtitle data to The data is supplied to the buffer 54 and buffered in the buffers 51 to 54. The buffer 51 outputs the background image data to the background decoder 71. The buffer 52 outputs the main clip stream data to the PID filter 55.

ステップS107において、PIDフィルタ55は、メインClip AVストリームファイルを構成するTSパケットに付されているPIDに基づいて、各エレメンタリストリームのデコーダへ振り分ける。具体的には、PIDフィルタ55は、ビデオストリームをPIDフィルタ60に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1への供給元となるスイッチ59に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞれ異なるPIDが付されている。PIDフィルタ60は、コントローラ34の制御に基づいて、プライマリビデオストリームを1stビデオデコーダ72−1に供給し、セカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。   In step S107, the PID filter 55 distributes to the decoders of the elementary streams based on the PIDs attached to the TS packets constituting the main Clip AV stream file. Specifically, the PID filter 55 supplies the video stream to the PID filter 60, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and converts the interactive graphics stream to the interactive graphics. The audio stream is supplied to the switch 59 which is a supply source to the decoder 74 and the audio stream is supplied to the switch 59 which is a supply source to the 1st audio decoder 75-1. That is, different PIDs are attached to the video stream, presentation graphics stream, interactive graphics stream, and audio stream, respectively. Based on the control of the controller 34, the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1, and supplies the secondary video stream to the 2nd video decoder 72-2.

ステップS108において、バッファ53は、サブClipのストリームデータをPIDフィルタ56に出力する。   In step S108, the buffer 53 outputs the sub clip stream data to the PID filter 56.

ステップS109において、PIDフィルタ56は、PIDに基づいて、各エレメンタリストリームのデコーダへ振り分ける。具体的には、PIDフィルタ56は、供給されたビデオストリームをPIDフィルタ60へ供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2への供給元となるスイッチ59に供給する。PIDフィルタ60は、コントローラ34の制御に基づいて、プライマリビデオストリームを1stビデオデコーダ72−1に供給し、セカンダリビデオストリームを2ndビデオデコーダ72−2に供給する。   In step S109, the PID filter 56 distributes to the decoder of each elementary stream based on the PID. Specifically, the PID filter 56 supplies the supplied video stream to the PID filter 60, supplies the presentation graphics stream to the switch 57 serving as a supply source to the presentation graphics decoder 73, and the interactive graphics stream is supplied. The video stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1 and the 2nd audio decoder 75-2. Based on the control of the controller 34, the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1, and supplies the secondary video stream to the 2nd video decoder 72-2.

そして、ステップS110乃至ステップS112において、図37および図38を用いて説明したステップS50乃至ステップS52と基本的に同様の処理が実行される。   In steps S110 to S112, basically the same processing as that in steps S50 to S52 described with reference to FIGS. 37 and 38 is executed.

すなわち、スイッチ57乃至59およびPIDフィルタ60は、コントローラ34からの制御に基づいて、メインClip とサブClipのいずれかを選択する。バッファ54は、テキストサブタイトルデータをテキストサブタイトルコンポジション76に出力する。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、これをバックグラウンドプレーン生成部91に出力する。   That is, the switches 57 to 59 and the PID filter 60 select either the main clip or the sub clip based on the control from the controller 34. The buffer 54 outputs the text subtitle data to the text subtitle composition 76. The background decoder 71 decodes the background image data and outputs it to the background plane generation unit 91.

そして、ステップS113において、1stビデオデコーダ72−1は、供給されたプライマリビデオストリームをデコードし、これをビデオプレーン生成部92に出力する。   In step S <b> 113, the 1st video decoder 72-1 decodes the supplied primary video stream and outputs it to the video plane generating unit 92.

ステップS114において、2ndビデオデコーダ72−2は、供給されたセカンダリビデオストリームをデコードし、これをビデオプレーン生成部92に出力する。   In step S <b> 114, the 2nd video decoder 72-2 decodes the supplied secondary video stream and outputs this to the video plane generating unit 92.

ステップS115において、プレゼンテーショングラフィックスデコーダ73は、スイッチ57により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、これを後段のスイッチ77に出力する。   In step S115, the presentation graphics decoder 73 decodes the presentation graphics stream selected and supplied by the switch 57, and outputs this to the subsequent switch 77.

ステップS116において、インタラクティブグラフィックスデコーダ74は、スイッチ58により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを後段のインタラクティブグラフィックスプレーン生成部94に出力する。   In step S116, the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58, and outputs this to the subsequent interactive graphics plane generating unit 94.

ステップS117において、1stオーディオデコーダ75−1は、スイッチ59により選択され、供給されたプライマリオーティオストリームをデコードし、これを後段のミキシング処理部101に出力する。   In step S117, the 1st audio decoder 75-1 decodes the supplied primary audio stream selected by the switch 59 and outputs it to the mixing processing unit 101 at the subsequent stage.

ステップS118において、2ndオーディオデコーダ75−2は、スイッチ59により選択され、供給されたセカンダリオーティオストリームをデコードし、これを後段のミキシング処理部101に出力する。   In step S118, the 2nd audio decoder 75-2 decodes the secondary audio stream selected and supplied by the switch 59, and outputs the decoded secondary audio stream to the subsequent mixing processing unit 101.

ステップS119において、Text-STコンポジション76は、プライマリまたはセカンダリのうち、表示されるテキストサブタイトルデータをデコードし、これを後段のスイッチ77に出力する。   In step S119, the Text-ST composition 76 decodes the displayed text subtitle data of primary or secondary, and outputs this to the switch 77 at the subsequent stage.

ステップS120において、スイッチ77は、プレゼンテーショングラフィックスデコーダ73またはText-STコンポジション76からのデータのいずれかを選択する。具体的には、スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれか1つを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。   In step S120, the switch 77 selects either the presentation graphics decoder 73 or the data from the Text-ST composition 76. Specifically, the switch 77 selects any one of the presentation graphics stream decoded by the presentation graphics decoder 73 and Text-ST (text subtitle data), and the selected data is displayed in the presentation graphics sprayer. Supplied to the generator 93.

ステップS121において、バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、バックグラウンドプレーンを生成する。   In step S <b> 121, the background plane generation unit 91 generates a background plane based on the background image data supplied from the background decoder 71.

ステップS122において、ビデオプレーン生成部92は、pip_metadataを参照したコントローラ34の制御に基づいて、1stビデオデコーダ72−1および2ndビデオデコーダ72−2から供給されたビデオデータを合成して、図5を用いて説明したような、主表示画面1および副表示画面2により構成されるビデオプレーンを生成し、これをビデオデータ処理部96に供給する。   In step S122, the video plane generating unit 92 synthesizes the video data supplied from the 1st video decoder 72-1 and the 2nd video decoder 72-2 based on the control of the controller 34 referring to pip_metadata. A video plane constituted by the main display screen 1 and the sub display screen 2 as described above is generated and supplied to the video data processing unit 96.

具体的には、ビデオプレーン生成部92は、例えば、図9、図11、または図12を用いて説明したpip_metadataを参照したコントローラ34の制御に基づいて、ポジショニング、スケーリングしたセカンダリビデオストリームをプライマリビデオストリームに合成して、図5を用いて説明したような、主表示画面1および副表示画面2により構成されるビデオプレーンを生成し、これをビデオデータ処理部96に供給する。   Specifically, the video plane generating unit 92 converts the secondary video stream positioned and scaled into the primary video based on the control of the controller 34 with reference to pip_metadata described with reference to FIG. 9, FIG. 11, or FIG. A video plane composed of the main display screen 1 and the sub display screen 2 as described with reference to FIG. 5 is generated by combining with the stream, and this is supplied to the video data processing unit 96.

ここで、図43を参照して、ポジショニングとスケーリングの詳細について説明する。   Here, the details of positioning and scaling will be described with reference to FIG.

図9、図11、または図12を用いて説明したpip_metadataに示したように、pip_horizontal_positionは、例えば、図5の主表示画面1上において、セカンダリビデオが表示される副表示画面2の左上隅のX座標を示し、pip_vertical_positionは、例えば、図5の主表示画面1上において、セカンダリビデオが表示される副表示画面2の左上隅のY座標を示す。また、pip_scaleは、セカンダリビデオが表示される副表示画面2の大きさに関する情報を示す。   As shown in pip_metadata described with reference to FIG. 9, FIG. 11, or FIG. 12, pip_horizontal_position is, for example, in the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the main display screen 1 in FIG. For example, pip_vertical_position indicates the Y coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the main display screen 1 of FIG. Pip_scale indicates information related to the size of the sub display screen 2 on which the secondary video is displayed.

すなわち、図43に示すように、Primary Video plane(プライマリビデオプレーン)上において、pip_scaleに基づいて所定の大きさに調節されたスケーリングセカンダリビデオ(Scaled Secondary Video)は、プライマリビデオプレーンの左上隅から、X軸方向にpip_horizontal_position、Y軸方向にpip_vertical_positionとなる位置が、スケーリングセカンダリビデオの左上隅となるように配置されることになる。   That is, as shown in FIG. 43, on the Primary Video plane, the scaled secondary video adjusted to a predetermined size based on pip_scale is from the upper left corner of the primary video plane. A position that is pip_horizontal_position in the X-axis direction and pip_vertical_position in the Y-axis direction is arranged to be the upper left corner of the scaling secondary video.

また、このとき、図12を用いて説明したpip_metadataにおいて、“is_luma_key=1”である場合、ビデオプレーン生成部92は、プライマリビデオストリームとセカンダリビデオストリームとをluma_keying合成して、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。   At this time, in the case of “is_luma_key = 1” in the pip_metadata described with reference to FIG. 12, the video plane generating unit 92 generates a video plane by combining the primary video stream and the secondary video stream by luma_keying. This is supplied to the video data processing unit 96.

ここで、luma_keying合成とは、図12のpip_metadataにより説明したように、明るさ(輝度値)の成分差を利用して不要な部分を切り抜いた画像を、映像に重ねて合成する手法である。次に、図44および図45を参照して、luma_keying合成の詳細について説明する。   Here, the luma_keying composition is a technique in which an image in which an unnecessary part is cut out by using a difference in brightness (luminance value) is superimposed on a video as described with reference to pip_metadata in FIG. Next, the details of the luma_keying composition will be described with reference to FIGS. 44 and 45.

図44は、luma_keying合成前のPrimary Video(プライマリビデオ)とSecondary Video(セカンダリビデオ)を示す図である。   FIG. 44 is a diagram showing Primary Video (secondary video) and Secondary Video (secondary video) before luma_keying composition.

図中右側のプライマリビデオと、左側のセカンダリビデオとをluma_keying合成する場合、図12のpip_metadataを用いて説明したように、lower_limit_luma_keyにより示される輝度値の下限から、upper_limit_luma_keyにより示される輝度値の上限までの範囲に含まれる、セカンダリビデオの輝度値を透明にし、そのセカンダリビデオをプライマリビデオに合成する。   In the case of luma_keying composition of the primary video on the right side and the secondary video on the left side in the figure, as described using pip_metadata in FIG. The luminance value of the secondary video included in the range is made transparent, and the secondary video is synthesized with the primary video.

すなわち、lower_limit_luma_keyとupper_limit_luma_keyで定義された輝度値の下限と上限の範囲が取り除かれたセカンダリビデオがプライマリビデオに重ねて合成される。具体的には、図44で示されるように、左側のセカンダリビデオの平行四辺形と円以外のハッチングされた領域は、輝度値の下限と上限の範囲内の輝度値となるので透明となり、そのように処理された左側のセカンダリビデオが、右側のプライマリビデオに重ねて合成される。   That is, the secondary video from which the lower limit and the upper limit range of the luminance values defined by lower_limit_luma_key and upper_limit_luma_key are removed is combined with the primary video. Specifically, as shown in FIG. 44, the hatched area other than the parallelogram and the circle on the left secondary video becomes transparent because the brightness value is within the lower limit and upper limit range of the brightness value. The left secondary video processed in this way is superimposed on the right primary video and synthesized.

図45は、luma_keying合成後のプライマリビデオとセカンダリビデオを示す図である。   FIG. 45 is a diagram showing the primary video and secondary video after the luma_keying composition.

luma_keying合成後のプライマリビデオとセカンダリビデオは、図45に示すように、セカンダリビデオの平行四辺形と円以外の領域は透明となっているので、セカンダリビデオの領域のうち、平行四辺形と円の領域のみが、プライマリビデオと合成されることになる。   As shown in FIG. 45, the primary video and the secondary video after the luma_keying composition are transparent except for the parallelogram and the circle of the secondary video. Only the region will be combined with the primary video.

なお、図45では、説明を分かり易くするために、セカンダリビデオの領域を点線によって表現しているが、実際には、この点線が表示されることはない。   In FIG. 45, for easy understanding, the secondary video area is represented by a dotted line, but this dotted line is not actually displayed.

図42のフローチャートに戻り、ステップS123において、プレゼンテーショングラフィックスプレーン生成部93は、ステップS58の処理でスイッチ77により選択され、供給されたプレゼンテーショングラフィックスデコーダ73からのデータまたはText-STコンポジション76からのデータに基づいて、プレゼンテーショングラフィックスプレーンを生成する。   Returning to the flowchart of FIG. 42, in step S123, the presentation graphics plane generating unit 93 selects the data from the presentation graphics decoder 73 or the Text-ST composition 76 selected and supplied by the switch 77 in the process of step S58. A presentation graphics plane is generated based on the data.

ステップS124において、インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成する。   In step S124, the interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74.

ステップS125において、バッファ95は、ステップS43の処理で選択され、供給されたサウンドデータをバッファリングし、所定のタイミングでミキシング処理部97に供給する。   In step S125, the buffer 95 buffers the sound data selected and supplied in step S43, and supplies the sound data to the mixing processing unit 97 at a predetermined timing.

ステップS126において、ビデオデータ処理部96は、各プレーンのデータを合成し、出力する。具体的には、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、およびインタラクティブグラフィックスプレーン生成部94からのデータを合成し、ビデオデータとして出力する。   In step S126, the video data processing unit 96 combines and outputs the data of each plane. Specifically, the data from the background plane generation unit 91, the video plane generation unit 92, the presentation graphics plane generation unit 93, and the interactive graphics plane generation unit 94 are combined and output as video data.

ステップS127において、ミキシング処理部101は、1stオーディオデコーダ75−1から出力されたプライマリオーディオデータ、および、2ndオーディオデコーダ75−2から出力されたセカンダリオーディオデータを合成し、ミキシング処理部97に供給する。   In step S127, the mixing processing unit 101 synthesizes the primary audio data output from the 1st audio decoder 75-1 and the secondary audio data output from the 2nd audio decoder 75-2, and supplies the synthesized audio data to the mixing processing unit 97. .

ステップS128において、ミキシング処理部97は、ミキシング処理部101から出力された、合成されたオーディオデータとサウンドデータをミキシング(合成)し、出力して、処理は、図36のステップS9に戻り、ステップS10に進むか、または、図36のステップS15に戻り、ステップS16に進む。   In step S128, the mixing processing unit 97 mixes (synthesizes) and outputs the synthesized audio data and sound data output from the mixing processing unit 101, and the process returns to step S9 in FIG. Proceed to S10 or return to Step S15 in FIG. 36 and proceed to Step S16.

図40乃至図42を用いて説明した処理により、PlayListに含まれるメインパスとサブパスによりメインClip、サブClip、およびテキストサブタイトルデータが参照され、再生される。PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指定するClipAVストリームファイルとは異なるClipを指定可能な構成とし、プライマリビデオストリームの表示画像にセカンダリビデオストリームの表示画像を重畳させることができる。   40 to 42, the main clip, the sub clip, and the text subtitle data are referred to and reproduced by the main path and the sub path included in the PlayList. A main path and a sub path are provided in the PlayList, and a clip different from the Clip AV stream file specified by the main path can be specified by the sub path, and the display image of the secondary video stream is superimposed on the display image of the primary video stream. Can do.

このとき、セカンダリビデオストリームの表示画像の大きさと表示位置を設定することができるようにしたので、副表示画面の表示位置や表示の大きさが再生装置に依存してあらかじめ定められている場合と比較して、コンテンツによって、または、表示されるタイミングによって、プライマリビデオストリームの表示の邪魔とならない位置や大きさでセカンダリビデオストリームを表示させるようにしたり、または、セカンダリビデオストリームの内容に応じて、例えば、重要な内容であれば、目立つ位置に大きく表示させたり、重要でない内容であれば、主表示画面1の端に小さく表示させるようにすることなどが可能である。   At this time, since the size and display position of the display image of the secondary video stream can be set, the display position and display size of the secondary display screen are predetermined depending on the playback device. In comparison, depending on the content or the timing at which it is displayed, the secondary video stream is displayed at a position or size that does not interfere with the display of the primary video stream, or depending on the content of the secondary video stream, For example, it is possible to display an important content in a conspicuous position, or to display a small content on the edge of the main display screen 1 if the content is not important.

また、セカンダリビデオストリームの表示画像の大きさと表示位置は、コンテンツの製作者、または、コンテンツの配給元が、適宜定めることができる。   Further, the size and display position of the display image of the secondary video stream can be appropriately determined by the content producer or the content distributor.

なお、図40乃至図42において、ステップS105,ステップS106の処理は、その順番が逆であってもよいし、平行して実行されてもよい。また、ステップS107、ステップS109の処理も、その順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップS112乃至ステップS119の処理も、その順番が逆であってもよいし、平行して実行されてもよい。また、ステップS121乃至ステップS124の処理も、その順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップS126の処理と、ステップS127およびステップS128の処理も、その順番が逆であってもよいし、平行して実行されてもよい。すなわち、図35において、縦に同じ階層のバッファ51乃至54の処理、スイッチ57乃至59の処理、デコーダ71乃至76の処理、プレーン生成部91乃至94の処理、ビデオデータ処理部96およびミキシング処理部97の処理は、それぞれ、平行して実行されてもよいし、その順番は問わない。   40 to 42, the processes in steps S105 and S106 may be executed in reverse order or in parallel. In addition, the processes in steps S107 and S109 may be performed in reverse order or in parallel. Further, the processing in steps S112 to S119 may be performed in reverse order or in parallel. In addition, the processes in steps S121 to S124 may be performed in reverse order or in parallel. Further, the processing in step S126 and the processing in steps S127 and S128 may be performed in reverse order or in parallel. That is, in FIG. 35, the processing of buffers 51 to 54 in the same vertical layer, the processing of switches 57 to 59, the processing of decoders 71 to 76, the processing of plane generation units 91 to 94, the video data processing unit 96, and the mixing processing unit The processes 97 may be executed in parallel, and the order thereof is not limited.

以上の処理をまとめると、以下のようになる。   The above processing is summarized as follows.

再生装置20は、少なくとも1つのストリームを含むメインClipAVストリームファイルの位置を示す主の再生パスであるメインパスと、メインClipAVストリームファイルとは異なる再生パスで再生されるサブClipAVストリームファイルの再生パスであるサブパスの情報を含んで構成される再生管理情報としてのPlayListを取得する。そして、再生装置20は、PlayListに含まれる再生するストリームを選択するためのSTN_table()に基づいて、再生するストリームの選択を受け付ける。STN_table()は、メインClipAVストリームファイルの所定の種類のストリーム(例えば、プライマリビデオストリーム)と、そのストリームの再生のタイミングに合わせて、または、非同期で再生される他のストリームファイルを選択するための情報であるので、このSTN_table()に基づいて、再生するストリームの選択を受け付けることができる。   The playback device 20 has a main path that is a main playback path indicating the position of a main ClipAV stream file including at least one stream, and a playback path of a sub ClipAV stream file that is played back by a playback path different from the main ClipAV stream file. A PlayList is obtained as playback management information including information on a certain subpath. Then, the playback device 20 accepts selection of a stream to be played based on STN_table () for selecting a stream to be played back included in the PlayList. STN_table () is for selecting a predetermined type of stream of the main ClipAV stream file (for example, a primary video stream) and another stream file that is played back in synchronization with the playback timing of the stream or asynchronously. Since it is information, selection of a stream to be played back can be accepted based on this STN_table ().

また、PlayList Subpath_typeがIn-Muxのものであれば、メインパスとサブパスが同一Clipを参照することができ、さらにサブパスを追加することができるので、ストリームに拡張性を持たせることができる。また、1つのSub Pathで複数のファイルを参照可能な構成としたので(例えば、図4)、複数の異なるストリームの中からユーザが選択することができる。   Further, if the PlayList Subpath_type is In-Mux, the main path and the sub path can refer to the same Clip, and a sub path can be added, so that the stream can be extended. In addition, since a plurality of files can be referred to by one Sub Path (for example, FIG. 4), the user can select from a plurality of different streams.

さらに、Main PathのPlayItemの中に、Main Pathにより参照されるAVストリームファイルに多重化されている(含まれる)付属データ(例えば、オーディオストリーム)と、Sub Pathにより参照される付属データとを定義するテーブルとして、図23、並びに、図33および図34のSTN_table()を設けるようにしたので、より、拡張性の高いストリームを実現することができる。また、STN_table()にエントリーすれば、Sub Pathを容易に拡張することができる。   Further, in the Play item of the Main Path, the attached data (for example, an audio stream) multiplexed (included) in the AV stream file referenced by the Main Path and the attached data referenced by the Sub Path are defined. 23, and STN_table () of FIGS. 33 and 34 are provided as the table to be performed, so that a stream with higher expandability can be realized. In addition, Sub Path can be easily extended by entering STN_table ().

また、STN_table()にストリームの属性情報である図25のstream_attribute()を設けるようにしたので、再生装置20側で、選択されたストリームを再生可能か否かを判定することができる。さらに、stream_attribute()を参照することで、再生機能を有するストリームだけを選択して再生することができる。   In addition, since stream_attribute () of FIG. 25, which is stream attribute information, is provided in STN_table (), the playback apparatus 20 can determine whether or not the selected stream can be played back. Furthermore, by referring to stream_attribute (), it is possible to select and reproduce only a stream having a reproduction function.

さらに、STN_table()(図23、並びに、図33および図34)において、2つの同じ種類のストリームファイル(ここでは、プライマリビデオストリームファイルとセカンダリビデオストリームファイル、または、プライマリオーディオストリームファイルとセカンダリオーディオストリームファイル)を定義するようにした。さらに、図35の再生装置20に2つのビデオデコーダ(1stビデオデコーダ72−1と2ndビデオデコーダ72−2)および2つのオーディオデコーダ(1stオーディオデコーダ75−1と2ndオーディオデコーダ75−2)を設けた。そして、2つのビデオデコーダによりデコードされたプライマリビデオデータとセカンダリビデオデータを合成(ミキシング)するビデオプレーン生成部92を設け、2つのオーディオデコーダによりデコードされたオーディオデータを合成するミキシング処理部101を設けるようにした。これにより、2つの同じ種類のストリームを組み合わせて同時に再生することができる。   Furthermore, in STN_table () (FIG. 23, and FIGS. 33 and 34), two same types of stream files (here, primary video stream file and secondary video stream file, or primary audio stream file and secondary audio stream). File). Furthermore, the playback device 20 of FIG. 35 is provided with two video decoders (1st video decoder 72-1 and 2nd video decoder 72-2) and two audio decoders (1st audio decoder 75-1 and 2nd audio decoder 75-2). It was. A video plane generation unit 92 that combines (mixes) primary video data and secondary video data decoded by two video decoders is provided, and a mixing processing unit 101 that combines audio data decoded by two audio decoders is provided. I did it. As a result, two streams of the same type can be combined and reproduced simultaneously.

すなわち、本発明を適用した再生装置においては、図5に示されるように、プライマリビデオストリームを主画面に表示させ、主画面の中に、セカンダリストリームを子画面として合成して表示させる、いわゆるPinP(ピクチャインピクチャ)表示が可能である。   That is, in the playback apparatus to which the present invention is applied, as shown in FIG. 5, the primary video stream is displayed on the main screen, and the secondary stream is combined and displayed as a child screen in the main screen. (Picture in picture) display is possible.

また、このとき、pip_metadataによって、ピクチャインピクチャ表示におけるセカンダリビデオストリームの表示画像の大きさと表示位置を設定することができるようにした。これにより、副表示画面の表示位置や表示の大きさが再生装置に依存してあらかじめ定められている場合と比較して、コンテンツによって、または、表示されるタイミングによって、プライマリビデオストリームの表示の邪魔とならない位置や大きさでセカンダリビデオストリームを表示させるようにしたり、または、セカンダリビデオストリームの内容に応じて、例えば、重要な内容であれば、目立つ位置に大きく表示させたり、重要でない内容であれば、主表示画面1の端に小さく表示させるようにすることなどが可能である。   At this time, the size and display position of the display image of the secondary video stream in picture-in-picture display can be set by pip_metadata. As a result, compared to the case where the display position and display size of the sub display screen are determined in advance depending on the playback device, the display of the primary video stream is obstructed depending on the content or the display timing. Depending on the content of the secondary video stream, for example, if the content is important, the secondary video stream may be displayed in a conspicuous position, or may not be important. For example, it is possible to display a small size at the end of the main display screen 1.

また、セカンダリビデオストリームの表示画像の大きさと表示位置は、コンテンツの製作者、または、コンテンツの配給元が、適宜定めることができる。   Further, the size and display position of the display image of the secondary video stream can be appropriately determined by the content producer or the content distributor.

また、pip_metadataには、セカンダリビデオストリームの表示画像の大きさと表示位置以外に、このピクチャインピクチャの表示の設定を示す情報を記載することができる。セカンダリビデオストリームが表示される副表示画面2の位置と大きさを示す情報以外に、例えば、セカンダリビデオストリームの原映像に対して表示される映像の回転や色の指定などに関する情報を記載することができる。   In addition to the size and display position of the display image of the secondary video stream, information indicating the setting for displaying this picture-in-picture can be described in pip_metadata. In addition to the information indicating the position and size of the secondary display screen 2 on which the secondary video stream is displayed, for example, information relating to the rotation and color designation of the video displayed with respect to the original video of the secondary video stream is described. Can do.

ここで、セカンダリビデオストリームの表示画像の大きさと表示位置をはじめとする表示に関する情報は、セカンダリビデオストリームには記載されず、セカンダリビデオストリームの再生を制御するためのプレイリストに記載される。すなわち、セカンダリビデオストリームを変更することなく、その表示形式のみを変更したい場合(例えば、セカンダリビデオストリームの表示位置のみを変更したり、表示の大きさを変更したい場合など)、再生装置の設定や、セカンダリビデオストリーム自体に手を加えることなく、プレイリストのpip_metadataの記載のみを更新するようにすればよい。   Here, information about display including the size and display position of the display image of the secondary video stream is not described in the secondary video stream, but is described in a playlist for controlling reproduction of the secondary video stream. That is, when it is desired to change only the display format without changing the secondary video stream (for example, when changing only the display position of the secondary video stream or the display size, etc.) Only the description of pip_metadata in the playlist needs to be updated without modifying the secondary video stream itself.

また、第1のコンテンツと第2のコンテンツにおいて、同一のセカンダリビデオストリームを、異なる表示方法で表示させること(例えば、同一のセカンダリビデオストリームを、第1のコンテンツでは大きく、第2のコンテンツでは小さく表示させることなど)が非常に容易である。すなわち、セカンダリビデオストリーム自体のデータをそれぞれ変更することなく、第1のコンテンツと第2のコンテンツのそれぞれにおいて、プレイリストのpip_metadataに、所望する表示形式を示す情報を記載することにより、第1のコンテンツと第2のコンテンツにおいて、同一のセカンダリビデオストリームを、コンテンツ作成者またはコンテンツ配給元が所望する異なる表示方法で表示させることが可能となる。   Further, in the first content and the second content, the same secondary video stream is displayed by different display methods (for example, the same secondary video stream is large in the first content and small in the second content. It is very easy to display. That is, the information indicating the desired display format is described in the pip_metadata of the playlist in each of the first content and the second content without changing the data of the secondary video stream itself. In the content and the second content, the same secondary video stream can be displayed by different display methods desired by the content creator or the content distributor.

また、セカンダリビデオストリームの表示画像の大きさと表示位置をはじめとする表示に関する情報が、時間情報をはじめとする詳細な再生管理情報を有するプレイリストに記載されるので、セカンダリビデオの表示を詳細に設定することが可能となる。   In addition, since the display information including the size and display position of the display image of the secondary video stream is described in a playlist having detailed reproduction management information including time information, the display of the secondary video is detailed. It becomes possible to set.

また、Sub Pathには、図20に示されるように、Sub Pathのタイプ(オーディオやテキスト字幕といった種類と、メインパスと同期しているか否かを示すタイプ)を示すSubPath_type、Sub Pathが参照するサブClipの名を示す図21のClip_Information_file_name、およびSub Pathが参照するClipのイン点を示す図21のSubPlayItem_IN_timeとアウト点を示す図21のSubPlayItem_OUT_timeを含むようにしたので、Sub Pathが参照するデータを的確に特定することができる。   Further, as shown in FIG. 20, Sub Path refers to SubPath_type and Sub Path indicating the type of Sub Path (type such as audio or text subtitle and type indicating whether or not synchronized with main path). 21 includes the Clip_Information_file_name in FIG. 21 indicating the name of the sub clip, the SubPlayItem_IN_time in FIG. 21 indicating the in point of the clip referred to by the Sub Path, and the SubPlayItem_OUT_time in FIG. 21 indicating the out point. It can be accurately identified.

なお、図35のストレージドライブ31が読み出すデータは、DVD(Digital Versatile Disc)などの記録媒体に記録されているデータであってもよいし、ハードディスクに記録されているデータであってもよいし、図示せぬネットワークを介してダウンロードしたデータであってもよいし、これらが組み合わされたデータでもよい。例えば、ダウンロードされ、ハードディスクに記録されたPlayListおよびサブClipと、DVDに記録されたメインClipAVストリームファイルに基づいて、再生されてもよい。また、例えば、DVDに記録されたClipAVストリームファイルをサブClipとするようなPlayListとメインClipがハードディスクに記録されている場合に、ハードディスクに記録されているPlayListに基づいて、メインClipとサブClipがそれぞれ、ハードディスクとDVDから読み出され再生されてもよい。   Note that the data read by the storage drive 31 in FIG. 35 may be data recorded on a recording medium such as a DVD (Digital Versatile Disc), may be data recorded on a hard disk, Data downloaded via a network (not shown) may be used, or data obtained by combining these may be used. For example, it may be played back based on the PlayList and sub-Clip downloaded and recorded on the hard disk, and the main Clip AV stream file recorded on the DVD. Also, for example, when a PlayList and a main clip that record a clip AV stream file recorded on a DVD as a sub clip are recorded on the hard disk, the main clip and the sub clip are based on the play list recorded on the hard disk. Each may be read from the hard disk and DVD and played back.

なお、セカンダリビデオの位置、大きさなどが再生装置20(プレーヤ)の機能で変更するようにすることもできるが、この場合、オーサが意図した大きさなどにならないときがある。一方、本願発明のように管理情報であるPlaylistで大きさ、位置などを管理すれば、例えばROMディスクの取得後に位置などを変更させたい場合であっても、実際のClipに変更を加えなくても、サイズが比較的小さいプレイリストを取得するだけで、オーサが意図したとおりにセカンダリビデオの位置などを変更することができる。   Note that the position and size of the secondary video can be changed by the function of the playback device 20 (player). However, in this case, the size may not be as intended by the author. On the other hand, if the size, position, etc. are managed in the playlist that is management information as in the present invention, even if it is desired to change the position after obtaining the ROM disk, for example, it is not necessary to change the actual clip. However, it is possible to change the position of the secondary video or the like as intended by the author simply by acquiring a playlist having a relatively small size.

次に、図46および図47を参照して、再生装置20において再生可能なデータが記録された記録媒体21の製造方法について、記録媒体21がディスク状の記録媒体だった場合を例として説明する。   Next, with reference to FIGS. 46 and 47, a method for manufacturing the recording medium 21 on which data that can be reproduced by the reproducing apparatus 20 is recorded will be described by taking the case where the recording medium 21 is a disc-shaped recording medium as an example. .

すなわち、図46に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。   That is, as shown in FIG. 46, a master disc made of, for example, glass is prepared, and a recording material made of, for example, a photoresist is applied thereon. As a result, a recording master is produced.

そして、図47に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置20において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、Playlist、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置20において再生可能な記録媒体21に記録されるソフトウェアが製作される。   Then, as shown in FIG. 47, video data in a format that can be played back by the playback device 20 and encoded by the encoding device (video encoder) is stored in a temporary buffer in the software production processing unit, and is recorded by the audio encoder. The encoded audio data is stored in the temporary buffer, and data other than the stream (for example, Indexes, Playlist, PlayItem, etc.) encoded by the data encoder is further stored in the temporary buffer. Video data, audio data, and data other than the stream stored in each buffer are multiplexed together with a synchronization signal by a multiplexer (MPX), and an error correction code is added by an error correction code circuit (ECC). Is done. Then, predetermined modulation is applied by a modulation circuit (MOD), and software that is once recorded on a magnetic tape or the like according to a predetermined format and recorded on a recording medium 21 that can be played back by the playback device 20 is manufactured.

このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、図46に示すように、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。   This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. Then, as shown in FIG. 46, the laser beam is modulated corresponding to the recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.

その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳などの処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。   Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.

この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。   A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.

このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。   A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.

その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置20によって再生可能なデータが記録された記録媒体21が完成する。   Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 21 on which data reproducible by the reproducing apparatus 20 is recorded is completed.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図48に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図48において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   48, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 507 including a speaker, and a storage configured by a hard disk. A communication unit 509 including a unit 508 and a modem, a terminal adapter, and the like is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is also connected to the input / output interface 505 as necessary, and a removable medium 521 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム格納媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a program storage medium.

このプログラム格納媒体は、図48に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 48, this program storage medium is configured only by a package medium including a removable medium 521 on which a program is recorded, which is distributed to provide the program to the user, separately from the computer. Rather, it is provided with a ROM 502 in which a program is recorded and a hard disk including a storage unit 508 provided to the user in a state of being preinstalled in the apparatus main body.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。It is a figure which shows the example of the application format on the recording medium with which the reproducing | regenerating apparatus to which this invention is applied is mounted | worn. メインパスとサブパスの構造を説明する図である。It is a figure explaining the structure of a main path and a sub path. メインパスとサブパスの例を説明する図である。It is a figure explaining the example of a main path and a sub path. メインパスとサブパスの別の例を説明する図である。It is a figure explaining another example of a main path and a sub path. 主表示画面と副表示画面について説明する図である。It is a figure explaining a main display screen and a sub display screen. 再生可能なデータファイルのファイルシステムの例を示す図である。It is a figure which shows the example of the file system of the data file which can be reproduced | regenerated. PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するPlayListファイルのデータ構造を示す図である。It is a figure which shows the data structure of the PlayList file which has the extension ".mpls" stored in the PLAYLIST directory. PlayListExtensionData()のシンタクスを示す図である。It is a figure which shows the syntax of PlayListExtensionData (). data_blockに記載されるpip_metadataのシンタクスの第1の例を説明する図である。It is a figure explaining the 1st example of the syntax of pip_metadata described in data_block. 図9のpip_metadata_typeの値とその意味を説明する図である。It is a figure explaining the value of pip_metadata_type of FIG. 9, and its meaning. data_blockに記載されるpip_metadataのシンタクスの第2の例を説明する図である。It is a figure explaining the 2nd example of the syntax of pip_metadata described in data_block. data_blockに記載されるpip_metadataのシンタクスの第3の例を説明する図である。It is a figure explaining the 3rd example of the syntax of pip_metadata described in data_block. 図12のpip_scaleの値とその意味を説明する図である。It is a figure explaining the value of pip_scale of FIG. 12, and its meaning. 図12のpip_timeline_typeの値とその意味を説明する図である。It is a figure explaining the value of pip_timeline_type of FIG. 12, and its meaning. 図12のpip_timeline_type =1のときのpip_metadata_time_stampの意味を説明する図である。It is a figure explaining the meaning of pip_metadata_time_stamp when pip_timeline_type = 1 of FIG. 図12のpip_timeline_type =2のときのpip_metadata_time_stampの意味を説明する図である。It is a figure explaining the meaning of pip_metadata_time_stamp when pip_timeline_type = 2 of FIG. 図12のpip_timeline_type =3のときのpip_metadata_time_stampの意味を説明する図である。It is a figure explaining the meaning of pip_metadata_time_stamp when pip_timeline_type = 3 of FIG. PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). SubPath()のシンタクスを示す図である。It is a figure which shows the syntax of SubPath (). SubPath_typeを説明する図である。It is a figure explaining SubPath_type. SubPlayItem(i)のシンタクスを示す図である。It is a figure which shows the syntax of SubPlayItem (i). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). stream_entry()のシンタクスを示す図である。It is a figure which shows the syntax of stream_entry (). stream_attribute()のシンタクスを示す図である。It is a figure which shows the syntax of stream_attribute (). stream_cording_typeを説明する図である。It is a figure explaining stream_cording_type. video_formatを説明する図である。It is a figure explaining video_format. frame_rateを説明する図である。It is a figure explaining frame_rate. aspect_ratioを説明する図である。It is a figure explaining aspect_ratio. audio_presentation_typeを説明する図である。It is a figure explaining audio_presentation_type. sampling_frequencyを説明する図である。It is a figure explaining sampling_frequency. Character codeを説明する図である。It is a figure explaining Character code. STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). 本発明を適用した再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reproducing | regenerating apparatus to which this invention is applied. 図35の再生装置における再生処理を説明するフローチャートである。FIG. 36 is a flowchart for describing playback processing in the playback apparatus of FIG. 35. FIG. プライマリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary video reproduction process. プライマリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary video reproduction process. プライマリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary video reproduction process. プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary and secondary video reproduction process. プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary and secondary video reproduction process. プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。It is a flowchart explaining a primary and secondary video reproduction process. ポジショニングとスケーリングを説明する図である。It is a figure explaining positioning and scaling. luma_keying合成を説明する図である。It is a figure explaining luma_keying composition. luma_keying合成を説明する図である。It is a figure explaining luma_keying composition. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. パーソナルコンピュータの構成を示す図である。It is a figure which shows the structure of a personal computer.

符号の説明Explanation of symbols

1 主表示画面, 2 副表示画面, 20 再生装置, 31 ストレージドライブ, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57乃至59 スイッチ, 71 バックグラウンドデコーダ, 72−1 1stビデオデコーダ, 72−2 2ndビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 ミキシング処理部   1 main display screen, 2 sub display screen, 20 playback device, 31 storage drive, 32 switch, 33 AV decoder unit, 34 controller, 51 to 54 buffer, 55, 56 PID filter, 57 to 59 switch, 71 background decoder, 72-1 1st Video Decoder, 72-2 2nd Video Decoder, 73 Presentation Graphics Decoder, 74 Interactive Graphics Decoder, 75 Audio Decoder, 76 Text-ST Composition, 77 Switch, 91 Background Plane Generation Unit, 92 Video Plane Generating unit, 93 presentation graphics plane generating unit, 94 interactive graphics plane generating unit, 95 buffer 96 bidet Data processing unit, 97 a mixing processing unit, 101 mixing processor

Claims (6)

再生装置においてコンテンツ再生に用いる再生管理データを生成するデータ生成方法であって、
メインストリームの映像と、サブストリームの映像とを取得し、
前記メインストリームに対応して再生される音声を取得し、
前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、
前記メインストリームを再生する時間軸上の位置を示す第1の情報と、
前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、
前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報
を含むデータ構造を有する再生管理データを生成する
ステップを含むデータ生成方法。
A data generation method for generating playback management data used for content playback in a playback device,
Get mainstream video and substream video,
Acquire audio to be played back corresponding to the main stream,
If there is audio played back corresponding to the substream, the audio played back corresponding to the substream is synthesized with the audio played back corresponding to the main stream,
First information indicating a position on the time axis for reproducing the main stream;
Second information indicating a position on a time axis for reproducing a substream different from the main stream;
Information relating to the display state of the sub-stream video to be combined with the main-stream video and executed based on information indicating the brightness of the sub-stream video to be combined with the main-stream video. A data generation method including a step of generating reproduction management data having a data structure including : information related to the display state including information related to processing for combining the video of the main stream and the video of the substream .
前記サブストリームの映像の明るさを示す情報は、透過処理を行うべき明るさを示す情報の少なくとも1つの閾値であり、前記サブストリームの映像の明るさが、前記閾値以上または以下となる映像部分に対して透過処理を行う
請求項に記載のデータ生成方法。
The information indicating the brightness of the video of the substream is at least one threshold value of information indicating the brightness to be subjected to transmission processing, and the video portion where the brightness of the video of the substream is equal to or higher than the threshold value data generating method according to claim 1 for transmission processing on.
再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体にデータを記録する記録装置において、
メインストリームの映像と、サブストリームの映像とを取得する第1の取得手段と、
前記メインストリームに対応して再生される音声を取得する第2の取得手段と、
前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得する第3の取得手段と、
前記メインストリームを再生する時間軸上の位置を示す第1の情報と、
前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、
前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報
を含むデータ構造を有する再生管理データを生成する生成手段と、
取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録する記録手段と
を備える記録装置。
In a recording apparatus for recording data on a recording medium on which reproduction management data used for content reproduction in the reproducing apparatus is recorded,
First acquisition means for acquiring a main stream video and a substream video;
Second acquisition means for acquiring audio played back corresponding to the main stream;
When there is audio to be played back corresponding to the substream, the audio to be played back corresponding to the substream, which is synthesized with the audio played back corresponding to the main stream, is acquired. Acquisition means of
First information indicating a position on the time axis for reproducing the main stream;
Second information indicating a position on a time axis for reproducing a substream different from the main stream;
Information relating to the display state of the sub-stream video to be combined with the main-stream video and executed based on information indicating the brightness of the sub-stream video to be combined with the main-stream video. Generating means for generating reproduction management data having a data structure including information relating to the display state including information relating to processing for combining the video of the main stream and the video of the substream ;
A recording apparatus comprising: a recording unit configured to record the acquired video and audio of the main stream, the acquired video and audio of the substream, or the video of the substream, and the generated reproduction management data on the recording medium. .
前記サブストリームの映像の明るさを示す情報は、透過処理を行うべき明るさを示す情報の少なくとも1つの閾値であり、前記サブストリームの映像の明るさが、前記閾値以上または以下となる映像部分に対して透過処理を行う  The information indicating the brightness of the video of the substream is at least one threshold value of information indicating the brightness to be subjected to the transmission process, and the video portion in which the brightness of the video of the substream is greater than or less than the threshold value Perform transparent processing on
請求項3に記載の記録装置。  The recording apparatus according to claim 3.
再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体の記録方法であって、
メインストリームの映像と、サブストリームの映像とを取得し、
前記メインストリームに対応して再生される音声を取得し、
前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、
前記メインストリームを再生する時間軸上の位置を示す第1の情報と、
前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、
前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報
を含むデータ構造を有する再生管理データを生成し、
取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録する
ステップを含む記録媒体の記録方法。
A recording medium recording method for recording playback management data used for content playback in a playback device,
Get mainstream video and substream video,
Acquire audio to be played back corresponding to the main stream,
If there is audio played back corresponding to the substream, the audio played back corresponding to the substream is synthesized with the audio played back corresponding to the main stream,
First information indicating a position on the time axis for reproducing the main stream;
Second information indicating a position on a time axis for reproducing a substream different from the main stream;
Information relating to the display state of the sub-stream video to be combined with the main-stream video and executed based on information indicating the brightness of the sub-stream video to be combined with the main-stream video. Generating reproduction management data having a data structure including information relating to the display state including information relating to processing for combining the video of the main stream and the video of the substream ;
Recording the obtained main stream video and audio, the obtained substream video and audio or the substream video, and the generated reproduction management data on the recording medium. Method.
再生装置においてコンテンツ再生に用いる再生管理データが記録される記録媒体にデータを記録する処理をコンピュータに実行させるためのプログラムであって、
メインストリームの映像と、サブストリームの映像とを取得し、
前記メインストリームに対応して再生される音声を取得し、
前記サブストリームに対応して再生される音声が存在する場合には、前記メインストリームに対応して再生される音声と合成される、前記サブストリームに対応して再生される音声を取得し、
前記メインストリームを再生する時間軸上の位置を示す第1の情報と、
前記メインストリームとは異なるサブストリームを再生する時間軸上の位置を示す第2の情報と、
前記メインストリームの映像と合成される前記サブストリームの映像の表示状態に関する情報であって、前記メインストリームの映像と合成される前記サブストリームの映像の明るさを示す情報に基づいて実行される、前記メインストリームの映像と、前記サブストリームの映像とを合成する処理に関する情報を含む前記表示状態に関する情報
を含むデータ構造を有する再生管理データを生成し、
取得された前記メインストリームの映像および音声、取得された前記サブストリームの映像および音声または前記サブストリームの映像、並びに生成された前記再生管理データを前記記録媒体に記録する
ステップを含む処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute processing for recording data on a recording medium on which playback management data used for content playback in a playback device is recorded,
Get mainstream video and substream video,
Acquire audio to be played back corresponding to the main stream,
If there is audio played back corresponding to the substream, the audio played back corresponding to the substream is synthesized with the audio played back corresponding to the main stream,
First information indicating a position on the time axis for reproducing the main stream;
Second information indicating a position on a time axis for reproducing a substream different from the main stream;
Information relating to the display state of the sub-stream video to be combined with the main-stream video and executed based on information indicating the brightness of the sub-stream video to be combined with the main-stream video. Generating reproduction management data having a data structure including information relating to the display state including information relating to processing for combining the video of the main stream and the video of the substream ;
A process including a step of recording the acquired video and audio of the main stream, the acquired video and audio of the substream or the video of the substream, and the generated reproduction management data on the recording medium. The program to be executed.
JP2007211923A 2005-08-25 2007-08-15 Data generation method, recording apparatus and method, and program Active JP4849343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007211923A JP4849343B2 (en) 2005-08-25 2007-08-15 Data generation method, recording apparatus and method, and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005244612 2005-08-25
JP2005244612 2005-08-25
JP2005264041 2005-09-12
JP2005264041 2005-09-12
JP2007211923A JP4849343B2 (en) 2005-08-25 2007-08-15 Data generation method, recording apparatus and method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005311477A Division JP4081772B2 (en) 2005-08-25 2005-10-26 REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011131680A Division JP5201428B2 (en) 2005-08-25 2011-06-13 Data generation method, recording apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2008022568A JP2008022568A (en) 2008-01-31
JP4849343B2 true JP4849343B2 (en) 2012-01-11

Family

ID=39078137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211923A Active JP4849343B2 (en) 2005-08-25 2007-08-15 Data generation method, recording apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4849343B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107087223A (en) * 2011-01-07 2017-08-22 夏普株式会社 Regenerating unit and its control method and generating means and its control method
CN103220576B (en) * 2012-01-19 2016-10-05 联想(北京)有限公司 A kind of method of Audio Signal Processing and electronic equipment
CN107872568A (en) * 2017-09-27 2018-04-03 努比亚技术有限公司 A kind of talking management method, mobile terminal and computer-readable recording medium
CN110446110B (en) * 2019-07-29 2022-04-22 深圳市东微智能科技股份有限公司 Video playing method, video playing device and storage medium
CN117201955A (en) * 2022-05-30 2023-12-08 荣耀终端有限公司 Video shooting method, device, equipment and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609947B2 (en) * 2004-09-10 2009-10-27 Panasonic Corporation Method and apparatus for coordinating playback from multiple video sources

Also Published As

Publication number Publication date
JP2008022568A (en) 2008-01-31

Similar Documents

Publication Publication Date Title
JP4081772B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP4770601B2 (en) Information processing apparatus, information processing method, program, and program storage medium
JP4923751B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
US9076495B2 (en) Reproducing apparatus, reproducing method, computer program, program storage medium, data structure, recording medium, recording device, and manufacturing method of recording medium
JP4822081B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING MEDIUM
JP4849343B2 (en) Data generation method, recording apparatus and method, and program
JP5201428B2 (en) Data generation method, recording apparatus and method, and program
JP4900708B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP2008193604A (en) Reproducing apparatus and method, and program
JP4720676B2 (en) Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium
JP4968562B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP5472251B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND RECORDING METHOD
JP4821456B2 (en) Information processing apparatus, information processing method, program, data structure, and recording medium
JP2008052836A (en) Information processing apparatus, information processing method, program, and program storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110922

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111005

R151 Written notification of patent or utility model registration

Ref document number: 4849343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250