JP2011028791A - Reproducing device, reproducing method, program, and recording medium - Google Patents

Reproducing device, reproducing method, program, and recording medium Download PDF

Info

Publication number
JP2011028791A
JP2011028791A JP2009171206A JP2009171206A JP2011028791A JP 2011028791 A JP2011028791 A JP 2011028791A JP 2009171206 A JP2009171206 A JP 2009171206A JP 2009171206 A JP2009171206 A JP 2009171206A JP 2011028791 A JP2011028791 A JP 2011028791A
Authority
JP
Japan
Prior art keywords
image
data
image data
eye
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009171206A
Other languages
Japanese (ja)
Inventor
Ryohei Takahashi
遼平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009171206A priority Critical patent/JP2011028791A/en
Publication of JP2011028791A publication Critical patent/JP2011028791A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a format of a video for 3D display suitable for the 3D display of a sub-image. <P>SOLUTION: A subtitle generation section 41 outputs to a 3D display data generation part 36 the subtitle data on the presently displayed subtitle for the left eye as the subtitle data for the right eye, and outputs to the 3D display data generation part 36 the subtitle data on the presently displayed subtitle for the right eye as the subtitle data for the left eye, based on an LR replacement command which is control information for replacing subtitle data for the left eye and subtitle data for the right eye, which are to be used to 3D-display subtitles. The 3D display data generation part 36 causes a display part 51 to display the subtitle for the right eye based on the subtitle data for the right eye and causes the display part 51 to display the subtitle for the left eye based on the subtitle data for the left eye. This invention can be applied to e.g. a reproducing device which reproduces a disk for 3D display. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、再生装置、再生方法、およびプログラム、並びに記録媒体に関し、特に、副画像の3D表示に適した3D表示用のビデオのフォーマットを提供することができるようにした再生装置、再生方法、およびプログラム、並びに記録媒体に関する。   The present invention relates to a playback device, a playback method, a program, and a recording medium, and in particular, a playback device, a playback method, and a playback method capable of providing a 3D display video format suitable for 3D display of a sub-image. And a program and a recording medium.

3D(3Dimensional)の画像の表示機能を持つディスプレイ(以下、3Dディスプレイ)には様々な種類が存在する。また、3D表示用のビデオのフォーマット(以下、3Dビデオフォーマットと称する)にも様々なものが存在する。   There are various types of displays (hereinafter referred to as 3D displays) having a 3D (3 Dimensional) image display function. There are various types of video formats for 3D display (hereinafter referred to as 3D video formats).

3Dビデオフォーマットとしては、3点以上の視点の画像(Multi-views)を使用する方式、具体的には例えば、いわゆるレンチキュラ方式の3Dディスプレイに適した、2次元画像とDepth画像を用いる3Dビデオフォーマットなどがある(例えば非特許文献1参照)。   As a 3D video format, a method using three or more viewpoint images (multi-views), specifically, a 3D video format using a two-dimensional image and a depth image suitable for a so-called lenticular 3D display, for example. (For example, refer nonpatent literature 1).

(株)PHILIPSのHP>Home>3D Solutions>About「2009年3月26日検索」「http://www.business-sites.philips.com/3dsolutions/about/Index.html」PHILIPS Inc. HP> Home> 3D Solutions> About "Search March 26, 2009" "http://www.business-sites.philips.com/3dsolutions/about/Index.html"

しかしながら、字幕や、メニュー画面で使用されるメニューボタンなどの副画像の3D表示に適した3Dビデオフォーマットは存在しない現状である。   However, there is currently no 3D video format suitable for 3D display of sub-images such as subtitles and menu buttons used on the menu screen.

本発明は、このような状況に鑑みてなされたものであり、副画像の3D表示に適した3Dビデオフォーマットを提供することができるようにするものである。   The present invention has been made in view of such a situation, and is intended to provide a 3D video format suitable for 3D display of a sub-image.

本発明の第1の側面の再生装置は、副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報を含むデータ構造のデータを再生する際に、前記LR交換制御情報にしたがって、表示中の前記L画像の前記L画像データを前記R画像データとして出力するとともに、表示中の前記R画像の前記R画像データを前記L画像データとして出力する出力手段と、前記出力手段により出力された前記R画像データに基づいて前記R画像を表示部に表示させ、前記L画像データに基づいて前記L画像を前記表示部に表示させる表示制御手段とを備える再生装置である。   The playback device according to the first aspect of the present invention provides L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image. When reproducing data having a data structure including LR exchange control information, which is control information for exchanging images, the L image data of the displayed L image is used as the R image data according to the LR exchange control information. An output unit that outputs the R image data of the R image being displayed as the L image data, and causes the display unit to display the R image based on the R image data output by the output unit. And a display control means for displaying the L image on the display unit based on the L image data.

本発明の第1の側面の再生方法およびプログラムは、上述した本発明の第1の側面の再生装置に対応する。   The playback method and program according to the first aspect of the present invention correspond to the playback apparatus according to the first aspect of the present invention described above.

本発明の第1の側面の再生装置および再生方法、並びにプログラムにおいては、副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報を含むデータ構造のデータを再生する際に、LR交換制御情報にしたがって、表示中のL画像のL画像データがR画像データとして出力されるとともに、表示中のR画像のR画像データがL画像データとして出力され、出力されたR画像データに基づいてR画像が表示部に表示され、L画像データに基づいてL画像が表示部に表示される。   In the playback apparatus, playback method, and program according to the first aspect of the present invention, L image data that is image data of an L image for the left eye used for 3D (3 Dimensional) display of a sub-image and an R image for the right eye are used. When reproducing data having a data structure including LR exchange control information that is control information for exchanging R image data that is image data, the L image data of the displayed L image is R according to the LR exchange control information. In addition to being output as image data, the R image data of the currently displayed R image is output as L image data, the R image is displayed on the display unit based on the output R image data, and the L image data is displayed based on the L image data. An image is displayed on the display unit.

本発明の第1の側面の記録媒体は、副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報を含むデータ構造のデータが記録されている記録媒体である。   The recording medium according to the first aspect of the present invention includes L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image. Is a recording medium on which data having a data structure including LR exchange control information, which is control information for exchanging the data, is recorded.

本発明の第1の側面の記録媒体に記録されているデータのデータ構造においては、副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報が含まれる。   In the data structure of data recorded on the recording medium according to the first aspect of the present invention, L image data that is image data of an L image for the left eye used for 3D (3 Dimensional) display of a sub-image, and data for the right eye LR exchange control information that is control information for exchanging R image data that is image data of an R image is included.

本発明の第2の側面の再生装置は、2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報を含むデータ構造のデータを再生する際に、前記オフセット変更制御情報にしたがって、表示中の前記L画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記L画像の画像データであるL画像データとし、そのL画像データに基づいて前記L画像を表示部に表示させるとともに、表示中の前記R画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記R画像の画像データであるR画像データとし、そのR画像データに基づいて前記R画像を前記表示部に表示させる表示制御手段を備える再生装置。   The playback device according to the second aspect of the present invention provides a shift direction between the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display. When reproducing data having a data structure including offset change control information for changing the offset direction to be represented, according to the offset change control information, the L image being displayed is shifted in a direction opposite to the shift direction with respect to the sub-image. The image data of the image obtained as a result of shifting the sub-image is set as L image data that is the image data of the L image, the L image is displayed on the display unit based on the L image data, and the R image being displayed The image data of the image obtained as a result of shifting the sub-image in the direction opposite to the shift direction of the sub-image with respect to the sub-image, And a display control means for displaying the R image on the display unit based on the R image data.

本発明の第2の側面の再生方法およびプログラムは、上述した本発明の第2の側面の再生装置に対応する。   The reproduction method and program according to the second aspect of the present invention correspond to the reproduction apparatus according to the second aspect of the present invention described above.

本発明の第2の側面の再生装置および再生方法、並びにプログラムにおいては、2D(2Dimensional)表示用の副画像に対する、副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報を含むデータ構造のデータを再生する際に、オフセット変更制御情報にしたがって、表示中のL画像の副画像に対するずれ方向と反対方向に副画像をずらした結果得られる画像の画像データがL画像の画像データであるL画像データとされ、そのL画像データに基づいてL画像が表示部に表示されるとともに、表示中のR画像の副画像に対するずれ方向と反対方向に副画像をずらした結果得られる画像の画像データがR画像の画像データであるR画像データとされ、そのR画像データに基づいてR画像が表示部に表示される。   In the playback apparatus, playback method, and program according to the second aspect of the present invention, the left-eye L image and right-eye image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display When reproducing data having a data structure including offset change control information for changing the offset direction indicating the shift direction of the R image, the opposite direction to the shift direction of the currently displayed L image with respect to the sub-image is determined according to the offset change control information. The image data of the image obtained as a result of shifting the sub-image in the direction is L image data that is the image data of the L image. The L image is displayed on the display unit based on the L image data, and the R being displayed is displayed. R image data in which image data of an image obtained as a result of shifting the sub-image in the direction opposite to the shift direction of the image with respect to the sub-image is R-image data. The R image is displayed on the display unit based on the R image data.

本発明の第2の側面の記録媒体は、2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報を含むデータ構造のデータが記録されている記録媒体である。   The recording medium according to the second aspect of the present invention provides a shift direction between the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display. It is a recording medium on which data having a data structure including offset change control information for changing the offset direction to be expressed is recorded.

本発明の第2の側面の記録媒体に記録されているデータのデータ構造においては、副画像に対する、副画像の3D表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報が含まれる。   In the data structure of data recorded on the recording medium according to the second aspect of the present invention, the shift direction of the left-eye L image and the right-eye R image used for 3D display of the sub-image with respect to the sub-image is represented. Offset change control information for changing the offset direction is included.

本発明によれば、副画像の3D表示を行うことができる。また、副画像の3D表示に適した3Dビデオフォーマットを提供できる。   According to the present invention, 3D display of a sub-image can be performed. In addition, a 3D video format suitable for 3D display of sub-images can be provided.

本発明を適用したディスクの第1実施の形態の構成例を示す図である。It is a figure which shows the structural example of 1st Embodiment of the disk to which this invention is applied. インデックスファイルの詳細構成例を示す図である。It is a figure which shows the detailed structural example of an index file. 字幕データのディスプレイセットの構成例を示す図である。It is a figure which shows the structural example of the display set of caption data. メニューデータのディスプレイセットの構成例を示す図である。It is a figure which shows the structural example of the display set of menu data. 図1のディスクを再生する再生装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a playback device that plays back the disc of FIG. 1. 図5の字幕生成部の詳細構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a detailed configuration example of a caption generation unit in FIG. 5. 3D字幕データの生成について説明する図である。It is a figure explaining the production | generation of 3D subtitle data. 字幕の3D表示の例を示す図である。It is a figure which shows the example of 3D display of a caption. ムービーオブジェクト実行時の再生装置による3D字幕再生処理を説明するフローチャートである。It is a flowchart explaining the 3D subtitle reproduction | regeneration processing by the reproducing | regenerating apparatus at the time of movie object execution. ムービーオブジェクト実行時の再生装置による字幕オフセットフラグ変更処理を説明するフローチャートである。It is a flowchart explaining the caption offset flag change process by the reproducing | regenerating apparatus at the time of movie object execution. 字幕の3D表示の他の例を示す図である。It is a figure which shows the other example of 3D display of a caption. オフセットフラグ変更コマンドの他の適用例を示す図である。It is a figure which shows the other example of application of an offset flag change command. 方向変更ボタンの表示例を示す図である。It is a figure which shows the example of a display of a direction change button. BD-Jオブジェクト実行時の再生装置の機能的構成例を示す図である。It is a figure which shows the functional structural example of the reproducing | regenerating apparatus at the time of BD-J object execution. BD-Jオブジェクト実行時の再生装置によるグラフィックス表示処理を説明するフローチャートである。10 is a flowchart for describing graphics display processing by the playback device when executing a BD-J object. BD-Jオブジェクト実行時の再生装置によるオフセット方向変更処理を説明するフローチャートである。It is a flowchart explaining the offset direction change process by the reproducing | regenerating apparatus at the time of BD-J object execution. 本発明を適用したディスクの第2実施の形態における字幕データのエポックの構成例を示す図である。It is a figure which shows the structural example of the epoch of the caption data in 2nd Embodiment of the disk to which this invention is applied. 図17のディスクを再生する再生装置の構成例を示すブロック図である。FIG. 18 is a block diagram illustrating a configuration example of a playback device that plays back the disc of FIG. 17. 図18の字幕生成部の詳細構成例を示すブロック図である。FIG. 19 is a block diagram illustrating a detailed configuration example of a caption generation unit in FIG. 18. 図18の表示部51による3Dの字幕の表示について説明する図である。It is a figure explaining the display of the 3D subtitle by the display part 51 of FIG. LR交換コマンドによる字幕の3D表示の変化を説明する図である。It is a figure explaining the change of 3D display of a subtitle by LR exchange command. ムービーオブジェクト実行時の再生装置による3D字幕再生処理について説明するフローチャートである。It is a flowchart explaining the 3D subtitle reproduction processing by the reproduction device when executing a movie object. 図22のステップS116の字幕生成処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the caption production | generation process of FIG.22 S116. ムービーオブジェクトの実行時の再生装置による字幕表示方向変更処理を説明するフローチャートである。It is a flowchart explaining the subtitle display direction change process by the reproducing | regenerating apparatus at the time of execution of a movie object. LR交換コマンドの他の適用例を示す図である。It is a figure which shows the other example of application of LR exchange command. BD-Jオブジェクト実行時の再生装置の機能的構成例を示す図である。It is a figure which shows the functional structural example of the reproducing | regenerating apparatus at the time of BD-J object execution. BD-Jグラフィックス生成部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a BD-J graphics production | generation part. BD-Jオブジェクト実行時の再生装置によるグラフィックス表示処理を説明するフローチャートである。10 is a flowchart for describing graphics display processing by the playback device when executing a BD-J object. BD-Jオブジェクト実行時の再生装置による表示方向変更処理を説明するフローチャートである。14 is a flowchart for describing display direction change processing by a playback device when executing a BD-J object.

<第1実施の形態>
[ディスクの第1実施の形態の構成例]
図1は、本発明を適用したディスクの第1実施の形態の構成例を示す図である。
<First embodiment>
[Configuration Example of Disc First Embodiment]
FIG. 1 is a diagram showing a configuration example of a first embodiment of a disk to which the present invention is applied.

図1のディスク11は、BD-ROM(Blue-ray Disc-Read Only Memory)などにより構成され、ディスク11には、インデックスファイル(index.bdmv)とムービーオブジェクトファイル(MovieObject.bdmv)が記録される。また、ディスク11には、プレイリストファイル(PLAYLIST/XXXXX.mpls)、クリップインフォメーションファイル(CLIPINF/XXXXX.clpi)、およびストリームファイル(STREAM/XXXXX.m2ts)も記録される。さらに、ディスク11には、BD-J(Blu-ray Disc Java(登録商標))オブジェクトファイル(BDJO/XXXXX.bdjo)、その関連ファイル(JAR/XXXXX.jar)なども記録される。なお、Xは0から9までの任意の数字である。   The disc 11 in FIG. 1 is configured by a BD-ROM (Blue-ray Disc-Read Only Memory) or the like, and an index file (index.bdmv) and a movie object file (MovieObject.bdmv) are recorded on the disc 11. . In addition, a playlist file (PLAYLIST / XXXXX.mpls), a clip information file (CLIPINF / XXXXX.clpi), and a stream file (STREAM / XXXXX.m2ts) are also recorded on the disc 11. Further, a BD-J (Blu-ray Disc Java (registered trademark)) object file (BDJO / XXXXX.bdjo), a related file (JAR / XXXXX.jar), and the like are also recorded on the disc 11. X is an arbitrary number from 0 to 9.

インデックスファイルには、図2に示すように、例えば、ディスク11に記録されているタイトル番号の一覧と、そのタイトル番号に対応して実行されるオブジェクトの種類および番号とが記述される。   As shown in FIG. 2, the index file describes, for example, a list of title numbers recorded on the disk 11 and the types and numbers of objects executed corresponding to the title numbers.

タイトル番号としては、1から順に付与された整数値だけでなく、ディスク11が再生装置に挿入されたときに実行されるオブジェクトに対応する「First Play」、および、トップメニュー画面の表示時に実行されるオブジェクトに対応する「Top Menu」も記述される。オブジェクトの種類としては、ムービーオブジェクト(MovieObject)とBD-Jオブジェクト(BD-J Object)の2種類がある。   The title number is not only an integer value given in order from 1, but also “First Play” corresponding to an object executed when the disc 11 is inserted into the playback device, and executed when the top menu screen is displayed. A “Top Menu” corresponding to the object is also described. There are two types of objects: a movie object (MovieObject) and a BD-J object (BD-J Object).

図2の例では、インデックスファイルに、「First Play」、「Top menu」、「Title#N」に対応して、それぞれ、「MovieObject#1」、「MovieObject#2」、「MovieObject#M」が記述されている。また、「Title#1」に対応して「BD-J Object#1」が記述されている。   In the example of FIG. 2, “MovieObject # 1”, “MovieObject # 2”, and “MovieObject # M” correspond to “First Play”, “Top menu”, and “Title # N”, respectively, in the index file. is described. Also, “BD-J Object # 1” is described corresponding to “Title # 1”.

なお、MovieObject#i,BD-J Object#iは、それぞれ、オブジェクトの種類がムービーオブジェクト,BD-Jオブジェクトであり、オブジェクトの番号がiであることを表している。また、Title#iは、タイトルの番号がiであることを表している。以上のようなインデックスファイルは、インデックステーブルとも呼ばれる。   MovieObject # i and BD-J Object # i indicate that the object type is a movie object and a BD-J object, respectively, and the object number is i. Title # i indicates that the title number is i. Such an index file is also called an index table.

ムービーオブジェクトファイルには、複数個のムービーオブジェクトが記述され、そのムービーオブジェクトには、HDMV(High Definition Movie)ナビゲーションコマンドというプログラムが記述される。ディスク11を再生する再生装置は、このナビゲーションコマンドを順次実行する。なお、以下では、ナビゲーションコマンドを特に区別する必要がない場合、コマンドという。   A plurality of movie objects are described in the movie object file, and a program called HDMV (High Definition Movie) navigation command is described in the movie object. A playback device that plays back the disk 11 sequentially executes the navigation commands. In the following, navigation commands are referred to as commands unless it is necessary to distinguish them.

プレイリストファイルは、ムービーオブジェクトまたはBD-Jオブジェクトによってのみ再生されるファイルであり、これらのオブジェクトに記述される1つのコマンドで再生されるAVストリーム(詳細は後述する)に関する情報が記述される。   A playlist file is a file that is played back only by a movie object or a BD-J object, and describes information about an AV stream (details will be described later) played back by one command described in these objects.

具体的には、プレイリストファイルは、複数のプレイアイテムにより構成される。各プレイアイテムには、再生対象のAVストリームに対応するクリップインフォメーションファイルを指定する情報と、AVストリームの再生区間を表す時間情報が記述される。   Specifically, the playlist file is composed of a plurality of play items. Each play item describes information specifying a clip information file corresponding to an AV stream to be played back and time information indicating a playback section of the AV stream.

AVストリームは、ストリームファイルとしてディスク11に記録されている。AVストリームは、MPEG2,MPEG-4 AVC(Advanced Video Coding),VC1などに準拠して符号化され、ISO13818-2に準拠して多重化された、映画などの主画像を2D表示するためのビデオデータ、および、それに対応するオーディオデータ、字幕を2D表示するための字幕データ、並びに、メニューボタンを2D表示するためのメニューデータのTS(Transport Stream)パケットにより構成される。   The AV stream is recorded on the disk 11 as a stream file. The AV stream is a video for 2D display of a main image such as a movie encoded according to MPEG2, MPEG-4 AVC (Advanced Video Coding), VC1, etc., and multiplexed according to ISO13818-2. Data, corresponding audio data, subtitle data for displaying 2D subtitles, and menu data TS (Transport Stream) packets for displaying 2D menu buttons.

また、AVストリームのPESパケットは、PESパケットヘッダとセグメントにより構成される。PESパケットヘッダには、表示時刻を示すPTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)などが記述される。   The PES packet of the AV stream is composed of a PES packet header and a segment. In the PES packet header, PTS (Presentation Time Stamp) indicating the display time, DTS (Decoding Time Stamp), and the like are described.

字幕データのPESパケットに含まれるセグメントとしては、PCS(Presentation Composition Segment),WDS(Window Definition Segment),PDS(Palette Definition Segment),ODS(Object Definition Segment)、またはEND(End of Display Set Segment)がある。また、メニューデータのPESパケットに含まれるセグメントとしては、ICS(Interactive Composition Segment),PDS,ODS、またはENDがある。1画面分の字幕データやメニューデータのセグメントは、ディスプレイセットと呼ばれる。ディスプレイセットの詳細については、後述する図3および図4を参照して説明する。   Segments included in the PES packet of caption data include PCS (Presentation Composition Segment), WDS (Window Definition Segment), PDS (Palette Definition Segment), ODS (Object Definition Segment), or END (End of Display Set Segment). is there. The segment included in the PES packet of the menu data includes ICS (Interactive Composition Segment), PDS, ODS, or END. A segment of subtitle data or menu data for one screen is called a display set. Details of the display set will be described with reference to FIGS. 3 and 4 to be described later.

クリップインフォメーションファイルには、プレイリストファイルに記述される時間情報と、AVストリームのパケット番号とを対応付けるマップが記述されている。従って、再生装置は、クリップインフォメーションファイルを参照することにより、各プレイアイテムに対応する再生対象のAVストリームのパケット番号を認識することができる。   The clip information file describes a map that associates the time information described in the playlist file with the packet number of the AV stream. Therefore, the playback device can recognize the packet number of the AV stream to be played back corresponding to each play item by referring to the clip information file.

ストリームファイルは、AVストリームのファイルである。BD-Jオブジェクトファイルには、複数個のBD-Jアプリケーションが記述される。ディスク11を再生する再生装置は、このBD-Jアプリケーションを起動する。   The stream file is an AV stream file. In the BD-J object file, a plurality of BD-J applications are described. A playback device that plays the disc 11 activates the BD-J application.

[ディスプレイセットの構成例]
図3は、ディスク11に記録される字幕データのディスプレイセットの構成例を示す図であり、図4は、メニューデータのディスプレイセットの構成例を示す図である。
[Configuration example of display set]
FIG. 3 is a diagram illustrating a configuration example of a display set of subtitle data recorded on the disc 11, and FIG. 4 is a diagram illustrating a configuration example of a display set of menu data.

図3に示すように、字幕データのディスプレイセットは、1画面分の字幕のセグメントであるPCS,WDS,PDS,ODS、およびENDにより構成される。   As shown in FIG. 3, the display set of subtitle data is composed of PCS, WDS, PDS, ODS, and END, which are subtitle segments for one screen.

字幕データのPCSには、各ODSに対応する字幕に付与されたID(以下、副画像IDという)、字幕を3D表示するためのオフセット情報(詳細は後述する)などが記述される。字幕データのWDSには、字幕の表示範囲を示すウィンドウの位置やサイズなどの構造を示す情報、ウィンドウに固有のID(以下、ウィンドウIDという)などが記述される。字幕データのPDSには、字幕の色として使用可能な色の情報が記述される。字幕データのODSには、字幕の形状を示す情報が記述される。字幕データのENDは、ディスプレイセットの終端を示すセグメントである。   In the PCS of the caption data, an ID (hereinafter referred to as a sub-image ID) assigned to the caption corresponding to each ODS, offset information (details will be described later) for displaying the caption in 3D, and the like are described. In the WDS of caption data, information indicating a structure such as a window position and size indicating a caption display range, an ID unique to the window (hereinafter referred to as a window ID), and the like are described. The PDS of caption data describes information on colors that can be used as caption colors. In the ODS of the caption data, information indicating the shape of the caption is described. END of caption data is a segment indicating the end of the display set.

また、図4に示すように、メニューデータのディスプレイセットは、1画面分のメニューボタンのセグメントであるICS,PDS,ODS、およびENDにより構成される。   As shown in FIG. 4, the display set of menu data is composed of ICS, PDS, ODS, and END, which are menu button segments for one screen.

メニューデータのICSには、メニューボタンの操作により実行されるコマンドなどのメニュー制御情報が記述される。さらに、ICSには、メニューボタンを3D表示するためのオフセット情報、各ODSに対応するメニューボタンに固有のID(以下、ボタンIDという)などのボタン情報が記述される。   Menu control information such as a command executed by operating a menu button is described in the menu data ICS. Further, the ICS describes button information such as offset information for displaying the menu button in 3D and an ID (hereinafter referred to as a button ID) unique to the menu button corresponding to each ODS.

メニューデータのPDSには、メニューボタンの色として使用可能な色の情報が記述される。図4の例では、1画面分のメニューボタンの色として使用可能な色の情報の種類が2種類あるため、2種類のPDS(PDS#1,PDS#2)がディスプレイセット内に配置されている。   Information on colors that can be used as menu button colors is described in the PDS of the menu data. In the example shown in FIG. 4, since there are two types of color information that can be used as menu button colors for one screen, two types of PDS (PDS # 1, PDS # 2) are arranged in the display set. Yes.

メニューデータのODSには、メニューボタンの形状を示す情報が記述される。メニューボタンのENDは、ディスプレイセットの終端を示すセグメントである。   Information indicating the shape of the menu button is described in the ODS of the menu data. The menu button END is a segment indicating the end of the display set.

なお、本実施の形態では、PCSとICSにオフセット情報が記述されるものとするが、オフセット情報の記述場所は、これに限定されない。例えば、オフセット情報は、プレイリストファイルに記述されてもよい。   In this embodiment, offset information is described in PCS and ICS, but the description location of offset information is not limited to this. For example, the offset information may be described in a playlist file.

以上のようなディスプレイセットの任意の数から、エポックが構成される。再生装置は、1個のエポックに対応する字幕やメニューボタンを連続して表示し、表示を一時的に中断した後、次のエポックに対応する字幕やメニューボタンを表示する。即ち、エポックとは、連続して表示可能な字幕やメニューボタンのディスプレイセットの単位である。   An epoch is composed of an arbitrary number of display sets as described above. The playback device continuously displays subtitles and menu buttons corresponding to one epoch, and after temporarily interrupting the display, displays the subtitles and menu buttons corresponding to the next epoch. That is, an epoch is a unit of a display set of subtitles and menu buttons that can be displayed continuously.

以下にオフセット情報について説明する。   The offset information will be described below.

ユーザに3Dの画像を見せるためには、所定の方向に所定の距離だけ離れた2枚の画像のうちの一方の画像をユーザの左目に見せるとともに、他方の画像を右目に見せる必要がある。   In order to show a 3D image to a user, it is necessary to show one image of two images separated by a predetermined distance in a predetermined direction and to display the other image to the right eye.

しかしながら、ディスク11に記録されているビデオデータ、字幕データ、およびメニューデータは、2D表示するためのデータであり、再生装置は左目用と右目用の画像の両方を表示することができない。従って、画像を3D表示可能にするために、2D表示用の画像に対する、左目用および右目用の画像のずれ方向の組み合わせを表す方向情報およびずれ量を表すオフセット値(offset_value)が、オフセット情報として記述される。   However, the video data, caption data, and menu data recorded on the disc 11 are data for 2D display, and the playback device cannot display both left-eye and right-eye images. Therefore, in order to enable 3D display of the image, the direction information indicating the combination of the shift direction of the left-eye image and the right-eye image with respect to the image for 2D display and the offset value (offset_value) indicating the shift amount are used as the offset information. Described.

なお、左目用のオフセット方向と右目用のオフセット方向は反対方向である。オフセット値は、例えば画素数で表現される。   The left-eye offset direction and the right-eye offset direction are opposite directions. The offset value is expressed by the number of pixels, for example.

また、ムービーオブジェクト実行時に設定されるPCSやICSに含まれるオフセット情報の方向情報は、オフセット値とは別にオフセットフラグとして表されるものとする。例えば、オフセットフラグは、表示面に対して飛び出す方向の3D画像に対応するオフセット方向の組み合わせを表す場合0となり、表示面に対して引っ込む方向の3D画像に対応するオフセット方向の組み合わせを表す場合1となる。   Further, it is assumed that the direction information of the offset information included in the PCS or ICS set when the movie object is executed is represented as an offset flag separately from the offset value. For example, the offset flag is 0 when representing a combination of offset directions corresponding to a 3D image in a direction protruding from the display surface, and 1 when representing a combination of offset directions corresponding to a 3D image retracted with respect to the display surface. It becomes.

一方、BD-Jオブジェクト実行時に設定されるオフセット情報の方向情報は、オフセット値の正負で表されるものとする。例えば、正のオフセット値は、表示面に対して飛び出す方向の3D画像に対応するオフセット方向の組み合わせを表し、負のオフセット値は、表示面に対して引っ込む方向の3D画像に対応するオフセット方向の組み合わせを表す。   On the other hand, it is assumed that the direction information of the offset information set when executing the BD-J object is represented by the positive / negative of the offset value. For example, a positive offset value represents a combination of offset directions corresponding to a 3D image in a direction protruding from the display surface, and a negative offset value is an offset direction corresponding to a 3D image retracted from the display surface. Represents a combination.

[再生装置の構成例]
図5は、上述したディスク11を再生する再生装置20の構成例を示すブロック図である。
[Example of playback device configuration]
FIG. 5 is a block diagram illustrating a configuration example of the playback device 20 that plays back the disk 11 described above.

図5の再生装置20は、入力部21、制御部22、再生部23、記憶部24、通信部25、およびドライブ26により構成される。   5 includes an input unit 21, a control unit 22, a playback unit 23, a storage unit 24, a communication unit 25, and a drive 26.

入力部21は、キーボード、マウス、マイクロフォンなどよりなる。入力部21は、ユーザからの指令を受け付け、制御部22に供給する。制御部22は、所定のプログラムを実行することにより、入力部21からの指令に応じて再生部23を制御する。   The input unit 21 includes a keyboard, a mouse, a microphone, and the like. The input unit 21 receives a command from the user and supplies it to the control unit 22. The control unit 22 controls the playback unit 23 according to a command from the input unit 21 by executing a predetermined program.

再生部23は、ドライブ31、読み出しバッファ32、PIDフィルタ33、ビデオ生成部34、字幕/メニュー生成部35、3D表示データ生成部36、BD-Jグラフィックス生成部37、およびオーディオ生成部38により構成される。   The playback unit 23 includes a drive 31, a read buffer 32, a PID filter 33, a video generation unit 34, a caption / menu generation unit 35, a 3D display data generation unit 36, a BD-J graphics generation unit 37, and an audio generation unit 38. Composed.

ドライブ31は、制御部22の制御にしたがって、装着されたディスク11を駆動する。これにより、ドライブ31は、ディスク11に記録されているインデックスファイル、ムービーオブジェクトファイル、BD-Jオブジェクトファイル、プレイリストファイル、クリップインフォメーションファイル、ストリームファイルなどを読み出す。ドライブ31は、読み出されたインデックスファイル、ムービーオブジェクトファイル、BD-Jオブジェクトファイル、プレイリストファイル、クリップインフォメーションファイルなどを制御部22に供給する。ドライブ31は、読み出されたストリームファイルのAVストリームを読み出しバッファ32に供給する。   The drive 31 drives the loaded disk 11 according to the control of the control unit 22. As a result, the drive 31 reads the index file, movie object file, BD-J object file, playlist file, clip information file, stream file, and the like recorded on the disc 11. The drive 31 supplies the read index file, movie object file, BD-J object file, playlist file, clip information file, and the like to the control unit 22. The drive 31 supplies the read stream file AV stream to the read buffer 32.

読み出しバッファ32は、制御部22の制御にしたがって、ドライブ31から供給されるAVストリームを保持したり、保持しているAVストリームを読み出してPIDフィルタ33に供給したりする。   The read buffer 32 holds the AV stream supplied from the drive 31 or reads the held AV stream and supplies it to the PID filter 33 under the control of the control unit 22.

PIDフィルタ33は、読み出しバッファ32からのAVストリームの各パケットのパケットID(PID)に基づいて、AVストリームからビデオデータ、字幕データ、メニューデータ、およびオーディオデータのパケットをそれぞれ抽出する。なお、PIDとは、パケットを構成するデータの種類ごとに固有のIDであり、パケットに付加されている。   The PID filter 33 extracts video data, subtitle data, menu data, and audio data packets from the AV stream based on the packet ID (PID) of each packet of the AV stream from the read buffer 32. The PID is a unique ID for each type of data constituting the packet, and is added to the packet.

PIDフィルタ33は、抽出されたビデオデータ、字幕データ、メニューデータ、オーディオデータのパケットから、それぞれ、PESパケットを抽出する。そして、PIDフィルタ33は、ビデオデータのPESパケットをビデオ生成部34に供給し、字幕データおよびメニューデータのPESパケットを字幕/メニュー生成部35に供給する。また、PIDフィルタ33は、オーディオデータのPESパケットをオーディオ生成部38に供給する。   The PID filter 33 extracts PES packets from the extracted video data, caption data, menu data, and audio data packets, respectively. Then, the PID filter 33 supplies the PES packet of the video data to the video generation unit 34 and supplies the PES packet of the caption data and the menu data to the caption / menu generation unit 35. Further, the PID filter 33 supplies the PES packet of the audio data to the audio generation unit 38.

ビデオ生成部34は、PIDフィルタ33から供給されるビデオデータのPESパケットを復号し、その結果得られるビデオデータを3D表示データ生成部36に供給する。また、ビデオ生成部34は、所定のオフセット情報を3D表示データ生成部36に供給する。   The video generation unit 34 decodes the PES packet of the video data supplied from the PID filter 33 and supplies the resulting video data to the 3D display data generation unit 36. In addition, the video generation unit 34 supplies predetermined offset information to the 3D display data generation unit 36.

字幕/メニュー生成部35は、字幕生成部41とメニュー生成部42により構成される。字幕生成部41は、ムービーオブジェクトの実行時に、PIDフィルタ33から供給される字幕データのPESパケットを復号し、その結果得られる字幕データとPESパケットのPCSに含まれるオフセット情報を3D表示データ生成部36に供給する。字幕生成部41の詳細については、後述する図6を参照して説明する。   The caption / menu generation unit 35 includes a caption generation unit 41 and a menu generation unit 42. The caption generation unit 41 decodes the PES packet of the caption data supplied from the PID filter 33 when the movie object is executed, and the 3D display data generation unit displays the caption data obtained as a result and the offset information included in the PCS of the PES packet. 36. Details of the caption generation unit 41 will be described with reference to FIG.

メニュー生成部42は、ムービーオブジェクトの実行時に、PIDフィルタ33から供給されるメニューデータのPESパケットを復号し、その結果得られるメニューデータとPESパケットのICSに含まれるオフセット情報を3D表示データ生成部36に供給する。   The menu generation unit 42 decodes the PES packet of the menu data supplied from the PID filter 33 when the movie object is executed, and obtains the menu data obtained as a result and the offset information included in the ICS of the PES packet as a 3D display data generation unit. 36.

3D表示データ生成部36は、ビデオ生成部34から供給されるビデオデータとオフセット情報に基づいて、左目用のビデオデータと右目用のビデオデータを、主画像を3D表示するための3Dビデオデータとして生成する。   Based on the video data and offset information supplied from the video generation unit 34, the 3D display data generation unit 36 converts the left-eye video data and the right-eye video data as 3D video data for displaying the main image in 3D. Generate.

具体的には、3D表示データ生成部36は、ビデオ生成部34から供給されるビデオデータに対応する主画像を、所定のオフセット値だけ所定のオフセット方向にそれぞれずらした画像のビデオデータを、右目用のビデオデータおよび左目用のビデオデータとして生成する。   Specifically, the 3D display data generation unit 36 converts video data of an image obtained by shifting the main image corresponding to the video data supplied from the video generation unit 34 by a predetermined offset value in a predetermined offset direction. Video data and video data for the left eye.

3D表示データ生成部36は、字幕/メニュー生成部35から供給される字幕データとオフセット情報に基づいて、3Dビデオデータと同様に、左目用の字幕データと右目用の字幕データを、字幕を3D表示するための3D字幕データとして生成する。また、3D表示データ生成部36は、字幕/メニュー生成部35から供給されるメニューデータとオフセット情報に基づいて、3Dビデオデータと同様に、左目用のメニューデータと右目用のメニューデータを、メニューボタンを3D表示するための3Dメニューデータとして生成する。   Based on the caption data and offset information supplied from the caption / menu generation unit 35, the 3D display data generation unit 36 converts the caption data for the left eye and the caption data for the right eye, and the caption into 3D, in the same manner as the 3D video data. Generated as 3D subtitle data for display. Further, the 3D display data generation unit 36 converts the menu data for the left eye and the menu data for the right eye into the menu based on the menu data and the offset information supplied from the caption / menu generation unit 35, as in the 3D video data. The button is generated as 3D menu data for 3D display.

また、3D表示データ生成部36は、3Dビデオデータ、3D字幕データ、および3Dメニューデータを、左右の各目用のデータごとに合成する。具体的には、3D表示データ生成部36は、左目用のビデオデータ、左目用の字幕データ、および左目用のメニューデータを合成して左目用の表示データを生成する。また、3D表示データ生成部36は、右目用のビデオデータ、右目用の字幕データ、および右目用のメニューデータを合成して右目用の表示データを生成する。   In addition, the 3D display data generation unit 36 synthesizes 3D video data, 3D caption data, and 3D menu data for each of the left and right eye data. Specifically, the 3D display data generation unit 36 generates left-eye display data by combining the left-eye video data, the left-eye caption data, and the left-eye menu data. In addition, the 3D display data generation unit 36 combines the right-eye video data, the right-eye caption data, and the right-eye menu data to generate right-eye display data.

さらに、3D表示データ生成部36は、BD-Jグラフィックス生成部37から供給される、メニューボタンなどのBD-Jグラフィックスを2D表示するためのグラフィックスデータとオフセット情報に基づいて、3Dビデオデータと同様に、左目用のグラフィックスデータと右目用のグラフィックスデータを、BD-Jグラフィックスを3D表示するための3Dグラフィックスデータとして生成する。   Further, the 3D display data generation unit 36 is supplied from the BD-J graphics generation unit 37 based on the graphics data for displaying 2D BD-J graphics such as a menu button and offset information. Similar to the data, left-eye graphics data and right-eye graphics data are generated as 3D graphics data for 3D display of BD-J graphics.

3D表示データ生成部36は、3Dビデオデータと3Dグラフィックスデータを、左右の各目用のデータごとに合成し、左目用の合成結果を左目用の表示データとし、右目用の合成結果を右目用の表示データとする。そして、3D表示データ生成部36は、左目用の表示データと右目用の表示データを3D表示データとして表示部51に供給し、左目用の画像と右目用の画像を表示部51に表示させる。   The 3D display data generation unit 36 synthesizes 3D video data and 3D graphics data for each of the left and right eye data, uses the left eye synthesis result as display data for the left eye, and uses the synthesis result for the right eye as the right eye. Display data. Then, the 3D display data generation unit 36 supplies the display data for the left eye and the display data for the right eye to the display unit 51 as 3D display data, and causes the display unit 51 to display the image for the left eye and the image for the right eye.

BD-Jグラフィックス生成部37は、BD-Jオブジェクトの実行時に、制御部22からの制御にしたがってグラフィックスデータを生成する。そして、BD-Jグラフィックス生成部37は、そのグラフィックスデータと制御部22から供給されるオフセット情報を、3D表示データ生成部36に供給する。   The BD-J graphics generation unit 37 generates graphics data according to control from the control unit 22 when executing the BD-J object. Then, the BD-J graphics generation unit 37 supplies the graphics data and offset information supplied from the control unit 22 to the 3D display data generation unit 36.

オーディオ生成部38は、PIDフィルタ33から供給されるオーディオデータのPESパケットを復号し、その結果得られるオーディオデータをスピーカ52に供給する。   The audio generation unit 38 decodes the PES packet of the audio data supplied from the PID filter 33 and supplies the audio data obtained as a result to the speaker 52.

表示部51は、3Dディスプレイなどにより構成される。表示部51は、3D表示データ生成部36から供給される3D表示データに基づいて左目用の画像と右目用の画像を表示する。その結果として、ユーザは、3D画像を見ることができる。   The display unit 51 is configured by a 3D display or the like. The display unit 51 displays an image for the left eye and an image for the right eye based on the 3D display data supplied from the 3D display data generation unit 36. As a result, the user can see the 3D image.

スピーカ52は、オーディオ生成部38から供給されるオーディオデータに対応する音声を出力する。   The speaker 52 outputs sound corresponding to the audio data supplied from the audio generation unit 38.

記憶部24は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクなどにより構成される。記憶部24は、制御部22により実行されるプログラム、制御部22による処理によって生成される情報などを記憶する。通信部25は、ネットワークカード等で構成される。   The storage unit 24 includes a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, and the like. The storage unit 24 stores a program executed by the control unit 22, information generated by processing by the control unit 22, and the like. The communication unit 25 is configured with a network card or the like.

なお、制御部22により実行されるプログラムは、記憶部24のROMに記憶されるようにすることもできるし、記憶部24のハードディスクやドライブ26に装着されるリムーバブルメディア53に記録され、記憶部24のRAMにロードされることにより実行されるようにすることもできる。   The program executed by the control unit 22 can be stored in the ROM of the storage unit 24, or is recorded on the hard disk of the storage unit 24 or the removable medium 53 attached to the drive 26, and the storage unit It can also be executed by being loaded into 24 RAMs.

リムーバブルメディア53としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。   Examples of the removable medium 53 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.

また、制御部22により実行されるプログラムは、上述したようなリムーバブルメディア53から再生装置20にインストールする他、通信網や放送網を介して、再生装置20にダウンロードし、記憶部24のハードディスクにインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して再生装置20に無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、再生装置20に有線で転送することができる。   The program executed by the control unit 22 is downloaded from the removable medium 53 as described above to the playback device 20, downloaded to the playback device 20 via a communication network or a broadcast network, and stored in the hard disk of the storage unit 24. Can be installed. That is, for example, the program is wirelessly transferred from the download site to the playback device 20 via a digital satellite broadcasting artificial satellite, or wired to the playback device 20 via a network such as a LAN (Local Area Network) or the Internet. Can be transferred.

[字幕生成部の詳細構成例]
図6は、図5の字幕生成部41の詳細構成例を示すブロック図である。
[Detailed configuration example of subtitle generator]
FIG. 6 is a block diagram illustrating a detailed configuration example of the caption generation unit 41 in FIG. 5.

図6の字幕生成部41は、符号化データバッファ61、ストリームグラフィックス生成部62、オブジェクトバッファ63、グラフィックスプレーン64、CLUT(Color Look Up Table)65、コンポジションバッファ66、および制御部67により構成される。   6 includes an encoded data buffer 61, a stream graphics generation unit 62, an object buffer 63, a graphics plane 64, a CLUT (Color Look Up Table) 65, a composition buffer 66, and a control unit 67. Composed.

符号化データバッファ61は、図5のPIDフィルタ33から供給される字幕データのPESパケットのうちのセグメントを保持する。符号化データバッファ61は、字幕データのPESパケットのPESパケットヘッダに含まれているDTSに基づいて、PCS,WDS,ODSをストリームグラフィックス生成部62に供給する。符号化データバッファ61は、PIDフィルタ33から供給される字幕データのPDSを、即座にストリームグラフィックス生成部62に供給する。   The encoded data buffer 61 holds a segment of the PES packet of caption data supplied from the PID filter 33 in FIG. The encoded data buffer 61 supplies the PCS, WDS, and ODS to the stream graphics generation unit 62 based on the DTS included in the PES packet header of the PES packet of the caption data. The encoded data buffer 61 immediately supplies the PDS of the caption data supplied from the PID filter 33 to the stream graphics generation unit 62.

ストリームグラフィックス生成部62は、符号化データバッファ61から供給されるODSを復号し、その結果得られるインデックスカラーからなる非圧縮状態の字幕データ(ランレングスデータ)を字幕オブジェクトとしてオブジェクトバッファ63に供給する。また、ストリームグラフィックス生成部62は、符号化データバッファ61から供給されるPDS,PCS,WDSをコンポジションバッファ66に供給する。   The stream graphics generation unit 62 decodes the ODS supplied from the encoded data buffer 61, and supplies uncompressed caption data (run-length data) composed of index colors obtained as a result to the object buffer 63 as a caption object. To do. Further, the stream graphics generation unit 62 supplies the PDS, PCS, and WDS supplied from the encoded data buffer 61 to the composition buffer 66.

オブジェクトバッファ63は、ストリームグラフィックス生成部62から供給される字幕オブジェクトを保持する。   The object buffer 63 holds the caption object supplied from the stream graphics generation unit 62.

グラフィックスプレーン64は、オブジェクトバッファ63から供給される1画面分の字幕オブジェクトを保持する。グラフィックスプレーン64は、制御部67からの指示に応じて、保持している字幕オブジェクトを読み出し、CLUT65に供給する。   The graphics plane 64 holds a caption object for one screen supplied from the object buffer 63. In response to an instruction from the control unit 67, the graphics plane 64 reads out the retained caption object and supplies it to the CLUT 65.

CLUT65は、制御部67から供給されるPDSに基づいて、インデックスカラーとY,Cr,Cbの値とを対応付けたテーブルを記憶する。CLUT65は、記憶しているテーブルに基づいて、グラフィックスプレーン64から供給される字幕オブジェクトのインデックスカラーをY,Cr,Cbの値からなる画像データに変換する。そして、CLUT65は、字幕オブジェクトの画像データを字幕データとして3D表示データ生成部36(図5)に出力する。   The CLUT 65 stores a table in which index colors are associated with Y, Cr, and Cb values based on the PDS supplied from the control unit 67. The CLUT 65 converts the index color of the caption object supplied from the graphics plane 64 into image data composed of Y, Cr, and Cb values based on the stored table. Then, the CLUT 65 outputs the image data of the caption object as caption data to the 3D display data generation unit 36 (FIG. 5).

コンポジションバッファ66は、ストリームグラフィックス生成部62から供給されるPDS,PCS,WDSを保持する。   The composition buffer 66 holds PDS, PCS, and WDS supplied from the stream graphics generation unit 62.

制御部67は、コンポジションバッファ66からPCSに含まれるオフセット情報を読み出し、3D字幕データの生成に用いられるオフセット情報として設定する。また、制御部67は、制御部22(図5)からの制御にしたがって、各部を制御する。例えば、制御部67は、制御部22(図5)からの、ムービーオブジェクトに記述されるオフセットフラグを変更するためのナビゲーションコマンド(以下、オフセットフラグ変更コマンドという)に応じた制御により、現在設定中のオフセット情報のオフセットフラグを変更する。   The control unit 67 reads the offset information included in the PCS from the composition buffer 66 and sets it as offset information used for generating 3D subtitle data. Moreover, the control part 67 controls each part according to control from the control part 22 (FIG. 5). For example, the control unit 67 is currently set by control according to a navigation command (hereinafter referred to as an offset flag change command) for changing the offset flag described in the movie object from the control unit 22 (FIG. 5). Change the offset flag of the offset information.

また、制御部67は、現在設定中のオフセット情報を3D表示データ生成部36に供給する。制御部67は、PESパケットヘッダに含まれるPTSに基づくタイミングで、グラフィックスプレーン64に字幕オブジェクトのCLUT65への転送を指示する。さらに、制御部67は、コンポジションバッファ66からPDSを読み出し、CLUT65に供給する。   Further, the control unit 67 supplies the currently set offset information to the 3D display data generation unit 36. The control unit 67 instructs the graphics plane 64 to transfer the caption object to the CLUT 65 at a timing based on the PTS included in the PES packet header. Further, the control unit 67 reads the PDS from the composition buffer 66 and supplies it to the CLUT 65.

[メニュー生成部の詳細構成例]
メニュー生成部42は、処理対象が字幕データではなく、メニューデータである点を除いて、図6の字幕生成部41と同様に構成されるので、図示は省略する。
[Detailed configuration example of menu generator]
Since the menu generation unit 42 is configured in the same manner as the caption generation unit 41 in FIG. 6 except that the processing target is not caption data but menu data, the illustration is omitted.

メニュー生成部42の符号化データバッファは、メニューデータのPESパケットのうちのセグメントを保持し、コンポジションバッファは、ICS,PDSを保持する。ストリームグラフィックス生成部は、メニューデータのODSを復号し、インデックスカラーからなる非圧縮状態のメニューデータをメニューオブジェクトとしてオブジェクトバッファに供給して保持させる。   The encoded data buffer of the menu generation unit 42 holds a segment of the PES packet of menu data, and the composition buffer holds ICS and PDS. The stream graphics generation unit decodes the ODS of the menu data, and supplies the uncompressed menu data composed of the index colors to the object buffer as a menu object to be held.

グラフィックスプレーンは、オブジェクトバッファ63に保持されているメニューオブジェクトを読み出し、1画面分のメニューオブジェクトを保持する。CLUTは、グラフィックスプレーンから読み出されたメニューオブジェクトを画像データに変換し、メニューデータとして3D表示データ生成部36に出力する。   The graphics plane reads the menu object held in the object buffer 63 and holds the menu object for one screen. The CLUT converts the menu object read from the graphics plane into image data and outputs it to the 3D display data generation unit 36 as menu data.

[3D字幕データの生成の説明]
図7は、3D表示データ生成部36による3D字幕データの生成について説明する図である。
[Description of 3D caption data generation]
FIG. 7 is a diagram for describing generation of 3D subtitle data by the 3D display data generation unit 36.

図7の左側に示すように、字幕生成部41から出力される字幕データに対応する字幕が星型である場合、例えば、図7の右上に示すように、その星型の上下方向に伸びる中心線Cに対して右方向にオフセット値だけずらした星型の字幕データが、左目用の字幕データとして生成される。また、図7の右下に示すように、字幕生成部41から出力された字幕データに対応する星型を中心線Cに対して左方向にオフセット値だけずらした星型の字幕データが、右目用の字幕データとして生成される。   As shown on the left side of FIG. 7, when the caption corresponding to the caption data output from the caption generation unit 41 is a star, for example, as shown in the upper right of FIG. 7, the center extending in the vertical direction of the star Star-shaped subtitle data shifted by an offset value in the right direction with respect to the line C is generated as subtitle data for the left eye. Further, as shown in the lower right of FIG. 7, the star-shaped caption data obtained by shifting the star shape corresponding to the caption data output from the caption generation unit 41 to the left of the center line C by the offset value is It is generated as caption data for use.

表示部51は、以上のようにして生成された左目用の字幕データと右目用の字幕データに基づいて、図7の右上に示す星型を左目用の字幕の画像として表示し、図7の右下に示す星型を右目用の字幕の画像として表示する。その結果、ユーザは、表示部51において、例えば、図8に示すような表示面に対して飛び出た3Dの星型を字幕として見ることができる。   Based on the left-eye caption data and right-eye caption data generated as described above, the display unit 51 displays the star shape shown in the upper right of FIG. 7 as an image of the left-eye caption. The star shape shown in the lower right is displayed as a subtitle image for the right eye. As a result, the user can view, for example, a 3D star shape protruding from the display surface as shown in FIG.

[ムービーオブジェクト実行時の再生装置の処理の説明]
図9は、ムービーオブジェクト実行時の再生装置20による3D字幕再生処理を説明するフローチャートである。この3D字幕再生処理は、例えば、制御部22が、ムービーオブジェクトに記述される、プレイリストを再生するためのコマンドを実行するときに開始される。
[Description of processing of playback device when executing movie object]
FIG. 9 is a flowchart for explaining 3D subtitle playback processing by the playback device 20 when a movie object is executed. This 3D subtitle reproduction process is started, for example, when the control unit 22 executes a command for reproducing a playlist described in a movie object.

図9のステップS11において、ドライブ31は、制御部22からの指令に応じて、ディスク11からプレイリストファイルを読み出し、制御部22に供給する。   In step S <b> 11 of FIG. 9, the drive 31 reads a playlist file from the disc 11 and supplies it to the control unit 22 in response to a command from the control unit 22.

ステップS12において、ドライブ31は、プレイリストに基づく制御部22からの指令に応じて、プレイリストで指定されているクリップインフォメーションファイルに対応するAVストリームをディスク11から読み出し、読み出しバッファ32に供給する。   In step S <b> 12, the drive 31 reads an AV stream corresponding to the clip information file specified in the playlist from the disk 11 in response to a command from the control unit 22 based on the playlist, and supplies the AV stream to the read buffer 32.

ステップS13において、読み出しバッファ32は、ドライブ31から供給されるAVストリームを保持する。読み出しバッファ32は、保持しているAVストリームを読み出し、PIDフィルタ33に供給する。   In step S <b> 13, the read buffer 32 holds the AV stream supplied from the drive 31. The read buffer 32 reads the held AV stream and supplies it to the PID filter 33.

ステップS14において、PIDフィルタ33は、読み出しバッファ32からのAVストリームの各パケットのPIDに基づいて、そのAVストリームから字幕データのPESパケットを抽出し、字幕/メニュー生成部35に供給する。   In step S 14, the PID filter 33 extracts a PES packet of caption data from the AV stream based on the PID of each packet of the AV stream from the read buffer 32, and supplies the PES packet to the caption / menu generation unit 35.

ステップS15において、字幕生成部41の符号化データバッファ61(図6)は、PIDフィルタ33から供給される字幕データのPESパケットのうちのセグメントを保持する。   In step S <b> 15, the encoded data buffer 61 (FIG. 6) of the caption generation unit 41 holds a segment of the PES packet of caption data supplied from the PID filter 33.

ステップS16において、符号化データバッファ61は、保持しているセグメントを読み出して、ストリームグラフィックス生成部62に供給する。   In step S <b> 16, the encoded data buffer 61 reads the held segment and supplies the segment to the stream graphics generation unit 62.

ステップS17において、ストリームグラフィックス生成部62は、符号化データバッファ61から供給されるセグメントのうちのPCS,PDS,WDSをコンポジションバッファ66に供給し、保持させる。   In step S <b> 17, the stream graphics generation unit 62 supplies the PCS, PDS, and WDS of the segments supplied from the encoded data buffer 61 to the composition buffer 66 and holds them.

ステップS18において、制御部67は、コンポジションバッファ66に保持されているPCSに含まれるオブジェクト情報を、3D字幕データの生成に用いるオフセット情報として設定し、3D表示データ生成部36に出力する。   In step S <b> 18, the control unit 67 sets the object information included in the PCS held in the composition buffer 66 as offset information used for generating the 3D subtitle data, and outputs it to the 3D display data generation unit 36.

ステップS19において、ストリームグラフィックス生成部62は、符号化データバッファ61から供給されるセグメントのうちのODSを復号し、その結果得られる字幕オブジェクトをオブジェクトバッファ63に供給する。   In step S <b> 19, the stream graphics generation unit 62 decodes the ODS among the segments supplied from the encoded data buffer 61, and supplies the caption object obtained as a result to the object buffer 63.

ステップS20において、オブジェクトバッファ63は、ストリームグラフィックス生成部62から供給される字幕オブジェクトを保持する。オブジェクトバッファ63は、保持している字幕オブジェクトをグラフィックスプレーン64に供給する。   In step S <b> 20, the object buffer 63 holds the caption object supplied from the stream graphics generation unit 62. The object buffer 63 supplies the stored caption object to the graphics plane 64.

ステップS21において、グラフィックスプレーン64は、オブジェクトバッファ63から供給される1画面分の字幕オブジェクトを保持する。ステップS22において、グラフィックスプレーン64は、制御部67からの指示に応じて、保持している1画面分の字幕オブジェクトを読み出し、CLUT65に供給する。   In step S <b> 21, the graphics plane 64 holds a subtitle object for one screen supplied from the object buffer 63. In step S <b> 22, the graphics plane 64 reads out the subtitle object for one screen held in response to an instruction from the control unit 67, and supplies it to the CLUT 65.

ステップS23において、CLUT65は、記憶しているテーブルに基づいて、グラフィックスプレーン64から供給される字幕オブジェクトのインデックスカラーをY,Cr,Cbの値からなる画像データに変換する。そして、CLUT65は、その画像データを字幕データとして3D表示データ生成部36に出力する。   In step S23, the CLUT 65 converts the index color of the caption object supplied from the graphics plane 64 into image data composed of Y, Cr, and Cb values based on the stored table. Then, the CLUT 65 outputs the image data as caption data to the 3D display data generation unit 36.

ステップS24において、3D表示データ生成部36は、制御部67から供給されるオフセット情報に基づいて、CLUT65から供給される字幕データから3D字幕データを生成する。この3D字幕データは、3Dビデオデータおよび3Dメニューデータと合成され、3D表示データとして表示部51に供給される。その結果、表示部51には、3Dビデオデータに対応する3Dの主画像の副画像の1つとして、3Dの字幕が表示される。   In step S <b> 24, the 3D display data generation unit 36 generates 3D caption data from the caption data supplied from the CLUT 65 based on the offset information supplied from the control unit 67. This 3D subtitle data is combined with 3D video data and 3D menu data and supplied to the display unit 51 as 3D display data. As a result, 3D subtitles are displayed on the display unit 51 as one of the sub-images of the 3D main image corresponding to the 3D video data.

なお、3Dメニュー再生処理は、処理対象が字幕データではなく、メニューデータである点を除いて、図9の3D字幕再生処理と同様に行われるので、説明は省略する。   The 3D menu playback process is performed in the same manner as the 3D caption playback process of FIG. 9 except that the processing target is not the caption data but the menu data, and the description thereof will be omitted.

図10は、ムービーオブジェクト実行時の再生装置20による字幕オフセットフラグ変更処理を説明するフローチャートである。この字幕オフセットフラグ変更処理は、例えば、制御部22がオフセットフラグ変更コマンド(オフセット変更制御情報)を実行するときに開始される。   FIG. 10 is a flowchart for explaining subtitle offset flag change processing by the playback device 20 when a movie object is executed. This caption offset flag changing process is started, for example, when the control unit 22 executes an offset flag changing command (offset changing control information).

図10のステップS61において、制御部67は、制御部22からの指令に応じて、現在設定中のオフセット情報のオフセットフラグは1であるかどうかを判定する。ステップS61で現在設定中のオフセットフラグが1であると判定された場合、ステップS62において、制御部67は、現在設定中のオフセットフラグを0に変更する。そして処理はステップS64に進む。   In step S <b> 61 of FIG. 10, the control unit 67 determines whether or not the offset flag of the currently set offset information is 1 in response to a command from the control unit 22. If it is determined in step S61 that the currently set offset flag is 1, the control unit 67 changes the currently set offset flag to 0 in step S62. Then, the process proceeds to step S64.

一方、ステップS61で現在設定中のオフセットフラグが0であると判定された場合、ステップS63において、制御部67は、制御部22からの制御にしたがって、現在設定中のオフセットフラグを1に変更する。そして処理はステップS64に進む。   On the other hand, if it is determined in step S61 that the currently set offset flag is 0, in step S63, the control unit 67 changes the currently set offset flag to 1 in accordance with control from the control unit 22. . Then, the process proceeds to step S64.

ステップS64において、制御部67は、変更後のオフセットフラグを含むオフセット情報を3D表示データ生成部36に出力する。   In step S64, the control unit 67 outputs offset information including the changed offset flag to the 3D display data generation unit 36.

ステップS65において、3D表示データ生成部36は、制御部67から供給されるオフセット情報に基づいて、CLUT65から供給される字幕データから3D字幕データを生成する。   In step S <b> 65, the 3D display data generation unit 36 generates 3D caption data from the caption data supplied from the CLUT 65 based on the offset information supplied from the control unit 67.

その結果、表示部51に表示されている3Dの字幕の表示面に対して垂直な方向(以下、奥行き方向という)の位置が、表示面に対して反対の位置となる。即ち、表示面に対して飛び出すように表示されていた3Dの字幕は、表示面に対して引っ込むように表示され、表示面に対して引っ込むように表示されていた3Dの字幕は、表示面に対して飛び出すように表示される。   As a result, the position in the direction perpendicular to the display surface of the 3D caption displayed on the display unit 51 (hereinafter referred to as the depth direction) is the opposite position to the display surface. That is, the 3D subtitle displayed so as to jump out of the display surface is displayed so as to be retracted with respect to the display surface, and the 3D subtitle displayed so as to be retracted with respect to the display surface is displayed on the display surface. It is displayed to jump out.

例えば、図10の字幕オフセットフラグ変更処理前に、図8に示したように、表示面に対して飛び出すように表示されていた3Dの字幕としての星型は、字幕オフセット方向変更処理後には、図11に示すように、表示面に対して引っ込むように表示される。   For example, before the subtitle offset flag changing process of FIG. 10, as shown in FIG. 8, the star shape as a 3D subtitle displayed so as to pop out from the display surface is changed after the subtitle offset direction changing process, As shown in FIG. 11, it is displayed so as to retract with respect to the display surface.

なお、メニューオフセットフラグ変更処理は、処理対象が字幕データではなく、メニューデータである点を除いて、図10の字幕オフセットフラグ変更処理と同様に行われるので、説明は省略する。   The menu offset flag changing process is performed in the same manner as the caption offset flag changing process of FIG. 10 except that the processing target is not the caption data but the menu data, and thus the description thereof is omitted.

[オフセットフラグ変更コマンドの他の適用例]
図12は、オフセットフラグ変更コマンドの他の適用例を示す図である。
[Other examples of offset flag change command]
FIG. 12 is a diagram illustrating another application example of the offset flag change command.

図12に示すように、オフセットフラグ変更コマンドは、メニューデータのICSに含まれるメニュー制御情報に適用されてもよい。   As shown in FIG. 12, the offset flag change command may be applied to menu control information included in the ICS of the menu data.

この場合、図13に示すように、オフセットフラグ変更コマンドに対応するメニューボタンである方向変更ボタン81が表示部51に表示される。ユーザは、字幕やメニューボタンの表示中に、入力部21を用いて方向変更ボタン81を操作することにより、再生装置20に字幕オフセットフラグ変更処理およびメニューオフセットフラグ変更処理を行わせることができる。   In this case, as shown in FIG. 13, a direction change button 81 that is a menu button corresponding to the offset flag change command is displayed on the display unit 51. The user can cause the playback device 20 to perform the subtitle offset flag change process and the menu offset flag change process by operating the direction change button 81 using the input unit 21 while the subtitles and menu buttons are displayed.

具体的には、制御部22は、ユーザによる方向変更ボタン81に対する操作に対応する指令を入力部21から取得して制御部67に供給し、その方向変更ボタン81に対応するコマンドの実行を制御部67に指令する。制御部67は、その指令に応じて、現在設定中のオフセット情報に含まれるオフセットフラグを変更する。   Specifically, the control unit 22 acquires a command corresponding to an operation on the direction change button 81 by the user from the input unit 21, supplies the command to the control unit 67, and controls execution of a command corresponding to the direction change button 81. Command to unit 67. The control unit 67 changes the offset flag included in the currently set offset information in accordance with the command.

以上のように、再生装置20では、オフセットフラグ変更コマンドにしたがって、表示中の左目用の副画像のオフセット方向と反対方向にずらした2D表示用の副画像の画像データが左目用の副画像データとされ、その左目用の副画像データに基づいて左目用の副画像が表示されるとともに、表示中の右目用の副画像のオフセット方向と反対方向にずらした2D表示用の副画像の画像データが右目用の副画像データとされ、その右目用の副画像データに基づいて右目用の副画像が表示される。従って、表示部51に表示されている3Dの副画像の奥行き方向の表示面に対する位置を反対にすることができる。よって、オフセットフラグ変更コマンドを含むディスク11のビデオフォーマットは、副画像の3D表示に適した3Dビデオフォーマットであるといえる。   As described above, in the playback apparatus 20, the image data of the 2D display sub-image shifted in the direction opposite to the offset direction of the sub-image for the left eye being displayed according to the offset flag change command is the sub-image data for the left eye. Based on the left-eye sub-image data, the left-eye sub-image is displayed, and the image data of the 2D display sub-image shifted in the direction opposite to the offset direction of the currently displayed right-eye sub-image. Are sub-image data for the right eye, and the sub-image for the right eye is displayed based on the sub-image data for the right eye. Accordingly, the position of the 3D sub-image displayed on the display unit 51 with respect to the display surface in the depth direction can be reversed. Therefore, it can be said that the video format of the disk 11 including the offset flag change command is a 3D video format suitable for 3D display of the sub-image.

また、再生装置20は、オフセットフラグを変更することにより、左目用の副画像のオフセット方向と右目用の副画像のオフセット方向を変更するので、表示部51に表示されている3Dの副画像の奥行き方向の表示面に対する位置を容易に反対にすることができる。   Also, the playback device 20 changes the offset direction of the left-eye sub-image and the right-eye sub-image by changing the offset flag, and thus the 3D sub-image displayed on the display unit 51 is changed. The position with respect to the display surface in the depth direction can be easily reversed.

これに対して、オフセット情報の変更量をコマンドで与えることにより、3Dの副画像の奥行き方向の表示面に対する位置を反対にする場合、オフセット値の変更量は、変更前に設定されるオフセット値の倍になり、多くのビット数を必要とする。   On the other hand, when the position of the 3D sub-image is reversed with respect to the display surface in the depth direction by giving the amount of change of the offset information with a command, the amount of change of the offset value is the offset value set before the change. And requires a large number of bits.

例えば、現在設定中のオフセット値が63であり、オフセットフラグが1である場合、オフセット値の変更量は126となり、オフセット方向の変更方向を表すオフセットフラグは0となる。従って、このオフセット値の変更量を表すためには、オフセット値の変更量に7ビットを割り当てる必要がある。   For example, when the currently set offset value is 63 and the offset flag is 1, the offset value change amount is 126, and the offset flag indicating the offset direction change direction is 0. Therefore, in order to express the change amount of the offset value, it is necessary to assign 7 bits to the change amount of the offset value.

しかしながら、オフセット値の変更量に多くのビット数を割り当てることは困難であり、例えば、オフセット値の変更量に割り当てられたビット数が6ビットであり、オフセット方向に割り当てられたビット数が1ビットである場合、126は6ビットでは表せず、3Dの副画像の奥行き方向の表示面に対する位置を反対にすることはできない。   However, it is difficult to assign a large number of bits to the change amount of the offset value. For example, the number of bits assigned to the change amount of the offset value is 6 bits, and the number of bits assigned in the offset direction is 1 bit. , 126 is not represented by 6 bits, and the position of the 3D sub-image with respect to the display surface in the depth direction cannot be reversed.

[BD-Jオブジェクト実行時の再生装置の機能構成例]
図14は、BD-Jオブジェクト実行時の再生装置20の機能的構成例を示す図である。
[Functional configuration example of a playback device when executing a BD-J object]
FIG. 14 is a diagram illustrating a functional configuration example of the playback device 20 when executing a BD-J object.

ハードウェア91は、例えば、図5の入力部21、再生部23、記憶部24、通信部25、およびドライブ26により構成される。なお、再生部23の一部は、ソフトウェアにより実現されるようにしてもよい。   The hardware 91 includes, for example, the input unit 21, the reproduction unit 23, the storage unit 24, the communication unit 25, and the drive 26 illustrated in FIG. A part of the reproducing unit 23 may be realized by software.

また、システムファームウェア92、OS(Operating System)93、Java VM(Virtual Machine)94、およびBD-Jアプリケーション95は、制御部22により実行されるプログラムである。   The system firmware 92, OS (Operating System) 93, Java VM (Virtual Machine) 94, and BD-J application 95 are programs executed by the control unit 22.

システムファームウェア92は、ディスク11がハードウェア91に装着されると、ハードウェア91を制御して、ディスク11からインデックスファイルを読み出す。そして、システムファームウェア92は、そのインデックスファイルをハードウェア91に記憶させる。   When the disk 11 is mounted on the hardware 91, the system firmware 92 controls the hardware 91 to read the index file from the disk 11. The system firmware 92 stores the index file in the hardware 91.

また、システムファームウェア92は、ハードウェア91からインデックスファイルを読み出し、そのインデックスファイル内に記述される、再生対象とするタイトル番号に対応するBD-Jオブジェクトの種類と番号を認識する。   Further, the system firmware 92 reads the index file from the hardware 91, and recognizes the type and number of the BD-J object corresponding to the title number to be reproduced, which is described in the index file.

システムファームウェア92は、再生対象とするタイトル番号に対応するBD-Jオブジェクトの番号に基づいて、ハードウェア91を制御し、ディスク11から再生対象のBD-Jオブジェクトを読み出し、ハードウェア91に記憶させる。システムファームウェア92は、そのBD-Jオブジェクトに基づいて実行すべきBD-Jアプリケーション95を認識した後、Java VM94を起動する。そして、システムファームウェア92は、BD-Jアプリケーション95をJava VM94の上に展開する。   The system firmware 92 controls the hardware 91 based on the number of the BD-J object corresponding to the title number to be played back, reads the playback target BD-J object from the disk 11, and stores it in the hardware 91. . The system firmware 92 recognizes the BD-J application 95 to be executed based on the BD-J object, and then activates the Java VM 94. Then, the system firmware 92 deploys the BD-J application 95 on the Java VM 94.

なお、ディスク11がハードウェア91に装着された後、実行すべきBD-Jアプリケーション95が認識されるまでに、Java VM94が起動されるようにしてもよい。また、システムファームウェア92は、OS93により呼び出された機能を実現する。   Note that the Java VM 94 may be activated after the disk 11 is mounted on the hardware 91 and before the BD-J application 95 to be executed is recognized. The system firmware 92 implements a function called by the OS 93.

OS93は、Java VM94により通達される機能に基づいて、その機能に対応するシステムファームウェア92に対して機能の呼び出しを行う。   Based on the function notified by the Java VM 94, the OS 93 calls the function to the system firmware 92 corresponding to the function.

Java VM94は、BD-Jアプリケーション95により呼び出されたBD-J API(Application Program Interface)に対応する機能を解釈し、OS93に通達する。例えば、Java VM94は、BD-Jアプリケーション95により呼び出された、グラフィックスデータを生成し、BD-Jグラフィックスを表示するためのBD-J API(以下、生成表示APIという)に対応する生成表示機能を解釈し、生成表示機能をOS93に通達する。   The Java VM 94 interprets a function corresponding to a BD-J API (Application Program Interface) called by the BD-J application 95 and notifies the OS 93. For example, the Java VM 94 generates and displays graphics data called by the BD-J application 95 and corresponds to a BD-J API (hereinafter referred to as a generation display API) for displaying BD-J graphics. Interpret the function and notify the OS93 of the generation display function.

また、Java VM94は、BD-Jアプリケーション95により呼び出された、BD-Jグラフィックスのオフセット方向を変更するためのBD-J APIであるpublic void change Offset Sign()(以下、オフセット方向変更APIという)に対応するオフセット方向変更機能を解釈し、オフセット方向変更機能をOS93に通達する。   The Java VM 94 is a public void change Offset Sign () (hereinafter referred to as an offset direction change API) that is a BD-J API called by the BD-J application 95 to change the offset direction of BD-J graphics. ), And notifies the OS 93 of the offset direction change function.

BD-Jアプリケーション95は、Java VM94に対して、Java VM94に規定されるBD-J APIの呼び出しを行う。例えば、BD-Jアプリケーション95(生成制御情報)は、Java VM94に対して生成表示APIの呼び出しを行う。また、BD-Jアプリケーション95(オフセット変更制御情報)は、Java VM94に対してオフセット方向変更APIの呼び出しを行う。   The BD-J application 95 calls the BD-J API defined in the Java VM 94 with respect to the Java VM 94. For example, the BD-J application 95 (generation control information) calls the generation display API for the Java VM 94. Further, the BD-J application 95 (offset change control information) calls the offset direction change API to the Java VM 94.

[BD-Jオブジェクト実行時の再生装置の処理の説明]
図15は、BD-Jオブジェクト実行時の再生装置20によるグラフィックス表示処理を説明するフローチャートである。このグラフィックス表示処理は、例えば、システムファームウェア92が、グラフィックスデータを生成し、BD-Jグラフィックスを表示すためのBD-Jアプリケーション95をJava VM94の上に展開したとき、開始される。
[Description of playback device processing during BD-J object execution]
FIG. 15 is a flowchart for explaining graphics display processing by the playback device 20 when executing a BD-J object. This graphics display processing is started, for example, when the system firmware 92 generates graphics data and develops a BD-J application 95 for displaying BD-J graphics on the Java VM 94.

図15のステップS81において、BD-Jアプリケーション95は、Java VM94に対して、オフセット情報を設定するためのBD-J API(以下、オフセット情報設定APIという)の呼び出しを行う。これにより、Java VM94は、オフセット情報設定APIに対応する機能としてオフセット情報設定機能を解釈し、OS93に通達する。そして、OS93は、オフセット情報設定機能に対応するシステムファームウェア92に対してオフセット情報設定機能の呼び出しを行う。   In step S81 of FIG. 15, the BD-J application 95 calls the BD-J API for setting offset information (hereinafter referred to as offset information setting API) to the Java VM 94. Thereby, the Java VM 94 interprets the offset information setting function as a function corresponding to the offset information setting API, and notifies the OS 93. Then, the OS 93 calls the offset information setting function to the system firmware 92 corresponding to the offset information setting function.

ステップS82において、システムファームウェア92は、ハードウェア91のBD-Jグラフィックス生成部37を制御し、オフセット情報を設定させる。BD-Jグラフィックス生成部37は、そのオフセット情報を3D表示データ生成部36に供給する。   In step S82, the system firmware 92 controls the BD-J graphics generation unit 37 of the hardware 91 to set offset information. The BD-J graphics generation unit 37 supplies the offset information to the 3D display data generation unit 36.

ステップS83において、BD-Jアプリケーション95は、Java VM94に対して、生成表示APIの呼び出しを行う。これにより、Java VM94は、生成表示APIに対応する機能として生成表示機能を解釈し、OS93に通達する。そして、OS93は、生成表示機能に対応するシステムファームウェア92に対して生成表示機能の呼び出しを行う。   In step S83, the BD-J application 95 calls the generation display API to the Java VM 94. As a result, the Java VM 94 interprets the generation display function as a function corresponding to the generation display API, and notifies the OS 93. Then, the OS 93 calls the generation display function to the system firmware 92 corresponding to the generation display function.

ステップS84において、ハードウェア91のBD-Jグラフィックス生成部37は、システムファームウェア92の制御により、グラフィックスデータを生成し、3D表示データ生成部36に供給する。   In step S <b> 84, the BD-J graphics generation unit 37 of the hardware 91 generates graphics data under the control of the system firmware 92 and supplies the graphics data to the 3D display data generation unit 36.

ステップS85において、ハードウェア91の3D表示データ生成部36は、システムファームウェア92の制御により、BD-Jグラフィックス生成部37から供給されるオフセット情報に基づいて、グラフィックスデータから3Dグラフィックスデータを生成する。この3Dグラフィックスデータは、3Dビデオデータおよび3Dメニューデータと合成され、3D表示データとして表示部51に供給される。その結果、表示部51には、3Dビデオデータに対応する3Dの主画像の副画像の1つとして、3DのBD-Jグラフィックスが表示される。   In step S85, the 3D display data generation unit 36 of the hardware 91 converts 3D graphics data from the graphics data based on the offset information supplied from the BD-J graphics generation unit 37 under the control of the system firmware 92. Generate. This 3D graphics data is combined with 3D video data and 3D menu data and supplied to the display unit 51 as 3D display data. As a result, 3D BD-J graphics are displayed on the display unit 51 as one of the sub-images of the 3D main image corresponding to the 3D video data.

図16は、BD-Jオブジェクト実行時の再生装置20によるオフセット方向変更処理を説明するフローチャートである。このオフセット方向変更処理は、例えば、BD-Jアプリケーション95が、Java VM94に対してオフセット方向変更APIを呼び出したとき、開始される。   FIG. 16 is a flowchart for explaining offset direction change processing by the playback device 20 when executing a BD-J object. This offset direction changing process is started, for example, when the BD-J application 95 calls the offset direction changing API to the Java VM 94.

図16のステップS101において、システムファームウェア92は、BD-Jアプリケーション95によるオフセット方向変更APIの呼び出しに対応する、OS93によるオフセット方向変更機能の呼び出しに応じて、ハードウェア91のBD-Jグラフィックス生成部37を制御し、現在設定中のオフセット情報のオフセット値の正負を反転させる。即ち、BD-Jグラフィックス生成部37は、現在設定中のオフセット情報のオフセット方向を変更する。そして、BD-Jグラフィックス生成部37は、変更後のオフセット方向を含むオフセット情報を3D表示データ生成部36に供給する。   In step S101 of FIG. 16, the system firmware 92 generates BD-J graphics of the hardware 91 in response to the offset direction change function call by the OS 93 corresponding to the offset direction change API call by the BD-J application 95. The unit 37 is controlled to invert the sign of the offset value of the currently set offset information. That is, the BD-J graphics generation unit 37 changes the offset direction of the currently set offset information. Then, the BD-J graphics generation unit 37 supplies offset information including the changed offset direction to the 3D display data generation unit 36.

ステップS102において、ハードウェア91の3D表示データ生成部36は、BD-Jグラフィックス生成部37から供給されるオフセット情報に基づいて、3Dグラフィックスデータを更新する。   In step S102, the 3D display data generation unit 36 of the hardware 91 updates the 3D graphics data based on the offset information supplied from the BD-J graphics generation unit 37.

これにより、表示部51に表示されている3DのBD-Jグラフィックスの奥行き方向の位置が、表示面に対して反対の位置となる。即ち、表示面に対して飛び出すように表示されていた3DのBD-Jグラフィックスは、表示面に対して引っ込むように表示され、表示面に対して引っ込むように表示されていた3DのBD-Jグラフィックスは、表示面に対して飛び出すように表示される。   Accordingly, the position in the depth direction of the 3D BD-J graphics displayed on the display unit 51 is opposite to the display surface. That is, the 3D BD-J graphics that were displayed so as to pop out of the display surface are displayed so as to be retracted with respect to the display surface, and the 3D BD-J that is displayed so as to be retracted with respect to the display surface. J graphics are displayed so as to pop out of the display surface.

以上のように、再生装置20では、オフセット方向変更APIを読み出すBD-Jアプリケーション95にしたがって、表示中の左目用のBD-Jグラフィックスのオフセット方向と反対方向にずらした2D表示用のBD-Jグラフィックスの画像データが左目用のグラフィックスデータとされ、その左目用のグラフィックスデータに基づいて左目用のBD-Jグラフィックスが表示されるとともに、表示中の右目用のBD-Jグラフィックスのオフセット方向と反対方向にずらした2D表示用のBD-Jグラフィックスの画像データが右目用のグラフィックスデータとされ、その右目用のグラフィックスデータに基づいて右目用のBD-Jグラフィックスが表示される。従って、表示部51に表示されている3DのBD-Jグラフィックスの奥行き方向の表示面に対する位置を反対にすることができる。よって、オフセット方向変更APIを読み出すBD-Jアプリケーション95を含むディスク11のビデオフォーマットは、BD-Jグラフィックスの3D表示に適した3Dビデオフォーマットであるといえる。   As described above, in the playback device 20, in accordance with the BD-J application 95 that reads the offset direction change API, the BD-J for 2D display shifted in the direction opposite to the offset direction of the BD-J graphics for the left eye being displayed. The image data of J graphics is the left-eye graphics data, the left-eye BD-J graphics are displayed based on the left-eye graphics data, and the right-eye BD-J graphics being displayed The image data of BD-J graphics for 2D display shifted in the direction opposite to the offset direction of the graphics is used as the graphics data for the right eye, and the BD-J graphics for the right eye based on the graphics data for the right eye Is displayed. Therefore, the position of the 3D BD-J graphics displayed on the display unit 51 with respect to the display surface in the depth direction can be reversed. Therefore, it can be said that the video format of the disc 11 including the BD-J application 95 that reads the offset direction change API is a 3D video format suitable for 3D display of BD-J graphics.

また、再生装置20は、オフセット値の正負を変更することにより、左目用のBD-Jグラフィックスのオフセット方向と右目用のBD-Jグラフィックスのオフセット方向を変更する。従って、例えば、システムファームウェア92が、現在設定中のオフセット情報を読み出すためのBD-J APIの呼び出しに応じて、ハードウェア91に現在設定中のオフセット情報を読み出させ、オフセット情報設定APIの呼び出しに応じて、読み出されたオフセット情報のオフセット値の正負を反転させたものを設定させる場合に比べて、表示部51に表示されている3DのBD-Jグラフィックスの奥行き方向の表示面に対する位置を容易に反対にすることができる。   Further, the playback device 20 changes the offset direction of the BD-J graphics for the left eye and the offset direction of the BD-J graphics for the right eye by changing the sign of the offset value. Therefore, for example, in response to a call to the BD-J API for reading the offset information being currently set, the system firmware 92 causes the hardware 91 to read the offset information being currently set to call the offset information setting API. Accordingly, the 3D BD-J graphics displayed on the display unit 51 with respect to the display surface in the depth direction are compared with the case where the inverted offset value of the read offset information is set. The position can be easily reversed.

<第2実施の形態>
[ディスクの第2実施の形態におけるエポックの構成例]
図17は、本発明を適用したディスクの第2実施の形態における字幕データのエポック(Epoch)の構成例を示す図である。
<Second Embodiment>
[Configuration example of epoch in the second embodiment of the disk]
FIG. 17 is a diagram showing a configuration example of epochs of caption data in the second embodiment of the disc to which the present invention is applied.

図17のディスク501では、主に、主画像と副画像の3D表示に用いられる左目用のAVストリームと右目用のAVストリームの2つのAVストリームが記録される点が、図1のディスク11と異なっている。図17に示すように、同時に再生される左目用のAVストリームと右目用のAVストリームのエポックの構造は同一である。即ち、同時に再生される左目用のエポックのディスプレイセット数と右目用のエポックのディスプレイセット数は同一である。   The disc 501 in FIG. 17 mainly records two AV streams, a left-eye AV stream and a right-eye AV stream used for 3D display of the main image and the sub-image. Is different. As shown in FIG. 17, the epoch structures of the AV stream for the left eye and the AV stream for the right eye that are reproduced simultaneously are the same. That is, the number of display sets for the left-eye epoch and the number of display sets for the right-eye epoch that are simultaneously played back are the same.

また、同時に再生される左目用のディスプレイセットと右目用のディスプレイセットの間では、各セグメントのPTSは同一である。これにより、左目用の字幕と右目用の字幕の表示タイミングを同時にすることができる。   Also, between the left-eye display set and the right-eye display set that are played back simultaneously, the PTS of each segment is the same. Thereby, the display timing of the subtitle for the left eye and the subtitle for the right eye can be made simultaneously.

PCSのPESパケットヘッダに含まれるPTSは、PCSに対応するODSの復号時間、ODSに対応する字幕の描画に必要な時間、およびウィンドウの描画に必要な時間に基づいて求められる。従って、同時に再生される左目用のディスプレイセットと右目用のディスプレイセットの間では、同一の副画像IDのODSに対応する字幕の縦横サイズ、および、同一のウィンドウIDのウィンドウの縦横サイズは同一である。これにより、左目用のディスプレイセットと右目用のディスプレイセットの間で、矛盾無く、PCSのPESパケットヘッダに含まれるPTSを同期させることができる。   The PTS included in the PES packet header of the PCS is obtained based on the decoding time of the ODS corresponding to the PCS, the time required for drawing the subtitle corresponding to the ODS, and the time required for drawing the window. Therefore, between the left-eye display set and the right-eye display set that are played back simultaneously, the vertical and horizontal sizes of the subtitles corresponding to the ODS with the same sub-image ID and the vertical and horizontal sizes of the windows with the same window ID are the same. is there. As a result, the PTS included in the PES packet header of the PCS can be synchronized between the left-eye display set and the right-eye display set without any contradiction.

また、同時に再生される左目用のディスプレイセットと右目用のディスプレイセットの間では、副画像IDおよびウィンドウIDは同一である。これにより、同一の字幕に対応する画像が同時に表示されるため、ユーザは、3Dの字幕を見ることができる。   Further, the sub-image ID and the window ID are the same between the left-eye display set and the right-eye display set that are reproduced simultaneously. As a result, images corresponding to the same subtitle are displayed at the same time, so that the user can view the 3D subtitle.

さらに、同時に再生される左目用のディスプレイセットと右目用のディスプレイセットの間では、ODSを除いたセグメントの数が同一であり、各セグメントのDTSは同一である。なお、同一の副画像IDに対応する字幕の形状は異なっていてもよい。また、PDSは異なっていてもよい。   Further, between the left-eye display set and the right-eye display set that are played back simultaneously, the number of segments excluding ODS is the same, and the DTS of each segment is the same. Note that the shapes of subtitles corresponding to the same sub-image ID may be different. Also, the PDS may be different.

メニューデータのエポックの構造、および、同時に再生される左目用のディスプレイセットと右目用のディスプレイセットの関係については、PCSがICSに代わる点を除いて同様であるので、説明は省略する。   Since the epoch structure of the menu data and the relationship between the left-eye display set and the right-eye display set that are played back simultaneously are the same except that the PCS replaces the ICS, the description thereof is omitted.

但し、メニューボタンが、ユーザによる選択時などに一定のフレームレートでアニメーションされる場合、左目用のメニューボタンと右目用のメニューボタンのアニメーションのフレームレートを同一にする必要がある。従って、このようなメニューボタンに対応する左目用のディスプレイセットと右目用のディスプレイセットの間では、ICSに含まれるアニメーションのフレームレートを決定するフィールドが同一になっている。これにより、左目用のメニューボタンと右目用のメニューボタンが、常に対応して一定のフレームレートでアニメーションされるので、ユーザは、一定のフレームレートでアニメーションされる3Dのメニューボタンを見ることができる。   However, if the menu button is animated at a constant frame rate when selected by the user, the animation frame rate of the menu button for the left eye and the menu button for the right eye needs to be the same. Therefore, the field for determining the frame rate of the animation included in the ICS is the same between the display set for the left eye and the display set for the right eye corresponding to such a menu button. Thereby, the menu button for the left eye and the menu button for the right eye are always correspondingly animated at a constant frame rate, so that the user can see the 3D menu button animated at a constant frame rate. .

また、メニューボタンの表示開始時などに、エフェクトと呼ばれる、アニメーションによるスライドイン等が行われる場合、左目用のメニューボタンと右目用のメニューボタンにおいて、アニメーションのコマ数と間隔を同一にする必要がある。従って、このようなメニューボタンに対応する左目用のディスプレイセットと右目用のディスプレイセットの間では、ICSに含まれるエフェクト時のアニメーションのコマ数および間隔を記述するフィールドが同一になっている。これにより、左目用のメニューボタンと右目用のメニューボタンが、常に対応してエフェクトされるので、ユーザは、エフェクトされる3Dのメニューボタンを見ることができる。   Also, when an animation called slide-in, etc., called effects is performed at the start of displaying the menu button, etc., the number of frames and the interval of the animation need to be the same for the menu button for the left eye and the menu button for the right eye. is there. Therefore, between the left-eye display set and the right-eye display set corresponding to such a menu button, the fields describing the number of frames and the interval of the animation at the time of the effect included in the ICS are the same. Thereby, the menu button for the left eye and the menu button for the right eye are always effected correspondingly, so that the user can see the 3D menu button to be effected.

[再生装置の構成例]
図18は、上述したディスク501を再生する再生装置510の構成例を示すブロック図である。
[Example of playback device configuration]
FIG. 18 is a block diagram showing a configuration example of a playback apparatus 510 that plays back the above-described disc 501.

図18に示す構成のうち、図5の構成と同一の構成には同一の符号を付してある。重複する説明については適宜省略する。   Of the configurations shown in FIG. 18, configurations the same as the configurations in FIG. 5 are denoted with the same reference numerals. The overlapping description will be omitted as appropriate.

図18の再生装置510の構成は、主に、制御部22の代わりに制御部511が設けられている点、および再生部23の代わりに再生部512が設けられている点が図5の構成と異なる。再生部512の構成は、PIDフィルタ33、ビデオ生成部34、字幕/メニュー生成部35、3D表示データ生成部36、BD-Jグラフィックス生成部37の代わりに、それぞれ、PIDフィルタ521、ビデオ生成部522、字幕/メニュー生成部523、3D表示データ生成部524、BD-Jグラフィックス生成部525が設けられている点が図5の構成と異なる。   The configuration of the playback apparatus 510 in FIG. 18 is mainly that a control unit 511 is provided instead of the control unit 22 and a playback unit 512 is provided instead of the playback unit 23. And different. The configuration of the playback unit 512 includes a PID filter 33, a video generation unit 34, a subtitle / menu generation unit 35, a 3D display data generation unit 36, and a BD-J graphics generation unit 37, respectively. 5 is different from the configuration of FIG. 5 in that a section 522, a caption / menu generation section 523, a 3D display data generation section 524, and a BD-J graphics generation section 525 are provided.

制御部511は、所定のプログラムを実行することにより、入力部21からの指令に応じて再生部512を制御する。例えば、制御部511は、再生部512のドライブ31を制御し、ディスク501からインデックスファイル、ムービーオブジェクトファイル、BD-Jオブジェクトファイル、プレイリストファイル、クリップインフォメーションファイル、ストリームファイルなどを読み出す。   The control unit 511 controls the playback unit 512 according to a command from the input unit 21 by executing a predetermined program. For example, the control unit 511 controls the drive 31 of the playback unit 512 to read an index file, movie object file, BD-J object file, playlist file, clip information file, stream file, and the like from the disc 501.

また、制御部511は、読み出されたクリップインフォメーションファイルに基づいて、再生対象の左目用のAVストリームと右目用のAVストリームのパケット番号のパケットを認識する。そして、制御部511は、ドライブ31を制御し、そのパケットからなる左目用のAVストリームおよび右目用のAVストリームを読み出す。   Further, the control unit 511 recognizes the packet having the packet number of the AV stream for the left eye and the AV stream for the right eye to be reproduced based on the read clip information file. Then, the control unit 511 controls the drive 31 to read out the left-eye AV stream and the right-eye AV stream that are composed of the packets.

PIDフィルタ521は、読み出しバッファ32からの左目用のAVストリームの各パケットのPIDに基づいて、左目用のAVストリームから、左目用のビデオデータと左目用の字幕データのPESパケットをそれぞれ抽出する。また、PIDフィルタ521は、左目用のAVストリームの各パケットのPIDに基づいて、左目用のAVストリームから左目用のメニューデータとオーディオデータのPESパケットをそれぞれ抽出する。   Based on the PID of each packet of the left-eye AV stream from the read buffer 32, the PID filter 521 extracts the left-eye video data and the left-eye caption data PES packet from the left-eye AV stream, respectively. The PID filter 521 extracts the left-eye menu data and the audio data PES packet from the left-eye AV stream based on the PID of each packet of the left-eye AV stream.

PIDフィルタ521はまた、読み出しバッファ32からの右目用のAVストリームの各パケットのPIDに基づいて、右目用のAVストリームから、右目用のビデオデータと右目用の字幕データのPESパケットをそれぞれ抽出する。また、PIDフィルタ521は、右目用のAVストリームの各パケットのPIDに基づいて、右目用のAVストリームから右目用のメニューデータのPESパケットを抽出する。   The PID filter 521 also extracts PES packets of right-eye video data and right-eye caption data from the right-eye AV stream based on the PID of each packet of the right-eye AV stream from the read buffer 32, respectively. . Further, the PID filter 521 extracts a PES packet of menu data for the right eye from the AV stream for the right eye based on the PID of each packet of the AV stream for the right eye.

ビデオ生成部522は、PIDフィルタ521から供給される左目用のビデオデータのPESパケットおよび右目用のビデオデータのPESパケットを復号する。そして、ビデオ生成部522は、復号の結果得られる左目用のビデオデータと右目用のビデオデータを、3Dビデオデータとして3D表示データ生成部524に供給する。   The video generation unit 522 decodes the PES packet of the video data for the left eye and the PES packet of the video data for the right eye supplied from the PID filter 521. Then, the video generation unit 522 supplies the left-eye video data and the right-eye video data obtained as a result of the decoding to the 3D display data generation unit 524 as 3D video data.

字幕/メニュー生成部523は、字幕生成部531とメニュー生成部532により構成される。字幕生成部531は、ムービーオブジェクトの実行時に、PIDフィルタ521から供給される左目用の字幕データと右目用の字幕データのPESパケットを復号する。そして、字幕生成部531は、復号の結果得られる左目用の字幕データと右目用の字幕データを、3D字幕データとして3D表示データ生成部524に供給する。   The caption / menu generation unit 523 includes a caption generation unit 531 and a menu generation unit 532. The caption generation unit 531 decodes the left-eye caption data and the right-eye caption data supplied from the PID filter 521 when the movie object is executed. Then, the caption generation unit 531 supplies the left-eye caption data and the right-eye caption data obtained as a result of the decoding to the 3D display data generation unit 524 as 3D caption data.

メニュー生成部532は、ムービーオブジェクトの実行時に、PIDフィルタ521から供給される左目用のメニューデータと右目用のメニューデータのPESパケットを復号する。そして、メニュー生成部532は、復号の結果得られる左目用のメニューデータと右目用のメニューデータを、3Dメニューデータとして3D表示データ生成部524に供給する。   The menu generation unit 532 decodes the left-eye menu data and the right-eye menu data PES packet supplied from the PID filter 521 when the movie object is executed. Then, the menu generation unit 532 supplies the left-eye menu data and the right-eye menu data obtained as a result of the decoding to the 3D display data generation unit 524 as 3D menu data.

3D表示データ生成部524は、ビデオ生成部522から供給される3Dビデオデータ、並びに、字幕/メニュー生成部523から供給される3D字幕データおよび3Dメニューデータを、左右の各目用のデータごとに合成し、3D表示データを生成する。また、3D表示データ生成部524は、ビデオ生成部522から供給される3DビデオデータとBD-Jグラフィックス生成部525から供給されるグラフィックスデータを、左右の各目用のデータごとに合成し、3D表示データを生成する。そして、3D表示データ生成部524は、3D表示データを表示部51に供給し、左目用の画像と右目用の画像を表示部51に表示させる。   The 3D display data generation unit 524 outputs the 3D video data supplied from the video generation unit 522 and the 3D subtitle data and 3D menu data supplied from the subtitle / menu generation unit 523 for each data for the left and right eyes. Combine and generate 3D display data. In addition, the 3D display data generation unit 524 combines the 3D video data supplied from the video generation unit 522 and the graphics data supplied from the BD-J graphics generation unit 525 for each data for the left and right eyes. 3D display data is generated. Then, the 3D display data generation unit 524 supplies the 3D display data to the display unit 51 and causes the display unit 51 to display a left-eye image and a right-eye image.

BD-Jグラフィックス生成部525は、BD-Jオブジェクトの実行時に、制御部511からの制御にしたがって、左目用と右目用のグラフィックスデータを生成する。そして、BD-Jグラフィックス生成部525は、左目用のグラフィックスデータと右目用のグラフィックスデータを、3Dグラフィックスデータとして3D表示データ生成部524に供給する。   The BD-J graphics generation unit 525 generates left-eye and right-eye graphics data according to control from the control unit 511 when executing the BD-J object. Then, the BD-J graphics generation unit 525 supplies the left-eye graphics data and the right-eye graphics data to the 3D display data generation unit 524 as 3D graphics data.

[字幕生成部の詳細構成例]
図19は、図18の字幕生成部531の詳細構成例を示すブロック図である。
[Detailed configuration example of subtitle generator]
FIG. 19 is a block diagram illustrating a detailed configuration example of the caption generation unit 531 of FIG.

図19において、字幕生成部531は、取得部540、右目用デコーダ541−1、左目用デコーダ541−2、右目用グラフィックスプレーン542−1、左目用グラフィックスプレーン542−2、CLUT543−1、およびCLUT543−2により構成される。   19, the caption generation unit 531 includes an acquisition unit 540, a right-eye decoder 541-1, a left-eye decoder 541-2, a right-eye graphics plane 542-1, a left-eye graphics plane 542-2, a CLUT 543-1, And CLUT 543-2.

取得部540には、図18のPIDフィルタ521から右目用の字幕データと左目用の字幕データが供給される。取得部540は、PIDフィルタ521から供給される右目用の字幕データを右目用デコーダ541−1に入力し、左目用の字幕データを左目用デコーダ541−2に入力する。   The acquisition unit 540 is supplied with right-eye caption data and left-eye caption data from the PID filter 521 of FIG. The acquisition unit 540 inputs the right-eye caption data supplied from the PID filter 521 to the right-eye decoder 541-1 and inputs the left-eye caption data to the left-eye decoder 541-2.

また、取得部540は、制御部511(図18)からの、左目用の字幕データと右目用の字幕データを入れ替えるためのナビゲーションコマンド(以下、LR交換コマンドという)に応じた制御により、右目用デコーダ541−1と左目用デコーダ541−2に入力する字幕データを入れ替える。   Further, the acquisition unit 540 controls the right-eye by control according to a navigation command (hereinafter referred to as an LR exchange command) for replacing the left-eye caption data and the right-eye caption data from the control unit 511 (FIG. 18). The caption data input to the decoder 541-1 and the left-eye decoder 541-2 are switched.

右目用デコーダ541−1は、符号化データバッファ561−1、ストリームグラフィックス生成部562−1、オブジェクトバッファ563−1、コンポジションバッファ564−1、および制御部565−1により構成される。   The right-eye decoder 541-1 includes an encoded data buffer 561-1, a stream graphics generation unit 562-1, an object buffer 563-1, a composition buffer 564-1, and a control unit 565-1.

符号化データバッファ561−1は、取得部540から供給される字幕データのPESパケットのうちのセグメントを保持する。符号化データバッファ561−1は、保持しているセグメントを読み出して、ストリームグラフィックス生成部562−1に供給する。   The encoded data buffer 561-1 holds a segment of the PES packet of caption data supplied from the acquisition unit 540. The encoded data buffer 561-1 reads the held segment and supplies it to the stream graphics generation unit 562-1.

ストリームグラフィックス生成部562−1は、符号化データバッファ561−1から供給されるセグメントのうちのODSを復号する。そして、ストリームグラフィックス生成部562−1は、その結果得られるインデックスカラーからなる非圧縮状態の字幕データを字幕オブジェクトとしてオブジェクトバッファ563−1に供給する。また、ストリームグラフィックス生成部562−1は、符号化データバッファ561−1から供給されるセグメントのうちのPDS,PCS,WDSをコンポジションバッファ564−1に供給する。   The stream graphics generation unit 562-1 decodes the ODS among the segments supplied from the encoded data buffer 561-1. Then, the stream graphics generation unit 562-1 supplies the uncompressed caption data including the index color obtained as a result to the object buffer 563-1 as a caption object. Also, the stream graphics generation unit 562-1 supplies the PDS, PCS, and WDS of the segments supplied from the encoded data buffer 561-1 to the composition buffer 564-1.

オブジェクトバッファ563−1は、ストリームグラフィックス生成部562−1から供給される字幕オブジェクトを保持する。オブジェクトバッファ563−1は、エポック単位で、保持している字幕オブジェクトを削除する。また、オブジェクトバッファ563−1は、制御部565−1からの制御にしたがって、保持している字幕オブジェクトを読み出し、右目用グラフィックスプレーン542−1に供給する。   The object buffer 563-1 holds the caption object supplied from the stream graphics generation unit 562-1. The object buffer 563-1 deletes the held caption object in units of epochs. Further, the object buffer 563-1 reads out the subtitle object held in accordance with the control from the control unit 565-1, and supplies it to the graphics plane for right eye 542-1.

コンポジションバッファ564−1は、ストリームグラフィックス生成部562−1から供給されるPDS,PCS,WDSを保持する。   The composition buffer 564-1 holds the PDS, PCS, and WDS supplied from the stream graphics generation unit 562-1.

制御部565−1は、右目用グラフィックスプレーン542−1による1画面分の字幕オブジェクトの記憶の状態を監視し、1画面分の字幕オブジェクトの記憶の完了を制御部565−2に通知する。制御部565−1は、PESパケットヘッダに含まれるPTS、または、制御部565−2からの字幕オブジェクトの記憶の完了の通知に基づいて、右目用グラフィックスプレーン542−1に転送を指示する。さらに、制御部565−1は、コンポジションバッファ564からPDSを読み出し、CLUT543−1に供給する。   The control unit 565-1 monitors the storage state of the caption object for one screen by the right-eye graphics plane 542-1 and notifies the control unit 565-2 of the completion of storage of the caption object for one screen. The control unit 565-1 instructs transfer to the right-eye graphics plane 542-1 based on the PTS included in the PES packet header or the notification of the completion of storage of the caption object from the control unit 565-2. Further, the control unit 565-1 reads the PDS from the composition buffer 564 and supplies it to the CLUT 543-1.

また、制御部565−1は、制御部511(図18)からの指令にしたがって、各部を制御する。   Moreover, the control part 565-1 controls each part according to the instruction | command from the control part 511 (FIG. 18).

右目用グラフィックスプレーン542−1は、オブジェクトバッファ563−1から供給される1画面分の字幕オブジェクトを右目用の字幕オブジェクトとして保持する。右目用グラフィックスプレーン542−1は、エポック単位で、保持している右目用の字幕オブジェクトを消去する。また、右目用グラフィックスプレーン542−1は、制御部565−1からの転送の指示に応じて、保持している右目用の字幕オブジェクトを読み出し、CLUT543−1に供給する。   The right-eye graphics plane 542-1 holds the caption object for one screen supplied from the object buffer 563-1 as the caption object for the right eye. The right-eye graphics plane 542-1 erases the subtitle object for the right eye that is held in units of epochs. Also, the right-eye graphics plane 542-1 reads the stored right-eye caption object and supplies the read right-eye caption object to the CLUT 543-1 in response to a transfer instruction from the control unit 565-1.

CLUT543−1は、制御部565−1から供給されるPDSに基づいて、インデックスカラーとY,Cr,Cbの値とを対応付けたテーブルを記憶する。CLUT543−1は、記憶しているテーブルに基づいて、右目用グラフィックスプレーン542−1から供給される右目用の字幕オブジェクトのインデックスカラーをY,Cr,Cbの値からなる画像データに変換する。そして、CLUT543−1は、その画像データを右目用の字幕データとして3D表示データ生成部524(図18)に供給する。   The CLUT 543-1 stores a table in which index colors are associated with Y, Cr, and Cb values based on the PDS supplied from the control unit 565-1. The CLUT 543-1 converts the index color of the right-eye caption object supplied from the right-eye graphics plane 542-1 into image data including Y, Cr, and Cb values based on the stored table. Then, the CLUT 543-1 supplies the image data to the 3D display data generation unit 524 (FIG. 18) as subtitle data for the right eye.

左目用デコーダ541−2、左目用グラフィックスプレーン542−2、CLUT543−2は、それぞれ、右目用デコーダ541−1、右目用グラフィックスプレーン542−1、CLUT543−1と同様に構成される。   The left-eye decoder 541-2, the left-eye graphics plane 542-2, and the CLUT 543-2 are configured similarly to the right-eye decoder 541-1, the right-eye graphics plane 542-1, and the CLUT 543-1, respectively.

即ち、左目用デコーダ541−2は、符号化データバッファ561−2、ストリームグラフィックス生成部562−2、オブジェクトバッファ563−2、コンポジションバッファ564−2、および制御部565−2により構成される。左目用デコーダ541−2は、取得部540から供給される字幕データのODSを復号し、その結果得られる字幕オブジェクトを出力する。   That is, the left-eye decoder 541-2 includes an encoded data buffer 561-2, a stream graphics generation unit 562-2, an object buffer 563-2, a composition buffer 564-2, and a control unit 565-2. . The left-eye decoder 541-2 decodes the ODS of the caption data supplied from the acquisition unit 540, and outputs the caption object obtained as a result.

この字幕オブジェクトは、左目用の字幕オブジェクトとして、1画面単位で左目用グラフィックスプレーン542−2に保持され、右目用グラフィックスプレーン542−1に保持されている1画面分の右目用の字幕オブジェクトの読み出しと同時に読み出される。そして、読み出された1画面分の左目用の字幕オブジェクトは、CLUT543−2により、画像データに変換され、左目用の字幕データとして3D表示データ生成部524(図18)に供給される。   The caption object is a left-eye caption object held in the left-eye graphics plane 542-2 as a left-eye caption object, and the right-eye caption object for one screen held in the right-eye graphics plane 542-1. Read simultaneously with reading. Then, the read caption object for the left eye for one screen is converted into image data by the CLUT 543-2 and supplied to the 3D display data generation unit 524 (FIG. 18) as the caption data for the left eye.

以上のように、字幕生成部531では、エポック単位で、オブジェクトバッファ563−1、オブジェクトバッファ563−2、右目用グラフィックスプレーン542−1、および左目用グラフィックスプレーン542−2がクリアされる。しかしながら、ディスク501では、エポックを構成するディスプレイセットの数が、右目用のAVストリームと左目用のAVストリームで同一であるため、右目用の字幕と左目用の字幕のうちの一方の表示だけが停止することはない。その結果、字幕を常に3D表示することができる。   As described above, the caption generation unit 531 clears the object buffer 563-1, the object buffer 563-2, the right-eye graphics plane 542-1, and the left-eye graphics plane 542-2 in units of epochs. However, in the disc 501, since the number of display sets constituting the epoch is the same for the right-eye AV stream and the left-eye AV stream, only one of the right-eye caption and the left-eye caption is displayed. Never stop. As a result, subtitles can always be displayed in 3D.

なお、以下では、符号化データバッファ561−1と符号化データバッファ561−2を特に区別する必要がない場合、それらをまとめて符号化データバッファ561という。ストリームグラフィックス生成部562、オブジェクトバッファ563、コンポジションバッファ564、制御部565、およびCLUT543についても同様である。   Hereinafter, when it is not necessary to particularly distinguish the encoded data buffer 561-1 and the encoded data buffer 561-2, they are collectively referred to as an encoded data buffer 561. The same applies to the stream graphics generation unit 562, the object buffer 563, the composition buffer 564, the control unit 565, and the CLUT 543.

[3D字幕の表示の説明]
図20は、図18の表示部51による3Dの字幕の表示について説明する図である。
[Description of 3D subtitle display]
FIG. 20 is a diagram illustrating the display of 3D subtitles by the display unit 51 of FIG.

図20の左側に示すように、3D表示データ生成部524は、字幕生成部531からの左目用の字幕データを含む左目用のデータを合成した結果得られる左目用の表示データと、右目用の字幕データを含む右目用のデータを合成した結果得られる右目用の表示データを表示部51に供給する。これにより、表示部51には、例えば、図20の右側に示すように、右目用の字幕と左目用の字幕が同時に表示される。   As shown on the left side of FIG. 20, the 3D display data generation unit 524 includes the left-eye display data obtained as a result of combining the left-eye data including the left-eye caption data from the caption generation unit 531, and the right-eye display data. Display data for the right eye obtained as a result of combining the data for the right eye including the caption data is supplied to the display unit 51. Thereby, for example, as shown on the right side of FIG. 20, the right-eye caption and the left-eye caption are simultaneously displayed on the display unit 51.

[LR交換コマンドによる字幕の3D表示の変化の説明]
図21は、LR交換コマンド(LR交換制御情報)による字幕の3D表示の変化を説明する図である。
[Description of change in 3D display of subtitles by LR exchange command]
FIG. 21 is a diagram for explaining a change in 3D display of captions according to an LR exchange command (LR exchange control information).

図21Aに示すように、右目用グラフィックスプレーン542−1にディスク501に記録されている右目用の字幕データに対応する字幕オブジェクトが右目用の字幕オブジェクトとして保持され、左目用グラフィックスプレーン542−2にディスク501に記録されている左目用の字幕データに対応する字幕オブジェクトが左目用の字幕オブジェクトとして保持されているとき、ユーザ601は、表示部51に表示されている右目用の字幕を右目で見て、左目用の字幕を左目で見る。これにより、ユーザ601は、図21Aに示すように、例えば、表示部51の表示面に対して飛び出す方向に位置する3Dの字幕を見ることができる。   As shown in FIG. 21A, the caption object corresponding to the caption data for the right eye recorded on the disc 501 is held in the graphics plane for the right eye 542-1 as the caption object for the right eye, and the graphics plane for the left eye 542- 2, when the caption object corresponding to the caption data for the left eye recorded on the disc 501 is held as the caption object for the left eye, the user 601 selects the caption for the right eye displayed on the display unit 51 as the right eye And see the subtitles for the left eye with the left eye. Thereby, as shown in FIG. 21A, the user 601 can view 3D subtitles positioned in a direction protruding from the display surface of the display unit 51, for example.

これに対して、LR交換コマンドが実行されると、図21Bに示すように、右目用グラフィックスプレーン542−1にディスク501に記録されている左目用の字幕データに対応する字幕オブジェクトが右目用の字幕オブジェクトとして保持され、左目用グラフィックスプレーン542−1にディスク501に記録されている右目用の字幕データに対応する字幕オブジェクトが左目用の字幕オブジェクトとして保持される。   On the other hand, when the LR exchange command is executed, as shown in FIG. 21B, the caption object corresponding to the caption data for the left eye recorded on the disc 501 on the graphics plane 542-1 for the right eye is used for the right eye. The caption object corresponding to the caption data for the right eye recorded on the disc 501 in the left-eye graphics plane 542-1 is retained as the caption object for the left eye.

従って、ユーザ601は、表示部51において、ディスク501に記録されている左目用の字幕データに対応する左目用の字幕を右目で見て、ディスク501に記録されている右目用の字幕データに対応する右目用の字幕を左目で見る。これにより、ユーザ601は、図21Bに示すように、例えば、表示部51の表示面に対して引っ込む方向に位置する3Dの字幕を見ることができる。   Therefore, the user 601 corresponds to the subtitle data for the right eye recorded on the disc 501 by viewing the subtitle for the left eye corresponding to the subtitle data for the left eye recorded on the disc 501 with the right eye on the display unit 51. Watch the subtitles for the right eye with the left eye. Thereby, as shown in FIG. 21B, the user 601 can view, for example, 3D subtitles positioned in the retracted direction with respect to the display surface of the display unit 51.

以上のように、LR交換コマンドが実行されると、3Dの字幕の奥行き方向の位置が、表示面に対して反対となる。   As described above, when the LR exchange command is executed, the position of the 3D caption in the depth direction is opposite to the display surface.

[メニュー生成部の詳細構成例]
メニュー生成部532は、処理対象が字幕データではなく、メニューデータである点を除いて、図19の字幕生成部531と同様に構成されるので、図示は省略する。
[Detailed configuration example of menu generator]
The menu generation unit 532 is configured in the same manner as the subtitle generation unit 531 of FIG. 19 except that the processing target is not caption data but menu data, and thus illustration is omitted.

[ムービーオブジェクト実行時の再生装置の処理の説明]
図22は、ムービーオブジェクト実行時の再生装置510による3D字幕再生処理について説明するフローチャートである。この3D字幕再生処理は、例えば、制御部511が、ムービーオブジェクトに記述される、プレイリストを再生するためのコマンドを実行するときに開始される。
[Description of playback device processing when executing movie object]
FIG. 22 is a flowchart for describing 3D subtitle playback processing by the playback device 510 when a movie object is executed. This 3D subtitle reproduction process is started when, for example, the control unit 511 executes a command for reproducing a playlist described in a movie object.

図22のステップS111において、ドライブ31は、制御部511からの指令に応じて、ディスク501からプレイリストファイルを読み出し、制御部511に供給する。   In step S <b> 111 of FIG. 22, the drive 31 reads a playlist file from the disc 501 and supplies the playlist file to the control unit 511 in response to a command from the control unit 511.

ステップS112において、ドライブ31は、プレイリストに基づく制御部511からの指令に応じて、プレイリストで指定されているクリップインフォメーションファイルに対応する右目用および左目用のAVストリームをディスク501から読み出す。そして、ドライブ31は、その右目用および左目用のAVストリームを読み出しバッファ32に供給する。   In step S112, the drive 31 reads the right-eye and left-eye AV streams corresponding to the clip information file specified in the playlist from the disc 501 in response to a command from the control unit 511 based on the playlist. Then, the drive 31 supplies the right-eye and left-eye AV streams to the read buffer 32.

ステップS113において、読み出しバッファ32は、ドライブ31から供給される右目用および左目用のAVストリームを保持する。読み出しバッファ32は、保持している右目用および左目用のAVストリームを読み出し、PIDフィルタ521に供給する。   In step S <b> 113, the read buffer 32 holds the right-eye and left-eye AV streams supplied from the drive 31. The read buffer 32 reads the right-eye and left-eye AV streams that it holds and supplies them to the PID filter 521.

ステップS114において、PIDフィルタ521は、読み出しバッファ32からの右目用および左目用のAVストリームの各パケットのPIDに基づいて、そのAVストリームの右目用および左目用の字幕データのPESパケットを抽出し、字幕/メニュー生成部523に供給する。   In step S114, the PID filter 521 extracts the PES packets of the right-eye and left-eye caption data of the AV stream based on the PIDs of the right-eye and left-eye AV streams from the read buffer 32, and This is supplied to the caption / menu generation unit 523.

ステップS115において、字幕生成部531の取得部540(図19)は、PIDフィルタ521から供給される右目用の字幕データを右目用デコーダ541−1に入力し、左目用の字幕データを左目用デコーダ541−2に入力する。   In step S115, the acquisition unit 540 (FIG. 19) of the caption generation unit 531 inputs the right-eye caption data supplied from the PID filter 521 to the right-eye decoder 541-1 and the left-eye caption data as the left-eye decoder. Input to 541-2.

ステップS116において、字幕生成部531は、3D字幕生成処理を行う。この3D字幕生成処理の詳細については、後述する図23を参照して説明する。   In step S116, the caption generation unit 531 performs 3D caption generation processing. Details of the 3D subtitle generation processing will be described with reference to FIG.

図23は、図22のステップS116の字幕生成処理の詳細を説明するフローチャートである。   FIG. 23 is a flowchart illustrating details of the caption generation processing in step S116 of FIG.

ステップS131において、字幕生成部531の右目用デコーダ541−1および左目用デコーダ541−2の符号化データバッファ561(図19)は、取得部540から供給される字幕データのPESパケットのうちのセグメントを保持する。   In step S131, the encoded data buffer 561 (FIG. 19) of the right-eye decoder 541-1 and the left-eye decoder 541-2 of the caption generation unit 531 is a segment in the PES packet of the caption data supplied from the acquisition unit 540. Hold.

ステップS132において、符号化データバッファ561は、保持しているセグメントを読み出して、ストリームグラフィックス生成部562に供給する。   In step S132, the encoded data buffer 561 reads the held segment and supplies the segment to the stream graphics generation unit 562.

ステップS133において、ストリームグラフィックス生成部562は、符号化データバッファ561から供給されるPCS,PDS,WDSをコンポジションバッファ564に供給し、保持させる。   In step S133, the stream graphics generation unit 562 supplies the PCS, PDS, and WDS supplied from the encoded data buffer 561 to the composition buffer 564 and holds them.

ステップS134において、ストリームグラフィックス生成部562は、符号化データバッファ561から供給されるセグメントのうちのODSを復号し、その結果得られる字幕オブジェクトをオブジェクトバッファ563に供給する。   In step S134, the stream graphics generation unit 562 decodes the ODS of the segments supplied from the encoded data buffer 561, and supplies the caption object obtained as a result to the object buffer 563.

ステップS135において、オブジェクトバッファ563は、ストリームグラフィックス生成部562から供給される字幕オブジェクトを保持する。   In step S135, the object buffer 563 holds the caption object supplied from the stream graphics generation unit 562.

ステップS136において、オブジェクトバッファ563−1は、保持している字幕オブジェクトを左目用グラフィックスプレーン542−1に供給し、保持させる。また、オブジェクトバッファ563−2は、保持している字幕オブジェクトを右目用グラフィックスプレーン542−2に供給し、保持させる。   In step S136, the object buffer 563-1 supplies the retained subtitle object to the left-eye graphics plane 542-1 for retention. Also, the object buffer 563-2 supplies the retained subtitle object to the graphics plane for right eye 542-2 and causes it to be retained.

ステップS137において、制御部565は、右目用グラフィックスプレーン542−1と左目用グラフィックスプレーン542−2の両方で1画面分の字幕オブジェクトの記憶が完了したかどうかを判定する。   In step S137, the control unit 565 determines whether or not the storage of the caption object for one screen is completed on both the right-eye graphics plane 542-1 and the left-eye graphics plane 542-2.

ステップS137において、右目用グラフィックスプレーン542−1と左目用グラフィックスプレーン542−2の両方で1画面分の字幕オブジェクトの記憶が完了していないと判定された場合、制御部565は、1画面分の字幕オブジェクトの記憶が完了するまで待機する。   If it is determined in step S137 that storage of the caption object for one screen is not completed in both the right-eye graphics plane 542-1 and the left-eye graphics plane 542-2, the control unit 565 displays one screen. Wait until the subtitle object has been stored.

一方、ステップS137において、右目用グラフィックスプレーン542−1と左目用グラフィックスプレーン542−2の両方で1画面分の字幕オブジェクトの記憶が完了したと判定された場合、ステップS138において、制御部565は、オブジェクトバッファ563に転送を指示する。これにより、右目用グラフィックスプレーン542−1に保持された1画面分の右目用の字幕オブジェクトが、CLUT543−1に転送されると同時に、左目用グラフィックスプレーン542−2に保持された1画面分の左目用の字幕オブジェクトがCLUT543−2に転送される。   On the other hand, when it is determined in step S137 that the storage of the caption object for one screen is completed in both the right-eye graphics plane 542-1 and the left-eye graphics plane 542-2, the control unit 565 in step S138. Instructs the object buffer 563 to transfer. As a result, the right-eye caption object for one screen held in the right-eye graphics plane 542-1 is transferred to the CLUT 543-1, and at the same time, one screen held in the left-eye graphics plane 542-2. Minute left-eye caption object is transferred to CLUT 543-2.

ステップS139において、CLUT543−1は、右目用グラフィックスプレーン542−1から供給される右目用の字幕オブジェクトを画像データに変換し、CLUT543−2は、左目用グラフィックスプレーン542−2から供給される左目用の字幕オブジェクトを画像データに変換する。   In step S139, the CLUT 543-1 converts the right-eye caption object supplied from the right-eye graphics plane 542-1 into image data, and the CLUT 543-2 is supplied from the left-eye graphics plane 542-2. Convert the caption object for the left eye into image data.

ステップS140において、CLUT543−1は、ステップS139による変換の結果得られる右目用字幕データを3D表示データ生成部524に出力し、CLUT543−2は、ステップS139による変換の結果得られる左目用字幕データを3D表示データ生成部524に出力する。そして、処理は図22のステップS116に戻り、終了する。   In step S140, the CLUT 543-1 outputs the right-eye caption data obtained as a result of the conversion in step S139 to the 3D display data generation unit 524, and the CLUT 543-2 obtains the left-eye caption data obtained as a result of the conversion in step S139. The data is output to the 3D display data generation unit 524. Then, the process returns to step S116 in FIG. 22 and ends.

なお、3Dメニュー再生処理は、処理対象が字幕データではなく、メニューデータである点を除いて、図22の3D字幕再生処理と同様に行われるので、説明は省略する。   The 3D menu reproduction process is performed in the same manner as the 3D subtitle reproduction process in FIG. 22 except that the processing target is not the caption data but the menu data, and thus the description thereof is omitted.

図24は、ムービーオブジェクトの実行時の再生装置510による字幕表示方向変更処理を説明するフローチャートである。この字幕表示方向変更処理は、例えば、制御部511がLR交換コマンドを実行するときに開始される。   FIG. 24 is a flowchart for explaining subtitle display direction changing processing by the playback device 510 when a movie object is executed. This subtitle display direction changing process is started, for example, when the control unit 511 executes an LR exchange command.

図24のステップS151において、取得部540(図19)は、制御部511からの指令に応じて、PIDフィルタ521から供給される現在右目用の字幕として表示されている字幕の字幕データを左目用デコーダ541−2に入力し、左目用の字幕として表示されている字幕の字幕データを右目用デコーダ541−1に入力する。   In step S151 of FIG. 24, the acquisition unit 540 (FIG. 19) uses the subtitle data of the subtitle currently displayed as the subtitle for the right eye supplied from the PID filter 521 for the left eye in response to a command from the control unit 511. Input to the decoder 541-2 and input the caption data of the caption displayed as the caption for the left eye to the decoder 541-1 for the right eye.

ステップS152において、字幕生成部531は、図23の3D字幕生成処理を行い、処理を終了する。   In step S152, the caption generation unit 531 performs the 3D caption generation process of FIG. 23, and ends the process.

なお、メニュー表示方向変更処理は、処理対象が字幕データではなく、メニューデータである点を除いて、図24の字幕表示方向変更処理と同様に行われるので、説明は省略する。   The menu display direction changing process is performed in the same manner as the subtitle display direction changing process of FIG. 24 except that the processing target is not the caption data but the menu data, and thus description thereof is omitted.

また、上述した字幕生成部531では、LR交換コマンドの実行時に、右目用デコーダ541−1に入力される字幕データと左目用デコーダ541−2に入力される字幕データが交換されたが、右目用デコーダ541−1と左目用デコーダ541−2から出力される字幕データが交換されるようにしてもよい。さらに、CLUT543−1から出力される字幕データとCLUT543−2から出力される字幕データが交換されるようにしてもよい。   In the caption generation unit 531, the caption data input to the right-eye decoder 541-1 and the caption data input to the left-eye decoder 541-2 are exchanged when the LR exchange command is executed. The caption data output from the decoder 541-1 and the left-eye decoder 541-2 may be exchanged. Furthermore, the caption data output from the CLUT 543-1 and the caption data output from the CLUT 543-2 may be exchanged.

[LR交換コマンドの他の適用例]
図25は、LR交換コマンドの他の適用例を示す図である。
[Other application examples of LR exchange command]
FIG. 25 is a diagram illustrating another application example of the LR exchange command.

図25に示すように、LR交換コマンドは、左目用のメニューデータのICSに含まれるメニュー制御情報として適用されてもよい。   As shown in FIG. 25, the LR exchange command may be applied as menu control information included in the ICS of the menu data for the left eye.

この場合、図13に示したように、LR交換コマンドに対応するメニューボタンである方向変更ボタン81が表示部51に表示される。ユーザは、字幕やメニューボタンの表示中に、入力部21を用いて方向変更ボタン81を操作することにより、再生装置510に字幕表示方向変更処理およびメニュー表示方向変更処理を行わせることができる。   In this case, as shown in FIG. 13, a direction change button 81 that is a menu button corresponding to the LR exchange command is displayed on the display unit 51. The user can cause the playback apparatus 510 to perform the subtitle display direction change process and the menu display direction change process by operating the direction change button 81 using the input unit 21 while the subtitles and menu buttons are being displayed.

具体的には、制御部511は、ユーザによる方向変更ボタン81に対する操作に対応する指令を入力部21から取得して制御部565に供給し、その方向変更ボタン81に対応するコマンドの実行を制御部565に指令する。制御部565は、その指令に応じて取得部540を制御し、右目用デコーダ541−1に入力される字幕データと左目用デコーダ541−2に入力される字幕データを交換させる。   Specifically, the control unit 511 acquires a command corresponding to an operation on the direction change button 81 by the user from the input unit 21 and supplies the command to the control unit 565, and controls execution of the command corresponding to the direction change button 81. Command to unit 565. The control unit 565 controls the acquisition unit 540 in accordance with the command to exchange the caption data input to the right-eye decoder 541-1 and the caption data input to the left-eye decoder 541-2.

なお、図25では、左目用のメニューデータのICSにLR交換コマンドが記述されたが、右目用のメニューデータにLR交換コマンドが記述されるようにしてもよい。また、左目用と右目用の両方のメニューデータにLR交換コマンドが記述されるようにしてもよい。   In FIG. 25, the LR exchange command is described in the ICS of the menu data for the left eye, but the LR exchange command may be described in the menu data for the right eye. Further, the LR exchange command may be described in both left-eye menu data and right-eye menu data.

以上のように、再生装置510では、LR交換コマンドにしたがって、表示中の左目用の副画像の画像データが右目用の副画像データとして3D表示データ生成部524に出力されるとともに、表示中の右目用の副画像の画像データが左目用の副画像データとして3D表示データ生成部524に出力され、その右目用の副画像データに基づいて右目用の副画像が表示され、左目用の副画像データに基づいて左目用の副画像が表示される。従って、表示部51に表示されている3Dの副画像の奥行き方向の表示面に対する位置を反対にすることができる。よって、LR交換コマンドを含むディスク501のビデオフォーマットは、副画像の3D表示に適した3Dビデオフォーマットであるといえる。   As described above, according to the LR exchange command, the playback device 510 outputs the image data of the left-eye sub-image being displayed to the 3D display data generation unit 524 as the right-eye sub-image data, and also displays the currently-displayed sub-image data. The image data of the sub-image for the right eye is output to the 3D display data generation unit 524 as the sub-image data for the left eye, and the sub-image for the right eye is displayed based on the sub-image data for the right eye. A sub-image for the left eye is displayed based on the data. Accordingly, the position of the 3D sub-image displayed on the display unit 51 with respect to the display surface in the depth direction can be reversed. Therefore, it can be said that the video format of the disc 501 including the LR exchange command is a 3D video format suitable for 3D display of the sub-image.

[BD-Jオブジェクト実行時の再生装置の機能構成例]
図26は、BD-Jオブジェクト実行時の再生装置510の機能的構成例を示す図である。
[Functional configuration example of a playback device when executing a BD-J object]
FIG. 26 is a diagram illustrating a functional configuration example of the playback device 510 when executing a BD-J object.

ハードウェア701は、例えば、図18の入力部21、再生部512、記憶部24、通信部25、およびドライブ26により実現される。なお、再生部512の一部は、ソフトウェアにより実現されるようにしてもよい。   The hardware 701 is realized by, for example, the input unit 21, the reproduction unit 512, the storage unit 24, the communication unit 25, and the drive 26 illustrated in FIG. A part of the reproduction unit 512 may be realized by software.

また、システムファームウェア702、OS703、Java VM704、およびBD-Jアプリケーション705は、制御部511により実行されるプログラムである。   Further, the system firmware 702, the OS 703, the Java VM 704, and the BD-J application 705 are programs executed by the control unit 511.

システムファームウェア702は、ディスク501がハードウェア701に装着されると、ハードウェア701を制御して、ディスク501からインデックスファイルを読み出す。そして、システムファームウェア702は、そのインデックスファイルをハードウェア701に記憶させる。   When the disk 501 is mounted on the hardware 701, the system firmware 702 controls the hardware 701 and reads an index file from the disk 501. Then, the system firmware 702 stores the index file in the hardware 701.

また、システムファームウェア702は、ハードウェア701からインデックスファイルを読み出し、そのインデックスファイル内に記述される、再生対象とするタイトル番号に対応するBD-Jオブジェクトの種類と番号を認識する。   Further, the system firmware 702 reads the index file from the hardware 701, and recognizes the type and number of the BD-J object corresponding to the title number to be reproduced, which is described in the index file.

システムファームウェア702は、再生対象とするタイトル番号に対応するBD-Jオブジェクトの番号に基づいて、ハードウェア701を制御し、ディスク501から再生対象のBD-Jオブジェクトを読み出し、ハードウェア701に記憶させる。システムファームウェア702は、そのBD-Jオブジェクトに基づいて実行すべきBD-Jアプリケーション705を認識した後、Java VM704を起動する。そして、システムファームウェア702は、BD-Jアプリケーション705をJava VM704の上に展開する。   The system firmware 702 controls the hardware 701 based on the number of the BD-J object corresponding to the title number to be played, reads the BD-J object to be played from the disc 501, and stores it in the hardware 701. . The system firmware 702 activates the Java VM 704 after recognizing the BD-J application 705 to be executed based on the BD-J object. Then, the system firmware 702 expands the BD-J application 705 on the Java VM 704.

なお、ディスク501がハードウェア701に装着された後、実行すべきBD-Jアプリケーション705が認識されるまでに、Java VM704が起動されるようにしてもよい。また、システムファームウェア702は、OS703により呼び出された機能を実現する。   Note that the Java VM 704 may be activated after the disk 501 is mounted on the hardware 701 and before the BD-J application 705 to be executed is recognized. Further, the system firmware 702 realizes a function called by the OS 703.

OS703は、Java VM704により通達される機能に基づいて、その機能に対応するシステムファームウェア702に対して機能の呼び出しを行う。   Based on the function notified by the Java VM 704, the OS 703 calls the function to the system firmware 702 corresponding to the function.

Java VM704は、BD-Jアプリケーション705により呼び出されたBD-J APIに対応する機能を解釈し、OS703に通達する。例えば、Java VM704は、BD-Jアプリケーション705により呼び出された生成表示APIに対応する生成表示機能を解釈し、表示機能をOS703に通達する。   The Java VM 704 interprets the function corresponding to the BD-J API called by the BD-J application 705 and notifies the OS 703. For example, the Java VM 704 interprets the generation display function corresponding to the generation display API called by the BD-J application 705 and notifies the OS 703 of the display function.

また、Java VM704は、BD-Jアプリケーション705により呼び出された、BD-Jグラフィックスの表示方向を変更するためのBD-J APIであるpublic void Exchange LR()(以下、LR交換APIという)に対応するLR交換機能を解釈し、LR交換機能をOS703に通達する。   In addition, the Java VM 704 calls a public void Exchange LR () (hereinafter referred to as LR exchange API), which is a BD-J API called by the BD-J application 705 to change the display direction of BD-J graphics. The corresponding LR exchange function is interpreted, and the LR exchange function is notified to the OS 703.

BD-Jアプリケーション705は、Java VM704に対して、Java VM704に規定されるBD-J APIの呼び出しを行う。例えば、BD-Jアプリケーション705(生成制御情報)は、Java VM704に対して生成表示APIの呼び出しを行う。また、BD-Jアプリケーション705(LR交換制御情報)は、Java VM704に対してLR交換APIの呼び出しを行う。   The BD-J application 705 calls the BD-J API defined in the Java VM 704 with respect to the Java VM 704. For example, the BD-J application 705 (generation control information) calls the generation display API for the Java VM 704. The BD-J application 705 (LR exchange control information) calls the LR exchange API to the Java VM 704.

[BD-Jグラフィックス生成部の詳細構成例]
図27は、BD-Jグラフィックス生成部525の詳細構成例を示すブロック図である。
[Detailed configuration example of BD-J graphics generator]
FIG. 27 is a block diagram illustrating a detailed configuration example of the BD-J graphics generation unit 525.

BD-Jグラフィックス生成部525は、グラフィックス生成部711、右目用グラフィックスプレーン712、グラフィックス生成部713、および左目用グラフィックスプレーン714により構成される。   The BD-J graphics generation unit 525 includes a graphics generation unit 711, a right-eye graphics plane 712, a graphics generation unit 713, and a left-eye graphics plane 714.

グラフィックス生成部711は、BD-Jアプリケーション705で生成表示APIの呼び出しが行われた際に、システムファームウェア702の制御にしたがって、所定の右目用のグラフィックスデータを生成する。また、グラフィックス生成部711は、BD-Jアプリケーション705でLR交換APIの呼び出しが行われた際に、システムファームウェア702の制御にしたがって、現在左目用のBD-Jグラフィックスとして表示されているBD-Jグラフィックスのグラフィックスデータを生成する。そして、グラフィックス生成部711は、生成されたグラフィックスデータを右目用グラフィックスプレーン712に供給する。   The graphics generation unit 711 generates predetermined right-eye graphics data according to the control of the system firmware 702 when the BD-J application 705 calls the generation display API. The graphics generation unit 711 also displays the BD-J graphics currently displayed as the left-eye BD-J graphics according to the control of the system firmware 702 when the BD-J application 705 calls the LR exchange API. -J Generate graphics data for graphics. Then, the graphics generation unit 711 supplies the generated graphics data to the right-eye graphics plane 712.

右目用グラフィックスプレーン712は、グラフィックス生成部711から供給されるグラフィックスデータを、右目用グラフィックスデータとして1画面単位で保持する。右目用グラフィックスプレーン712は、保持している1画面分の右目用のグラフィックスデータを3D表示データ生成部524に供給する。   The right-eye graphics plane 712 holds the graphics data supplied from the graphics generation unit 711 in units of one screen as right-eye graphics data. The right-eye graphics plane 712 supplies the retained right-eye graphics data for one screen to the 3D display data generation unit 524.

グラフィックス生成部713は、BD-Jアプリケーション705で生成表示APIの呼び出しが行われた際に、システムファームウェア702の制御にしたがって、所定の左目用のグラフィックスデータを生成する。また、グラフィックス生成部713は、BD-Jアプリケーション705でLR交換APIの呼び出しが行われた際に、システムファームウェア702の制御にしたがって、現在右目用のBD-Jグラフィックスとして表示されているBD-Jグラフィックスのグラフィックスデータを生成する。そして、グラフィックス生成部713は、生成されたグラフィックスデータを左目用グラフィックスプレーン714に供給する。   The graphics generation unit 713 generates predetermined left-eye graphics data according to the control of the system firmware 702 when the generation display API is called by the BD-J application 705. The graphics generation unit 713 also displays the BD-J graphics currently displayed as the right-eye BD-J graphics according to the control of the system firmware 702 when the BD-J application 705 calls the LR exchange API. -J Generate graphics data for graphics. Then, the graphics generation unit 713 supplies the generated graphics data to the left-eye graphics plane 714.

左目用グラフィックスプレーン714は、グラフィックス生成部713から供給されるグラフィックスデータを、左目用のグラフィックスデータとして1画面単位で保持する。左目用グラフィックスプレーン714は、保持している1画面分の左目用のグラフィックスデータを3D表示データ生成部524に供給する。   The left-eye graphics plane 714 holds the graphics data supplied from the graphics generation unit 713 in units of one screen as left-eye graphics data. The left-eye graphics plane 714 supplies the retained left-eye graphics data for one screen to the 3D display data generation unit 524.

[BD-Jオブジェクト実行時の再生装置の処理の説明]
図28は、BD-Jオブジェクト実行時の再生装置510によるグラフィックス表示処理を説明するフローチャートである。このグラフィックス表示処理は、例えば、システムファームウェア702が、グラフィックスデータを生成し、BD-Jグラフィックスを表示すためのBD-Jアプリケーション705をJava VM704の上に展開したとき、開始される。
[Description of playback device processing during BD-J object execution]
FIG. 28 is a flowchart for describing graphics display processing by the playback device 510 when executing a BD-J object. This graphics display processing is started, for example, when the system firmware 702 generates graphics data and develops a BD-J application 705 for displaying BD-J graphics on the Java VM 704.

図28のステップS171において、BD-Jアプリケーション705は、Java VM704に対して、生成表示APIの呼び出しを行う。これにより、Java VM704は、生成表示APIに対応する機能として生成表示機能を解釈し、OS703に通達する。そして、OS703は、生成表示機能に対応するシステムファームウェア702に対して生成表示機能の呼び出しを行う。   In step S171 in FIG. 28, the BD-J application 705 calls the generation display API to the Java VM 704. Accordingly, the Java VM 704 interprets the generation display function as a function corresponding to the generation display API, and notifies the OS 703. Then, the OS 703 calls the generation display function to the system firmware 702 corresponding to the generation display function.

ステップS172において、グラフィックス生成部711(図27)は、システムファームウェア702の制御により、所定の右目用のグラフィックスデータを生成し、右目用グラフィックスプレーン712に供給する。   In step S172, the graphics generation unit 711 (FIG. 27) generates predetermined right-eye graphics data under the control of the system firmware 702, and supplies it to the right-eye graphics plane 712.

ステップS173において、グラフィックス生成部713は、システムファームウェア702の制御により、所定の左目用のグラフィックスデータを生成し、左目用グラフィックスプレーン714に供給する。   In step S 173, the graphics generation unit 713 generates predetermined left-eye graphics data under the control of the system firmware 702, and supplies the left-eye graphics plane 714.

ステップS174において、右目用グラフィックスプレーン712は、グラフィックス生成部711からの所定の右目用のグラフィックスデータを右目用のグラフィックスデータとして1画面単位で保持する。また、左目用グラフィックスプレーン714は、グラフィックス生成部713からの所定の左目用のグラフィックスデータを左目用のグラフィックスデータとして1画面単位で保持する。   In step S174, the right-eye graphics plane 712 holds predetermined right-eye graphics data from the graphics generation unit 711 in units of one screen as right-eye graphics data. The left-eye graphics plane 714 holds predetermined left-eye graphics data from the graphics generation unit 713 as left-eye graphics data in units of one screen.

ステップS175において、右目用グラフィックスプレーン712は、保持している1画面分の右目用のグラフィックスデータを3D表示データ生成部524に出力し、左目用グラフィックスプレーン714は、保持している1画面分の左目用のグラフィックスデータを3D表示データ生成部524に出力する。そして処理は終了する。   In step S175, the right-eye graphics plane 712 outputs the retained right-eye graphics data for one screen to the 3D display data generation unit 524, and the left-eye graphics plane 714 retains 1 The left-eye graphics data for the screen is output to the 3D display data generation unit 524. Then, the process ends.

図29は、BD-Jオブジェクト実行時の再生装置510による表示方向変更処理を説明するフローチャートである。この表示方向変更処理は、例えば、BD-Jアプリケーション705が、Java VM704に対してLR交換APIを呼び出したとき、開始される。   FIG. 29 is a flowchart for explaining display direction change processing by the playback device 510 when executing a BD-J object. This display direction changing process is started, for example, when the BD-J application 705 calls the LR exchange API to the Java VM 704.

図29のステップS191において、グラフィックス生成部711は、BD-Jアプリケーション705によるLR交換APIの呼び出しに対応するシステムファームウェア702の制御により、現在左目用のBD-Jグラフィックスとして表示されているBD-Jグラフィックスのグラフィックスデータを生成し、右目用グラフィックスプレーン712に供給する。   In step S191 in FIG. 29, the graphics generation unit 711 controls the BD-J application 705 to call the LR exchange API, and the BD-J graphics currently displayed as the BD-J graphics for the left eye are controlled by the system firmware 702. -J graphics data is generated and supplied to the right-eye graphics plane 712.

ステップS192において、グラフィックス生成部713は、BD-Jアプリケーション705によるLR交換APIの呼び出しに対応するシステムファームウェア702の制御により、現在右目用のBD-Jグラフィックスとして表示されているBD-Jグラフィックスのグラフィックスデータを生成し、左目用グラフィックスプレーン714に供給する。   In step S192, the graphics generation unit 713 controls the system firmware 702 corresponding to the call of the LR exchange API by the BD-J application 705 to display the BD-J graphics currently displayed as the right-eye BD-J graphics. Graphics data is generated and supplied to the left-eye graphics plane 714.

ステップS193において、右目用グラフィックスプレーン712は、グラフィックス生成部711からの左目用のグラフィックスデータを右目用のグラフィックスデータとして1画面単位で保持する。また、左目用グラフィックスプレーン714は、グラフィックス生成部713からの右目用のグラフィックスデータを左目用のグラフィックスデータとして1画面単位で保持する。   In step S193, the right-eye graphics plane 712 holds the left-eye graphics data from the graphics generation unit 711 in units of one screen as right-eye graphics data. The left-eye graphics plane 714 holds the right-eye graphics data from the graphics generation unit 713 as left-eye graphics data in units of one screen.

ステップS194において、右目用グラフィックスプレーン712は、保持している1画面分の右目用のグラフィックスデータを3D表示データ生成部524に出力し、左目用グラフィックスプレーン714は、保持している1画面分の左目用のグラフィックスデータを3D表示データ生成部524に出力する。   In step S194, the right-eye graphics plane 712 outputs the retained right-eye graphics data for one screen to the 3D display data generation unit 524, and the left-eye graphics plane 714 retains 1 The left-eye graphics data for the screen is output to the 3D display data generation unit 524.

これにより、表示部51に表示されている3DのBD-Jグラフィックスの奥行き方向の位置が、表示面に対して反対の位置となる。即ち、表示面に対して飛び出すように表示されていた3DのBD-Jグラフィックスは、表示面に対して引っ込むように表示され、表示面に対して引っ込むように表示されていた3DのBD-Jグラフィックスは、表示面に対して飛び出すように表示される。   Accordingly, the position in the depth direction of the 3D BD-J graphics displayed on the display unit 51 is opposite to the display surface. That is, the 3D BD-J graphics that were displayed so as to pop out of the display surface are displayed so as to be retracted with respect to the display surface, and the 3D BD-J that is displayed so as to be retracted with respect to the display surface. J graphics are displayed so as to pop out of the display surface.

以上のように、再生装置510では、LR交換APIを読み出すBD-Jアプリケーション705にしたがって、表示中の左目用のBD-Jグラフィックスの画像データが右目用のグラフィックスデータとして3D表示データ生成部524に出力されるとともに、表示中の右目用のBD-Jグラフィックスの画像データが左目用のグラフィックスデータとして3D表示データ生成部524に出力され、その右目用のグラフィックスデータに基づいて右目用のBD-Jグラフィックスが表示され、左目用のグラフィックスデータに基づいて左目用のBD-Jグラフィックスが表示される。従って、表示部51に表示されている3DのBD-Jグラフィックスの奥行き方向の表示面に対する位置を反対にすることができる。よって、LR交換コマンドを含むディスク501のビデオフォーマットは、BD-Jグラフィックスの3D表示に適した3Dビデオフォーマットであるといえる。   As described above, according to the BD-J application 705 for reading out the LR exchange API, the playback device 510 converts the left-eye BD-J graphics image data being displayed as graphics data for the right eye into a 3D display data generation unit. The image data of the right-eye BD-J graphics being displayed is output to the 3D display data generation unit 524 as the left-eye graphics data, and the right-eye is displayed based on the right-eye graphics data. BD-J graphics for the left eye are displayed, and BD-J graphics for the left eye are displayed based on the graphics data for the left eye. Therefore, the position of the 3D BD-J graphics displayed on the display unit 51 with respect to the display surface in the depth direction can be reversed. Therefore, it can be said that the video format of the disc 501 including the LR exchange command is a 3D video format suitable for 3D display of BD-J graphics.

なお、上述したBD-Jグラフィックス生成部525では、LR交換APIが呼び出された際、グラフィックス生成部711で生成されるグラフィックスデータとグラフィックス生成部713で生成されるグラフィックスデータが交換されたが、右目用グラフィックスプレーン712から出力されるグラフィックスデータと左目用グラフィックスプレーン714から出力されるグラフィックスデータが交換されるようにしてもよい。   In the BD-J graphics generation unit 525 described above, when the LR exchange API is called, the graphics data generated by the graphics generation unit 711 and the graphics data generated by the graphics generation unit 713 are exchanged. However, the graphics data output from the right-eye graphics plane 712 and the graphics data output from the left-eye graphics plane 714 may be exchanged.

また、LR交換コマンドおよびLR交換APIは、オフセット情報に基づいて、ディスクに記録されている1つの副画像データから左目用と右目用の副画像データを生成する再生装置に適用されるようにしてもよい。この場合、再生装置は、1つの副画像データから生成される左目用と右目用の副画像データを交換することにより、3Dの副画像の奥行き方向の位置を、表示面に対して反対にする。   Further, the LR exchange command and the LR exchange API are applied to a playback device that generates left-eye and right-eye sub-image data from one sub-image data recorded on the disc based on the offset information. Also good. In this case, the playback device exchanges the left-eye and right-eye sub-image data generated from one sub-image data, thereby reversing the position in the depth direction of the 3D sub-image with respect to the display surface. .

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

11 ディスク, 20 再生装置, 36 3D表示データ生成部, 37 BD-Jグラフィックス生成部, 501 ディスク, 510 再生装置, 523 字幕/メニュー生成部, 524 3D表示データ生成部, 525 BD-Jグラフィックス生成部, 540 取得部, 542−1 右目用グラフィックスプレーン, 542−2 左目用グラフィックスプレーン   11 disc, 20 playback device, 36 3D display data generation unit, 37 BD-J graphics generation unit, 501 disc, 510 playback device, 523 subtitle / menu generation unit, 524 3D display data generation unit, 525 BD-J graphics Generation unit, 540 acquisition unit, 542-1 right-eye graphics plane, 542-2 left-eye graphics plane

Claims (14)

副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報
を含むデータ構造のデータを再生する際に、
前記LR交換制御情報にしたがって、表示中の前記L画像の前記L画像データを前記R画像データとして出力するとともに、表示中の前記R画像の前記R画像データを前記L画像データとして出力する出力手段と、
前記出力手段により出力された前記R画像データに基づいて前記R画像を表示部に表示させ、前記L画像データに基づいて前記L画像を前記表示部に表示させる表示制御手段と
を備える再生装置。
LR exchange control that is control information for exchanging L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image When playing back data with a data structure that includes information,
Output means for outputting the L image data of the L image being displayed as the R image data and outputting the R image data of the R image being displayed as the L image data in accordance with the LR exchange control information When,
A display device comprising: display control means for displaying the R image on a display unit based on the R image data output by the output means, and displaying the L image on the display unit based on the L image data.
前記データは、前記L画像データと前記R画像データをさらに含むデータ構造のデータである
請求項1に記載の再生装置。
The playback apparatus according to claim 1, wherein the data is data having a data structure further including the L image data and the R image data.
前記データは、前記L画像データと前記R画像データを生成するための制御情報である生成制御情報をさらに含み、
前記再生装置は、
前記生成制御情報にしたがって、前記L画像データと前記R画像データを生成する生成手段
をさらに備える
請求項1に記載の再生装置。
The data further includes generation control information which is control information for generating the L image data and the R image data,
The playback device
The playback device according to claim 1, further comprising: generating means for generating the L image data and the R image data according to the generation control information.
前記再生装置は、
前記L画像データと前記R画像データを保持する保持手段と、
前記LR交換制御情報にしたがって、表示中の前記L画像の前記L画像データを前記R画像データとして前記保持手段に入力するとともに、表示中の前記R画像の前記R画像データを前記L画像データとして前記保持手段に入力する入力手段と
をさらに備え、
前記出力手段は、前記保持手段に保持されている前記R画像データと前記L画像データをそのまま出力する
請求項1に記載の再生装置。
The playback device
Holding means for holding the L image data and the R image data;
In accordance with the LR exchange control information, the L image data of the displayed L image is input to the holding unit as the R image data, and the R image data of the displayed R image is used as the L image data. Input means for inputting to the holding means, and
The playback apparatus according to claim 1, wherein the output unit outputs the R image data and the L image data held in the holding unit as they are.
前記再生装置は、
表示中の前記L画像の前記L画像データと前記R画像の前記R画像データを保持する保持手段
をさらに備え、
前記出力手段は、前記LR交換制御情報にしたがって、前記保持手段に保持されている前記L画像データを前記R画像データとして出力し、前記保持手段に保持されている前記R画像データを前記L画像データとして出力する
請求項1に記載の再生装置。
The playback device
Holding means for holding the L image data of the L image being displayed and the R image data of the R image;
The output means outputs the L image data held in the holding means as the R image data in accordance with the LR exchange control information, and the R image data held in the holding means is the L image. The playback device according to claim 1, wherein the playback device outputs the data.
副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報
を含むデータ構造のデータを再生する再生装置が、
前記LR交換制御情報にしたがって、表示中の前記L画像の前記L画像データを前記R画像データとして出力するとともに、表示中の前記R画像の前記R画像データを前記L画像データとして出力し、
出力された前記R画像データに基づいて前記R画像を表示部に表示させ、前記L画像データに基づいて前記L画像を前記表示部に表示させる
ステップを含む再生方法。
LR exchange control that is control information for exchanging L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image A playback device that plays back data having a data structure including information,
According to the LR exchange control information, the L image data of the L image being displayed is output as the R image data, and the R image data of the R image being displayed is output as the L image data,
A reproduction method comprising the steps of: displaying the R image on a display unit based on the output R image data; and displaying the L image on the display unit based on the L image data.
副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報
を含むデータ構造のデータを再生する制御を実行するコンピュータに、
前記LR交換制御情報にしたがって、表示中の前記L画像の前記L画像データを前記R画像データとして出力するとともに、表示中の前記R画像の前記R画像データを前記L画像データとして出力し、
出力された前記R画像データに基づいて前記R画像を表示部に表示させ、前記L画像データに基づいて前記L画像を前記表示部に表示させる
ステップを含む制御処理を実行させるプログラム。
LR exchange control that is control information for exchanging L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image A computer that executes control to reproduce data having a data structure including information,
According to the LR exchange control information, the L image data of the L image being displayed is output as the R image data, and the R image data of the R image being displayed is output as the L image data,
A program for executing a control process including a step of displaying the R image on a display unit based on the output R image data and displaying the L image on the display unit based on the L image data.
副画像の3D(3Dimensional)表示に用いられる左目用のL画像の画像データであるL画像データおよび右目用のR画像の画像データであるR画像データを交換するための制御情報であるLR交換制御情報
を含むデータ構造のデータ
が記録されている記録媒体。
LR exchange control that is control information for exchanging L image data that is image data of an L image for left eye and R image data that is image data of an R image for right eye used for 3D (3 Dimensional) display of a sub-image A recording medium on which data having a data structure including information is recorded.
2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報
を含むデータ構造のデータを再生する際に、
前記オフセット変更制御情報にしたがって、表示中の前記L画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記L画像の画像データであるL画像データとし、そのL画像データに基づいて前記L画像を表示部に表示させるとともに、表示中の前記R画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記R画像の画像データであるR画像データとし、そのR画像データに基づいて前記R画像を前記表示部に表示させる表示制御手段
を備える再生装置。
Offset change control information for changing the offset direction indicating the shift direction of the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display When playing back data with a data structure that includes
In accordance with the offset change control information, image data of an image obtained as a result of shifting the sub-image in a direction opposite to the shift direction of the L image being displayed with respect to the sub-image is L image data that is image data of the L image. Based on the L image data, the L image is displayed on the display unit, and image data of an image obtained as a result of shifting the sub image in a direction opposite to the shift direction of the R image being displayed with respect to the sub image is displayed. A display control means for displaying R image data on the display unit based on the R image data.
前記データは、前記副画像の画像データをさらに含むデータ構造のデータである
請求項9に記載の再生装置。
The playback device according to claim 9, wherein the data is data having a data structure further including image data of the sub-image.
前記データは、前記副画像の画像データを生成するための制御情報である生成制御情報をさらに含み、
前記再生装置は、
前記生成制御情報にしたがって、前記副画像の画像データを生成する生成手段
をさらに備える
請求項9に記載の再生装置。
The data further includes generation control information that is control information for generating image data of the sub-image,
The playback device
The playback device according to claim 9, further comprising: generation means for generating image data of the sub-image according to the generation control information.
2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報
を含むデータ構造のデータを再生する再生装置が、
前記オフセット変更制御情報にしたがって、表示中の前記L画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記L画像の画像データであるL画像データとし、そのL画像データに基づいて前記L画像を表示部に表示させるとともに、表示中の前記R画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記R画像の画像データであるR画像データとし、そのR画像データに基づいて前記R画像を前記表示部に表示させる
ステップを含む再生方法。
Offset change control information for changing the offset direction indicating the shift direction of the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display A playback device that plays back data having a data structure including
In accordance with the offset change control information, image data of an image obtained as a result of shifting the sub-image in a direction opposite to the shift direction of the L image being displayed with respect to the sub-image is L image data that is image data of the L image. Based on the L image data, the L image is displayed on the display unit, and image data of an image obtained as a result of shifting the sub image in a direction opposite to the shift direction of the R image being displayed with respect to the sub image is displayed. And R image data which is image data of the R image, and displaying the R image on the display unit based on the R image data.
2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報
を含むデータ構造のデータを再生する制御を実行するコンピュータに、
前記オフセット変更制御情報にしたがって、表示中の前記L画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記L画像の画像データであるL画像データとし、そのL画像データに基づいて前記L画像を表示部に表示させるとともに、表示中の前記R画像の前記副画像に対するずれ方向と反対方向に前記副画像をずらした結果得られる画像の画像データを前記R画像の画像データであるR画像データとし、そのR画像データに基づいて前記R画像を前記表示部に表示させる
ステップを含む制御処理を実行させるプログラム。
Offset change control information for changing the offset direction indicating the shift direction of the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display A computer that executes control to reproduce data having a data structure including:
In accordance with the offset change control information, image data of an image obtained as a result of shifting the sub-image in a direction opposite to the shift direction of the L image being displayed with respect to the sub-image is L image data that is image data of the L image. Based on the L image data, the L image is displayed on the display unit, and image data of an image obtained as a result of shifting the sub image in a direction opposite to the shift direction of the R image being displayed with respect to the sub image is displayed. Is R image data which is image data of the R image, and a program for executing a control process including a step of displaying the R image on the display unit based on the R image data.
2D(2Dimensional)表示用の副画像に対する、前記副画像の3D(3Dimensional)表示に用いられる左目用のL画像および右目用のR画像のずれ方向を表すオフセット方向を変更するためのオフセット変更制御情報
を含むデータ構造のデータ
が記録されている記録媒体。
Offset change control information for changing the offset direction indicating the shift direction of the left-eye L image and the right-eye R image used for 3D (3 Dimensional) display of the sub-image with respect to the sub-image for 2D (2 Dimensional) display A recording medium on which data with a data structure is recorded.
JP2009171206A 2009-07-22 2009-07-22 Reproducing device, reproducing method, program, and recording medium Withdrawn JP2011028791A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009171206A JP2011028791A (en) 2009-07-22 2009-07-22 Reproducing device, reproducing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009171206A JP2011028791A (en) 2009-07-22 2009-07-22 Reproducing device, reproducing method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2011028791A true JP2011028791A (en) 2011-02-10

Family

ID=43637368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009171206A Withdrawn JP2011028791A (en) 2009-07-22 2009-07-22 Reproducing device, reproducing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2011028791A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144372A1 (en) * 2011-04-21 2012-10-26 シャープ株式会社 Image supplying apparatus and image supplying method
WO2012164920A1 (en) * 2011-06-01 2012-12-06 パナソニック株式会社 Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144372A1 (en) * 2011-04-21 2012-10-26 シャープ株式会社 Image supplying apparatus and image supplying method
JP2012227842A (en) * 2011-04-21 2012-11-15 Sharp Corp Video supply device and video supply method
WO2012164920A1 (en) * 2011-06-01 2012-12-06 パナソニック株式会社 Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit
CN103262551A (en) * 2011-06-01 2013-08-21 松下电器产业株式会社 Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit
JPWO2012164920A1 (en) * 2011-06-01 2015-02-23 パナソニック株式会社 Video processing apparatus, transmission apparatus, video processing system, video processing method, transmission method, computer program, and integrated circuit
US9185386B2 (en) 2011-06-01 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit

Similar Documents

Publication Publication Date Title
JP4985807B2 (en) Playback apparatus and playback method
JP2010250562A (en) Data structure, recording medium, playback apparatus, playback method, and program
WO2010119814A1 (en) Data structure, recording medium, reproducing device, reproducing method, and program
TWI479879B (en) Data structure and recording medium, and reproducing apparatus, reproducing method, program, and program storage medium
JP2011028791A (en) Reproducing device, reproducing method, program, and recording medium
JP2010252055A (en) Data structure, recording medium, reproducing device and reproducing method, and program
JP4985889B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP4985893B2 (en) Recording method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002