JP2012100341A - Reproducing device, and reproducing method - Google Patents

Reproducing device, and reproducing method Download PDF

Info

Publication number
JP2012100341A
JP2012100341A JP2012013705A JP2012013705A JP2012100341A JP 2012100341 A JP2012100341 A JP 2012100341A JP 2012013705 A JP2012013705 A JP 2012013705A JP 2012013705 A JP2012013705 A JP 2012013705A JP 2012100341 A JP2012100341 A JP 2012100341A
Authority
JP
Japan
Prior art keywords
data
packet
image
stream
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012013705A
Other languages
Japanese (ja)
Other versions
JP4957879B2 (en
Inventor
Koichi Uchimura
幸一 内村
Motoki Kato
元樹 加藤
Shinobu Hattori
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012013705A priority Critical patent/JP4957879B2/en
Publication of JP2012100341A publication Critical patent/JP2012100341A/en
Application granted granted Critical
Publication of JP4957879B2 publication Critical patent/JP4957879B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily realize a 3D display of a sub-image based on offset information, when the offset information of the sub-image is disposed in a stream of a main image.SOLUTION: A video stream for a right eye comprises offset metadata for generating offset information. Only either coded video data of a main image for the right eye or the offset metadata are disposed in a data portion of a TS packet of the video stream for the right eye. In a header of the TS packet of the video stream for the right eye, a transport priority is described, and the transport priority indicates that data disposed in the data portion of the TS packet are the coded video data of the main image for the right eye or the offset metadata. The present invention is applicable, for example, to reproducing devices that display sub-images, in a three-dimensional way.

Description

本発明は、再生装置および再生方法に関し、特に、主画像のストリームに副画像のオフセット情報が配置される場合に、そのオフセット情報に基づく副画像の3D表示を容易に実現することができるようにした再生装置および再生方法に関する。   The present invention relates to a playback apparatus and a playback method, and in particular, when sub-image offset information is arranged in a main image stream, 3D display of the sub-image based on the offset information can be easily realized. The present invention relates to a playback apparatus and a playback method.

映画等のコンテンツとしては2D画像が主流であるが、最近では、3D画像が注目を集めている。   2D images are the mainstream content for movies and the like, but recently, 3D images have attracted attention.

ユーザに3Dの画像を見せるための手法としては、所定の方向に所定の距離だけ離れた2枚の画像のうちの一方の画像をユーザの左目に見せるとともに、他方の画像を右目に見せる手法がある。   As a method for showing a 3D image to the user, there is a method in which one of two images separated by a predetermined distance in a predetermined direction is displayed on the user's left eye and the other image is displayed on the right eye. is there.

この手法では、3D画像を表示させるために、左目用の画像と右目用の画像の両方を用意するか、または、所定の画像と、その画像に対する、左目用および右目用の画像のずれ方向の組み合わせを表す方向情報およびずれ量を表すオフセット値を用意する必要がある。なお、以下では、この方向情報とオフセット値をまとめてオフセット情報という。   In this method, in order to display a 3D image, both a left-eye image and a right-eye image are prepared, or a predetermined image and the shift direction of the left-eye and right-eye images with respect to the predetermined image are displayed. It is necessary to prepare direction information representing a combination and an offset value representing a deviation amount. Hereinafter, the direction information and the offset value are collectively referred to as offset information.

また、左目用の画像と右目用の画像の両方を用意する場合に用いられる画像の符号化方式としては、MVC(Multi-view Video coding)方式(例えば、特許文献1参照)等が考えられる。   Further, as an image encoding method used when both a left-eye image and a right-eye image are prepared, an MVC (Multi-view Video coding) method (for example, see Patent Document 1) can be considered.

そこで、映画等の主画像とともに表示される副画像(例えば、字幕、メニューボタンなど)を3D表示するために、MVC方式等で符号化された主画像のストリームに副画像のオフセット情報を配置させることが考えられる。   Therefore, in order to display a sub-image (eg, subtitles, menu buttons, etc.) displayed together with a main image such as a movie in 3D, offset information of the sub-image is arranged in the main image stream encoded by the MVC method or the like. It is possible.

特開2009−100070号公報JP 2009-100070 A

しかしながら、この場合、何の工夫もせずに、主画像のストリームがTS(Transport Stream)パケット化されると、主画像のストリームを汎用的なデコーダで復号することができなくなる。即ち、主画像のTSパケットから主画像のビデオデータとオフセット情報をそれぞれ抽出し、復号する必要があるため、専用のデコーダを用意する必要がある。従って、開発コストがかかり、副画像の3D表示を容易に実現することができない。   However, in this case, if the main image stream is converted to a TS (Transport Stream) packet without any contrivance, the main image stream cannot be decoded by a general-purpose decoder. That is, since it is necessary to extract and decode the video data and offset information of the main image from the TS packet of the main image, it is necessary to prepare a dedicated decoder. Therefore, the development cost is high, and 3D display of the sub-image cannot be easily realized.

本発明は、このような状況に鑑みてなされたものであり、主画像のストリームに副画像のオフセット情報が配置される場合に、そのオフセット情報に基づく副画像の3D表示を容易に実現することができるようにするものである。   The present invention has been made in view of such a situation, and when the offset information of the sub-image is arranged in the stream of the main image, 3D display of the sub-image based on the offset information is easily realized. Is to be able to.

本発明の一側面の再生装置は、所定の副画像のストリームである副画像ストリームのパケットと、主画像のストリームであって、前記所定の副画像に対する、3D表示に用いられる左目用の副画像と右目用の副画像のずれ方向およびずれ量からなるオフセット情報を含むストリームであるビデオストリームのパケットとを含み、前記ビデオストリームのパケットのデータ部には、前記主画像のビデオデータまたは前記オフセット情報のいずれか一方のみが配置され、前記ビデオストリームのパケットのヘッダには、そのパケットの前記データ部に配置されるデータが前記主画像のビデオデータであるか、または、前記オフセット情報であるかを表す情報であるフラグ情報が記述されているデータ構造のデータを再生する場合に、前記副画像ストリームおよび前記ビデオストリームのパケットを読み出す読出部と、前記読出部により読み出された前記パケットの前記ヘッダに記述されている前記フラグ情報が、前記オフセット情報であることを表す前記パケットの前記データ部に配置されている前記オフセット情報に基づいて、前記副画像ストリームのパケットから前記左目用の副画像のビデオデータと前記右目用の副画像のビデオデータを生成する生成部とを備える再生装置である。   A playback device according to an aspect of the present invention includes a sub-image stream packet that is a stream of a predetermined sub-image, and a main image stream that is a sub-image for the left eye that is used for 3D display of the predetermined sub-image. And a video stream packet that is a stream including offset information including the shift direction and shift amount of the right-eye sub-image, and the data portion of the video stream packet includes the video data of the main image or the offset information Only one of these is arranged, and the header of the packet of the video stream indicates whether the data arranged in the data part of the packet is the video data of the main image or the offset information. When reproducing data having a data structure in which flag information, which is information to be displayed, is reproduced, A read unit for reading a packet of a stream and the video stream, and the data unit of the packet indicating that the flag information described in the header of the packet read by the read unit is the offset information A generating unit that generates video data of the sub-image for the left eye and video data of the sub-image for the right eye from the packet of the sub-image stream based on the offset information arranged in .

本発明の一側面の再生方法は、本発明の一側面の再生装置に対応する。   The reproduction method according to one aspect of the present invention corresponds to the reproduction apparatus according to one aspect of the present invention.

本発明の一側面においては、所定の副画像のストリームである副画像ストリームのパケットと、主画像のストリームであって、前記所定の副画像に対する、3D表示に用いられる左目用の副画像と右目用の副画像のずれ方向およびずれ量からなるオフセット情報を含むストリームであるビデオストリームのパケットとを含み、前記ビデオストリームのパケットのデータ部には、前記主画像のビデオデータまたは前記オフセット情報のいずれか一方のみが配置され、前記ビデオストリームのパケットのヘッダには、そのパケットの前記データ部に配置されるデータが前記主画像のビデオデータであるか、または、前記オフセット情報であるかを表す情報であるフラグ情報が記述されているデータ構造のデータを再生する場合に、前記副画像ストリームおよび前記ビデオストリームのパケットが読み出され、前記パケットの前記ヘッダに記述されている前記フラグ情報が、前記オフセット情報であることを表す前記パケットの前記データ部に配置されている前記オフセット情報に基づいて、前記副画像ストリームのパケットから前記左目用の副画像のビデオデータと前記右目用の副画像のビデオデータが生成される。   In one aspect of the present invention, a sub-image stream packet, which is a predetermined sub-image stream, and a main image stream, the left-eye sub-image and the right-eye used for 3D display of the predetermined sub-image. A video stream packet that is a stream including offset information including a shift direction and a shift amount of a sub-image for the image, and the data portion of the video stream packet includes either the video data of the main image or the offset information. Only one of them is arranged, and in the header of the packet of the video stream, information indicating whether the data arranged in the data portion of the packet is the video data of the main image or the offset information When reproducing data having a data structure in which flag information is described, the sub-image The offset information arranged in the data portion of the packet indicating that the packet of the video stream and the video stream is read and the flag information described in the header of the packet is the offset information The sub-image video data for the left eye and the sub-image video data for the right eye are generated from the packet of the sub-image stream.

以上のように、本発明によれば、主画像のストリームに副画像のオフセット情報が配置される場合に、そのオフセット情報に基づく副画像の3D表示を容易に実現することができる。   As described above, according to the present invention, when sub-image offset information is arranged in the main image stream, 3D display of the sub-image based on the offset information can be easily realized.

本発明を適用した再生装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the reproducing | regenerating apparatus to which this invention is applied. 右目用ビデオストリームの各GOP内の表示順で最初のディペンデントユニットの構成例を示す図である。It is a figure which shows the structural example of the first dependent unit in the display order in each GOP of the video stream for right eyes. 右目用ビデオストリームのTSパケットの生成方法を説明する図である。It is a figure explaining the production | generation method of TS packet of the video stream for right eyes. TSパケットの詳細構成例を示す図である。It is a figure which shows the detailed structural example of TS packet. 右目用ビデオ生成部とオフセット生成部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the video production | generation part for right eyes, and an offset production | generation part. 再生装置のオフセット生成処理を説明するフローチャートである。It is a flowchart explaining the offset production | generation process of a reproducing | regenerating apparatus. ムービーオブジェクト実行時の再生装置の3D表示処理のフローチャートである。It is a flowchart of 3D display processing of the playback device when executing a movie object. 記録装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a recording device. 記録装置の記録処理を説明するフローチャートである。It is a flowchart explaining the recording process of a recording device. コンピュータのハードウェアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of a computer. オフセットメタデータの記述例を示す図である。It is a figure which shows the example of a description of offset metadata. オフセットメタデータの記述例を示す図である。It is a figure which shows the example of a description of offset metadata. 図1の3D表示データ生成部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the 3D display data generation part of FIG. 3D表示データにおける重畳順を説明する図である。It is a figure explaining the superimposition order in 3D display data.

<第1実施の形態>
[再生装置の構成例]
図1は、本発明を適用した再生装置の一実施の形態の構成例を示すブロック図である。
<First embodiment>
[Configuration example of playback device]
FIG. 1 is a block diagram showing a configuration example of an embodiment of a playback apparatus to which the present invention is applied.

図1の再生装置20は、入力部21、制御部22、および再生部23により構成される。   The playback device 20 of FIG. 1 includes an input unit 21, a control unit 22, and a playback unit 23.

入力部21は、キーボード、マウス、マイクロフォンなどよりなる。入力部21は、ユーザからの指令を受け付け、制御部22に供給する。制御部22は、入力部21からの指令に応じて再生部23を制御する。   The input unit 21 includes a keyboard, a mouse, a microphone, and the like. The input unit 21 receives a command from the user and supplies it to the control unit 22. The control unit 22 controls the reproduction unit 23 according to a command from the input unit 21.

再生部23は、ドライブ31、読み出しバッファ32、PIDフィルタ33、トランスポートプライオリティフィルタ34、オフセット生成部35、右目用ビデオ生成部36、左目用ビデオ生成部37、字幕/メニュー生成部38、3D表示データ生成部39、BD-Jグラフィックス生成部40、およびオーディオ生成部41により構成される。   The playback unit 23 includes a drive 31, a read buffer 32, a PID filter 33, a transport priority filter 34, an offset generation unit 35, a right-eye video generation unit 36, a left-eye video generation unit 37, a subtitle / menu generation unit 38, and a 3D display. The data generation unit 39, the BD-J graphics generation unit 40, and the audio generation unit 41 are configured.

ドライブ31は、制御部22の制御にしたがって、装着されたBD(Blu-Ray(登録商標) Disc)などよりなるディスク11を駆動する。これにより、ドライブ31は、ディスク11に記録されているインデックスファイル、ムービーオブジェクトファイル、BD-Jオブジェクトファイル、プレイリストファイル、クリップインフォメーションファイル、ストリームファイルなどを読み出す。   The drive 31 drives the disc 11 made of a mounted BD (Blu-Ray (registered trademark)) or the like according to the control of the control unit 22. As a result, the drive 31 reads the index file, movie object file, BD-J object file, playlist file, clip information file, stream file, and the like recorded on the disc 11.

なお、インデックスファイルとは、ディスク11に記録されているタイトル番号の一覧と、そのタイトル番号に対応して実行されるオブジェクトの種類および番号とが記述されるファイルである。オブジェクトの種類としては、ムービーオブジェクトとBD-Jオブジェクトの2種類がある。   The index file is a file in which a list of title numbers recorded on the disc 11 and the types and numbers of objects to be executed corresponding to the title numbers are described. There are two types of objects: movie objects and BD-J objects.

また、ムービーオブジェクトファイルとは、複数個のムービーオブジェクトが記述されるファイルである。ムービーオブジェクトには、ナビゲーションコマンドというプログラムが記述される。なお、以下では、ナビゲーションコマンドを特に区別する必要がない場合、単にコマンドという。   A movie object file is a file in which a plurality of movie objects are described. A program called a navigation command is described in the movie object. In the following description, navigation commands are simply referred to as commands unless it is necessary to distinguish them.

さらに、BD-Jオブジェクトファイルとは、複数個のBD-Jアプリケーションが記述されるファイルである。プレイリストファイルは、ムービーオブジェクトまたはBD-Jオブジェクトによってのみ再生されるファイルであり、これらのオブジェクトに記述される1つのコマンドで再生されるAVストリーム(詳細は後述する)に関する情報が記述される。   Furthermore, the BD-J object file is a file in which a plurality of BD-J applications are described. A playlist file is a file that is played back only by a movie object or a BD-J object, and describes information about an AV stream (details will be described later) played back by one command described in these objects.

具体的には、プレイリストファイルは、単数または複数のプレイアイテムにより構成される。各プレイアイテムには、再生対象のAVストリームに対応するクリップインフォメーションファイルを指定する情報と、AVストリームの再生区間を表す時間情報が記述される。   Specifically, the playlist file is composed of one or a plurality of play items. Each play item describes information specifying a clip information file corresponding to an AV stream to be played back and time information indicating a playback section of the AV stream.

AVストリームは、ストリームファイルとしてディスク11に記録されている。AVストリームは、左目用ビデオストリームおよび右目用ビデオストリーム、それらに対応するオーディオストリーム、字幕ストリーム、並びにメニューストリームがISO13818-2に準拠して多重化されたTS(Transport Stream)パケットにより構成される。   The AV stream is recorded on the disk 11 as a stream file. The AV stream is composed of a TS (Transport Stream) packet in which a left-eye video stream and a right-eye video stream, an audio stream corresponding to them, a subtitle stream, and a menu stream are multiplexed according to ISO13818-2.

なお、左目用ビデオストリームは、MVC方式で符号化された左目用の主画像のストリームである。右目用ビデオストリームは、MVC方式で符号化された右目用の主画像のストリームであって、オフセットメタデータ(詳細は後述する)を含むストリームである。また、字幕ストリームは、字幕を2D表示するためのビットマップ形式やテキスト形式のデータを含むストリームであり、メニューストリームは、メニューボタンを2D表示するためのデータを含むストリームである。   Note that the left-eye video stream is a stream of the main image for the left eye encoded by the MVC method. The right-eye video stream is a stream of the main image for the right eye encoded by the MVC method, and includes offset metadata (details will be described later). The subtitle stream is a stream including data in a bitmap format or text format for displaying 2D subtitles, and the menu stream is a stream including data for displaying 2D menu buttons.

オフセットメタデータとは、ピクチャ単位のオフセット情報を生成するためのデータである。具体的には、オフセットメタデータは、オフセット情報、このオフセット情報が設定される先頭のピクチャのPTS(Presentation Time Stamp)、および、このオフセット情報が設定されるピクチャの間隔を表すフレームレートにより構成される。なお、オフセット情報は、1GOP分の再生区間に対応する字幕、メニューボタン、BD-Jグラフィックスの画面(プレーン)ごとに記述される。また、BD-ROM(Blu-Ray Disc-Read Only Memory)規格では、メニューボタンとBD-Jグラフィックスは排他の関係にあるため、オフセット情報は、字幕の画面およびメニューボタンの画面に適用されるか、または、字幕の画面およびBD-Jグラフィックスの画面に適用される。オフセットメタデータの記述例の詳細は、後述する図11および図12を参照して説明する。   The offset metadata is data for generating offset information for each picture. Specifically, the offset metadata is composed of offset information, a PTS (Presentation Time Stamp) of the first picture in which the offset information is set, and a frame rate representing the interval between pictures in which the offset information is set. The The offset information is described for each subtitle, menu button, and BD-J graphics screen (plane) corresponding to the playback section for 1 GOP. In the BD-ROM (Blu-Ray Disc-Read Only Memory) standard, the menu button and BD-J graphics are in an exclusive relationship, so the offset information is applied to the subtitle screen and the menu button screen. Or, it is applied to the subtitle screen and BD-J graphics screen. Details of the description example of the offset metadata will be described with reference to FIGS. 11 and 12 described later.

クリップインフォメーションファイルとは、プレイリストファイルに記述される時間情報と、AVストリームのパケット番号とを対応付けるマップが記述されるファイルである。従って、制御部22は、クリップインフォメーションファイルを参照することにより、各プレイアイテムに対応する再生対象のAVストリームのパケット番号を認識することができる。ストリームファイルは、AVストリームのファイルである。   The clip information file is a file in which a map for associating time information described in the playlist file with the packet number of the AV stream is described. Therefore, the control unit 22 can recognize the packet number of the AV stream to be reproduced corresponding to each play item by referring to the clip information file. The stream file is an AV stream file.

ドライブ31は、読み出されたインデックスファイル、ムービーオブジェクトファイル、BD-Jオブジェクトファイル、プレイリストファイル、クリップインフォメーションファイルなどを制御部22に供給する。ドライブ31は、読み出されたストリームファイルのAVストリームを読み出しバッファ32に供給する。   The drive 31 supplies the read index file, movie object file, BD-J object file, playlist file, clip information file, and the like to the control unit 22. The drive 31 supplies the read stream file AV stream to the read buffer 32.

読み出しバッファ32は、制御部22の制御にしたがって、ドライブ31から供給されるAVストリームを保持したり、保持しているAVストリームを読み出してPIDフィルタ33に供給したりする。   The read buffer 32 holds the AV stream supplied from the drive 31 or reads the held AV stream and supplies it to the PID filter 33 under the control of the control unit 22.

PIDフィルタ33は、読み出しバッファ32からのAVストリームの各TSパケットのパケットID(PID)に基づいて、AVストリームから、左目用ビデオストリーム、右目用ビデオストリーム、字幕ストリーム、メニューストリーム、およびオーディオストリームのTSパケットをそれぞれ抽出する。なお、PIDとは、TSパケットを構成するデータの種類ごとに固有のIDであり、パケットのヘッダに記述されている。   Based on the packet ID (PID) of each TS packet of the AV stream from the read buffer 32, the PID filter 33 converts the left-eye video stream, right-eye video stream, subtitle stream, menu stream, and audio stream from the AV stream. Each TS packet is extracted. The PID is a unique ID for each type of data constituting the TS packet, and is described in the packet header.

PIDフィルタ33は、抽出された右目用ビデオストリームのTSパケットをトランスポートプライオリティフィルタ34に供給し、左目用ビデオストリームのTSパケットを左目用ビデオ生成部37に供給する。また、PIDフィルタ33は、字幕ストリームおよびメニューストリームのTSパケットを字幕/メニュー生成部38に供給し、オーディオストリームのTSパケットをオーディオ生成部41に供給する。   The PID filter 33 supplies the extracted TS packet of the right-eye video stream to the transport priority filter 34 and supplies the TS packet of the left-eye video stream to the left-eye video generation unit 37. Also, the PID filter 33 supplies the subtitle stream and menu stream TS packets to the subtitle / menu generation unit 38, and supplies the audio stream TS packets to the audio generation unit 41.

トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給される右目用ビデオストリームのTSパケットのヘッダに記述されているトランスポートプライオリティに基づいて、そのTSパケットのうちの所定のTSパケットをオフセット生成部35に供給する。また、トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給される右目用ビデオストリームのTSパケットを右目用ビデオ生成部36に供給する。   Based on the transport priority described in the header of the TS packet of the right-eye video stream supplied from the PID filter 33, the transport priority filter 34 offsets a predetermined TS packet of the TS packets to the offset generation unit 35. To supply. Further, the transport priority filter 34 supplies the TS packet of the right-eye video stream supplied from the PID filter 33 to the right-eye video generation unit 36.

オフセット生成部35は、トランスポートプライオリティフィルタ34から供給されるTSパケットのデータ部に配置されるオフセットメタデータに基づいてオフセット情報を生成し、3D表示データ生成部39に供給する。   The offset generation unit 35 generates offset information based on the offset metadata arranged in the data part of the TS packet supplied from the transport priority filter 34 and supplies the offset information to the 3D display data generation unit 39.

右目用ビデオ生成部36は、トランスポートプライオリティフィルタ34から供給される右目用ビデオストリームのTSパケットのヘッダに記述されているトランスポートプライオリティに基づいて、そのTSパケットのデータ部に配置される右目用の主画像のビデオデータを復号する。右目用ビデオ生成部36は、復号の結果得られるビデオデータを右目用ビデオデータとして、3D表示データ生成部39に供給する。   The right-eye video generation unit 36 is based on the transport priority described in the header of the TS packet of the right-eye video stream supplied from the transport priority filter 34, and is used for the right-eye arranged in the data portion of the TS packet. The video data of the main image is decoded. The right-eye video generation unit 36 supplies the video data obtained as a result of decoding to the 3D display data generation unit 39 as right-eye video data.

また、左目用ビデオ生成部37は、PIDフィルタ33から供給される左目用ビデオストリームのTSパケットに含まれる左目用の主画像のビデオデータを復号する。左目用ビデオ生成部37は、復号の結果得られるビデオデータを左目用ビデオデータとして、3D表示データ生成部39に供給する。   The left-eye video generation unit 37 decodes the video data of the left-eye main image included in the TS packet of the left-eye video stream supplied from the PID filter 33. The left-eye video generation unit 37 supplies the video data obtained as a result of decoding to the 3D display data generation unit 39 as left-eye video data.

字幕/メニュー生成部38は、字幕生成部51とメニュー生成部52により構成される。字幕生成部51は、ムービーオブジェクトの実行時に、PIDフィルタ33から供給される字幕ストリームのTSパケットに含まれる字幕データを3D表示データ生成部39に供給する。   The caption / menu generation unit 38 includes a caption generation unit 51 and a menu generation unit 52. The caption generation unit 51 supplies caption data included in the TS packet of the caption stream supplied from the PID filter 33 to the 3D display data generation unit 39 when the movie object is executed.

メニュー生成部52は、ムービーオブジェクトの実行時に、PIDフィルタ33から供給されるメニューストリームのTSパケットに含まれるメニューデータを3D表示データ生成部39に供給する。   The menu generation unit 52 supplies menu data included in the TS packet of the menu stream supplied from the PID filter 33 to the 3D display data generation unit 39 when the movie object is executed.

3D表示データ生成部39は、右目用ビデオ生成部36から供給される右目用ビデオデータと、左目用ビデオ生成部37から供給される左目用ビデオデータを、3Dビデオデータとする。また、3D表示データ生成部39は、オフセット生成部35から供給されるオフセット情報に基づいて、字幕生成部51から供給される字幕データに対応する字幕を、所定のオフセット値だけ所定のオフセット方向にそれぞれずらした字幕の字幕データを、右目用の字幕データおよび左目用の字幕データとして生成する。そして、3D表示データ生成部39は、右目用の字幕データと左目用の字幕データを、字幕を3D表示するための3D字幕データとする。   The 3D display data generation unit 39 sets the right-eye video data supplied from the right-eye video generation unit 36 and the left-eye video data supplied from the left-eye video generation unit 37 as 3D video data. Further, the 3D display data generation unit 39 sets the caption corresponding to the caption data supplied from the caption generation unit 51 in a predetermined offset direction by a predetermined offset value based on the offset information supplied from the offset generation unit 35. Subtitle data of subtitles that are shifted from each other is generated as subtitle data for the right eye and subtitle data for the left eye. Then, the 3D display data generation unit 39 sets the caption data for the right eye and the caption data for the left eye as 3D caption data for displaying the caption in 3D.

また、3D表示データ生成部39は、オフセット生成部35から供給されるオフセット情報に基づいて、3D字幕データと同様に、メニュー生成部52から供給されるメニューデータから、メニューボタンを3D表示するための3Dメニューデータを生成する。   In addition, the 3D display data generation unit 39 displays 3D menu buttons from the menu data supplied from the menu generation unit 52 based on the offset information supplied from the offset generation unit 35, similarly to the 3D subtitle data. 3D menu data is generated.

さらに、3D表示データ生成部39は、3Dビデオデータ、3D字幕データ、および3Dメニューデータを、左右の各目用のデータごとに合成する。具体的には、3D表示データ生成部39は、左目用のビデオデータ、左目用の字幕データ、および左目用のメニューデータを合成して左目用の表示データを生成する。また、3D表示データ生成部39は、右目用のビデオデータ、右目用の字幕データ、および右目用のメニューデータを合成して右目用の表示データを生成する。   Further, the 3D display data generation unit 39 synthesizes 3D video data, 3D caption data, and 3D menu data for each of the left and right eye data. Specifically, the 3D display data generation unit 39 generates display data for the left eye by combining the video data for the left eye, the caption data for the left eye, and the menu data for the left eye. The 3D display data generation unit 39 combines the right-eye video data, the right-eye caption data, and the right-eye menu data to generate right-eye display data.

また、3D表示データ生成部39は、オフセット生成部35からのオフセット情報に基づいて、3D字幕データと同様に、BD-Jグラフィックス生成部40から供給される、メニューボタンなどからなるBD-Jグラフィックスを2D表示するためのグラフィックスデータから、BD-Jグラフィックスを3D表示するための3Dグラフィックスデータを生成する。   In addition, the 3D display data generation unit 39, based on the offset information from the offset generation unit 35, provides a BD-J including menu buttons and the like supplied from the BD-J graphics generation unit 40 in the same manner as the 3D subtitle data. 3D graphics data for 3D display of BD-J graphics is generated from graphics data for 2D display of graphics.

3D表示データ生成部39は、3Dビデオデータと3Dグラフィックスデータを、左右の各目用のデータごとに合成し、左目用の合成結果を左目用の表示データとし、右目用の合成結果を右目用の表示データとする。そして、3D表示データ生成部39は、左目用の表示データと右目用の表示データを3D表示データとして表示部61に供給し、左目用の画像と右目用の画像を表示部61に表示させる。   The 3D display data generation unit 39 synthesizes 3D video data and 3D graphics data for each of the left and right eye data, uses the left eye synthesis result as the left eye display data, and the right eye synthesis result as the right eye. Display data. Then, the 3D display data generation unit 39 supplies the display data for the left eye and the display data for the right eye to the display unit 61 as 3D display data, and causes the display unit 61 to display the image for the left eye and the image for the right eye.

BD-Jグラフィックス生成部40は、BD-Jオブジェクトの実行時に、制御部22からの制御にしたがってグラフィックスデータを生成し、3D表示データ生成部39に供給する。   The BD-J graphics generation unit 40 generates graphics data according to the control from the control unit 22 when the BD-J object is executed, and supplies the graphics data to the 3D display data generation unit 39.

オーディオ生成部41は、PIDフィルタ33から供給されるオーディオストリームのTSパケットに含まれるオーディオデータを復号し、その結果得られるオーディオデータをスピーカ62に供給する。   The audio generation unit 41 decodes the audio data included in the TS packet of the audio stream supplied from the PID filter 33 and supplies the audio data obtained as a result to the speaker 62.

表示部61は、3Dディスプレイなどにより構成される。表示部61は、3D表示データ生成部39から供給される3D表示データに基づいて左目用の画像と右目用の画像を表示する。その結果として、ユーザは、3D画像を見ることができる。   The display unit 61 is configured by a 3D display or the like. The display unit 61 displays an image for the left eye and an image for the right eye based on the 3D display data supplied from the 3D display data generation unit 39. As a result, the user can see the 3D image.

スピーカ62は、オーディオ生成部41から供給されるオーディオデータに対応する音声を出力する。   The speaker 62 outputs sound corresponding to the audio data supplied from the audio generation unit 41.

[右目用ビデオストリームの構成例]
図2は、右目用ビデオストリームの各GOP(Group of Picture)内の表示順で最初のディペンデントユニット(ピクチャ)の構成例を示す図である。
[Example structure of video stream for right eye]
FIG. 2 is a diagram illustrating a configuration example of the first dependent unit (picture) in the display order in each GOP (Group of Picture) of the video stream for the right eye.

図2に示すように、右目用ビデオストリームの各GOP内の表示順で最初のディペンデントユニットには、先頭から順に、ディペンデントデリミタ(Dependent delimiter)、SPS(Sequence Parameter Set)、Subset PPS(Picture Parameter Set)、SEI(Supplemental Enhancement Information)、1以上のスライス(Slice)が配置される。   As shown in FIG. 2, the first dependent unit in the display order within each GOP of the video stream for the right eye includes the dependent delimiter (Dependent delimiter), SPS (Sequence Parameter Set), and Subset PPS. (Picture Parameter Set), SEI (Supplemental Enhancement Information), and one or more slices are arranged.

ディペンデントデリミタは、ディペンデントユニットの先頭を示す開始符号である。ディペンデントデリミタには、例えば、ディペンデントユニットに含まれるスライスの種類を示す情報が含まれている。   The dependent delimiter is a start code indicating the head of the dependent unit. The dependent delimiter includes, for example, information indicating the type of slice included in the dependent unit.

SPSは、シーケンス全体に関わる情報が含まれるヘッダである。SPSには、例えば、右目用ビデオストリームのプロファイルを示す情報や、右目用ビデオストリームのレベルを示す情報が含まれている。また例えば、SPSには、POC(Picture Order Count)を計算するために必要な情報が含まれている。POCとは、ピクチャの表示順序を示す情報である。   The SPS is a header that includes information related to the entire sequence. The SPS includes, for example, information indicating the profile of the right-eye video stream and information indicating the level of the right-eye video stream. For example, the SPS includes information necessary for calculating a POC (Picture Order Count). POC is information indicating the display order of pictures.

PPSは、ピクチャに関わる情報が含まれるヘッダである。例えば、PPSには、POCを計算するために必要な情報が含まれている。   PPS is a header including information related to a picture. For example, the PPS includes information necessary for calculating the POC.

SEIは、VCL(Video Coding Layer)のデコードに必須ではない付加情報を示す情報である。SEIは、ディスク11の作成者であるユーザが独自に定義する情報であるユーザSEI情報(BD User data SEI messages in MVC scalable nesting SEI)と、それ以外の情報(Other SEI messages in MVC scalable nesting SEI)に分類することができる。ディスク11では、少なくともユーザSEI情報としてオフセットメタデータ(offset metadata)が記述される。スライスは、MVC方式で符号化された右目用の主画像のビデオデータであり、ピクチャの実データである。   SEI is information indicating additional information that is not essential for decoding of VCL (Video Coding Layer). SEI includes user SEI information (BD User data SEI messages in MVC scalable nesting SEI) and information other than that (Other SEI messages in MVC scalable nesting SEI). Can be classified. In the disk 11, offset metadata is described as at least user SEI information. A slice is video data of a main image for the right eye encoded by the MVC method, and is actual data of a picture.

なお、1以上のスライスの後には、必要に応じて、フィラーデータ(Filler Data)、エンドオブシーケンス(End of Sequence)、エンドオブストリーム(End of Stream)が配置される。   In addition, after one or more slices, filler data (Filler Data), an end of sequence (End of Sequence), and an end of stream (End of Stream) are arranged as necessary.

フィラーデータは、データサイズの調整のために付加されるデータである。エンドオブシーケンスは、シーケンスの終端を表す情報である。エンドオブストリームは、右目用ビデオストリームの終端を表す情報である。   Filler data is data added to adjust the data size. The end of sequence is information indicating the end of the sequence. The end of stream is information indicating the end of the right-eye video stream.

図3は、右目用ビデオストリームのTSパケットの生成方法を説明する図である。   FIG. 3 is a diagram for explaining a method of generating a TS packet of the right-eye video stream.

図3に示すように、右目用ビデオストリームは、オフセットメタデータが他のデータとともにTSパケットに配置されないように、TSパケット化される。   As shown in FIG. 3, the right-eye video stream is TS-packed so that the offset metadata is not arranged in the TS packet together with other data.

具体的には、図3に示すように、PPSの最後のTSパケットTS用のデータのデータサイズがTSパケットのデータ部のデータサイズより小さい場合、TSパケットTSのデータサイズがTSパケットのデータサイズと同一になるように、TSパケットTSのヘッダのアダプテーションフィールドを用いてヘッダ中に任意のスタッフィングバイトが挿入される。これにより、オフセットメタデータの先頭は、直前のPPSが配置されるTSパケットTSとは別のTSパケットTSn+1にパケット化される。なお、TSとは、i番目のTSパケットを表している。 Specifically, as shown in FIG. 3, if the last data size of the data of the TS packet TS n of PPS is smaller than the data size of the data portion of the TS packet, the data size of the TS packet TS n is TS packet Arbitrary stuffing bytes are inserted into the header using the adaptation field of the header of the TS packet TS n so as to be the same as the data size. Thus, the top of the offset metadata, the TS packet TS n where PPS immediately before are disposed are packetized into different TS packets TS n + 1. TS i represents the i-th TS packet.

また、図3に示すように、オフセットメタデータの最後のTSパケットTS用のデータのデータサイズがTSパケットのデータ部のデータサイズより小さい場合、TSパケットTSのデータサイズがTSパケットのデータサイズと同一になるように、TSパケットTSのヘッダのアダプテーションフィールドを用いてヘッダ中に任意のスタッフィングバイトが挿入される。これにより、スライスの先頭は、直前のオフセットメタデータが配置されるTSパケットTSとは別のTSパケットTSm+1にパケット化される。 Also, as shown in FIG. 3, when the data size of the data for the last TS packet TS m of the offset metadata is smaller than the data size of the data portion of the TS packet, the data size of the TS packet TS m is the data of the TS packet. Arbitrary stuffing bytes are inserted into the header using the adaptation field of the header of the TS packet TS m so as to be the same as the size. Thus, the head of the slice, the TS packet TS m immediately before the offset metadata is arranged is packetized into another TS packet TS m + 1.

さらに、図3に示すように、オフセットメタデータ以外のデータのTSパケットのヘッダには、トランスポートプライオリティとして0が記述される。また、オフセットメタデータのTSパケットのヘッダには、トランスポートプライオリティとして1が記述される。   Further, as shown in FIG. 3, 0 is described as the transport priority in the header of the TS packet of data other than the offset metadata. Also, 1 is described as the transport priority in the header of the TS packet of the offset metadata.

詳細には、図4に示すように、TSパケットは、先頭のヘッダと、それ以降のデータ部により構成される。   Specifically, as shown in FIG. 4, the TS packet is composed of a head header and subsequent data portions.

図4に示すように、ヘッダには、8ビットの同期バイト(sync_byte)、1ビットのトランスポートエラーインジケータ(transport_error_indicator)、および1ビットのペイロードユニット開始インジケータ(payload_unit_start_indicator)が記述される。また、ヘッダには、1ビットのトランスポートプライオリティ(transport_priority)、13ビットのPID、および2ビットのトランスポートスクランブル制御(transport_scrambling_control)が記述される。さらに、ヘッダには、2ビットのアダプテーションフィールド制御(adaptation_field_control)、および2ビットの巡回カウンタ(continuity_counter)が記述される。なお、巡回カウンタは、フレーム毎に1だけインクリメントされるデータである。   As shown in FIG. 4, an 8-bit synchronization byte (sync_byte), a 1-bit transport error indicator (transport_error_indicator), and a 1-bit payload unit start indicator (payload_unit_start_indicator) are described in the header. The header describes 1-bit transport priority (transport_priority), 13-bit PID, and 2-bit transport scramble control (transport_scrambling_control). Further, 2-bit adaptation field control (adaptation_field_control) and 2-bit cyclic counter (continuity_counter) are described in the header. The cyclic counter is data that is incremented by 1 for each frame.

アダプテーションフィールド制御が所定の値(図4の例では、「10」、「11」)である場合、ヘッダには、さらに、拡張ヘッダとしてのアダプテーションフィールドが配置される。   When the adaptation field control is a predetermined value (“10” and “11” in the example of FIG. 4), an adaptation field as an extension header is further arranged in the header.

また、アダプテーションフィールド制御が所定の値(図4の例では、「01」、「11」)である場合、データ部にはペイロードが格納される。ペイロードとしては、例えば、右目用ビデオストリームが格納される。   When the adaptation field control is a predetermined value (“01”, “11” in the example of FIG. 4), the payload is stored in the data portion. For example, a right-eye video stream is stored as the payload.

右目用ビデオストリームのTSパケットでは、ペイロードとしてオフセットメタデータが記述される場合、そのTSパケットのヘッダのトランスポートプライオリティとして1が記述される。一方、ペイロードとしてオフセットメタデータ以外のデータが記述される場合、そのペイロードを含むTSパケットのヘッダのトランスポートプライオリティとして0が記述される。   In the TS packet of the right-eye video stream, when offset metadata is described as the payload, 1 is described as the transport priority of the header of the TS packet. On the other hand, when data other than offset metadata is described as the payload, 0 is described as the transport priority of the header of the TS packet including the payload.

即ち、トランスポートプライオリティは、データ部に配置されるデータがオフセットメタデータであるか、または、オフセットメタデータ以外のデータであるかを表すフラグ情報として用いられる。   In other words, the transport priority is used as flag information indicating whether the data arranged in the data part is offset metadata or data other than offset metadata.

従って、再生装置20は、トランスポートプライオリティによって、右目用ビデオストリームのTSパケットのうち、オフセットメタデータを含むTSパケットを抽出することができる。   Therefore, the playback device 20 can extract TS packets including offset metadata from the TS packets of the right-eye video stream based on the transport priority.

[右目用ビデオ生成部とオフセット生成部の詳細構成例]
図5は、図1の右目用ビデオ生成部36とオフセット生成部35の詳細構成例を示すブロック図である。
[Detailed configuration example of the right eye video generator and offset generator]
FIG. 5 is a block diagram illustrating a detailed configuration example of the right-eye video generation unit 36 and the offset generation unit 35 in FIG. 1.

図5に示すように、PIDフィルタ33には、トランスポートプライオリティとして0または1が記述されたヘッダを含むTSパケットが入力される。図5の例では、先頭からn番目乃至n+3番目のTSパケットがPIDフィルタ33に入力されている。n番目とn+3番目のTSパケットのトランスポートプライオリティは0であり、n+1番目とn+2番目のTSパケットのトランスポートプライオリティは1である。   As shown in FIG. 5, the PID filter 33 receives a TS packet including a header in which 0 or 1 is described as a transport priority. In the example of FIG. 5, the nth to n + 3th TS packets from the top are input to the PID filter 33. The transport priority of the nth and n + 3 TS packets is 0, and the transport priority of the (n + 1) th and n + 2th TS packets is 1.

PIDフィルタ33は、入力されたTSパケットのヘッダに記述されたPIDに基づいて、そのTSパケットのうち右目用ビデオストリームのTSパケットを抽出し、トランスポートプライオリティフィルタ34に供給する。   The PID filter 33 extracts the TS packet of the video stream for the right eye from the TS packet based on the PID described in the header of the input TS packet, and supplies it to the transport priority filter 34.

トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給されるTSパケットを全て右目用ビデオ生成部36に供給するか、またはトランスポートプライオリティが0であるTSパケットのみを右目用ビデオ生成部36に供給する。   The transport priority filter 34 supplies all TS packets supplied from the PID filter 33 to the right-eye video generation unit 36 or supplies only TS packets having a transport priority of 0 to the right-eye video generation unit 36. .

また、トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給されるTSパケットのヘッダに記述されているトランスポートプライオリティが1である場合、そのTSパケットをオフセット生成部35に供給する。これにより、オフセット生成部35には、トランスポートプライオリティが1である右目用ビデオストリームのTSパケット、即ちオフセットメタデータがデータ部に配置されたTSパケットのみが供給される。   In addition, when the transport priority described in the header of the TS packet supplied from the PID filter 33 is 1, the transport priority filter 34 supplies the TS packet to the offset generation unit 35. Thereby, only the TS packet of the video stream for the right eye whose transport priority is 1, that is, the TS packet in which the offset metadata is arranged in the data part is supplied to the offset generation unit 35.

右目用ビデオ生成部36は、トランスポートバッファ71、エレメンタリバッファ72、およびビデオデコーダ73により構成される。   The right-eye video generation unit 36 includes a transport buffer 71, an elementary buffer 72, and a video decoder 73.

トランスポートバッファ71は、トランスポートプライオリティフィルタ34から供給されるTSパケットを蓄積する。トランスポートバッファ71は、蓄積されているTSパケットを所定のビットレートで読み出し、エレメンタリバッファ72に供給する。エレメンタリバッファ72は、トランスポートバッファ71から供給されるTSパケットを蓄積する。   The transport buffer 71 stores TS packets supplied from the transport priority filter 34. The transport buffer 71 reads the stored TS packets at a predetermined bit rate and supplies the read TS packets to the elementary buffer 72. The elementary buffer 72 accumulates TS packets supplied from the transport buffer 71.

ビデオデコーダ73は、汎用的なMVCデコーダにより構成される。ビデオデコーダ73は、エレメンタリバッファ72に蓄積されているTSパケットのトランスポートプライオリティに基づいて、そのTSパケットのうち、トランスポートプライオリティが0であるTSパケットのデータ部に配置されている右目用の主画像のビデオデータを所定のタイミングで引き抜く。そして、ビデオデコーダ73は、その右目用の主画像のビデオデータをMVC方式に対応する方式で復号し、その結果得られるビデオデータを右目用ビデオデータとして3D表示データ生成部39(図1)に供給する。   The video decoder 73 is configured by a general-purpose MVC decoder. Based on the transport priority of the TS packet stored in the elementary buffer 72, the video decoder 73 is for the right eye arranged in the data part of the TS packet having a transport priority of 0 among the TS packets. The video data of the main image is extracted at a predetermined timing. Then, the video decoder 73 decodes the video data of the main image for the right eye using a method corresponding to the MVC method, and the resulting video data is converted into the 3D display data generation unit 39 (FIG. 1) as the right eye video data. Supply.

オフセット生成部35は、エクストラバッファ81およびオフセットデコーダ82により構成される。   The offset generation unit 35 includes an extra buffer 81 and an offset decoder 82.

エクストラバッファ81は、トランスポートプライオリティフィルタ34から供給される、トランスポートプライオリティが1であるTSパケットを蓄積する。   The extra buffer 81 stores TS packets having a transport priority of 1 supplied from the transport priority filter 34.

オフセットデコーダ82は、エクストラバッファ81に蓄積されているTSパケットのデータ部に配置されるオフセットメタデータを所定のタイミングで引き抜く。オフセットデコーダ82は、そのオフセットメタデータに基づいてオフセット情報を生成し、3D表示データ生成部39(図1)に供給する。   The offset decoder 82 extracts the offset metadata arranged in the data part of the TS packet stored in the extra buffer 81 at a predetermined timing. The offset decoder 82 generates offset information based on the offset metadata and supplies the offset information to the 3D display data generation unit 39 (FIG. 1).

[再生装置の処理]
図6は、再生装置20のオフセット生成処理を説明するフローチャートである。このオフセット生成処理は、例えば、PIDフィルタに新たなTSパケットが入力されたとき、開始される。
[Processing of playback device]
FIG. 6 is a flowchart for explaining the offset generation processing of the playback device 20. This offset generation process is started, for example, when a new TS packet is input to the PID filter.

ステップS11において、PIDフィルタ33は、入力されたTSパケットのPIDに基づいて、そのTSパケットが右目用ビデオストリームのTSパケットであるかどうかを判定する。ステップS11で入力されたTSパケットが右目用ビデオストリームのTSパケットではないと判定された場合、処理は終了する。   In step S11, the PID filter 33 determines whether the TS packet is a TS packet of the right-eye video stream based on the PID of the input TS packet. If it is determined in step S11 that the input TS packet is not a TS packet of the right-eye video stream, the process ends.

一方、ステップS11で入力されたTSパケットが右目用ビデオストリームのTSパケットであると判定された場合、PIDフィルタ33は、そのTSパケットをトランスポートプライオリティフィルタ34に供給する。   On the other hand, when it is determined that the TS packet input in step S11 is the TS packet of the right-eye video stream, the PID filter 33 supplies the TS packet to the transport priority filter 34.

そして、ステップS12において、トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給されるTSパケットのヘッダに記述されたトランスポートプライオリティが1であるかどうかを判定する。ステップS12でトランスポートプライオリティが1ではないと判定された場合、即ちトランスポートプライオリティが0である場合、処理は終了する。   In step S 12, the transport priority filter 34 determines whether the transport priority described in the header of the TS packet supplied from the PID filter 33 is 1. If it is determined in step S12 that the transport priority is not 1, that is, if the transport priority is 0, the process ends.

一方、ステップS12でトランスポートプライオリティが1であると判定された場合、トランスポートプライオリティフィルタ34は、PIDフィルタ33から供給されるTSパケットをトランスポートバッファ71(図5)とエクストラバッファ81に供給する。   On the other hand, when it is determined in step S12 that the transport priority is 1, the transport priority filter 34 supplies the TS packet supplied from the PID filter 33 to the transport buffer 71 (FIG. 5) and the extra buffer 81. .

そして、ステップS13において、エクストラバッファ81は、トランスポートプライオリティフィルタ34から供給されるTSパケットを蓄積する。   In step S <b> 13, the extra buffer 81 accumulates TS packets supplied from the transport priority filter 34.

ステップS14において、オフセットデコーダ82は、エクストラバッファ81に蓄積されているTSパケットのデータ部に配置されているオフセットメタデータを引き抜く。   In step S <b> 14, the offset decoder 82 extracts the offset metadata arranged in the data portion of the TS packet stored in the extra buffer 81.

ステップS15において、オフセットデコーダ82は、ステップS14で引き抜かれたオフセットメタデータに基づいてオフセット情報を生成し、3D表示データ生成部39に供給する。そして処理は終了する。   In step S15, the offset decoder 82 generates offset information based on the offset metadata extracted in step S14, and supplies the offset information to the 3D display data generation unit 39. Then, the process ends.

図7は、ムービーオブジェクト実行時の再生装置20の3D表示処理のフローチャートである。この3D表示処理は、例えば、オフセットメタデータ、左目用ビデオデータ、右目用ビデオデータ、字幕データ、およびメニューデータが3D表示データ生成部39に入力されたとき、開始される。   FIG. 7 is a flowchart of 3D display processing of the playback device 20 when a movie object is executed. This 3D display process is started when, for example, offset metadata, left-eye video data, right-eye video data, caption data, and menu data are input to the 3D display data generation unit 39.

ステップS31において、3D表示データ生成部39は、オフセット生成部35から入力されるオフセット情報、右目用ビデオ生成部36から入力される右目用ビデオデータ、左目用ビデオ生成部37から入力される左目用ビデオデータ、字幕生成部51から入力される字幕データ、およびメニュー生成部52から入力されるメニューデータを取得する。   In step S <b> 31, the 3D display data generation unit 39 performs offset information input from the offset generation unit 35, right-eye video data input from the right-eye video generation unit 36, and left-eye video input from the left-eye video generation unit 37. Video data, caption data input from the caption generation unit 51, and menu data input from the menu generation unit 52 are acquired.

ステップS32において、3D表示データ生成部39は、オフセット情報に基づいて、右目用ビデオデータ、左目用ビデオデータ、字幕データ、およびメニューデータから3D表示データを生成する。   In step S32, the 3D display data generation unit 39 generates 3D display data from the right-eye video data, left-eye video data, caption data, and menu data based on the offset information.

ステップS33において、3D表示データ生成部39は、ステップS32で生成された3D表示データに基づいて、3D画像を表示部61に表示させる。そして処理は終了する。   In step S33, the 3D display data generation unit 39 displays a 3D image on the display unit 61 based on the 3D display data generated in step S32. Then, the process ends.

なお、BD-Jオブジェクト実行時の3D表示処理は、字幕データとメニューデータがグラフィックスデータに代わる以外、図7の3D表示処理と同様であるので、説明は省略する。   The 3D display process at the time of executing the BD-J object is the same as the 3D display process of FIG. 7 except that the caption data and the menu data are replaced with the graphics data, and thus the description thereof is omitted.

[記録装置の構成例]
図8は、ディスク11に右目用ビデオストリームを記録する記録装置100の構成例を示すブロック図である。
[Configuration example of recording device]
FIG. 8 is a block diagram illustrating a configuration example of the recording apparatus 100 that records the right-eye video stream on the disk 11.

図8の記録装置100は、ビデオ取得部101、ビデオエンコーダ102、オフセット取得部103、バッファ104、PESパケット化部105、TSパケット化部106、ドライブ107、および制御部108により構成される。   8 includes a video acquisition unit 101, a video encoder 102, an offset acquisition unit 103, a buffer 104, a PES packetization unit 105, a TS packetization unit 106, a drive 107, and a control unit 108.

ビデオ取得部101は、外部から入力される右目用の主画像のビデオデータを取得し、ビデオエンコーダ102に供給する。ビデオエンコーダ102は、ビデオ取得部101から供給されるビデオデータをMVC方式で符号化し、その結果得られるES(Elementary Stream)をバッファ104に供給する。なお、このESのSEIにはオフセットメタデータを配置するための空き領域が設けられている。   The video acquisition unit 101 acquires video data of a main image for the right eye input from the outside and supplies the video data to the video encoder 102. The video encoder 102 encodes the video data supplied from the video acquisition unit 101 using the MVC method, and supplies an ES (Elementary Stream) obtained as a result to the buffer 104. The SEI of this ES is provided with an empty area for arranging offset metadata.

オフセット取得部103は、外部から入力されるオフセットメタデータを取得し、オフセットメタデータをバッファ104に供給する。   The offset acquisition unit 103 acquires offset metadata input from the outside, and supplies the offset metadata to the buffer 104.

バッファ104は、ビデオバッファ111とオフセットバッファ112により構成される。ビデオバッファ111は、ビデオエンコーダ102から供給されるビデオデータのESを格納する。ビデオバッファ111は、制御部108からの制御に基づいて、自分自身に格納されているESを読み出し、そのESのSEIに設けられた空き領域にオフセットバッファ112から供給されるオフセットメタデータを配置して、PESパケット化部105に供給する。   The buffer 104 includes a video buffer 111 and an offset buffer 112. The video buffer 111 stores an ES of video data supplied from the video encoder 102. Based on the control from the control unit 108, the video buffer 111 reads the ES stored in itself, and arranges the offset metadata supplied from the offset buffer 112 in a free area provided in the SEI of the ES. To the PES packetization unit 105.

オフセットバッファ112は、オフセット取得部103から供給されるオフセットメタデータを格納する。オフセットバッファ112は、制御部108からの制御に基づいて、自分自身に格納されているオフセットメタデータを読み出し、ビデオバッファ111に供給する。   The offset buffer 112 stores the offset metadata supplied from the offset acquisition unit 103. Based on the control from the control unit 108, the offset buffer 112 reads the offset metadata stored in itself and supplies it to the video buffer 111.

PESパケット化部105は、制御部108からの制御に基づいて、ビデオバッファ111から供給されるESをPESパケットにパケット化する。   The PES packetizing unit 105 packetizes the ES supplied from the video buffer 111 into a PES packet based on the control from the control unit 108.

TSパケット化部106は、制御部108から供給されるトランスポートプライオリティに基づいて、PESパケット化部105から供給されるPESパケットを、TSパケットにパケット化する。具体的には、TSパケット化部106は、制御部108から供給されるトランスポートプライオリティが記述されたヘッダを含み、PESパケットがデータ部に配置されたTSパケットを生成する。なお、このTSパケットのヘッダには、右目用ビデオストリームに対応するPIDも記述される。TSパケット化部106は、生成されたTSパケットをドライブ107に供給する。   Based on the transport priority supplied from the control unit 108, the TS packetizing unit 106 packetizes the PES packet supplied from the PES packetizing unit 105 into a TS packet. Specifically, the TS packetizing unit 106 generates a TS packet that includes a header in which the transport priority supplied from the control unit 108 is described, and in which the PES packet is arranged in the data portion. In the TS packet header, a PID corresponding to the right-eye video stream is also described. The TS packetizing unit 106 supplies the generated TS packet to the drive 107.

ドライブ107は、制御部108からの制御に基づいて、TSパケット化部106から供給されるTSパケットをディスク11に記録する。   The drive 107 records the TS packet supplied from the TS packetizing unit 106 on the disk 11 based on the control from the control unit 108.

制御部108は、バッファ104に格納されたビデオデータのESおよびオフセットメタデータを監視する。また、制御部108は、PTSを管理する。さらに、制御部108は、PESパケット化部105、TSパケット化部106、およびドライブ107の各部を制御する。   The control unit 108 monitors the ES and offset metadata of the video data stored in the buffer 104. Further, the control unit 108 manages the PTS. Further, the control unit 108 controls each unit of the PES packetizing unit 105, the TS packetizing unit 106, and the drive 107.

具体的には、例えば、制御部108は、TSパケット化部106にPESパケット化されたビデオデータが入力される場合、トランスポートプライオリティとして0をTSパケット化部106に供給する。一方、TSパケット化部106にPESパケット化されたオフセットメタデータが入力される場合、トランスポートプライオリティとして1をTSパケット化部106に供給する。   Specifically, for example, when the PES packetized video data is input to the TS packetizing unit 106, the control unit 108 supplies 0 as the transport priority to the TS packetizing unit 106. On the other hand, when the offset metadata converted into the PES packet is input to the TS packetizing unit 106, 1 is supplied to the TS packetizing unit 106 as the transport priority.

[記録装置の処理の説明]
図9は、図8の記録装置100の記録処理を説明するフローチャートである。この記録処理は、例えば、PESパケット化部105からTSパケット化部106にPESパケットが入力されたとき開始される。
[Description of recording device processing]
FIG. 9 is a flowchart for explaining the recording process of the recording apparatus 100 of FIG. This recording process is started, for example, when a PES packet is input from the PES packetizer 105 to the TS packetizer 106.

ステップS51において、TSパケット化部106は、TSパケットのデータ部のデータサイズ分のPESパケットが供給されたかどうかを判定する。ステップS51でTSパケットのデータ部のデータサイズ分のPESパケットがまだ供給されていない場合、処理はステップS52に進む。   In step S51, the TS packetizing unit 106 determines whether a PES packet corresponding to the data size of the data portion of the TS packet has been supplied. If the PES packet corresponding to the data size of the data portion of the TS packet has not been supplied in step S51, the process proceeds to step S52.

ステップS52において、TSパケット化部106は、制御部108から供給されるトランスポートプライオリティが変更されたかどうかを判定する。ステップS52でトランスポートプライオリティが変更されていないと判定された場合、処理はステップS51に戻る。そして、TSパケットのデータ部のデータサイズ分のPESパケットが供給されたか、または、トランスポートプライオリティが変更されるまで、ステップS51およびS52の処理が繰り返される。   In step S52, the TS packetizing unit 106 determines whether or not the transport priority supplied from the control unit 108 has been changed. If it is determined in step S52 that the transport priority has not been changed, the process returns to step S51. Then, the processes of steps S51 and S52 are repeated until a PES packet corresponding to the data size of the data portion of the TS packet is supplied or the transport priority is changed.

一方、ステップS52でトランスポートプライオリティが変更されたと判定された場合、処理はステップS53に進む。ステップS53において、TSパケット化部106は、PESパケット化部105からのPESパケットがデータ部に配置される生成対象のTSパケットのデータサイズがTSパケットのデータサイズと同一になるように、アダプテーションフィールドを用いて生成対象のTSパケットのヘッダにスタッフィングデータを挿入する。具体的には、TSパケット化部106は、TSパケットのデータ部のデータサイズからPESパケットのデータサイズを減算した値分のスタッフィングデータを、TSパケットのヘッダのアダプテーションフィールドに挿入する。そして処理はステップS54に進む。   On the other hand, if it is determined in step S52 that the transport priority has been changed, the process proceeds to step S53. In step S53, the TS packetizing unit 106 adjusts the adaptation field so that the data size of the TS packet to be generated in which the PES packet from the PES packetizing unit 105 is arranged in the data unit is the same as the data size of the TS packet. Is used to insert stuffing data into the header of the TS packet to be generated. Specifically, the TS packetizing unit 106 inserts stuffing data corresponding to a value obtained by subtracting the data size of the PES packet from the data size of the data portion of the TS packet into the adaptation field of the header of the TS packet. Then, the process proceeds to step S54.

また、ステップS51でTSパケットのデータ部のデータサイズ分のPESパケットが供給されたと判定された場合、処理はステップS54に進む。   If it is determined in step S51 that a PES packet corresponding to the data size of the data portion of the TS packet has been supplied, the process proceeds to step S54.

ステップS54において、TSパケット化部106は、PESパケット化部105から供給されるPESパケットを、TSパケットのデータ部に配置する。   In step S54, the TS packetizer 106 arranges the PES packet supplied from the PES packetizer 105 in the data portion of the TS packet.

ステップS55において、TSパケット化部106は、制御部108から供給されたデータ部に配置されたPESパケットに対するトランスポートプライオリティが0であるかどうかを判定する。ステップS55でトランスポートプライオリティが0であると判定された場合、処理はステップS56に進む。   In step S55, the TS packetizing unit 106 determines whether or not the transport priority for the PES packet arranged in the data unit supplied from the control unit 108 is zero. If it is determined in step S55 that the transport priority is 0, the process proceeds to step S56.

ステップS56において、TSパケット化部106は、トランスポートプライオリティとして0が記述されたヘッダをデータ部に付加して、TSパケットを生成する。これにより、PESパケット化された右目用の主画像のビデオデータがデータ部に配置され、ヘッダのトランスポートプライオリティとして0が記述されたTSパケットが生成される。そして、TSパケット化部106は、生成されたTSパケットをドライブ107に供給し、処理をステップS58に進める。   In step S56, the TS packetizer 106 adds a header in which 0 is described as the transport priority to the data part, and generates a TS packet. As a result, the video data of the main image for the right eye that is converted into a PES packet is arranged in the data portion, and a TS packet in which 0 is described as the transport priority of the header is generated. Then, the TS packetizing unit 106 supplies the generated TS packet to the drive 107, and the process proceeds to step S58.

一方、ステップS55でトランスポートプライオリティが0であると判定された場合、処理はステップS57に進む。ステップS57において、TSパケット化部106は、トランスポートプライオリティとして1が記述されたヘッダをデータ部に付加して、TSパケットを生成する。これにより、PESパケット化されたオフセットメタデータがデータ部に配置され、ヘッダのトランスポートプライオリティとして1が記述されたTSパケットが生成される。そして、TSパケット化部106は、生成されたTSパケットをドライブ107に供給し、処理をステップS58に進める。   On the other hand, if it is determined in step S55 that the transport priority is 0, the process proceeds to step S57. In step S57, the TS packetizing unit 106 adds a header in which 1 is described as the transport priority to the data part to generate a TS packet. As a result, offset metadata converted into PES packets is arranged in the data part, and a TS packet in which 1 is described as the transport priority of the header is generated. Then, the TS packetizing unit 106 supplies the generated TS packet to the drive 107, and the process proceeds to step S58.

ステップS58において、ドライブ107は、TSパケット化部106から供給されるTSパケットをディスク11に記録する。そして処理は終了する。   In step S <b> 58, the drive 107 records the TS packet supplied from the TS packetizing unit 106 on the disk 11. Then, the process ends.

なお、上述した説明では、右目用ビデオストリームにオフセットメタデータが含まれるようにしたが、左目用ビデオストリームに含まれるようにしてもよい。また、右目用ビデオストリームと左目用ビデオストリームの両方に含まれるようにしてもよい。   In the above description, offset metadata is included in the right-eye video stream, but may be included in the left-eye video stream. Further, it may be included in both the right-eye video stream and the left-eye video stream.

また、上述した説明では、右目用ビデオストリームが、MVC方式のディペンデントストリームとなり、左目用ビデオストリームが、MVC方式のベースストリームとなるように符号化が行われたが、左目用ビデオストリームがディペンデントストリームとなり、右目用ビデオストリームがベースストリームとなるように符号化が行われるようにしてもよい。   In the above description, encoding is performed such that the right-eye video stream is an MVC dependent stream and the left-eye video stream is an MVC base stream. However, the left-eye video stream is The encoding may be performed so that the video stream for the right eye becomes the base stream.

本発明は、主画像の2D表示に用いられるビデオストリームと主画像のオフセット情報がディスクに記録される場合にも適用することができる。この場合、例えば、主画像の2D表示に用いられるビデオストリームに副画像のオフセットメタデータが含まれるとともに、主画像のオフセット情報が含まれる。   The present invention can also be applied to a case where a video stream used for 2D display of a main image and offset information of the main image are recorded on a disc. In this case, for example, the video stream used for 2D display of the main image includes offset metadata of the sub image and offset information of the main image.

上述した一連の処理の少なくとも一部は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理の少なくとも一部をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   At least a part of the series of processes described above can be executed by hardware or can be executed by software. When at least a part of the series of processes is executed by software, a program constituting the software is installed from a program recording medium into a computer incorporated in dedicated hardware or a general-purpose personal computer. .

図10は、上述した一連の処理の少なくとも一部をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 10 is a block diagram illustrating a hardware configuration example of a computer that executes at least a part of the above-described series of processes using a program.

CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。   A CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 are connected to each other via a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。また、バス204には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。   An input / output interface 205 is further connected to the bus 204. To the input / output interface 205, an input unit 206 such as a keyboard and a mouse and an output unit 207 such as a display and a speaker are connected. The bus 204 is connected to a storage unit 208 made up of a hard disk, a non-volatile memory, etc., a communication unit 209 made up of a network interface, etc., and a drive 210 that drives the removable media 211.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, for example, the CPU 201 loads the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes it, thereby executing the above-described series of processing. Is done.

CPU201が実行するプログラムは、例えばリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部208にインストールされる。   The program executed by the CPU 201 is recorded in the removable medium 211 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 208.

<オフセットメタデータの記述例>
図11および図12は、オフセットメタデータの記述例を示す図である。
<Example of offset metadata description>
FIG. 11 and FIG. 12 are diagrams showing examples of description of offset metadata.

図11に示すように、オフセットメタデータには、そのオフセットメタデータが含まれる右目用ビデオストリームのフレームレート(frame_rate)が4ビットで記述され、その右目用ビデオストリームの表示順で先頭のピクチャのPTS(offset_start_PTS)が33(=3+15+15)ビットで記述される。このフレームレートとPTSによりオフセット情報を適用する画面の再生時刻を特定することができる。また、オフセットメタデータには、そのオフセットメタデータがSEIに含まれるGOPのフレーム数(number of frames)が8ビットで記述される。さらに、オフセットメタデータには、そのGOPに対応して設定された字幕のオフセット情報の種類の数(number_of_PG_offset_sequences)、および、そのGOPに対応して設定されたメニューボタンのオフセット情報の種類の数(number_of_IG_offset_sequences)がそれぞれ6ビットで記述される。なお、再生対象に適用するオフセット情報の種類は、プレイリストなどによって指定される。   As shown in FIG. 11, in the offset metadata, the frame rate (frame_rate) of the right-eye video stream including the offset metadata is described in 4 bits, and the first picture in the display order of the right-eye video stream is described. PTS (offset_start_PTS) is described by 33 (= 3 + 15 + 15) bits. The playback time of the screen to which the offset information is applied can be specified by this frame rate and PTS. Also, the offset metadata describes the number of GOP frames (number of frames) in which the offset metadata is included in the SEI in 8 bits. Furthermore, the offset metadata includes the number of types of offset information (number_of_PG_offset_sequences) of subtitles set corresponding to the GOP, and the number of types of offset information of menu buttons set corresponding to the GOP ( number_of_IG_offset_sequences) is described in 6 bits. Note that the type of offset information applied to the reproduction target is specified by a playlist or the like.

また、図11に示すように、オフセットメタデータには、字幕のオフセット情報の種類ごとに、字幕のオフセット情報(PG_offset_sequence)が記述され、メニューボタンのオフセット情報の種類ごとに、メニューボタンのオフセット情報(IG_offset_sequence)が記述される。   Also, as shown in FIG. 11, the offset metadata describes subtitle offset information (PG_offset_sequence) for each type of subtitle offset information, and the menu button offset information for each type of menu button offset information. (IG_offset_sequence) is described.

オフセット情報(PG_offset_sequence,IG_offset_sequence)としては、図12Aや図12Bに示すように、オフセット方向を表す情報(offset_direction_flag)が1ビットで記述されるとともに、オフセット値を表す情報(offset_value)が7ビットで記述される。   As offset information (PG_offset_sequence, IG_offset_sequence), as shown in FIGS. 12A and 12B, offset direction information (offset_direction_flag) is described in 1 bit, and offset value information (offset_value) is described in 7 bits. Is done.

オフセット方向を表す情報としては、例えば、オフセット方向が、表示面に対して手前側(ユーザ側)に3D画像を飛び出させる方向である場合「0」が用いられ、奥側に3D画像を引っ込ませる方向である場合「1」が用いられる。また、オフセット値は、例えば画素数で表現される。   As information indicating the offset direction, for example, “0” is used when the offset direction is a direction in which the 3D image is projected to the near side (user side) with respect to the display surface, and the 3D image is retracted to the back side. If the direction is “1”, “1” is used. Further, the offset value is expressed by the number of pixels, for example.

オフセットメタデータには、さらに、図11に示すように、「0」が8回連続することを防止するために1ビットのマーカービット(marker_bit)が随所に配置される。具体的には、例えば、MVC方式の復号では、復号対象のデータにおいて「0」が8回連続すると、そのデータはスタートコードであると判定される。そのため、オフセットメタデータには、そのオフセットメタデータの一部がスタートコードを表さないように、マーカービットとして「1」が含まれる。また、オフセットメタデータには、空き領域(reserved_for_future_use)も配置される。   Further, as shown in FIG. 11, in the offset metadata, 1-bit marker bit (marker_bit) is arranged everywhere to prevent “0” from continuing eight times. Specifically, for example, in the MVC decoding, when “0” continues for eight times in the data to be decoded, the data is determined to be a start code. Therefore, the offset metadata includes “1” as a marker bit so that a part of the offset metadata does not represent a start code. In addition, an empty area (reserved_for_future_use) is also arranged in the offset metadata.

なお、図11の例では、「0」が8回連続しないようにマーカービットが配置されるが、マーカービットは、復号時にオフセットメタデータの一部または全部が所定のコードと認識されないように配置されればよく、マーカービットの配置方法は図11の方法に限定されない。   In the example of FIG. 11, marker bits are arranged so that “0” does not continue eight times. However, marker bits are arranged so that part or all of offset metadata is not recognized as a predetermined code at the time of decoding. The marker bit arrangement method is not limited to the method shown in FIG.

<3D表示データ生成部の詳細構成例>
図13は、図1の3D表示データ生成部39の詳細構成例を示すブロック図である。
<Detailed Configuration Example of 3D Display Data Generation Unit>
FIG. 13 is a block diagram illustrating a detailed configuration example of the 3D display data generation unit 39 in FIG. 1.

図13の3D表示データ生成部39は、字幕プレーン531、メニュープレーン532、左目用表示データ生成部533、および右目用表示データ生成部534により構成される。   The 3D display data generation unit 39 in FIG. 13 includes a subtitle plane 531, a menu plane 532, a left-eye display data generation unit 533, and a right-eye display data generation unit 534.

字幕プレーン531は、字幕生成部51(図1)から供給される字幕データを保持する。   The subtitle plane 531 holds subtitle data supplied from the subtitle generation unit 51 (FIG. 1).

メニュープレーン532は、メニュー生成部52(図1)から供給されるメニューデータを保持する。   The menu plane 532 holds menu data supplied from the menu generation unit 52 (FIG. 1).

左目用表示データ生成部533は、左目用ビデオプレーン541、透過部542、オフセット付加部543、透過部544、合成部545、透過部546、オフセット付加部547、透過部548、および合成部549により構成される。   The left-eye display data generation unit 533 includes a left-eye video plane 541, a transmission unit 542, an offset addition unit 543, a transmission unit 544, a synthesis unit 545, a transmission unit 546, an offset addition unit 547, a transmission unit 548, and a synthesis unit 549. Composed.

左目用ビデオプレーン541は、左目用ビデオ生成部37(図1)から供給される左目用ビデオデータを保持する。   The left-eye video plane 541 holds left-eye video data supplied from the left-eye video generation unit 37 (FIG. 1).

透過部542は、左目用ビデオプレーン541に保持されている左目用ビデオデータを読み出す。透過部542は、左目用の主画像が予め設定されている透過率(1−α1L)で透過するように、読み出された左目用ビデオデータを変換する。透過部542は、変換後の左目用ビデオデータを合成部545に供給する。 The transmission unit 542 reads the left-eye video data held in the left-eye video plane 541. The transmission unit 542 converts the read video data for the left eye so that the main image for the left eye is transmitted with a preset transmittance (1-α 1L ). The transmission unit 542 supplies the converted left-eye video data to the synthesis unit 545.

オフセット付加部543は、字幕プレーン531から字幕データを読み出す。オフセット付加部543は、図1のオフセット生成部35から供給される字幕データのオフセット情報に基づいて、読み出された字幕データから左目用の字幕データを生成する。オフセット付加部543は、その左目用の字幕データを透過部544に供給する。   The offset adding unit 543 reads caption data from the caption plane 531. The offset adding unit 543 generates subtitle data for the left eye from the read subtitle data based on the offset information of the subtitle data supplied from the offset generation unit 35 of FIG. The offset adding unit 543 supplies the caption data for the left eye to the transmission unit 544.

透過部544は、オフセット付加部547から供給される左目用の字幕データを、左目用の字幕が予め設定されている透過率α1Lで透過するように変換する。透過部544は、変換後の左目用の字幕データを合成部545に供給する。 The transmission unit 544 converts the left-eye caption data supplied from the offset addition unit 547 so that the left-eye caption data is transmitted at a preset transmittance α 1L . The transmission unit 544 supplies the converted subtitle data for the left eye to the synthesis unit 545.

合成部545は、透過部542から供給される左目用のビデオデータと透過部544から供給される左目用の字幕データを合成し、その結果得られるデータを透過部546に供給する。   The combining unit 545 combines the left-eye video data supplied from the transmission unit 542 and the left-eye caption data supplied from the transmission unit 544, and supplies the resultant data to the transmission unit 546.

透過部546は、合成部545から供給されるデータに対応する画像が透過率(1−α2L)で透過するように、そのデータを変換し、合成部549に供給する。 The transmitting unit 546 converts the data so that an image corresponding to the data supplied from the combining unit 545 is transmitted with the transmittance (1-α 2L ), and supplies the converted data to the combining unit 549.

オフセット付加部547は、メニュープレーン532からメニューデータを読み出す。オフセット付加部547は、図1のオフセット生成部35から供給されるメニューボタンのオフセット情報に基づいて、読み出されたメニューデータから左目用のメニューデータを生成する。オフセット付加部547は、その左目用のメニューデータを透過部548に供給する。   The offset adding unit 547 reads menu data from the menu plane 532. The offset adding unit 547 generates menu data for the left eye from the read menu data, based on the menu button offset information supplied from the offset generation unit 35 of FIG. The offset addition unit 547 supplies the menu data for the left eye to the transmission unit 548.

透過部548は、オフセット付加部547から供給される左目用のメニューデータを、左目用のメニューボタンが予め設定されている透過率α2Lで透過するように変換する。透過部548は、変換後の左目用のメニューデータを合成部549に供給する。 The transmission unit 548 converts the menu data for the left eye supplied from the offset addition unit 547 so that the menu button for the left eye transmits at a preset transmittance α 2L . The transmission unit 548 supplies the converted menu data for the left eye to the synthesis unit 549.

合成部549は、透過部546から供給されるデータと透過部548から供給されるメニューデータとを合成し、その結果得られるデータを左目用の表示データとして出力する。   The combining unit 549 combines the data supplied from the transmission unit 546 and the menu data supplied from the transmission unit 548, and outputs the resulting data as display data for the left eye.

右目用表示データ生成部534は、右目用ビデオプレーン551、透過部552、オフセット付加部553、透過部554、合成部555、透過部556、オフセット付加部557、透過部558、および合成部559により構成される。右目用表示データ生成部534の各部の処理は、処理の対象が右目用のデータであることを除いて左目用表示データ生成部533の各部の処理と同様であるので、説明は省略する。   The right-eye display data generation unit 534 includes a right-eye video plane 551, a transmission unit 552, an offset addition unit 553, a transmission unit 554, a synthesis unit 555, a transmission unit 556, an offset addition unit 557, a transmission unit 558, and a synthesis unit 559. Composed. The processing of each unit of the right-eye display data generation unit 534 is the same as the processing of each unit of the left-eye display data generation unit 533 except that the processing target is data for the right eye, and a description thereof will be omitted.

<3D表示データにおける重畳順の説明>
図14は、3D表示データ生成部39により生成される3D表示データにおける重畳順を説明する図である。
<Description of superposition order in 3D display data>
FIG. 14 is a diagram for explaining the superposition order in the 3D display data generated by the 3D display data generation unit 39.

図14Aに示すように、3D表示データのうちの左目用の表示データの重畳順序は、下から順に、左目用ビデオデータ、左目用の字幕データ、および左目用のメニューデータの順である。また、図14Bに示すように、右目用の表示データの重畳順序は、下から順に、右目用ビデオデータ、右目用の字幕データ、および右目用のメニューデータの順である。   As shown in FIG. 14A, the superposition order of the left-eye display data in the 3D display data is, in order from the bottom, the left-eye video data, the left-eye caption data, and the left-eye menu data. As shown in FIG. 14B, the display order of the display data for the right eye is, in order from the bottom, the video data for the right eye, the caption data for the right eye, and the menu data for the right eye.

本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In this specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. This includes the processing to be executed.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

11 ディスク, 20 再生装置, 31 ドライブ, 34 トランスポートプライオリティフィルタ, 36 右目用ビデオ生成部, 39 3D表示データ生成部, 100 記録装置, 102 ビデオエンコーダ, 106 TSパケット化部, 107 ドライブ   11 disc, 20 playback device, 31 drive, 34 transport priority filter, 36 right-eye video generator, 39 3D display data generator, 100 recording device, 102 video encoder, 106 TS packetizer, 107 drive

Claims (2)

所定の副画像のストリームである副画像ストリームのパケットと、
主画像のストリームであって、前記所定の副画像に対する、3D表示に用いられる左目用の副画像と右目用の副画像のずれ方向およびずれ量からなるオフセット情報を含むストリームであるビデオストリームのパケットと
を含み、
前記ビデオストリームのパケットのデータ部には、前記主画像のビデオデータまたは前記オフセット情報のいずれか一方のみが配置され、
前記ビデオストリームのパケットのヘッダには、そのパケットの前記データ部に配置されるデータが前記主画像のビデオデータであるか、または、前記オフセット情報であるかを表す情報であるフラグ情報が記述されている
データ構造のデータを再生する場合に、
前記副画像ストリームおよび前記ビデオストリームのパケットを読み出す読出部と、
前記読出部により読み出された前記パケットの前記ヘッダに記述されている前記フラグ情報が、前記オフセット情報であることを表す前記パケットの前記データ部に配置されている前記オフセット情報に基づいて、前記副画像ストリームのパケットから前記左目用の副画像のビデオデータと前記右目用の副画像のビデオデータを生成する生成部と
を備える再生装置。
A sub-image stream packet that is a predetermined sub-image stream;
A packet of a video stream that is a stream of a main image and includes offset information including a shift direction and a shift amount of a left-eye sub-image and a right-eye sub-image used for 3D display with respect to the predetermined sub-image. Including and
In the data portion of the packet of the video stream, only one of the video data of the main image or the offset information is arranged,
In the header of the packet of the video stream, flag information that is information indicating whether the data arranged in the data portion of the packet is video data of the main image or the offset information is described. When playing back data with a data structure,
A reading unit for reading packets of the sub-image stream and the video stream;
The flag information described in the header of the packet read by the reading unit is based on the offset information arranged in the data portion of the packet representing that the offset information, A playback device comprising: a generating unit configured to generate video data of the left-eye sub-image and right-eye sub-image from the sub-image stream packet.
所定の副画像のストリームである副画像ストリームのパケットと、
主画像のストリームであって、前記所定の副画像に対する、3D表示に用いられる左目用の副画像と右目用の副画像のずれ方向およびずれ量からなるオフセット情報を含むストリームであるビデオストリームのパケットと
を含み、
前記ビデオストリームのパケットのデータ部には、前記主画像のビデオデータまたは前記オフセット情報のいずれか一方のみが配置され、
前記ビデオストリームのパケットのヘッダには、そのパケットの前記データ部に配置されるデータが前記主画像のビデオデータであるか、または、前記オフセット情報であるかを表す情報であるフラグ情報が記述されている
データ構造のデータを再生する再生装置が、
前記副画像ストリームおよび前記ビデオストリームのパケットを読み出す読出ステップと、
前記読出ステップの処理により読み出された前記パケットの前記ヘッダに記述されている前記フラグ情報が、前記オフセット情報であることを表す前記パケットの前記データ部に配置されている前記オフセット情報に基づいて、前記副画像ストリームのパケットから前記左目用の副画像のビデオデータと前記右目用の副画像のビデオデータを生成する生成ステップと
を含む再生方法。
A sub-image stream packet that is a predetermined sub-image stream;
A packet of a video stream that is a stream of a main image and includes offset information including a shift direction and a shift amount of a left-eye sub-image and a right-eye sub-image used for 3D display with respect to the predetermined sub-image. Including and
In the data portion of the packet of the video stream, only one of the video data of the main image or the offset information is arranged,
In the header of the packet of the video stream, flag information that is information indicating whether the data arranged in the data portion of the packet is video data of the main image or the offset information is described. A playback device that plays back data with a data structure
A reading step of reading packets of the sub-image stream and the video stream;
Based on the offset information arranged in the data portion of the packet indicating that the flag information described in the header of the packet read by the process of the reading step is the offset information And a generating step of generating video data of the sub-image for the left eye and video data of the sub-image for the right eye from the packet of the sub-image stream.
JP2012013705A 2009-08-18 2012-01-26 Playback apparatus and playback method Expired - Fee Related JP4957879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012013705A JP4957879B2 (en) 2009-08-18 2012-01-26 Playback apparatus and playback method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009189109 2009-08-18
JP2009189109 2009-08-18
JP2012013705A JP4957879B2 (en) 2009-08-18 2012-01-26 Playback apparatus and playback method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010114578A Division JP4957831B2 (en) 2009-08-18 2010-05-18 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD

Publications (2)

Publication Number Publication Date
JP2012100341A true JP2012100341A (en) 2012-05-24
JP4957879B2 JP4957879B2 (en) 2012-06-20

Family

ID=46391648

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2012013705A Expired - Fee Related JP4957879B2 (en) 2009-08-18 2012-01-26 Playback apparatus and playback method
JP2012013702A Active JP4984189B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013703A Active JP4984190B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013704A Expired - Fee Related JP4984191B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013701A Pending JP2012130037A (en) 2009-08-18 2012-01-26 Recording media

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2012013702A Active JP4984189B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013703A Active JP4984190B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013704A Expired - Fee Related JP4984191B2 (en) 2009-08-18 2012-01-26 REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
JP2012013701A Pending JP2012130037A (en) 2009-08-18 2012-01-26 Recording media

Country Status (1)

Country Link
JP (5) JP4957879B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (en) * 1998-04-02 1999-10-19 Toshiba Corp Stereoscopic video display device
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2009100070A (en) * 2007-10-15 2009-05-07 Victor Co Of Japan Ltd Method, device and program for encoding multi-view image
JP2009135686A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Stereoscopic video recording method, stereoscopic video recording medium, stereoscopic video reproducing method, stereoscopic video recording apparatus, and stereoscopic video reproducing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (en) * 1998-04-02 1999-10-19 Toshiba Corp Stereoscopic video display device
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2009100070A (en) * 2007-10-15 2009-05-07 Victor Co Of Japan Ltd Method, device and program for encoding multi-view image
JP2009135686A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Stereoscopic video recording method, stereoscopic video recording medium, stereoscopic video reproducing method, stereoscopic video recording apparatus, and stereoscopic video reproducing apparatus

Also Published As

Publication number Publication date
JP4984191B2 (en) 2012-07-25
JP2012130039A (en) 2012-07-05
JP4984189B2 (en) 2012-07-25
JP4957879B2 (en) 2012-06-20
JP4984190B2 (en) 2012-07-25
JP2012130038A (en) 2012-07-05
JP2012100340A (en) 2012-05-24
JP2012130037A (en) 2012-07-05

Similar Documents

Publication Publication Date Title
JP4957823B2 (en) Playback apparatus and playback method
JP5267886B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND INFORMATION PROCESSING METHOD
TW201127021A (en) Recording medium, reproducing device, encoding device, integrated circuit, and reproduction output device
JP2010263615A (en) Information processing device, information processing method, playback device, playback method, and recording medium
JP4957831B2 (en) REPRODUCTION DEVICE AND REPRODUCTION METHOD, RECORDING DEVICE AND RECORDING METHOD
TWI479879B (en) Data structure and recording medium, and reproducing apparatus, reproducing method, program, and program storage medium
JP4957879B2 (en) Playback apparatus and playback method
JP4985893B2 (en) Recording method
JP4985884B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP4993044B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees