JP2012120220A - Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, and optical disc - Google Patents

Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, and optical disc Download PDF

Info

Publication number
JP2012120220A
JP2012120220A JP2012009710A JP2012009710A JP2012120220A JP 2012120220 A JP2012120220 A JP 2012120220A JP 2012009710 A JP2012009710 A JP 2012009710A JP 2012009710 A JP2012009710 A JP 2012009710A JP 2012120220 A JP2012120220 A JP 2012120220A
Authority
JP
Japan
Prior art keywords
video
information
information block
video information
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012009710A
Other languages
Japanese (ja)
Other versions
JP5383833B2 (en
Inventor
Masahito Nagasawa
雅人 長沢
Keiji Hatanaka
惠司 畠中
Kazuhiro Kurisaki
一浩 栗崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012009710A priority Critical patent/JP5383833B2/en
Publication of JP2012120220A publication Critical patent/JP2012120220A/en
Application granted granted Critical
Publication of JP5383833B2 publication Critical patent/JP5383833B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic video recording method, a stereoscopic video recording medium, a stereoscopic video reproducing method, a stereoscopic video recording apparatus, and a stereoscopic video reproducing apparatus that are capable of more optimally recording and reproducing stereoscopic video.SOLUTION: A piece of solving means of the present invention is a stereoscopic video recording method for recording stereoscopic video composed of left-eye video 2 and right-eye video 1 utilizing parallax video in a recording medium using a stereoscopic video recording apparatus 6. Then, from video content containing the stereoscopic video, a variation amount of a parallax angle having a predetermined value or greater, a variation time required for a variation in the parallax angle, and the number of variation times of the parallax angle are obtained, an evaluation value corresponding to a degree of eye fatigue is calculated based on the variation amount, the variation time, and the number of variation times, and the video content is encoded so that the evaluation value is within a predetermined range and is recorded in the recording medium.

Description

本発明は、立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置に係る発明に関するものである。   The present invention relates to a stereoscopic video recording method, a stereoscopic video recording medium, a stereoscopic video playback method, a stereoscopic video recording device, and a stereoscopic video playback device.

ディジタル映像信号を圧縮する符号化技術が進むにつれ、圧縮された映像信号を光ディスクに記録することによって、検索性や操作性に優れた光ディスク装置を実現することが可能となった。このような光ディスク装置は、映像をディジタル信号として記録するため、アナログ映像信号を記録する場合に比べてダビングによる劣化が無い他、光記録再生であるため、非接触で信頼性に優れている。   As an encoding technique for compressing a digital video signal progresses, it is possible to realize an optical disc apparatus excellent in searchability and operability by recording the compressed video signal on an optical disc. Such an optical disc apparatus records video as a digital signal, so there is no deterioration due to dubbing compared to the case of recording an analog video signal, and it is optical recording and reproduction, so it is non-contact and excellent in reliability.

一方、上記のようなディジタル映像信号をデータ圧縮する符号化方法としては、例えば、MPEG(Moving Picture coding Experts Group)方式によるものがあるが、この圧縮方法はモーションJPEG等の面内圧縮方法に比べ圧縮効率は良いものの、時間方向の動き補償予測を用いているため、複数枚の映像グループからなる(GOP)映像単位でしか検索できなかったり、ディスク上のアクセスも面内圧縮からなるIピクチャにまずアクセスしなければならない等の制約条件が存在していた。そのため、特許文献1では、光ディスク上のデータフォーマットを工夫することが提案されている。   On the other hand, as an encoding method for compressing data of the digital video signal as described above, for example, there is a method based on the MPEG (Moving Picture Coding Experts Group) method, but this compression method is compared with an in-plane compression method such as motion JPEG. Although the compression efficiency is good, since motion compensation prediction in the time direction is used, it is possible to search only in units of video (GOP) consisting of a plurality of video groups, and access on the disk is also made to I picture consisting of in-plane compression. There were constraints such as having to access first. Therefore, Patent Document 1 proposes to devise a data format on the optical disc.

また、特許文献1のデータフォーマットは、あくまで2次元の平面映像をファイルするためのものである。立体映像をファイルする場合、TV信号の第一フィールドと第二フィールドとで、それぞれ右目左目の映像を別々に表示し、偏向メガネ等で2つの映像をそれぞれのフィールド映像をそれぞれの目にのみ見せる特許文献2の方法を採用することが必要である。   Further, the data format of Patent Document 1 is only for filing a two-dimensional plane image. When a 3D image is filed, the right and left eye images are separately displayed in the first and second fields of the TV signal, and the two images are displayed only by the respective eyes with deflection glasses or the like. It is necessary to adopt the method of Patent Document 2.

特開2005−260988号公報JP 2005-260988 A 特開2007−166651号公報JP 2007-166651 A

立体(以下、3Dともいう)映像を長時間視聴する場合、焦点方向に目を動かす頻度が増大し、目の疲れや3D酔いのような症状が頻発する事が懸念され、特に奥行き方向の注目点の移動が激しい場合において、3D視聴に支障をきたす場合があった。また、特に字幕等の表示においては、目の焦点を次々と切り替える必要があり、通常の3D映像に対し、さらに目の疲れや3D酔いの症状を増大させる等の懸念があった。   When viewing stereoscopic (hereinafter also referred to as 3D) video for a long time, the frequency of moving the eyes in the focus direction increases, and there is concern that symptoms such as eye fatigue and 3D sickness will occur frequently, especially in the depth direction. When the movement of the points is intense, there are cases where 3D viewing is hindered. In particular, in the display of subtitles and the like, it is necessary to switch the focus of the eyes one after another, and there is a concern that the symptoms of eye fatigue and 3D sickness are further increased with respect to normal 3D images.

また、立体映像情報の記録において、右目映像と左目映像との視差を利用した立体映像を光ディスク上にファイルする際に、平面(以下、2Dともいう)映像と立体(3D)映像とが混在した映像ストリームに対応できない問題があった。特に、立体映像を再生中の再生装置に表示装置を切り替えたり、新たに接続しようとした場合に、3D表示に必要な情報をリンクして表示装置側に送付できないため、瞬時に表示装置の設定を切り替える事ができない等の問題があった。   In recording of stereoscopic video information, when a stereoscopic video using the parallax between the right-eye video and the left-eye video is filed on the optical disc, planar (hereinafter also referred to as 2D) video and stereoscopic (3D) video are mixed. There was a problem that could not support the video stream. In particular, when a display device is switched to a playback device that is playing back a 3D image or when a new connection is attempted, information necessary for 3D display cannot be linked and sent to the display device side. There were problems such as being unable to switch.

また、立体映像情報の記録において、右目映像と左目映像との視差を利用した立体映像を光ディスク上にファイルする際に、放送で実施される立体映像を記録でき、且つ表示装置や再生装置の設定が可能な、画像制御情報が設けられていない問題があった。   In addition, when recording stereoscopic video information, when stereoscopic video using the parallax between right-eye video and left-eye video is filed on an optical disc, it is possible to record stereoscopic video implemented by broadcasting, and to set display devices and playback devices. However, there is a problem that image control information is not provided.

また、映画等の配給コンテンツにおいては映画館等の先行視聴ビジネスとメディア配給とをリリース時期を異なるように設定しており、映画配給の状況から視聴可能地域を限定するコードが設けられていた。さらに、配給コンテンツが立体映像の場合、さらに対応表示装置の普及状況にも左右されるため、3D映像と2D映像とによって、さらに視聴可能地域を分ける事が必要となっていた。しかし、従来のシステムではこれに対応していない問題があった。   In addition, in the distribution contents such as movies, the pre-viewing business such as a movie theater and the media distribution are set to have different release times, and a code for limiting the viewable area is provided from the situation of the movie distribution. In addition, when the distribution content is a stereoscopic video, it is further affected by the spread status of the corresponding display device, so that it is necessary to further divide the viewable area by 3D video and 2D video. However, the conventional system has a problem that does not correspond to this.

また、立体映像ストリームにおいて、ストリーム上からコンテンツに関する情報や、著作権に関する情報、3D表示方法に関する情報、OSD表示に関する情報、マルチアングルの情報等を重畳させる事ができないため、再生装置側ではなく表示装置側で機器の設定変更を瞬時に行う事ができない問題があった。   In addition, in a stereoscopic video stream, information related to content, information related to copyright, information related to 3D display method, information related to OSD display, multi-angle information, etc. cannot be superimposed on the stream, so that it is not displayed on the playback device side. There was a problem that device settings could not be changed instantaneously on the device side.

また、視差を利用した3D映像情報においては、通常の2D映像情報と比べて左目の情報と右目の情報とがあり、そのままでは情報量が2倍となるためファイル効率が劣化する等の問題があった。   In addition, in 3D video information using parallax, there are left eye information and right eye information as compared to normal 2D video information, and the amount of information is doubled as it is, so that there is a problem that file efficiency deteriorates. there were.

また、3D映像の再生時において、立体度合いがきつい映像では目の疲労が大きくなるため、コンテンツの立体度合いに応じて、予めユーザに警告を発したり、ユーザの年齢等で視聴制限したりする事ができない問題があった。さらに、3D映像の再生時において、立体度合いがきつい映像では目の疲労が大きくなるため、コンテンツの立体度合いを再生装置側で緩和する処置ができない問題があった。   In addition, when playing 3D video, eyes with a high degree of stereo are very tired, so warnings may be issued to the user in advance or viewing may be restricted based on the user's age, etc., depending on the degree of stereo of the content. There was a problem that could not be. Furthermore, there is a problem in that, when a 3D video is played back, eye strain is increased in a video with a high degree of 3D, so that it is impossible to reduce the 3D level of the content on the playback device side.

そこで、本発明は、上記の課題を解決するためになされた発明であり、立体映像の記録、再生をより最適に行うことが可能な立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置を提供することを目的とする。   Therefore, the present invention is an invention made to solve the above-described problem, and a stereoscopic video recording method, a stereoscopic video recording medium, a stereoscopic video reproduction method, and a method for more optimally recording and reproducing a stereoscopic video, It is an object to provide a stereoscopic video recording device and a stereoscopic video playback device.

本発明に係る解決手段によれば、左目映像と右目映像とからなる視差を用いた立体映像を光ディスクに記録する映像情報記録方法であって、左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成された立体映像情報を光ディスクに記録する際、前記主映像の他方である副映像が、前記主映像のピクチャに対応する副映像情報として、前記主映像との間で動き検出を用いてさらに差分圧縮を行い、前記主映像情報ブロックに比し映像データ量を削減した副映像のデジタル副映像情報ブロックとして生成し、さらに前記主映像情報ブロックとさらに前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるよう、前記主映像情報ブロックと前記副映像情報ブロックの映像データを交互に並び替えを行うとともに、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、当該映像情報ブロックと当該グラフィックスデータと当該音声データが関連するもの同士の組み合わせとしてまとめて配置されるよう、記録データを生成するとともに、前記立体映像情報の記録時において、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域に対し、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報を、表示するグラフィックス情報表示単位毎に記録するとともに、前記映像付帯情報記録領域に対し、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報を記録する事で、2次元映像を再生する場合は前記差分圧縮が行われていない前記主映像とグラフィックデータを再生し、立体映像を再生する場合は前記主映像情報ブロックと前記副映像情報ブロックの両方とグラフィックデータを再生するとともに、前記差分圧縮映像をデコードするための前記付情報記録領域の前記映像情報ブロックの3D映像付帯情報と、グラフィックスを立体視するための前記グラフィックスの奥行き情報を合わせて再生する事で、立体的なグラフィックスを前記視差を用いた立体映像に重ねて表示する事が可能な光ディスクの映像情報記録方法が提供される。   According to the solution means of the present invention, there is provided a video information recording method for recording a stereoscopic video using parallax consisting of a left-eye video and a right-eye video on an optical disc, wherein either the left-eye video or the right-eye video is used as a main video. The main video includes an I picture compressed in a frame, a P picture compressed by applying motion compensation by the I picture in the forward direction, and the I picture in the forward and backward direction, or the When recording 3D video information configured as a digital main video information block including a B picture compressed by motion compensation by a P picture on an optical disc, the sub video which is the other of the main video is recorded in the main video. As sub-picture information corresponding to a picture of the video, differential compression is further performed using motion detection with the main video, and video data is compared with the main video information block. It is generated as a digital sub-picture information block of a sub-picture with a reduced amount, and the main picture information block and the sub-picture information block are alternately arranged in time for each picture information block on the optical disc. The video data of the main video information block and the sub-video information block are rearranged alternately, and the graphics data related to the main video information block and the sub-video information block is related to the video information block and the sub-video information block. Recording data is generated so that the graphics data and the audio data are related and arranged together, and at the time of recording the stereoscopic video information, the main video information block and the sub-data block in the optical disc are recorded. An area separate from the video information block and the optical disc Graphics displayed together with the stereoscopic video in the main video information block and the sub video information block for the video supplementary information recording area related to the video information provided in two areas on the inner peripheral side and the outer peripheral side Recording of auxiliary information including depth information for specifying the jumping out of depth information or depth for each graphics information display unit to be displayed, and for the video information block unit of the video information block unit with respect to the video auxiliary information recording area A recording area for table information composed of auxiliary information is secured, and 2D video is recorded by recording 3D video auxiliary information indicating whether the video information block is a main video information block or a sub video information block that is 3D video. In the case of reproduction, the main video and graphic data not subjected to the differential compression are reproduced, and a stereoscopic video is reproduced. 3D video auxiliary information of the video information block in the additional information recording area for decoding the differentially compressed video and reproducing the graphic data with both the main video information block and the sub-video information block And video information of an optical disc that can be displayed by superimposing stereoscopic graphics on the stereoscopic video using the parallax by reproducing the graphics depth information for stereoscopic viewing of the graphics. A recording method is provided.

本発明に係る別の解決手段によれば、左目映像と右目映像とからなる視差を用いた立体映像が記録された光ディスクの映像情報再生方法であって、前記光ディスクに記録された情報が、左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、また、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、前記映像情報ブロックの映像データに対する組み合わせとしてまとめて配置されており、また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報である付帯情報が表示されるグラフィックス情報表示単位毎に記録され、さらに、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスクにおいて、2次元映像を再生する場合は、前記映像データの記録領域を再生する際、前記副映像をジャンプし、前記主映像情報ブロックと前記グラフィックスデータが配置されているグラフィックスデータ領域を再生するとともに、立体映像を再生する場合は、前記主映像情報ブロックと前記差分圧縮を行った前記副映像情報ブロックの両方と前記グラフィックスデータ領域を再生するとともに、さらに前記映像付帯情報記録領域における前記グラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報と、前記テーブル情報に格納された前記映像情報ブロックが主映像情報ブロックか副映像情報ブロックかの3D映像付帯情報を再生する事で、前記映像情報ブロックにおける前記差分圧縮が行われた副映像情報ブロックをデコードし、同期表示を行うことで立体表現された視差映像となる主映像と副映像に分離するとともに、前記分離された映像情報において、グラフィックスの奥行き情報により視差をつけた立体的なグラフィック情報を前記視差映像に重ねて表示する光ディスクの映像情報再生方法が提供される。   According to another solution according to the present invention, there is provided a video information reproducing method for an optical disc on which a stereoscopic video using a parallax composed of a left-eye video and a right-eye video is recorded, wherein the information recorded on the optical disc is One of the video and the right-eye video is the main video, and the main video is an I picture that is data-compressed within a frame, and a P-picture that is data-compressed by applying motion compensation by the I picture in the forward direction in time. , A digital main video information block including a B picture that is data-compressed by applying motion compensation by the I picture or the P picture in the front-rear direction and a sub-picture that is the other of the main pictures Is a differential sub-compression digital sub-picture information block using motion detection as sub-picture information corresponding to the picture of the main picture. The main video information block and the further compressed sub-video information block are alternately arranged in time for each video information block on the optical disc, and the main video information block Graphics data related to the sub-video information block is arranged as a combination of the video information block with respect to the video data, and the main video information block and the sub-video information block in the optical disc are In a video ancillary information recording area related to the video information, which is provided in another area and in two areas on the inner peripheral side and the outer peripheral side of the optical disc, in the main video information block and the sub-video information block, Specifies the pop-up or depth of graphics information displayed with 3D images. Is recorded for each graphics information display unit in which supplementary information, which is depth information to be displayed, is displayed, and further, in the video supplementary information recording area, recording of table information including supplementary information related to the video information block in the video information block unit 2D video is reproduced on an optical disc in which 3D video supplementary information indicating whether the video information block is a main video information block or a sub video information block that is a 3D video is recorded in the table information region. In this case, when the recording area of the video data is reproduced, the sub-picture is jumped to reproduce the graphics data area where the main video information block and the graphics data are arranged, and also reproduce the stereoscopic video. The sub-video information subjected to the differential compression with the main video information block. Both the block and the graphics data area are reproduced, and the video information stored in the table information includes additional information including depth information specifying the pop-up or depth of the graphics information in the video additional information recording area. By reproducing 3D video supplementary information on whether the information block is a main video information block or a sub-video information block, the sub-video information block on which the differential compression has been performed in the video information block is decoded and displayed synchronously. The main video and the sub video, which are stereoscopically represented as parallax images, are separated, and in the separated video information, three-dimensional graphic information with a parallax is added to the parallax video in accordance with graphics depth information. An optical disc video information reproducing method is provided.

本発明に係る別の解決手段によれば、左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、前記映像情報ブロックの映像データの組み合わせとしてまとめて配置されるよう記録データを生成し、また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報が表示するグラフィックス情報表示単位毎に記録され、また、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスクを再生する光ディスク装置において、前記光ディスクから記録データを再生するための光ディスクドライブと、前記光ディスクから交互に配置された前記主映像と前記副映像とを前記付帯情報の前記3D映像付帯情報に基づいて抽出分離するためのシステムデコード手段と、前記抽出分離された主映像情報ブロックをデコードするビデオデコード手段と、前記主映像の他方である前記抽出分離され差分圧縮された副映像を主映像の動きベクトルを用いてデコードする第二のビデオデコード手段と、グラフィックスデータを生成するためのOSD生成手段と、前記生成されたグラフィックスデータにおいて前記光ディスクドライブから再生された前記付帯情報にある前記奥行き情報に基づき、前記グラフィックスデータに視差をあたえ立体的なグラフィックスデータを生成するOSD奥行き生成手段と、前記立体的なグラフィックスデータを前記立体映像に重ね合わせるブレンディング手段とを有する映像情報再生装置が提供される。   According to another solution of the present invention, one of the left-eye video and the right-eye video is used as a main video, the main video is an I picture compressed in a frame, and the I picture forward in time A digital main video information block including a P picture compressed by adding motion compensation according to, and a B picture compressed by adding motion compensation by the I picture or the P picture in the longitudinal direction in time. In addition, a sub-picture that is the other of the main pictures is a sub-picture information block corresponding to a picture of the main picture as a digital sub-picture information block that is further differentially compressed using motion detection as sub-picture information. The main video information block and the further compressed sub video information block are configured for each video information block on the optical disc. For the graphics data related to the main video information block and the sub video information block, the recording data is generated so as to be collectively arranged as a combination of video data of the video information block, In addition, the video ancillary related to the video information provided in two areas on the optical disc, which are different from the main video information block and the sub-video information block, and on the inner peripheral side and the outer peripheral side of the optical disc. In each information recording area, each graphics information display unit in which auxiliary information including depth information for specifying the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block is displayed. In the video ancillary information recording area, the video is recorded. A recording area of table information composed of supplementary information related to the video information block in information block units is secured, and 3D video supplementary information indicating whether the video information block is a main video information block or a sub video information block that is a 3D video is provided. In the optical disk apparatus for reproducing the optical disk recorded in the table information area, the auxiliary information includes an optical disk drive for reproducing recorded data from the optical disk, and the main video and the sub-video arranged alternately from the optical disk. System decoding means for extracting and separating based on the 3D video supplementary information, video decoding means for decoding the extracted and separated main video information block, and extracting and separating and differentially compressing the other main video The second sub-picture is decoded using the motion vector of the main picture Video decoding means, OSD generation means for generating graphics data, and the graphics data based on the depth information in the accompanying information reproduced from the optical disc drive in the generated graphics data. There is provided a video information reproducing apparatus having OSD depth generating means for generating stereoscopic graphics data with parallax and blending means for superimposing the stereoscopic graphics data on the stereoscopic video.

本発明に係る別の解決手段によれば、左目映像と右目映像とからなる視差を用いた立体映像を光ディスクに記録する映像情報記録装置であって、前記映像情報記録装置は、左目映像と右目映像のいずれか一方を主映像として、本主映像においてフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックを生成するビデオエンコード手段と、前記主映像の他方である副映像が、前記主映像のピクチャに対応する副映像情報として、前記主映像との間で動き検出を用いてさらに差分圧縮を行い、前記主映像情報ブロックに比し映像データ量を削減した副映像のデジタル副映像情報ブロックを生成する第二のビデオエンコード手段と、前記主映像情報ブロックと前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるよう、前記主映像情報ブロックと前記副映像情報ブロックの映像データを交互に並び替えを行うとともに、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータも前記映像情報ブロックの映像データの組み合わせとしてまとめて配置されるようにデータを生成するためのフォーマットエンコード手段及びバッファメモリ手段と、グラフィックス情報を生成するOSDエンコード手段と、前記光ディスクにデータを書き込むためのデータ変調手段および光ヘッドを有するとともに、さらに前記フォーマットエンコード手段が、前記立体映像情報の記録時に、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域に対し、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報を、表示するグラフィックス情報表示単位毎に記録するとともに、前記映像付帯情報記録領域に対し、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報を記録する機能を有し、映像データ量を削減した副映像情報を含む立体映像情報と、立体的なグラフィックス情報とを前記光ディスクに記録する映像情報記録装置が提供される。   According to another solution of the present invention, there is provided a video information recording apparatus for recording a stereoscopic video using a parallax composed of a left-eye video and a right-eye video on an optical disc, wherein the video information recording apparatus includes a left-eye video and a right-eye video. Either one of the videos as a main video, an I picture whose data is compressed in a frame in the main video, a P picture which is data compressed by adding motion compensation by the I picture forward in time, and temporal A video encoding means for generating a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the front-rear direction, and a sub-picture that is the other of the main pictures, The sub-picture information corresponding to the picture of the main picture is further subjected to differential compression using motion detection with the main picture, and the main picture information block A second video encoding means for generating a digital sub-picture information block of a sub-picture with a reduced amount of video data, and the main picture information block and the sub-picture information block for each picture information block on the optical disc; The video data of the main video information block and the sub video information block are alternately rearranged so as to be alternately arranged in time, and the graphics data related to the main video information block and the sub video information block Also, format encoding means and buffer memory means for generating data so as to be collectively arranged as a combination of video data of the video information block, OSD encoding means for generating graphics information, and writing data to the optical disc Data modulation means and optical head for In addition, the format encoding means, when recording the stereoscopic video information, is a region different from the main video information block and the sub-video information block in the optical disc, and on the inner and outer peripheral sides of the optical disc. Projection or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub video information block in the video supplementary information recording area related to the video information provided in two areas. Attached information including depth information to be specified is recorded for each display unit of graphics information to be displayed, and table information including incidental information related to the video information block in the video information block unit is recorded in the video incidental information recording area. A recording area is secured, and the video information block is the main video information. 3D video supplementary information indicating whether it is a block or a 3D video sub-video information block, and includes stereoscopic video information including sub-video information with a reduced video data amount and stereoscopic graphics information. A video information recording apparatus for recording on an optical disc is provided.

本発明に係る別の解決手段によれば、光ディスクに記録された情報が、左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、また、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータが、当該映像情報ブロックの映像データとの組み合わせでまとめて配置されており、また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報である付帯情報が、表示されるグラフィックス情報表示単位毎に記録されており、さらに、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスクが提供される。   According to another solution according to the present invention, the information recorded on the optical disc includes either one of the left-eye video and the right-eye video as a main video, the main video is an I picture compressed in a frame, and a time A P picture compressed by adding motion compensation by the forward I picture, and a B picture compressed by adding motion compensation by the I picture or the P picture temporally forward and backward. It is configured as a digital main video information block, and the sub video that is the other of the main video is further differentially compressed using motion detection as sub video information corresponding to the picture of the main video. The main video information block and the further compressed sub video information block are formed on the optical disc. The video data blocks are alternately arranged in time, and the graphics data related to the main video information block and the sub video information block are combined in combination with the video data of the video information block. And the video information provided in two areas on the optical disc that are different from the main video information block and the sub-video information block and on the inner circumference side and the outer circumference side of the optical disc. In the video ancillary information recording area related to the video, the supplementary information which is depth information for designating the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block is displayed. And is recorded for each graphics information display unit. In the area, a recording area of table information composed of incidental information related to the video information block in the video information block unit is secured, and indicates whether the video information block is a main video information block or a sub-video information block that is 3D video An optical disc in which 3D video supplementary information is recorded in the table information area is provided.

上記各解決手段によれば、圧縮効率の高い圧縮処理で処理された立体映像データを平面映像再生との互換を持たせた形で光ディスク上に最適配置することができ、又、これを利用することができる。   According to each of the above solutions, the stereoscopic video data processed by the compression processing with high compression efficiency can be optimally arranged on the optical disc in a form compatible with the planar video reproduction, and is used. be able to.

本発明の実施の形態1に係るシャッタを用いた立体映像表示システムの概念図である。1 is a conceptual diagram of a stereoscopic video display system using a shutter according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る偏光フィルタを用いた立体映像表示システムの概念図である。It is a conceptual diagram of the three-dimensional video display system using the polarizing filter which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る回転偏光フィルタを用いた立体映像表示システムの概念図である。It is a conceptual diagram of the three-dimensional video display system using the rotation polarizing filter which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る多重情報を用いた立体映像表示システムの概念図である。1 is a conceptual diagram of a stereoscopic video display system using multiplexed information according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る立体映像の模試図である。It is a schematic diagram of the three-dimensional image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る字幕表示を含む立体映像の模試図である。FIG. 3 is a schematic diagram of a stereoscopic video including subtitle display according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る目の疲労度を説明するための図である。It is a figure for demonstrating the eye fatigue degree which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る奥行き方向の加速度と目の疲労度を説明するための図である。It is a figure for demonstrating the acceleration and the eye fatigue degree of the depth direction which concern on Embodiment 1 of this invention. 本発明の実施の形態1に係る字幕の表示範囲を説明するための図である。It is a figure for demonstrating the display range of the caption which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る記録媒体上の情報記録領域を示す図である。It is a figure which shows the information recording area on the recording medium based on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure of the video title which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure of the video title which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像タイトルの映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure of the video title which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る付帯情報のコンテンツ情報を説明するための図である。It is a figure for demonstrating the content information of the incidental information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る付帯情報のタイムコード情報を説明するための図である。It is a figure for demonstrating the time code information of the incidental information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る付帯情報の配置情報を説明するための図である。It is a figure for demonstrating the arrangement | positioning information of incidental information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る付帯情報の映像情報を説明するための図である。It is a figure for demonstrating the video information of the incidental information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る付帯情報を用いたTV表示の概念図である。It is a conceptual diagram of TV display using the incidental information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係るマルチアングル情報の模試図である。It is a trial figure of the multi-angle information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係るOSD情報を説明するための図である。It is a figure for demonstrating the OSD information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像制御情報のGOPテーブル情報を説明するための図である。It is a figure for demonstrating the GOP table information of the video control information which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像制御情報のGOPテーブル情報とOSD情報を説明するための図である。It is a figure for demonstrating the GOP table information and OSD information of the video control information which concern on Embodiment 2 of this invention. 本発明の実施の形態2に係る映像制御情報のシーケンス情報とOSD情報と映像属性情報を説明するための図である。It is a figure for demonstrating the sequence information of the video control information based on Embodiment 2 of this invention, OSD information, and video attribute information. 本発明の実施の形態3に係る立体映像記録装置のブロック図である。It is a block diagram of the stereoscopic video recording apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る立体映像記録装置のブロック図である。It is a block diagram of the stereoscopic video recording apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る差分情報の圧縮の原理を説明するための視差画像概念図である。It is a parallax image conceptual diagram for demonstrating the principle of the compression of the difference information which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る立体映像記録装置のブロック図である。It is a block diagram of the stereoscopic video recording apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る視差情報画像変換の圧縮を説明するための模試図である。It is a schematic diagram for demonstrating compression of the parallax information image conversion which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る立体映像記録装置のブロック図である。It is a block diagram of the stereoscopic video recording apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る映像ストリーム構造を説明するための図である。It is a figure for demonstrating the video stream structure which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る立体映像再生装置のブロック図である。It is a block diagram of the three-dimensional video reproduction device concerning Embodiment 4 of the present invention. 本発明の実施の形態4に係る立体映像再生装置のブロック図である。It is a block diagram of the three-dimensional video reproduction device concerning Embodiment 4 of the present invention. 本発明の実施の形態4に係る立体映像再生装置を説明するための図である。It is a figure for demonstrating the stereoscopic video reproduction apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る立体映像再生装置を説明するための図である。It is a figure for demonstrating the stereoscopic video reproduction apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る立体映像再生装置を説明するための図である。It is a figure for demonstrating the stereoscopic video reproduction apparatus which concerns on Embodiment 4 of this invention.

(実施の形態1)
本発明の実施の形態1について、図に従い以下に説明する。図1は、本実施の形態に係る立体映像システムの全体構成を示すブロック図である。図1に示す立体映像システムでは、立体映像が記録されたメディアを再生して右目映像1及び左目映像2を出力する立体映像記録装置6(以下、単に記録装置6ともいう)、TVやプロジェクター等の表示装置3、液晶等で構成され2つの透過偏向光を切り替える事ができるシャッタ4、シャッタ4を介したフレーム順からなる映像5A,5Bを見るために左右それぞれに液晶シャッタもしくは左右それぞれに異なる偏向板が構成されたメガネ7Aとで構成されている。図2は、本実施の形態1に係る立体映像システムの別の構成例を示している。図2に示す立体映像システムでは、図1と異なり2つの表示装置A,Bを備え、且つそれぞれ方向の異なる特定の偏向成分の光のみを通すための偏向板9,10、表示パネル12に投影させるための光学系11、偏向板9,10を介して得られるフレーム順からなる映像5C,5Dを見るために左右異なる偏向板を有するメガネ7Bとで構成されている。
(Embodiment 1)
Embodiment 1 of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of the stereoscopic video system according to the present embodiment. In the stereoscopic video system shown in FIG. 1, a stereoscopic video recording device 6 (hereinafter also simply referred to as a recording device 6), a TV, a projector, or the like that reproduces media on which stereoscopic video is recorded and outputs right-eye video 1 and left-eye video 2. Display device 3, a liquid crystal shutter or the like that can be switched between two transmitted and deflected light beams, and a video shutter 5 A and 5 B that are arranged in frame order via the shutter 4. It is comprised with the glasses 7A with which the deflection | deviation plate was comprised. FIG. 2 shows another configuration example of the stereoscopic video system according to the first embodiment. The stereoscopic video system shown in FIG. 2 differs from FIG. 1 in that it includes two display devices A and B, and projects on the deflection plates 9 and 10 and the display panel 12 for passing only light of specific deflection components having different directions. And glasses 7B having different right and left deflecting plates for viewing images 5C and 5D having the frame order obtained through the deflecting plates 9 and 10.

図3は、本実施の形態1に係る立体映像システムのさらなる別の構成例を示している。図3に示す立体映像システムでは、図1と異なりそれぞれ方向の異なる特定の偏向成分の光のみを通す半円の偏向板を張り合わせた円形の回転円盤を有する同期回転部材13と、同期回転部材13に光を投射する光源14とを備えている。図4は、本実施の形態1に係る立体映像システムのさらなる別の構成例を示している。図4に示す立体映像システムでは、図1と異なり、映像信号22に基づく複数の映像を投影するための表示デバイス15〜19と、投影された立体映像を再現するための回転ミラー21とを備えている。   FIG. 3 shows still another configuration example of the stereoscopic video system according to the first embodiment. In the stereoscopic video system shown in FIG. 3, unlike FIG. 1, a synchronous rotating member 13 having a circular rotating disk with a semicircular deflecting plate that passes only light of specific deflection components having different directions, and a synchronous rotating member 13. And a light source 14 for projecting light. FIG. 4 shows still another configuration example of the stereoscopic video system according to the first embodiment. The stereoscopic video system shown in FIG. 4 includes display devices 15 to 19 for projecting a plurality of videos based on the video signal 22 and a rotating mirror 21 for reproducing the projected stereoscopic video, unlike FIG. ing.

図5は、人間が知覚する立体映像を模試したものである。図5では、無限遠方111から順に奥行き位置112〜117として、奥行き位置117が一番飛び出した(目に近い)位置としている。さらに、図5では、奥行き位置115上に表示された人間118、奥行き114上に表示された人間119、遠方から流れてくる川120、遠方に見える山121が図示されている。図6は、図5の表示にさらに字幕表示を追加表示したもので、それぞれの奥行き位置に表示された字幕122A〜122Cと、当該字幕の奥行き範囲123A〜123Cとを図示している。   FIG. 5 is a trial of a stereoscopic image perceived by a human. In FIG. 5, the depth positions 117 to 117 are arranged in order from the infinite distance 111, and the depth position 117 is the position where it protrudes most (close to the eyes). Further, FIG. 5 shows a person 118 displayed on the depth position 115, a person 119 displayed on the depth 114, a river 120 flowing from a distant place, and a mountain 121 visible in the distant place. FIG. 6 is a further display of subtitle display in addition to the display of FIG. 5, and illustrates subtitles 122 </ b> A to 122 </ b> C displayed at respective depth positions and depth ranges 123 </ b> A to 123 </ b> C of the subtitles.

図7(a),図7(b)は、視差の角度変化加速度・変化にかかる時間・回数と目の疲労度を示した図である。図7(a)では、目の疲労度124を縦軸、角度変化加速度・変化の積125を横軸とし、注目点や字幕に対する目の疲労度126、注目点や字幕に対する最高疲労点127、背景画像の目の疲労度128、背景映像における酔いが発生する限界点129、人の目に対する安全領域130、人の目に対する危険領域131、人の目に対する3D酔いが発生する領域131をそれぞれ図示している。また、図7(b)は、目の視差運動を示すための模試図であり、注目点の遠くの映像126A、注目点の近くの映像126B、近くにある場合の視野角126D、遠くにある場合の視野角126E、人間の目126F、映像126Bが表示されている奥行き126GG、映像126Aが表示されている奥行き126HHをそれぞれ図示している。   FIGS. 7A and 7B are diagrams showing the angular change acceleration of parallax, the time and number of changes, and the degree of eye fatigue. In FIG. 7A, the eye fatigue level 124 is the vertical axis, the product 125 of the angular change acceleration / change is the horizontal axis, the eye fatigue level 126 for the attention point and caption, the highest fatigue point 127 for the attention point and caption, The background image eye fatigue degree 128, the limit point 129 where intoxication occurs in the background video, the human eye safety area 130, the human eye danger area 131, and the human eye 3D sickness area 131 are respectively illustrated. Show. FIG. 7B is a schematic diagram for showing the parallax movement of the eye. The image 126A far from the point of interest, the image 126B near the point of interest, the viewing angle 126D when near, and far away. In this case, the viewing angle 126E, the human eye 126F, the depth 126GG where the video 126B is displayed, and the depth 126HH where the video 126A is displayed are illustrated.

また、図8は、注目点の奥行き方向の加速度と移動時間×回数との関係を示したグラフである。図8に示すグラフでは、注目点の奥行き方向の加速度133を縦軸、移動時間と回数の積(移動時間×回数)134を横軸として、安全領域130と危険領域131の境界135、危険領域131と3D酔い発生領域132との境界136とを図示している。また、図9は、字幕表示における奥行き位置と奥行き位置変化量の関係を示したものである。図9では、奥行き位置137を縦軸、奥行き変化量140を横軸として、無限遠の位置138、目の位置(一番手前)139、奥行き変化量制限値141、手前の奥行き制限(飛び出し制限)142、遠方の奥行き制限143をそれぞれ示している。   FIG. 8 is a graph showing the relationship between the acceleration in the depth direction of the point of interest and the movement time × number of times. In the graph shown in FIG. 8, the vertical axis is the acceleration 133 in the depth direction of the point of interest, the horizontal axis is the product of the movement time and the number of times (movement time × number) 134, the boundary 135 between the safety area 130 and the danger area 131, and the danger area. A boundary 136 between 131 and the 3D sickness generation region 132 is illustrated. FIG. 9 shows the relationship between the depth position and the depth position change amount in subtitle display. In FIG. 9, with the depth position 137 as the vertical axis and the depth change amount 140 as the horizontal axis, the infinity position 138, the eye position (frontmost) 139, the depth change amount limit value 141, the front depth limit (jump limit) ) 142 and a remote depth limit 143 respectively.

ここで、一般的にTVやプロジェクターを用いた立体映像システムでは、図1から図3に示されるように、人間の目の視差情報を利用したものが多く、メガネによって左右にそれぞれの映像情報を投影し、立体に見せるものである。一般的には映像の撮影の際も2台のカメラを用いて、左右の目に入力させるための映像を撮影するため、2つのストリームが構成されることになる。ここではまず記録装置6に蓄積された左右の映像情報を、TVやプロジェクタの表示装置に入力させる。この際、記録装置6と表示装置間の情報インターフェイスとしてアナログ方式の場合は、左右それぞれ別々の情報伝送が必要となるが、HDMI等のディジタルインターフェイスの場合は左右の情報を交互にシリアル伝送させることも可能である他、記録装置6側で圧縮して伝送し、TV側で解凍させる方法もある。また。左右の映像情報はTV表示の場合フィールド毎に、左と右を切り替えて表示する事となるが、近年の倍スキャン表示を用いたTVを用いれば再生映像を、フィールド毎に左右に分けるにあたり、フリッカ等の問題を解消する事ができ、スムーズな立体映像再生が可能になっている。   Here, in general, stereoscopic video systems using a TV or a projector, as shown in FIGS. 1 to 3, often use parallax information of human eyes, and each video information is displayed on the left and right with glasses. It is projected and shown in three dimensions. In general, when shooting a video, two cameras are used to shoot a video for input to the left and right eyes using two cameras. Here, the left and right video information stored in the recording device 6 is first input to the display device of the TV or projector. At this time, when the analog interface is used as the information interface between the recording device 6 and the display device, it is necessary to transmit information separately on the left and right, but in the case of a digital interface such as HDMI, the information on the left and right are alternately serially transmitted. In addition, there is a method of compressing and transmitting on the recording device 6 side and decompressing on the TV side. Also. In the case of TV display, left and right video information is displayed by switching between left and right for each field. However, when a TV using a double-scan display in recent years is used, a playback video is divided into left and right for each field. Problems such as flicker can be solved, and smooth stereoscopic video playback is possible.

さらに、図1に示すように液晶等で構成され2つの透過偏向光を切り替える事ができるシャッタ4を構成した場合は、透過するフィールド映像5Aを例えば縦偏向、映像5Bを横偏向とするように、シャッタ4を制御する事でフィールド毎の光の偏向角を変える事ができる。この場合はメガネ7A側は左右異なる偏向板(縦偏向と横偏向)を貼り付けたものでよく、ケーブル3Aを介して表示装置3がシャッタ4を制御するタイミングに対応する信号を表示装置3からメガネ7Aに供給するケーブル3Bが不要となる。一方、シャッタ4を用いない場合は、メガネ7A側に液晶シャッタを設ける必要があり、ケーブル3Bのフィールド同期信号ケーブルが必要となる。メガネ7A側の液晶シャッタで対応する場合は偏向光を用いていないため、首を傾けたりする等のメガネの角度が変わっても立体表示に対する影響は小さく抑えられる効果がある。   Furthermore, as shown in FIG. 1, when the shutter 4 configured by liquid crystal or the like and capable of switching between two transmitted deflected lights is configured, the transmitted field image 5A is, for example, vertically deflected, and the image 5B is laterally deflected. By controlling the shutter 4, the deflection angle of light for each field can be changed. In this case, the glasses 7A may have different left and right deflection plates (vertical deflection and lateral deflection) attached thereto, and a signal corresponding to the timing at which the display device 3 controls the shutter 4 via the cable 3A is sent from the display device 3. The cable 3B supplied to the glasses 7A becomes unnecessary. On the other hand, when the shutter 4 is not used, it is necessary to provide a liquid crystal shutter on the side of the glasses 7A, and the field synchronization signal cable of the cable 3B is necessary. When using the liquid crystal shutter on the side of the glasses 7A, since deflected light is not used, there is an effect that the influence on the stereoscopic display can be kept small even if the angle of the glasses changes such as tilting the neck.

また、図2の方式では、PLD素子や透過型液晶タイプを有する表示デバイスを2つ有することにより、それぞれに左右別々の映像を表示させる方法である。この場合は表示装置(A,B)7,8の前面に異なる偏向方向を持つ偏向板9,10を取りつけておく。このことで、それぞれの表示発光部分から出射される光が異なる偏向となっており、これを光学系11を介して表示パネル12に投影する事で、例えば右目は縦偏向の映像5C、左目は横偏向の映像5Dを映し出す事が可能となる。ここではさらに、偏向メガネ7Bを用いてそれぞれの目に視差のある映像情報を入力させる。   In the method of FIG. 2, two display devices having a PLD element or a transmissive liquid crystal type are provided, and separate left and right images are displayed on each display device. In this case, deflection plates 9 and 10 having different deflection directions are attached to the front surfaces of the display devices (A and B) 7 and 8, respectively. As a result, the light emitted from the respective display light emitting portions has different deflections, and is projected onto the display panel 12 via the optical system 11, for example, the right eye is a vertically deflected image 5C and the left eye is It is possible to project a laterally deflected image 5D. Here, further, video information with parallax is input to each eye using the deflection glasses 7B.

また、図3の方式ではPLD等の光学素子に入射させる光源の部分において、TVのフィールド表示のタイミングに同期して回転する同期回転部材13を有する偏向光切換え機構を構成し、フィールド表示のタイミングにあわせた偏向光を有する光をPLD素子等に入射させる方式である。この場合、映像表示パネル上にはフィールド毎に異なる偏向光を有する映像が投射される。これを図2と同様な方式の偏向メガネ7で見ることにより視差映像を目に入れることが可能となる。また、図4にように複数の表示デバイス15〜19によって複数角度から撮影した映像を投影し、立体映像を再現する方法もある。この場合は立体用の映像ストリームは2本ではなく複数本のストリームを蓄積し再生しなければならない。   Further, in the system of FIG. 3, a deflecting light switching mechanism having a synchronous rotating member 13 that rotates in synchronization with the field display timing of the TV is formed in the portion of the light source incident on an optical element such as a PLD, and the field display timing is set. This is a system in which light having polarized light matched to is incident on a PLD element or the like. In this case, an image having different polarized light for each field is projected on the image display panel. Viewing this with the deflection glasses 7 of the same type as in FIG. 2 makes it possible to see the parallax image. In addition, as shown in FIG. 4, there is also a method for reproducing a stereoscopic image by projecting images taken from a plurality of angles by a plurality of display devices 15 to 19. In this case, it is necessary to store and reproduce a plurality of streams instead of two stereoscopic video streams.

さらに、TVのフィールド表示のタイミングに同期して回転する上記同期回転部材13をRGBの特定の波長のみを通す光学フィルタにて構成し、円盤の半分を左目用残りの半分を右目用として、それぞれのRGBの波長をずらす事によって、右目用の光と左目用に光の波長を変え、またメガネ7をそれぞれ右目用と左目用の波長しか通さない光学フィルタから構成する事によっても左右の映像をそれぞれの目に入射させる事ができる。この場合、左右のRGBのずれはTVの表示側の色調整によって補正し、色再現上遜色ないようにする事が可能で、またこのRGB波長を左右でずらす方式ではメガネを傾けてもメガネ7からの光が減衰したりする事がない。   Further, the synchronous rotating member 13 that rotates in synchronization with the timing of the field display of the TV is configured with an optical filter that passes only specific wavelengths of RGB, and the other half of the disk is for the left eye and the other half is for the right eye. By shifting the RGB wavelengths, the wavelength of the light for the right eye and the left eye is changed, and the left and right images can also be obtained by configuring the glasses 7 with optical filters that pass only the wavelengths for the right eye and the left eye, respectively. It can be incident on each eye. In this case, the left and right RGB shifts can be corrected by color adjustment on the display side of the TV so as not to be inferior in color reproduction. Also, in the method of shifting the RGB wavelength left and right, the glasses 7 can be tilted even if the glasses are tilted. The light from is not attenuated.

また、図4の回転ミラー21を用いた方式では、複数の視点による映像を表示デバイス15〜19によって、回転ミラー21に立体映像が投影されるため、実際の立体映像においてみる側の視点を変えても実物のように見える(極端な場合は裏側等隠れて見えなかった部分も見えるようになる。)ものである。   In the method using the rotating mirror 21 in FIG. 4, images from a plurality of viewpoints are projected onto the rotating mirror 21 by the display devices 15 to 19. However, it looks like the real thing (in the extreme case, you can see the hidden parts such as the back side).

次に、実際の立体映像について説明する。視差を利用した映像再現の場合であっても、人間の目においては図5のように知覚される。この場合、奥行き位置の無限遠111から目の位置117までの奥行きを分解表現すると、奥行き位置112〜115までの奥行き平面上にそれぞれの画像が表示されている事となる。例えば、注目点となる登場人物は手前にあれば大きく人間118のように見え、離れると人間119のように見える。背景情報である川121などは手前に近づけば大きく遠くなれば小さく見え、大きな山121などは背景であっても大きく見える。例えば、図5に示すような立体映像に字幕を表示させた場合、図6のように表現される。近くにある字幕122Aは、字幕122B,122Cと表示が少しずつ遠ざかっていく。この注目点である登場人物である人間119A〜119Cはシーンにより奥行き位置が変化しているとすると、字幕もそれにあわせて変化させれば目の焦点の動きを少なくさせるため疲れにくくなる。そのため、登場人物である人間119Aのシーンでは字幕122Aを、登場人物である人間119Bのシーンでは字幕122Bを、登場人物である人間119Cのシーンでは字幕122Cを表示させる事が望ましい。従来の2D映像においてはもともと奥行き位置の変化がないため、ユーザとTVとの距離が人間の目の焦点であり、目の焦点方向の筋肉を動かすことはないが、立体映像では視差を利用したものであっても視差分の目の移動が必要となるためである。   Next, actual stereoscopic video will be described. Even in the case of video reproduction using parallax, it is perceived by human eyes as shown in FIG. In this case, if the depth from the infinity 111 of the depth position to the eye position 117 is decomposed and expressed, the respective images are displayed on the depth plane from the depth positions 112 to 115. For example, a character that is a point of interest looks like a human 118 when it is in front, and looks like a human 119 when separated. The river 121 or the like, which is background information, looks smaller when it is farther away, and the larger mountain 121 or the like appears larger even in the background. For example, when a caption is displayed on a stereoscopic video as shown in FIG. 5, it is expressed as shown in FIG. The subtitle 122A in the vicinity is gradually moved away from the subtitles 122B and 122C. If the depth positions of the humans 119A to 119C, which are the characters of interest, change depending on the scene, if the subtitles are changed accordingly, the movement of the focal point of the eyes is reduced, so that fatigue is less likely to occur. Therefore, it is desirable to display the caption 122A in the scene of the human character 119A, the subtitle 122B in the scene of the human character 119B, and the subtitle 122C in the scene of the human character 119C. Since there is no change in depth position in the conventional 2D video, the distance between the user and the TV is the focus of the human eye and does not move the muscle in the focus direction of the eye, but the stereoscopic video uses parallax. This is because movement of the eye for the amount of parallax is required even if it is a thing.

また、図7(a)に示すように登場人物等の注目点の焦点方向の移動においては、その視差角度の変化速度や変化にかかる時間やその回数に比例して目の疲れが発生する。特に注目点においては目が追随しなければならないため、目の疲労は激しく、視差角度の変化速度や変化にかかる時間やその回数が少ない段階で疲労のピークに達するものと考えられる。特に、図7(b)に示す視野角126Dのように手前の映像は視差角度が大きく、遠くのものは視野角126Eのように視差角度が小さい。遠近が変化すると視差角度が変化し両目126Fはこの角度をつけて目標に焦点を合わせる必要が生じ、遠近の変化に視差角に追従しなければならない。従来の平面映像を表示するTVは遠近の映像がないため目の奥行き方向認知に必要な視差角は常に一定であるが立体映像の場合は、平面内の目の動きの他に奥行き方向(視差角をもたせる)の目の動きをつけなければならないため、目の負担は増大する。ただし、目の応答よりも早い動きをした場合は追従できないので逆に疲労も減少するため目の疲労度126のカーブのようになるものと予想される。また、背景情報については元々目が追随していないものの遠近が変化する視差角度の変化速度や変化にかかる時間やその回数が増えると増加傾向にあるものと推定される。これを奥行き方向加速度と、移動時間と回数の積の関係で表したものが図8であり、奥行き方向の加速度が小さくても回数や距離が増えると危険領域や酔いの発生が見られるが、あるレベルを下回った場合、移動時間と回数の積が増えても疲れない状態になると推定する。   Further, as shown in FIG. 7A, in the movement of the attention point of a character or the like in the focal direction, eye fatigue occurs in proportion to the change speed, the time required for the change, and the number of changes. In particular, since the eye must follow the attention point, eye fatigue is intense, and it is considered that the peak of fatigue is reached when the parallax angle change speed, the time required for the change, and the number of changes are small. In particular, the near side image has a large parallax angle like a viewing angle 126D shown in FIG. 7B, and the far side image has a small parallax angle like a viewing angle 126E. When the perspective changes, the parallax angle changes, and it is necessary for the eyes 126F to focus on the target by setting this angle, and the parallax angle must be followed to the change in perspective. In conventional TVs that display flat images, there is no perspective image, so the parallax angle necessary for recognizing the depth direction of the eyes is always constant. The eye burden is increased because the eye movement must be applied. However, if the movement is faster than the response of the eye, it cannot be followed, and the fatigue is also reduced. In addition, although the background information does not originally follow the background information, it is estimated that the parallax angle changing speed at which the distance changes, the time taken for the change, and the number of times of the change increase. Figure 8 shows the relationship between the depth direction acceleration and the product of the travel time and the number of times, and even if the depth direction acceleration is small, if the number of times and the distance increase, the occurrence of dangerous areas and sickness can be seen, If the level falls below a certain level, it is estimated that even if the product of the travel time and the number of times increases, the tired state is not obtained.

ここで、評価値としての目の疲労度は、画面サイズが大きくなると面内方向の目の移動も大きくなり疲労も増大する事から、これを配慮した場合とそうでない場合とで2つの評価関数が考えられる。まず、評価関数1は、目の追従が無視できる値a<注目点の視差角変化速度<目の追従範囲bとして、評価値(目の疲労度)が視差角変化速度×変化にかかる時間×変化した回数に比例する。評価関数2は、目の追従が無視できる値a<注目点の視差角変化速度<目の追従範囲bとして、評価値(目の疲労度)が視差角変化速度×変化にかかる時間×変化した回数×画面サイズに比例する。TV画面のサイズが検知できる場合は評価関数2を、できない場合は評価関数1を用いる。なお、実施の形態2以降では上記評価値(目の疲労度)は奥行き変化度として記載している。   Here, the degree of eye fatigue as an evaluation value is such that when the screen size increases, the movement of the eye in the in-plane direction also increases and fatigue increases. Can be considered. First, the evaluation function 1 is such that the evaluation value (the degree of eye fatigue) is parallax angle change speed × time required for change × a <n> It is proportional to the number of changes. The evaluation function 2 is such that the evaluation value (fatigue degree of the eye) changes the parallax angle change speed × the time required for the change × a <n> It is proportional to the number of times x the screen size. When the size of the TV screen can be detected, the evaluation function 2 is used, and when it cannot, the evaluation function 1 is used. In the second and subsequent embodiments, the evaluation value (eye fatigue degree) is described as a depth change degree.

1本の立体映像を製作する際、1本の映像コンテンツにおける立体映像の視差角変化量と変化に関わる時間と変化した回数を評価係数としてもっておき、これが図7の危険領域131に入らないように再エンコードする事で立体映像コンテンツを製作する事ができる。また、この立体映像コンテンツにおいても評価関数としての奥行き変化度を記述しておくことで、映画視聴前に目の疲労度を提示しユーザに2D再生とするか3D再生とするかの選択をさせる事ができる。この際、再エンコードの方法としては視差映像を撮影するカメラの視差間隔を小さくする(2台のカメラの距離を小さくする)といった撮影上の工夫や、後述する視差情報を用いた画素変換処理によって視差を小さくするような画像処理を行う方法、アニメーション等ではCG等でのコンテンツ制作時に飛び出し量を制限させる方法等が行われる。   When one stereoscopic video is produced, the amount of change in the parallax angle of the stereoscopic video in one video content, the time involved in the change, and the number of changes are set as evaluation coefficients so that they do not enter the danger area 131 of FIG. 3D video content can be produced by re-encoding. In addition, by describing the degree of depth change as an evaluation function in this stereoscopic video content as well, the degree of eye fatigue is presented before watching the movie, and the user is allowed to select 2D playback or 3D playback. I can do things. At this time, as a re-encoding method, a shooting device such as reducing a parallax interval of a camera that shoots a parallax image (reducing the distance between two cameras) or a pixel conversion process using parallax information described later. A method of performing image processing that reduces parallax, a method of limiting the pop-out amount at the time of content production with CG, etc. are performed for animation and the like.

このような映画等のストーリを把握するため、ユーザが必ず読まなければならない字幕表示については、図9に示すように奥行き方向の変化量を制限する必要がある。あまり目の焦点方向の追従速度が速くなると図7や図8のように目の疲れが増大し3D酔いが発生しやすくなるからである。また、あまり遠方すぎる位置の字幕は、字幕の大きさと背景との関係で、図6にあるように違和感があるため遠方位置についても制限を加えたほうがよいと思われる。また、目に近い手前側についても制限が必要である。これは特に目に近すぎる位置は視野角の関係で目の角度変化量が大きくなるため元々目の疲労が大きくなるほか、飛び出し量が大きいと「びっくりする」,「おどろく」といった影響を及ぼす場合もあるからである。また、表示するTV画面が大きくなる場合、面内方向の目の動き量も増大するとともに、上述すり「びっくりする」,「おどろく」といった心理的効果も増大するため、より制限を大きくする事が望ましい。再生装置とTVがリンク接続されている場合、TV画面の大きさに関する情報を再生装置との間でやりとりし、字幕等の飛び出し範囲制限をきびしくする。また、飛び出し量の異なる複数のストリームが配置されている場合、TV画面の大きい場合は飛び出し量の小さいストリームを選択し、TV画面が小さい場合は飛び出し量の大きなストリームを選択する等の構成が考えられる。また、後述する装置側の設定によって飛び出し量が可変できる場合には、TVのサイズ情報やユーザの状態(年齢等)を配慮し自動設定する事も考えられる。   In order to grasp such a story of a movie or the like, for the subtitle display that must be read by the user, it is necessary to limit the amount of change in the depth direction as shown in FIG. This is because if the follow-up speed in the focus direction of the eye becomes too high, eye fatigue increases as shown in FIGS. 7 and 8, and 3D sickness is likely to occur. In addition, since the subtitles at positions that are too far away have a sense of incongruity as shown in FIG. 6 due to the size of the subtitles and the background, it may be better to limit the distant positions. In addition, there is a need to limit the near side near the eyes. This is especially true when the eye is too close to the eyes, because the eye angle changes greatly because of the viewing angle, and the eye fatigue is increased. Because there is also. In addition, when the TV screen to be displayed is enlarged, the amount of eye movement in the in-plane direction is increased, and the psychological effects such as “surprise” and “surprise” are increased. desirable. When the playback device and the TV are linked, information regarding the size of the TV screen is exchanged with the playback device, and the pop-up range limitation of subtitles and the like is severely limited. In addition, when a plurality of streams with different pop-out amounts are arranged, a configuration in which a stream with a small pop-out amount is selected when the TV screen is large, and a stream with a large pop-out amount is selected when the TV screen is small is considered. It is done. In addition, when the pop-out amount can be changed by setting on the apparatus side described later, it is conceivable that the setting is automatically performed in consideration of the TV size information and the user status (age etc.).

この際、上記評価値や視野角である最大飛び出し量からなる立体映像パレンタルレベルを規定し、立体映像パレンタルレベルに応じて、視聴する年齢の制限やお年寄りや病人に対する危険告知を行う事が可能となる。例えば、立体映像パレンタルレベルとして、レベル1は疲労・危険が大として、評価値(目の疲労度)>c,最大飛び出し量>d,通常のパレンタルレベルが高い場合とする。レベル2は疲労・危険がやや大として、評価値(目の疲労度)>c,最大飛び出し量>d,通常のパレンタルレベルが普通以下の場合、又は評価値(目の疲労度)>e,最大飛び出し量>f,通常のパレンタルレベルが高いの場合とする。レベル3は疲労・危険が中として、評価値(目の疲労度)>e,最大飛び出し量>f,通常のパレンタルレベルが普通以下の場合とする。レベル4は疲労・危険なしとして、評価値(目の疲労度)>g,最大飛び出し量>h,通常のパレンタルレベルが普通以下とする。   At this time, a stereoscopic video parental level consisting of the above evaluation value and the maximum projection amount that is the viewing angle is specified, and according to the stereoscopic video parental level, the age limit for viewing and the danger notification for the elderly and the sick are to be given. Is possible. For example, as a stereoscopic video parental level, level 1 is assumed to be fatigue / dangerous, evaluation value (eye fatigue)> c, maximum pop-up amount> d, and normal parental level is high. Level 2 indicates that fatigue / risk is slightly high, and evaluation value (eye fatigue level)> c, maximum pop-up amount> d, normal parental level is below normal, or evaluation value (eye fatigue level)> e , Maximum pop-out amount> f, normal parental level is high. Level 3 assumes that fatigue / risk is medium, evaluation value (eye fatigue degree)> e, maximum pop-out amount> f, and normal parental level is below normal. Level 4 is assumed that there is no fatigue / danger, evaluation value (eye fatigue)> g, maximum pop-out amount> h, and normal parental level is below normal.

なお、上記の立体映像パレンタルレベルの例では、c>e>g,d>f>hの関係を有し、通常のパレンタルレベル(平面画像パレンタルレベル)が、ホラー映画等に対し現行の2D映像のDVD等で規定されている安全のための視聴制限を指すものとする。また、このような立体映像パレンタルレベルの設定は製品購入時や、初期設定時に設定・変更する事ができ、例えば暗証番号等を記憶させる事によって、後での解除変更をできるようにしておけばより有用である。   In the example of the stereoscopic video parental level described above, there is a relationship of c> e> g, d> f> h, and the normal parental level (planar image parental level) is the current level for horror movies and the like. This refers to the viewing restriction for safety defined in the 2D video DVD and the like. In addition, such 3D image parental level settings can be set / changed at the time of product purchase or at the initial setting.For example, by storing the PIN number, it is possible to change the release later. More useful.

(実施の形態2)
次に、本実施の形態2について、図に従い以下に説明する。図1から図3のような特に視差情報を用いた立体映像においては、そのままTV放送すると2重写しのような画面になり、上述したような専用の立体表示装置を構成しなければ見ることができない。従って、放送において立体映像を行う事は視聴者側の機器のインフラにも左右されるため、一般には視聴できない専用のチャンネルを設けるか、3D映像である事のフラグを放送の情報に重畳する等が必要となる。そのため、通常では記録メディア等で配信され、専用のプレーヤもしくは本機能が搭載されたプレーヤで見るのが都合が良い。このような状況から、上記のような立体映像を記録メディアに保存するための方法やフォーマットを、以下に説明する。
(Embodiment 2)
Next, the second embodiment will be described below with reference to the drawings. For stereoscopic images using parallax information as shown in FIG. 1 to FIG. 3, if a TV broadcast is made as it is, a screen like a double copy is displayed, and viewing is not performed unless a dedicated stereoscopic display device as described above is configured. I can't. Therefore, since performing stereoscopic video in broadcasting depends on the equipment infrastructure on the viewer side, a dedicated channel that cannot be generally viewed is provided, or a flag indicating that it is 3D video is superimposed on broadcasting information, etc. Is required. For this reason, it is normally distributed on a recording medium or the like, and it is convenient to view it on a dedicated player or a player equipped with this function. In this situation, a method and format for storing the above-described stereoscopic video on a recording medium will be described below.

図10は、本実施の形態2に係る記録媒体26である。本発明に係る記録媒体(映像メディア)は、DVDやBD、HD−DVD、MO等の光ディスク媒体の他、HDD媒体であっても良いことはいうまでもない。HDDの場合はそれ自体可搬できない場合が多いものの、放送された立体映像情報を記録する際には容量の点からも有利である。一方、ROMメディア等の光ディスク媒体においては、放送される前の立体のキラーコンテンツや、立体有料コンテンツを配信するのに有効である。図10に示す円盤状の記録媒体26では、映像情報に関する制御情報を格納している領域(映像制御情報23)、立体映像が格納されている領域(映像タイトル24)、通常の2D映像が格納されてる領域(映像タイトル25)に分けられている。   FIG. 10 shows a recording medium 26 according to the second embodiment. It goes without saying that the recording medium (video medium) according to the present invention may be an HDD medium in addition to an optical disk medium such as a DVD, BD, HD-DVD, or MO. In the case of an HDD, it is often impossible to carry it by itself, but it is advantageous in terms of capacity when recording broadcast 3D video information. On the other hand, in an optical disk medium such as a ROM medium, it is effective for distributing stereoscopic killer content before broadcasting or stereoscopic charged content. In the disc-shaped recording medium 26 shown in FIG. 10, an area for storing control information related to video information (video control information 23), an area for storing stereoscopic video (video title 24), and a normal 2D video are stored. It is divided into areas (video title 25).

図11は、図10の映像タイトル(映像コンテンツ)24部分の映像ストリームの構造例を示したものである。図11では、映像タイトル27が2D映像情報28、ユーザの選択が可能な2D映像情報30,31、表示装置が立体映像表示可能な場合に自動的に選択もしくはユーザの選択により選ばれる3D映像情報29、上記映像情報29〜31に引き続いて再生される2D映像情報32、映像タイトル27の最後の2D映像情報33で構成されている。また、図11では、GOPレイヤのストリーム情報として、後に続くGOP映像情報35,36の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域34、GOP映像情報38の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域37、GOP映像情報40,41の先頭に配置されGOP映像情報に関連した付帯情報が記述された付帯情報領域39が図示されている。   FIG. 11 shows an example of the structure of the video stream of the video title (video content) 24 part of FIG. In FIG. 11, the video title 27 is 2D video information 28, 2D video information 30 and 31 that can be selected by the user, and 3D video information that is automatically selected or selected by the user when the display device can display stereoscopic video. 29, 2D video information 32 reproduced following the video information 29-31, and last 2D video information 33 of the video title 27. In FIG. 11, as the GOP layer stream information, the supplementary information area 34 in which supplementary information related to the GOP video information is described at the top of the following GOP video information 35 and 36 is described, and the top of the GOP video information 38. A supplementary information area 37 in which supplementary information related to GOP video information is described, and a supplementary information area 39 in which supplementary information related to GOP video information is described at the top of the GOP video information 40 and 41 are illustrated. Yes.

また、図11では、ピクチャレイヤのストリーム情報として、付帯情報を記載したパケットデータ部42、面内符号化データから構成されたIピクチャデータ43、Iピクチャデータ43とPピクチャ45とから時間方向に予測された符号化データであるBピクチャ44、Iピクチャデータ43から片方向のみの時間方向に予測された符号化データであるPピクチャ45が図示されている。また、図11では、トランスポートパケットデータのレイヤとして、付帯情報を記載したトランスポートパケットデータ部でパケットデータ部42と同じパケット46、Iピクチャデータ43をトランスポートパケットで分割した先頭のパケット47、Iピクチャデータ43の最後のデータが格納されたトランスポートパケット48、トランスポートパケット48の中のIピクチャデータの最後の部分49、トランスポートパケット48の中のパディング処理された部分50が図示されている。   In FIG. 11, as stream information of the picture layer, the packet data part 42 describing the accompanying information, the I picture data 43 composed of the in-plane encoded data, the I picture data 43 and the P picture 45 in the time direction. A B picture 44, which is predicted encoded data, and a P picture 45, which is encoded data predicted in only one time direction from the I picture data 43, are illustrated. In FIG. 11, as the transport packet data layer, the same packet 46 as the packet data part 42 in the transport packet data part describing the incidental information, the first packet 47 obtained by dividing the I picture data 43 by the transport packet, A transport packet 48 in which the last data of the I picture data 43 is stored, a last portion 49 of the I picture data in the transport packet 48, and a padded portion 50 in the transport packet 48 are illustrated. Yes.

また、図12は、映像タイトル(映像コンテンツ)27における3D映像情報29、2D映像情報30,31とが選択的に選べる領域の階層のデータ構造を示したものである。図12では、3D映像情報29、2D映像情報30,31とが選択的に選べる領域における先頭に配置された本映像列に関連した情報が格納された付帯情報51、当該領域におけるGOP映像情報列52、GOP映像情報列54に関連した情報が格納されている付帯情報53、当該領域の最後のGOP映像情報列56に関連した情報が格納されている付帯情報55が図示されている。また、図12では、ピクチャレイヤのストリーム情報として、面内符号化データから構成されたIピクチャデータ57、Iピクチャデータ57とPピクチャ59とから時間方向に予測された符号化データであるBピクチャ58、Iピクチャデータ57から片方向のみの時間方向に予測された符号化データであるPピクチャ59が図示されている。   FIG. 12 shows a data structure of a hierarchy of areas in which 3D video information 29 and 2D video information 30 and 31 in the video title (video content) 27 can be selectively selected. In FIG. 12, supplementary information 51 storing information related to the main video sequence arranged at the head in a region where 3D video information 29 and 2D video information 30 and 31 can be selectively selected, and a GOP video information sequence in the region. 52, additional information 53 in which information related to the GOP video information sequence 54 is stored, and additional information 55 in which information related to the last GOP video information sequence 56 in the area is stored are illustrated. Also, in FIG. 12, as picture layer stream information, I picture data 57 composed of intra-frame encoded data, B picture which is encoded data predicted in the time direction from I picture data 57 and P picture 59 58, a P picture 59 which is encoded data predicted from the I picture data 57 in the time direction of only one direction is shown.

また、図12では、トランスポートパケットデータのレイヤとして、Iピクチャデータ57をトランスポートパケットで分割した先頭のパケット60、Iピクチャデータ57の最後のデータが格納されたトランスポートパケット61、トランスポートパケット61の中のIピクチャデータの最後の部分62、トランスポートパケット61の中のパディング処理された部分63が図示されている。また、図12に示す矢印Aは再生部分、矢印Bは3D再生を行った場合にジャンプする部分、矢印Cは3D再生を行うために再生する部分であり、右目映像のGOP映像情報と左目映像のGOP映像情報とが配置されているものである。図13では、映像タイトル27における3D映像情報29、2D映像情報31とが選択的に選べる領域の階層のデータ構造を示したものであり、基本的に図12と同じであるため同じ構成要素については同符号を付して説明を省略する。   Also, in FIG. 12, as the transport packet data layer, the first packet 60 obtained by dividing the I picture data 57 by the transport packet, the transport packet 61 in which the last data of the I picture data 57 is stored, the transport packet The last part 62 of I picture data in 61 and the padded part 63 in the transport packet 61 are shown. In addition, an arrow A shown in FIG. 12 is a playback portion, an arrow B is a portion that jumps when 3D playback is performed, and an arrow C is a portion that is played back to perform 3D playback. GOP video information of the right-eye video and left-eye video The GOP video information is arranged. FIG. 13 shows the data structure of the area hierarchy in which the 3D video information 29 and 2D video information 31 in the video title 27 can be selectively selected, and is basically the same as FIG. Are denoted by the same reference numerals and description thereof is omitted.

光ディスクやHDD媒体に記録されるデータの構造としては、図10に示されるように映像関連の付帯情報やシーケンス等を記録した映像制御情報23の領域と実際の映像タイトル(映像コンテンツ)24,25の領域とから構成される。この時、3D映像は必ずしも全編が3D映像となっているわけではなく、2D映像との混在である場合や、これら映像がユーザの選択により切り替えられる場合が想定される。特に、DVD規格においてはマルチアングルといったユーザの選択可能な映像情報列を切り替えて表示できるようになっており、3D映像情報の場合も、ユーザの機器がすべて3D映像対応になっていない事を考慮すると、2D映像ストリームの上に、追加的に3D映像ストリームが構築される。そして、ユーザの表示機器が3D対応の場合、HDMI端子のリンク機能等により自動的に識別し3D映像ストリームを選択的に表示させるか、ユーザのボタン操作により選択的に3D映像側に決定し動作させる方法が考えられる。もちろん、全てのコンテンツが2D映像のみもしくは3D映像のみの形態もある事はいうまでもないが、フォーマットとしてはこのような複合形態への配慮が必要である。   As shown in FIG. 10, the structure of data recorded on the optical disk or HDD medium includes an area of video control information 23 in which video-related supplementary information and sequences are recorded, and actual video titles (video contents) 24 and 25. It is composed of At this time, the entire 3D video is not necessarily a 3D video, and a case where the 3D video is mixed with a 2D video or a case where these videos are switched by a user's selection is assumed. In particular, in the DVD standard, it is possible to switch and display a user-selectable video information sequence such as multi-angle, and even in the case of 3D video information, it is considered that not all user devices are compatible with 3D video. Then, a 3D video stream is additionally constructed on the 2D video stream. When the user's display device is 3D-compatible, the 3D video stream is automatically identified by the link function of the HDMI terminal and the 3D video stream is selectively displayed, or the 3D video side is selectively determined by the user's button operation. A method of making it possible is conceivable. Of course, it is needless to say that all content may be in 2D video only or 3D video only, but the format requires consideration for such a composite format.

また、映像タイトル24の映像情報ストリームにおいても、映像情報ストリーム上にこれに関連する付帯情報領域を設け、情報のアクセスと管理や、機器の設定切換えの対応等を行う事が望ましい。特に、2D映像と3D映像とが混在するコンテンツにおいては、TV側で映像ストリームの2D映像か3D映像かの判定を行う必要があり、ストリーム上に付帯情報領域があればこの情報に基づき、TV側の設定を簡便にかつ自動的に切り替える事が可能となる。記録媒体を再生もしくは記録するプレーヤ・レコーダですべての設定を閉じて行う場合、制御情報をディスクの一部に集約して配置する映像制御情報23に記載するのみでも良い。しかし、TVとの接続連携を行う場合では、特に再生中にTVを切り替える等の処置を行う場合は、映像情報自体に、必要最低限の制御情報を重畳させておことで、TV側の自動切換え設定等が行えるようになる。上記映像情報中の制御情報がない場合は、TVの接続切換えを検出し、別途制御情報をプレーヤ・レコーダから送出しTV側の設定を変更した後、映像情報を送出する事となる。これらTV側の設定変更については、立体映像再生の処理自体が偏向光を切り替える等表示装置側で行われるため、表示装置の設定変更処理を迅速に行うようなしくみが必要となる事はいうまでもない。   Also, in the video information stream of the video title 24, it is desirable to provide an associated information area on the video information stream so as to perform access and management of information, switching of device settings, and the like. In particular, in a content in which 2D video and 3D video are mixed, it is necessary to determine whether the video stream is 2D video or 3D video on the TV side. It is possible to easily and automatically switch the setting on the side. When all settings are closed by a player / recorder that reproduces or records a recording medium, the control information may be described only in the video control information 23 arranged in a part of the disc. However, in the case of connection coordination with a TV, especially when a procedure such as switching between TVs is performed during playback, automatic control on the TV side is performed by superimposing the minimum necessary control information on the video information itself. Change setting can be performed. When there is no control information in the video information, the TV connection switching is detected, the control information is separately transmitted from the player / recorder, the TV side setting is changed, and then the video information is transmitted. These TV-side setting changes are performed on the display device side, such as switching the polarized light, so that it is necessary to have a mechanism for quickly performing the setting change processing of the display device. Nor.

付帯情報51は、情報のアクセス管理にも使用する事が可能であり、DVD規格ではNavi情報として定着しているものである。ここで、2D映像と3D映像とが混在している場合、図11に示す3D映像情報29,2D映像情報30,31のようにコンテンツの時系列上は並列する形となる。そこで、先頭にある付帯情報34はGOPデータ情報群の頭に配置される必要があり、まず付帯情報の内容を読み取る事により、次のGOP列の情報が2D映像なのか、3D映像なのか、3D映像であれば左目映像なのか右目映像なのか、またGOP映像情報群におけるそれらの配置情報(どこにアクセスすれば良いか)を判断する事ができる。ここで、付帯情報51を先頭に含むGOP映像情報群はビデオユニットとしてGOP映像情報よりもさらに大きな映像単位として定義される。   The incidental information 51 can also be used for information access management, and is fixed as Navi information in the DVD standard. Here, when 2D video and 3D video are mixed, the time series of the contents are arranged in parallel, such as 3D video information 29 and 2D video information 30 and 31 shown in FIG. Therefore, the supplementary information 34 at the head needs to be arranged at the head of the GOP data information group. First, by reading the content of the supplementary information, whether the information of the next GOP sequence is 2D video or 3D video, In the case of a 3D video, it is possible to determine whether the video is a left-eye video or a right-eye video, and arrangement information (where to access) in the GOP video information group. Here, the GOP video information group including the accompanying information 51 at the head is defined as a video unit that is larger than the GOP video information as a video unit.

また、MPEG等の時間方向にも圧縮をかけた映像情報データの場合は、Iピクチャを先頭とするGOP映像情報単位で情報が存在するため、映像データのアクセスはこのGOP映像情報単位となる事はいうまでもない。また、付帯情報は最初に読み取る必要があるためGOP映像情報群の先頭に配置しなければならず、例えば図12のように3D映像情報部分を再生する場合は、まず付帯情報51を再生(図中矢印A)した後、2D映像情報30,31をジャンプして、3D映像情報29を再生する。この際、2D映像情報30,31は図中矢印Bのようにジャンプし再生機器のメモリに不要な情報(この場合は2D映像情報30,31)を取り込まないようにして不要なメモリの増大を回避するとともに、映像の途切れが生じないように図中矢印Cの3D映像情報29を再生する。   In addition, in the case of video information data that is also compressed in the time direction, such as MPEG, information exists in units of GOP video information starting from an I picture, so that video data access is in units of this GOP video information. Needless to say. Also, since the incidental information needs to be read first, it must be placed at the beginning of the GOP video information group. For example, when reproducing the 3D video information portion as shown in FIG. After the middle arrow A), the 2D video information 30, 31 is jumped to reproduce the 3D video information 29. At this time, the 2D video information 30, 31 jumps as indicated by an arrow B in the figure, and unnecessary memory is increased by preventing unnecessary information (in this case, 2D video information 30, 31) from being taken into the memory of the playback device. The 3D video information 29 indicated by the arrow C in the figure is reproduced so as to avoid this and prevent the video from being interrupted.

また、上記GOP映像情報の先頭の付帯情報51は、その下のピクチャレイヤの状態で示すと、Iピクチャ57の先頭位置に配置されている。さらに、地上波や衛星・ケーブル等のディジタル放送等との親和性を持たせるため、これら圧縮映像データはトランスポートパケットで分割しておく事が便利であるため、最下層のデータとしては図12のようにトランスポートパケット60,61に分割する。この場合でも付帯情報51はGOP映像情報群52の先頭のトランスポートパケットにて記載される事となる。なお、トランスポートパケットにおける新たに定義されたプライベートパケットを使用する事はいうまでもない。さらに、上記GOP映像情報群の最後のトランスポートパケット61は、必ずしも一定のトランスポートパケット単位でデータが切れるわけではないので、最後の部分63を「00」や「FF」でパディングしてGOP映像情報単位でパケットのデータが完結するようにしておく事が良い。また、図13のように1つの2D映像31と1つの3D映像29との2本に分岐している場合は、図12と比べ図中矢印BのジャンプするGOP映像情報量が少ないだけであり、基本的な動作は図11と変わらない。   Further, the supplementary information 51 at the head of the GOP video information is arranged at the head position of the I picture 57 in the state of the picture layer below it. Further, since it is convenient to divide these compressed video data into transport packets in order to have compatibility with digital broadcasts such as terrestrial waves and satellites / cables, the lowermost layer data is shown in FIG. The transport packets 60 and 61 are divided as follows. Even in this case, the incidental information 51 is described in the first transport packet of the GOP video information group 52. Needless to say, a newly defined private packet in the transport packet is used. Further, since the last transport packet 61 of the GOP video information group is not necessarily cut off in a certain transport packet unit, the last portion 63 is padded with “00” or “FF” to obtain the GOP video. It is preferable to complete packet data in units of information. Also, as shown in FIG. 13, when one 2D video 31 and one 3D video 29 are branched, the amount of GOP video information to be jumped by arrow B in the figure is smaller than that in FIG. The basic operation is the same as in FIG.

なお、上記付帯情報の内容についてさらに説明する。図14に示す付帯情報51は、コンテンツ情報64、タイムコード65、配置情報66、映像情報に関する情報67、音声情報に関する情報68、OSD情報に関する情報69で構成されている。そして、図14に示すコンテンツ情報64は、コンテンツ名70、著作権71、暗号情報72、3D映像の有無73、有効地域情報74で構成されている。   The contents of the accompanying information will be further described. The supplementary information 51 shown in FIG. 14 includes content information 64, time code 65, arrangement information 66, information 67 about video information, information 68 about audio information, and information 69 about OSD information. 14 includes a content name 70, a copyright 71, encryption information 72, presence / absence 73 of 3D video, and valid area information 74.

また、図15に示すタイムコード情報領域65は、プレゼンテーションタイム65A、同期情報65Bで構成されている。図16に示す配置情報66は、シームレス情報75、ジャンプ先情報76、アングル情報77、GOP内配置情報78で構成されている。図17に示す映像情報67は、解像度情報79、フレームレート情報80、3D映像情報81、パレンタル情報82、アングル情報83、暗号情報84、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き解像度に関する情報88、奥行き変化度に関する情報89、字幕許可の奥行きに関する情報90、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。   Further, the time code information area 65 shown in FIG. 15 includes a presentation time 65A and synchronization information 65B. The arrangement information 66 shown in FIG. 16 includes seamless information 75, jump destination information 76, angle information 77, and intra-GOP arrangement information 78. The video information 67 shown in FIG. 17 is related to resolution information 79, frame rate information 80, 3D video information 81, parental information 82, angle information 83, encryption information 84, information about 3D video format and presence 85, and 3D video frame rate. The information 86 includes 3D video information count 87, depth resolution information 88, depth change information 89, subtitle permission depth information 90, depth restriction information 100, and parallax amount restriction information 101.

また、図18は、上記付帯情報を表示装置であるTVに表示させた場合の模試図である。図19(a),図19(b)は、複数のカメラからマルチアングル撮影した場合の模試図である。また、図20に示すOSD情報69は、OSD配置情報69A、OSD格納先の情報69B、フォントや字体の大きさ指定69C、面内のOSD配置情報69D、奥行き方向のOSD配置情報69E、奥行き位置69F、奥行き許可制限69G、奥行きズーミング速度69Hで構成されている。   FIG. 18 is a schematic diagram when the supplementary information is displayed on a TV as a display device. FIG. 19A and FIG. 19B are schematic diagrams when multi-angle shooting is performed from a plurality of cameras. Also, the OSD information 69 shown in FIG. 20 includes OSD arrangement information 69A, OSD storage destination information 69B, font and font size designation 69C, in-plane OSD arrangement information 69D, depth direction OSD arrangement information 69E, and depth position. 69F, depth permission limit 69G, and depth zooming speed 69H.

ここで、図14における付帯情報51は、まずストリーム上のGOP映像情報群毎に記述されたものであり、TV等にHDMI伝送された場合でも、映像情報とともに伝送されるものである。従って、特に3D映像表示に関するTV側の設定にも必要な情報も含まれることはいうまでもない。   Here, the supplementary information 51 in FIG. 14 is described for each GOP video information group on the stream, and is transmitted together with video information even when HDMI transmission is performed to a TV or the like. Therefore, it goes without saying that necessary information is also included in the setting on the TV side particularly regarding 3D video display.

次に、図14に示すコンテンツ情報64について説明する。コンテンツ名70は、(1)コンテンツ名,(2)出演者名,(3)製作時期,(4)配給会社,(5)関連する作品名,(6)あらましをTV側のOSD情報として表示させる場合がある。当該コンテンツ名70は、映像ストリーム上に重畳された付帯情報51が含まれるのであれば、途中でTV側の入力を3D映像情報に切り替えた場合でも、コンテンツ名70の内容を表示する事が可能となる。   Next, the content information 64 shown in FIG. 14 will be described. The content name 70 displays (1) content name, (2) performer name, (3) production time, (4) distribution company, (5) related work name, and (6) summary as OSD information on the TV side. There is a case to let you. If the content name 70 includes the accompanying information 51 superimposed on the video stream, the content name 70 can be displayed even when the TV-side input is switched to 3D video information. It becomes.

図14に示す著作権情報71として、(7)著作権者,(8)配給会社,(9)輸入業者,(10)資本参加社を記載しておくことで、映像ストリームの著作権所有者の情報も同時に配信する事ができ、本再生データを用いて不正な使用を行った場合でも著作権者の権利を主張する事ができる。また、本情報は映像ストリームに重畳されるため、TVをつなぎかえた場合においても常にTV側に情報配信されるため、著作権に関する表示を行う事も可能となる。   The copyright information 71 shown in FIG. 14 includes (7) copyright owner, (8) distributor, (9) importer, and (10) capital participating company, so that the copyright owner of the video stream can be obtained. This information can be distributed at the same time, and even if the reproduction data is used illegally, the copyright holder's right can be claimed. In addition, since this information is superimposed on the video stream, information is always distributed to the TV even when the TV is switched, so that it is possible to display a copyright.

また、図14に示す暗号情報72は、(11)暗号の有無,(12)暗号方式を記載しておく事で、暗号化された機密性の高い情報なのか、コマーシャル等の機密性の無い情報なのか伝送先の機器へ送付する事ができる。   Also, the encryption information 72 shown in FIG. 14 is (11) presence / absence of encryption and (12) encryption method, so that it is encrypted highly confidential information or no confidentiality such as commercials. Information can be sent to the destination device.

また、図14に示す3D映像情報73は、(13)3D映像対応の有無,(14)全2D映像対応かどうか(2D映像表示のみで最後まで再生できるかどうか?),(15)3D映像対応の場合、3D映像再生が優先かどうかを記載する事で、3D映像対応でないTVと接続した場合には非対応である事をユーザに表示させる事ができるようになる。また、TVとHDMIでリンク接続している場合は、TV側を自動的に3D映像設定に切り替えたり(例えば、図1から図3に示すように自動的に2映像ストリームをフィールド毎に表示させる)、TV側に3D映像機能が無い場合は、TVや再生装置側でTVが未対応と表示させたり、ディスクを吐き出す等の処置を行う事ができる。   Also, the 3D video information 73 shown in FIG. 14 includes (13) 3D video compatibility, (14) whether all 2D video is supported (whether playback is possible only by displaying 2D video), and (15) 3D video. In the case of correspondence, it is possible to display to the user that it is not compatible when connected to a TV that does not support 3D video by describing whether or not 3D video playback is prioritized. In addition, when the TV and HDMI are linked, the TV side is automatically switched to 3D video setting (for example, as shown in FIGS. 1 to 3, two video streams are automatically displayed for each field. ) When there is no 3D video function on the TV side, the TV or playback device can display that the TV is not supported, or can take measures such as ejecting the disc.

また、図14に示す有効地域74は、(16)2D映像の再生許可地域,(17)3D映像の再生許可地域を記述する事で、本ディスクの再生許可地域を限定するだけではなく、2D映像のみ許可し3D映像対応の表示を許可する地域を限定して指定する事もできる。これは、3D映像再生に関するライセンス条件が整っていない場合に、特定の地域で2D映像再生のみを許可するケースが生じるからである。3D映像の再生許可地域が許可されていない地域であれば、3D映像表示装置と接続してあっても2D映像のみの再生となったり、ディスクを吐き出す等の処置が行われる事となる。   14 describes (16) 2D video playback permission area and (17) 3D video playback permission area, thereby not only limiting the playback permission area of this disc, but also 2D video playback. It is also possible to specify a limited area where only video is allowed and 3D video compatible display is allowed. This is because there are cases where only 2D video playback is permitted in a specific region when the license conditions for 3D video playback are not in place. If the 3D video reproduction permission area is not permitted, even if the 3D video display device is connected, only the 2D video is played, or the disc is ejected.

次に、図15に示すタイムコード情報65について説明する。2D映像と3D映像とが混在する映像コンテンツにおいては、ユーザによって途中の切換え(例えば3D映像から2D映像)が発生した場合でも、映像情報の流れを途切れたり省略したりする事なく連続的に再生させなければならない。また、ユーザの指示から例えば10分前に戻る・進む等のタイムサーチが発生する場合がある。そのためGOP映像情報群の先頭には以下に示す、その映像のタイトル開始時点からの再生時間情報であるプレゼンテーションタイム65Aを記録しておく必要がある。なお、タイトル再生終了までの残り時間情報もしくはタイトル再生全時間を記載しておく事でTV側で残時間表示等を行う事が可能となる。   Next, the time code information 65 shown in FIG. 15 will be described. In the case of video content in which 2D video and 3D video are mixed, even if the switching is performed by the user (for example, 3D video to 2D video), it is continuously played back without interrupting or omitting the flow of video information. I have to let it. In addition, there may be a time search such as going back / forward 10 minutes before the user's instruction. Therefore, it is necessary to record the following presentation time 65A, which is playback time information from the start time of the title of the video, at the beginning of the GOP video information group. It is possible to display the remaining time on the TV side by describing the remaining time information until the end of the title playback or the total title playback time.

また、3D映像は実施の形態1で説明した目の疲れ等を誘発しやすいため、3D映像再生開始からのタイムコード(連続してどれだけの3D映像を視聴したか)や、本映像コンテンツのトータルでどれだけの3D映像を視聴したかについて表示し、目の疲れを防ぐための休憩の指示や危険表示を行う事ができる。また、3D映像における右目・左目それぞれのGOP映像情報があった場合、その再生順序に対応するフィールド指定を行う事が可能となる。つまり、プレゼンテーションタイム65Aには、(18)タイトル開始時点からのタイムコード(プレゼンテーションタイム),(19)タイトル再生終了までの残り時間情報もしくはタイトル再生全時間,(20)3D映像再生開始からのタイムコード(3Dプレゼンテーションタイム),(23)トータル3D再生時間,(24)左右映像の再生順もしくはフィールド指定を記載しておく。また、同期情報65Bは、映像コンテンツの同期を規定し左右映像の再生順もしくはフィールドを指定して行う。   Also, since 3D video is likely to induce eye fatigue as described in Embodiment 1, the time code from the start of 3D video playback (how many 3D videos have been viewed continuously) and the content of this video content You can display how many 3D images you watched in total, and can give a break instruction and danger display to prevent eye strain. Further, when there is GOP video information for each of the right eye and left eye in the 3D video, it is possible to specify a field corresponding to the playback order. That is, the presentation time 65A includes (18) time code (presentation time) from the start of the title, (19) remaining time information until the end of the title playback or the total playback time of the title, and (20) the time from the start of 3D video playback. The code (3D presentation time), (23) total 3D playback time, and (24) left and right video playback order or field designation are described. The synchronization information 65B specifies synchronization of video content and specifies the playback order or fields of left and right videos.

次に、図16に示す配置情報66について説明する。特に2D映像コンテンツと3D映像コンテンツとが混在する場合、再生に不要な情報を飛ばしたり、必要なデータの先頭位置にGOP映像情報群における配置情報の記述が必要となる。また、特殊再生動作を行う場合はMPEG等の時間軸方向の圧縮映像の特性からまず面内圧縮画像からアクセスが必要となる点も配慮しなければならない。そのため、シームレス情報75には、(25)シームレス再生の有無(次のGOP映像情報群までの)が記録される。また、ジャンプ先情報76には、(26)ジャンプ先(正方向と逆方向)アドレス1、アドレス2等,(27)ジャンプ先のタイムコード情報1、タイムコード情報2等(複数のジャンプ先情報をテーブル情報として有する),(28)ジャンプ先の3D映像情報有無が記録される。なお、(28)ジャンプ先の3D映像情報有無の情報に基づきジャンプ先に3D映像情報が無い場合、ストリーム再生中にTVの設定を2D映像に戻すことができる。   Next, the arrangement information 66 shown in FIG. 16 will be described. In particular, when 2D video content and 3D video content coexist, it is necessary to skip information unnecessary for reproduction or to describe arrangement information in the GOP video information group at the head position of necessary data. In addition, when performing a special reproduction operation, it is necessary to consider that access from an in-plane compressed image is required first from the characteristics of compressed video in the time axis direction such as MPEG. Therefore, the seamless information 75 records (25) presence / absence of seamless reproduction (up to the next GOP video information group). The jump destination information 76 includes (26) jump destination (forward and reverse directions) address 1, address 2, etc., (27) jump destination time code information 1, time code information 2, etc. (multiple jump destination information) (28) The presence / absence of the jump destination 3D video information is recorded. Note that (28) if there is no 3D video information at the jump destination based on the information on the presence / absence of the 3D video information at the jump destination, the TV setting can be returned to 2D video during stream playback.

アングル情報77には、(29)複数のアングルに対応したGOP映像情報のアドレス1、アドレス2等,(30)複数のアングルに対応したGOP映像情報のタイムコード情報1、タイムコード情報2等が記録される。GOP内配置情報78には、(31)各GOP内のPピクチャの配置情報としてのアドレス情報1、アドレス情報2等が記録されることになる。以上のように、シームレス情報75を有することにより、必要なアングルをつなぎながら順次再生する事も可能になるほか、GOP内の配置情報によりIピクチャのみを再生したり、IとPピクチャのみを再生する事による早送りや早戻し再生が可能となる。   The angle information 77 includes (29) address 1 and address 2 of GOP video information corresponding to a plurality of angles, and (30) time code information 1 and time code information 2 of GOP video information corresponding to a plurality of angles. To be recorded. In the intra-GOP arrangement information 78, (31) address information 1, address information 2, and the like as the arrangement information of P pictures in each GOP are recorded. As described above, by having the seamless information 75, it is possible to sequentially reproduce while connecting necessary angles, and reproduce only the I picture or only the I and P pictures according to the arrangement information in the GOP. By doing so, fast forward and fast reverse playback becomes possible.

次に、図17に示す映像情報67について説明する。映像情報67において立体映像情報として特に必要となるものを以下に示す。まず、解像度情報79には、(32)2D映像再生の場合の解像度(面内方向)、PinP画像の解像度(面内方向),(33)3D再生時の解像度(面内方向)を記憶する。3D映像有無方式85には、(34)3Dの有無,(35)3D映像方式指定(倍スキャンレート指定,偏向メガネありなし,液晶シャッタありなし)が記録される。3Dフレームレート86には、(36)2D映像再生時のフレームレート、3D映像再生時のフレームレートが記録される。   Next, the video information 67 shown in FIG. 17 will be described. In the video information 67, what is particularly required as stereoscopic video information is shown below. First, the resolution information 79 stores (32) 2D video playback resolution (in-plane direction), PinP image resolution (in-plane direction), and (33) 3D playback resolution (in-plane direction). . In the 3D video presence / absence method 85, (34) presence / absence of 3D and (35) 3D video mode designation (double scan rate designation, deflection glasses not present, liquid crystal shutter not present) are recorded. In the 3D frame rate 86, (36) a frame rate at the time of 2D video playback, and a frame rate at the time of 3D video playback are recorded.

3D映像情報数87には、(37)並行して再生される独立した3D映像情報ストリーム数が記録される。なお、別々のアングルがn本ある場合は、n=アングル番号と記載される。本情報に基づき、再生中にアングル数を表示し、ユーザからの選択によるアングルの切換えとともに、アングル番号の表示による認識を行わせる事が可能となる。3D映像情報数87には、(38)左右映像を順次切換える場合の3D映像ストリーム数とカメラ情報も記録される。例えば、図19(a)に示すように、5本の視差分だけずれたカメラD〜Hを用いて映像を撮影、もしくは、アニメ画像等をCGによって5本の視差映像情報にして記録した場合、これらの本数と、各カメラの間隔もしくは角度を記載する。付帯情報の記載一例としては、総合情報−映像本数5−カメラ間隔**mm,カメラDによる映像1−角度1,カメラEによる映像2−角度2,カメラFによる映像3−角度3,カメラGによる映像4−角度4,カメラHによる映像5−角度5となる。   The number of 3D video information 87 records (37) the number of independent 3D video information streams to be played back in parallel. When there are n different angles, n = angle number is described. Based on this information, the number of angles can be displayed during reproduction, and the angle can be changed according to the selection from the user and recognized by displaying the angle number. The number of 3D video information 87 records (38) the number of 3D video streams and camera information when the left and right videos are sequentially switched. For example, as shown in FIG. 19A, when a video is captured using cameras D to H shifted by five parallaxes, or an animation image or the like is recorded as five parallax video information by CG. The number of these and the interval or angle of each camera are described. As an example of the description of the incidental information, general information-number of images 5-camera interval ** mm, image 1 from camera D 1-angle 1, image 2 from camera E 2, angle 2 from camera F 3-angle 3, camera G A video 4 -angle 4 and a camera H video 5 -angle 5.

視差分だけずれた映像が5本あった場合、実際のアングル映像としては、アングルDは映像1が左、映像2が右,アングルEは映像2が左、映像3が右,アングルFは映像3が左、映像4が右,アングルGは映像4が左、映像5が右と5本の視差映像情報で、図19(b)に示すように少しずつアングルの異なる4つの立体アングル映像を再生する事ができる。このとき順次アングル情報をずらす事で映像を回転させたりする事も可能である。従って、各映像ストリームが1つのアングル情報を指すのではなく、隣接する視差角を持った映像との組み合わせで新たなアングル情報が構築できる。近年、CG技術の進化により、アニメーション映像では容易に立体映像を作る事が可能となっており、このような複数アングルの視差情報を準備し、ユーザからのリモコンの指定によりおのおのにアクセスする事で、アングルずらしによる視点変更も可能になる。   When there are five images shifted by the amount of parallax, the actual angle image is as follows: angle D is image 1 left, image 2 is right, angle E is image 2 left, image 3 is right, angle F is image 3 is left, video 4 is right, angle G is video 4 is left, video 5 is right and 5 pieces of parallax video information. As shown in FIG. You can play it. At this time, it is also possible to rotate the video by sequentially shifting the angle information. Accordingly, each video stream does not indicate one angle information, but new angle information can be constructed by a combination with a video having an adjacent parallax angle. In recent years, with the evolution of CG technology, it has become possible to easily create stereoscopic images with animation images. By preparing such multi-angle parallax information and accessing each by specifying the remote control from the user The viewpoint can be changed by shifting the angle.

奥行き解像度88には、(39)3D映像における奥行き解像度1、解像度2等が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向解像度を記載する。例えば、CG映像等により極端に奥行き解像度が低く、時間的にもカクカク動くような場合は、本情報に基づき、時間方向に奥行きを補完して、なめらかに表示させる事も可能になる。奥行き変化度89には、(40)3D映像における奥行き変化度1、変化度2等が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。特に、変化度については実施の形態1に示すような人間の目の疲れに関連するため、安全性を確保するために、記載しておき、ユーザへの警告や休憩指示等に用いる事ができる。   In the depth resolution 88, (39) depth resolution 1, resolution 2 and the like in 3D video are recorded. When there are a plurality of 3D video streams, a plurality of depth direction resolutions are described. For example, when the depth resolution is extremely low due to a CG image or the like and the image moves rapidly in time, the depth can be complemented in the time direction and displayed smoothly based on this information. Depth change degree 89 records (40) depth change degree 1, change degree 2 and the like in 3D video. When there are a plurality of 3D video streams, a plurality of depth direction change degrees are described. In particular, since the degree of change is related to human eye fatigue as shown in the first embodiment, it can be described in order to ensure safety, and can be used for a warning or a break instruction to the user. .

字幕許可奥行き90には、(41)字幕許可奥行き範囲(最大視野角1、最小視野角1、最大視野角2、最小視野角2等)が記録される。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。字幕情報については、後述する立体映像視聴の際に、字幕焦点位置と注目点とで焦点を頻繁に合わせる必要がある事から、目の疲れに影響しやすく、表示範囲を十分限定しておくことが必要となる。また、奥行き情報の記載は、実距離にした場合、遠い方が無限遠になるため数値化しずらく、視野角情報で記載する事が望ましい。また、無限遠に近い場合は詳細数値を記載する事に意味をなさないため、例えば視野角1deg以下は省略する等の下限を設けても良い。プレーヤではこれら情報に基づいて、OSDの表示における字幕の奥行き位置を設定する。   In the permitted caption depth 90, (41) a permitted caption depth range (maximum viewing angle 1, minimum viewing angle 1, maximum viewing angle 2, minimum viewing angle 2, etc.) is recorded. When there are a plurality of 3D video streams, a plurality of depth direction change degrees are described. With regard to subtitle information, it is necessary to frequently adjust the focus at the subtitle focus position and the point of interest when viewing stereoscopic video, which will be described later. Is required. Depth information should be described as viewing angle information because it is difficult to quantify because the far distance becomes infinite when the actual distance is used. Moreover, since it is meaningless to describe detailed numerical values when it is close to infinity, a lower limit such as omitting the viewing angle of 1 deg or less may be provided. Based on this information, the player sets the depth position of the caption in the OSD display.

奥行き制限100には、(42)奥行き制限(最大視野角1、最大視野角2等)が記録される。あまり近くに飛び出してくる立体映像においては、心理的な効果からびっくりする等の感覚を与える。そのため、字幕ではなく立体映像そのものの飛び出し量を制限し、目にやさしい効果や、あまりびっくりさせないような配慮を行う。この場合プレーヤでは、図17に示すように映像コンテンツで予め飛び出しの最大量となる視野角を記録しておく事により、図18のように小さなお子さま等の視聴者に警告したり視聴制限させる事が可能となる。   In the depth restriction 100, (42) depth restriction (maximum viewing angle 1, maximum viewing angle 2, etc.) is recorded. A stereoscopic image popping out too close gives a sense of being surprised by a psychological effect. For this reason, the amount of projection of the 3D image itself, not the subtitles, is limited, and effects that are easy on the eyes and considerations that do not surprise the viewers. In this case, as shown in FIG. 17, the player records a viewing angle that is the maximum amount of pop-up in the video content in advance, thereby warning or restricting viewing to a small child or other viewer as shown in FIG. Is possible.

視差量制限101には、(43)視差量制限(撮影時の最大視野角1、最小視野角1、最大視野角2、最小視野角2等)を記載する。なお、3D映像ストリームが複数本あった場合、複数本奥行き方向変化度を記載する。本情報は撮影時の2つのカメラの距離である視差基準量は人の目の間隔によって異なるため、この基準角度のずれ量の範囲を規定したものである。これにより両目の間隔の小さな子供等が視聴した場合の違和感を予め把握する事ができる。   The parallax amount limitation 101 describes (43) parallax amount limitation (maximum viewing angle 1, minimum viewing angle 1, maximum viewing angle 2, minimum viewing angle 2, etc. during shooting). When there are a plurality of 3D video streams, a plurality of depth direction change degrees are described. This information defines the range of the deviation amount of the reference angle because the parallax reference amount, which is the distance between the two cameras at the time of shooting, differs depending on the distance between human eyes. Thereby, it is possible to grasp in advance a sense of discomfort when a child or the like having a small interval between both eyes views.

このように、違和感の解消のために、同一映像コンテンツにおいて視差基準量の異なる複数立体映像を用意し、視聴者の目の間隔に合わせて選択する方法等も考えられる。複数の視差基準量については、近年CG技術が革新し、アニメーション映像等においてはコンピュータにより容易に変更できるようなっている。この場合、このような視差量制限情報を付帯情報に記載することによって、プレーヤでは図18に示すように**才〜**才、大人等の選択キーを用意し、これを選択する事で元の映像コンテンツにおける視差基準量を視聴者にあわせて、正確な立体視聴が可能となる。また、視差のずれた映像を長時間見る事による目の疲れ等も回避できる。さらに、パレンタル82においては、通常の平面映像2Dパレンタルレベル以外に3D映像対応した立体映像パレンタルレベルが規定される。パレンタル82には、(44A)平面映像パレンタルレベル(現行DVD等と同等のパレンタル表記),(44B)立体映像パレンタルレベル(実施の形態1にて説明した立体映像パレンタルレベル)とを記録する。   In this way, in order to eliminate the uncomfortable feeling, a method of preparing a plurality of stereoscopic images with different parallax reference amounts in the same video content and selecting them according to the distance between the eyes of the viewer can be considered. In recent years, CG technology has been revolutionized for a plurality of parallax reference amounts, and animation images and the like can be easily changed by a computer. In this case, by describing such parallax amount restriction information in the incidental information, the player prepares selection keys for ** to **, adults, etc. as shown in FIG. Accurate stereoscopic viewing can be achieved by matching the parallax reference amount in the original video content with the viewer. Further, it is possible to avoid eye fatigue caused by viewing a video with a shifted parallax for a long time. Furthermore, in the parental 82, a stereoscopic video parental level corresponding to 3D video is defined in addition to the normal planar video 2D parental level. The parental 82 includes (44A) a planar video parental level (a parental notation equivalent to the current DVD), (44B) a stereoscopic video parental level (the stereoscopic video parental level described in the first embodiment), and Record.

また、図20に示すようにOSD情報69には、まずOSD自体の付帯情報となる配置情報69Aと、OSDそのものの情報が格納されているアドレスを記載したOSD情報格納先69Bとを記録する。OSD表示69には、まずこの付帯情報を取り込みマイコン等で理解した上で、この格納先情報により実際のOSDを取得し表示させる事となる。   Also, as shown in FIG. 20, in the OSD information 69, first, arrangement information 69A that is supplementary information of the OSD itself and an OSD information storage destination 69B that describes an address where the information of the OSD itself is stored are recorded. In the OSD display 69, first, the supplementary information is captured and understood by a microcomputer or the like, and then the actual OSD is acquired and displayed by the storage destination information.

ここで、字体の大きさ等の情報69Cには、(45)字体フォント、字体大きさを記録する。面内配置情報69Dには、(46)字体の配置情報(X位置、Y位置)を記録する。   Here, (45) font font and font size are recorded in the information 69C such as font size. In the in-plane arrangement information 69D, (46) font arrangement information (X position, Y position) is recorded.

奥行き方向OSD配置情報69Eには、(47)奥行き位置69F,(48)奥行き許可制限69G(遠方制限位置、手前制限位置、奥行き変化量制限等の実施の形態1における目の疲れを軽減するための制限),(49)奥行きズーミング速度69H(ズーミングありなし、ズーミング速度)が記録される。なお、奥行きズーミング速度69Hでズーミングを規定する事により、ある字幕から次の字幕に切りかわる際に、瞬時に奥行き位置を変化させるのではなく、すこしずつズームするように変化させ、目の疲れを軽減させるためのものである。   The depth direction OSD arrangement information 69E includes (47) depth position 69F, (48) depth permission restriction 69G (to restrict eye fatigue in the first embodiment such as a far restriction position, a near restriction position, a depth variation restriction, and the like. (49) Depth zooming speed 69H (no zooming, zooming speed) is recorded. In addition, by regulating the zooming at a depth zooming speed of 69H, when switching from one subtitle to the next, the depth position is not changed instantaneously, but it is changed so that it zooms little by little, and tired eyes It is for reducing.

なお、上記(1)から(43)までの3D映像情報における付帯情報は、映像情報ストリームに重畳されたものとして、映像情報とともに配信されるが、以下に述べる映像情報そのものとは別の領域に記載された映像制御情報23にも同様な記載を行う事ができる。また、プレーヤ起動時の最初にすべての情報を読み込めるため、各種初期設定を行う事が可能である他、ビットレートやメモリの制限にかかる事なく映像情報に重畳するよりも多くの情報を記述できるため、より詳細な制御情報を記述する事が可能である。   Note that the incidental information in the 3D video information (1) to (43) is distributed together with the video information as being superimposed on the video information stream, but in a different area from the video information itself described below. The same description can be made for the described video control information 23. In addition, since all information can be read at the start of the player, various initial settings can be made, and more information can be described than superimposed on video information without being limited by bit rate or memory. Therefore, it is possible to describe more detailed control information.

次に、記録媒体のある領域に映像情報とは別に配置されている制御情報の構造について説明する。図21は、まとめて配置されている映像制御情報23のGOPテーブル部分とその中の映像関連情報について詳細に説明するための図である。図21に示す映像制御情報23は、コンテンツ情報64、著作権71、暗号情報72、3D映像の有無73、有効地域情報74、GOPテーブル情報102、シーケンス情報103、メニュー情報104、メニューのOSDデータ105を備えている。そして、GOPテーブル情報102は、図21に示すように表形式となっており、GOP番号、論理アドレス、タイムコード、シーケンス、配置、映像、音声、OSDの各欄が設けられている。   Next, the structure of the control information arranged separately from the video information in a certain area of the recording medium will be described. FIG. 21 is a diagram for explaining in detail the GOP table portion of the video control information 23 arranged together and the video-related information therein. The video control information 23 shown in FIG. 21 includes content information 64, copyright 71, encryption information 72, 3D video presence / absence 73, valid area information 74, GOP table information 102, sequence information 103, menu information 104, and menu OSD data. 105. The GOP table information 102 is in a table format as shown in FIG. 21 and includes GOP number, logical address, time code, sequence, arrangement, video, audio, and OSD fields.

図21では、特に映像欄の構成が図示されており、解像度情報79、フレームレート情報80、3D映像情報81、パレンタル情報82、アングル情報83、暗号情報84で構成されている。さらに、図21では、3D映像情報81が3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き解像度に関する情報88、奥行き変化度に関する情報89、字幕許可の奥行きに関する情報90、奥行き制限に関する情報100、視差量制限に関する情報101で構成されていることが図示されている。   FIG. 21 particularly shows the configuration of the video column, which includes resolution information 79, frame rate information 80, 3D video information 81, parental information 82, angle information 83, and encryption information 84. Furthermore, in FIG. 21, 3D video information 81 includes 3D video format information and presence information 85, 3D video frame rate information 86, 3D video information number 87, depth resolution information 88, depth change information 89, subtitle permission information It is illustrated that the information includes information 90 related to depth, information 100 related to depth restriction, and information 101 related to parallax amount restriction.

また、図22も、まとめて配置されている映像制御情報23のGOPテーブル部分とその中の映像関連情報について詳細に説明するための図である。図22では、特にOSD欄の構成が図示されており、字幕の有無106とOSD情報69とで構成されている。OSD情報69は、OSD配置情報69A、OSD格納先の情報69Bで構成され、OSD配置情報69Aは、フォントや字体の大きさ指定69C、面内のOSD配置情報69D、奥行き方向のOSD配置情報69Eで構成され、奥行き方向のOSD配置情報69Eは、奥行き位置69F、奥行き許可制限69G、奥行きズーミング速度69Hで構成されている。   FIG. 22 is also a diagram for explaining in detail the GOP table portion of the video control information 23 arranged together and the video related information therein. FIG. 22 particularly shows the configuration of the OSD column, which is configured by the presence / absence 106 of subtitles and OSD information 69. The OSD information 69 includes OSD arrangement information 69A and OSD storage location information 69B. The OSD arrangement information 69A includes font and font size designation 69C, in-plane OSD arrangement information 69D, and depth-direction OSD arrangement information 69E. The OSD arrangement information 69E in the depth direction includes a depth position 69F, a depth permission limit 69G, and a depth zooming speed 69H.

また、図23は、記録媒体のある領域に映像情報とは別にまとめて配置されている映像制御情報のシーケンス情報の構造について説明したもので、シーケンス情報103が表形式で記録されていることを示している。図23の映像欄には、解像度情報79、フレームレート情報80、アングル情報83、3D映像情報81、パレンタル情報82が記録されている。なお、3D映像情報81は、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。一方、図23のOSD欄には、字幕の有無106、字幕フォント・色107、字幕表示方法108、字幕表示奥行制限109、字幕データアドレス110とが記録されている。   FIG. 23 illustrates the structure of the sequence information of the video control information arranged together with the video information in a certain area of the recording medium. The sequence information 103 is recorded in a table format. Show. In the video column of FIG. 23, resolution information 79, frame rate information 80, angle information 83, 3D video information 81, and parental information 82 are recorded. The 3D video information 81 includes information 85 regarding 3D video format and presence / absence, information 86 regarding 3D video frame rate, number 87 of 3D video information, information 100 regarding depth limitation, and information 101 regarding parallax amount limitation. On the other hand, subtitle presence / absence 106, subtitle font / color 107, subtitle display method 108, subtitle display depth limit 109, and subtitle data address 110 are recorded in the OSD column of FIG.

記録媒体のある領域に映像情報とは別に配置されている制御情報については、映像情報ストリーム上に重畳された付帯情報34、51の情報を含めてすべての情報が記載されている。これはプレーヤレコーダの立ち上げ時にまず制御情報を読みこみ、各種初期設定を行うためである。   Regarding the control information arranged separately from the video information in a certain area of the recording medium, all information including the information of the supplementary information 34 and 51 superimposed on the video information stream is described. This is because the control information is first read and various initial settings are made when the player recorder is started up.

まず、映像制御情報23は図21のように記載されており、図14の映像情報中に重畳された付帯情報51と同じくコンテンツ情報64、タイムコード65、配置情報66、映像情報に関する情報67、音声情報に関する情報68、OSD情報に関する情報69を含んでいる。しかしながら、より多くの情報を格納できる映像制御情報23においては、GOPテーブル102といった全GOPに関するテーブル情報を記載する事ができ、映像再生しなくてもGOP映像情報単位での情報内容を把握する事が可能となる。ここでGOPテーブル102は図21中の表のように記載され、論理アドレスがある事から、所定のセクタ領域から読み出された信号から上記データ・ファイル識別情報を検出し、検出された上記データ・ファイル識別情報にもとづいて、上記位置識別信号によって示された位置にある上記符号化単位に対応した上記データ・ファイルがディスク媒体上に記録されている位置を識別する。識別された上記ディスク媒体上の位置にもとづいて上記データ・ファイルを読み出し、読み出された上記データ・ファイルに含まれる上記符号化単位で符号化された信号を復号化して画像信号を再生する事ができる。これにより、所望の時点にある符号化単位が記録されている位置を容易にしかも即座に特定して再生することを可能にする。   First, the video control information 23 is described as shown in FIG. 21, and the content information 64, the time code 65, the arrangement information 66, the information 67 about the video information, and the supplementary information 51 superimposed in the video information of FIG. It includes information 68 related to audio information and information 69 related to OSD information. However, in the video control information 23 that can store more information, table information relating to all GOPs such as the GOP table 102 can be described, and it is possible to grasp the information content in units of GOP video information without video playback. Is possible. Here, since the GOP table 102 is described as the table in FIG. 21 and has a logical address, the data / file identification information is detected from a signal read from a predetermined sector area, and the detected data is detected. Based on the file identification information, the position where the data file corresponding to the coding unit at the position indicated by the position identification signal is recorded on the disk medium is identified. The data file is read based on the identified position on the disk medium, and the image signal is reproduced by decoding the signal encoded in the encoding unit included in the read data file. Can do. As a result, it is possible to easily identify and reproduce the position where the coding unit at the desired time is recorded.

また、上記GOPテーブル102においては映像に関する付帯情報において3D映像情報を含み上記(32)〜(43)の映像ストリーム中に記述された項目と同じ項目の付帯情報をGOP映像情報毎に記述する事が可能となる。また、字幕情報に関しても、図22に示すように字幕の有無106、字幕フォント・色107、字幕表示方法108、字幕表示奥行制限109、字幕データアドレス110を記述する事で(44)〜(49)に示す情報と同様な情報をGOP映像情報単位に字幕の付帯情報を記載可能となる。   Further, in the GOP table 102, the auxiliary information of the same items as the items described in the video streams (32) to (43) including the 3D video information in the auxiliary information regarding the video is described for each GOP video information. Is possible. Also, with regard to subtitle information, as shown in FIG. 22, subtitle presence / absence 106, subtitle font / color 107, subtitle display method 108, subtitle display depth limit 109, and subtitle data address 110 are described (44) to (49). Subtitle supplementary information can be written in units of GOP video information with the same information as that shown in FIG.

また、上記映像制御情報23には図23に示すようにGOP映像情報単位のシーケンス情報を記載する事も可能である。これにより再生開始時に、データ・ファイルの再生順序を示す情報が記録された所定のセクタ領域のセクタ・アドレスを生成し、データ読み出し手段によって読み出されたデータから再生順序情報を読む事によって再生順序情報が検出され、その後再生順序情報にもとづいてセクタ・アドレスを生成する。これにより、記録媒体上に分散したセクタに記録された画像信号も再生することが可能となっている。このようなシーケンステーブル情報にも上記(32)〜(49)に示す付帯情報を記載することが可能となる。   The video control information 23 can also include sequence information in units of GOP video information as shown in FIG. Thus, at the start of playback, a sector address of a predetermined sector area in which information indicating the playback order of the data file is recorded is generated, and the playback order information is read from the data read by the data reading means. Information is detected, and then a sector address is generated based on the reproduction order information. Thereby, it is possible to reproduce an image signal recorded in sectors distributed on the recording medium. The incidental information shown in the above (32) to (49) can also be described in such sequence table information.

(実施の形態3)
次に、本実施の形態3について以下に説明する。図24は、本実施の形態3に係る立体映像記録装置のブロック図である。図24に示す立体映像記録装置は、視差情報を利用した立体映像の右目映像と左目映像のそれぞれの映像信号をディジタル化するためのADコンバータ146と、時間方向に画像圧縮するために必要な動きベクトル検出(動き検出)147と、面内圧縮に必要なDCT変換回路148と、面内圧縮に必要な適応量子化回路149、ローカルデコーダにおける逆量子化回路150とを備えている。さらに、図24に示す立体映像記録装置は、面内圧縮に必要な可変長符号化回路151と、ローカルデコーダにおけるDCT逆変換回路152と、ローカルデコーダにおけるフレームメモリ153と、圧縮後のデータを格納するバッファメモリ154と、OSD情報のエンコーダ155と、音声エンコーダ156と、フォーマットエンコーダ157と、光ディスク165に書き込む信号を生成するための変調手段158と、LD変調回路159とを備えている。さらに、図24に示す立体映像記録装置は、光ディスク165に記録するアドレスを抽出するためのアドレスヘッダ認識回路160と、光ヘッド164からの信号を再生するための再生アンプ161と、光ヘッド164や送りモータ163や回転モータ166を制御するためのサーボ回路162と、装置全体のシーケンスを制御管理するためのシステムコントローラ167とを備えている。
(Embodiment 3)
Next, the third embodiment will be described below. FIG. 24 is a block diagram of the stereoscopic video recording apparatus according to the third embodiment. The stereoscopic video recording apparatus shown in FIG. 24 has an AD converter 146 for digitizing video signals of right-eye video and left-eye video of stereoscopic video using parallax information, and movements necessary for image compression in the time direction. A vector detection (motion detection) 147, a DCT conversion circuit 148 necessary for in-plane compression, an adaptive quantization circuit 149 necessary for in-plane compression, and an inverse quantization circuit 150 in the local decoder are provided. Further, the stereoscopic video recording apparatus shown in FIG. 24 stores a variable length coding circuit 151 necessary for in-plane compression, a DCT inverse conversion circuit 152 in the local decoder, a frame memory 153 in the local decoder, and the compressed data. A buffer memory 154, an OSD information encoder 155, an audio encoder 156, a format encoder 157, a modulation means 158 for generating a signal to be written to the optical disk 165, and an LD modulation circuit 159. Further, the stereoscopic video recording apparatus shown in FIG. 24 includes an address header recognition circuit 160 for extracting an address to be recorded on the optical disk 165, a reproduction amplifier 161 for reproducing a signal from the optical head 164, an optical head 164, A servo circuit 162 for controlling the feed motor 163 and the rotary motor 166 and a system controller 167 for controlling and managing the sequence of the entire apparatus are provided.

また、図25は、図24の立体映像記録装置に基づいて生成した立体映像信号のストリーム構造を示した図である。図25に示す立体映像信号のストリーム構造は、付帯情報51以降に、右目映像のGOP168、左目映像のGOP169、音声情報に関する情報68、OSD情報69の構成が順に繰り返す構造である。また、図25に示す右目映像のGOP168は、GOPヘッダ170、ピクチャヘッダ171,173、Iピクチャデータ172、Bピクチャデータ174で構成されている。さらに、図25に示すGOPヘッダ170は、GOPヘッダ170内にあるユーザデータスタートコード175、GOPヘッダ170内にある3D映像情報176で構成されている。さらに、図25に示す3D映像情報176は、左目映像か右目映像かを記載した情報177、3D映像方式及び有無に関する情報85、3D映像フレームレートに関する情報86、3D映像情報数87、奥行き制限に関する情報100、視差量制限に関する情報101で構成されている。   FIG. 25 is a diagram showing a stream structure of a stereoscopic video signal generated based on the stereoscopic video recording apparatus of FIG. The stream structure of the stereoscopic video signal shown in FIG. 25 is a structure in which the structure of the right-eye video GOP 168, the left-eye video GOP 169, the audio information information 68, and the OSD information 69 is sequentially repeated after the auxiliary information 51. The right-eye video GOP 168 shown in FIG. 25 includes a GOP header 170, picture headers 171, 173, I picture data 172, and B picture data 174. Further, the GOP header 170 shown in FIG. 25 includes a user data start code 175 in the GOP header 170 and 3D video information 176 in the GOP header 170. Furthermore, the 3D video information 176 shown in FIG. 25 includes information 177 indicating whether the video is left-eye video or right-eye video 85, information 85 regarding 3D video format and presence / absence, information 86 regarding 3D video frame rate, 87 regarding the number of 3D video information, depth limitation It consists of information 100 and information 101 related to the parallax amount restriction.

また、図26は、図24の立体映像記録装置に基づいて生成した立体映像信号のストリーム構造において下位の構造部分を図示したものである。図26では、右目映像のGOP168のトランスポートストリームパケット178〜182で示しており、左目映像のGOP169のトランスポートストリームパケット185〜188で示している。GOP映像情報の最後のデータが記述されたトランスポートパケット182,188の最後のデータがそれぞれデータ183,189であり、データ183,189のそれぞれにパディング処理された部分184,190が付加されている。   FIG. 26 illustrates a lower structure portion of the stream structure of the stereoscopic video signal generated based on the stereoscopic video recording apparatus of FIG. In FIG. 26, the transport stream packets 178 to 182 of the GOP 168 for the right eye video are shown, and the transport stream packets 185 to 188 of the GOP 169 for the left eye video are shown. The last data of the transport packets 182 and 188 in which the last data of the GOP video information is described are the data 183 and 189, respectively, and padded portions 184 and 190 are added to the data 183 and 189, respectively. .

ここで、図24に示す立体映像記録装置は、左目と右目のそれぞれで同じ映像圧縮を行うようにしたものであり、ADコンバータ146でディジタル化された右目映像は動き検出147の処理によって各映像マクロブロック単位での動きベクトルが抽出される。また、映像データの最初は面内符号化処理されているため、DCT変換回路148にてDCT変換した後、適応量子化回路149で量子化され、可変長符号化回路151にて可変長符号化してバッファメモリへと送付される。この時、適応量子化後の映像データは逆量子化回路150、DCT逆変換回路152によるローカルデコーダによって元の映像信号が復元され、さらにフレームメモリ153にて動き補償した映像と比較する事で、以降の時間軸方向の圧縮を行う画面において差分情報のみを使用して圧縮していく事が可能となっている。このような圧縮方式はMPEGやH.264等の圧縮方法において基本的な方式となっており広く用いられているものである。   Here, the stereoscopic video recording apparatus shown in FIG. 24 performs the same video compression for each of the left eye and the right eye. The right eye video digitized by the AD converter 146 is converted into each video by the process of the motion detection 147. A motion vector for each macroblock is extracted. In addition, since the video data is first subjected to in-plane encoding processing, after DCT conversion by the DCT conversion circuit 148, it is quantized by the adaptive quantization circuit 149, and variable length encoding is performed by the variable length encoding circuit 151. Sent to the buffer memory. At this time, the video data after adaptive quantization is restored to the original video signal by the local decoder by the inverse quantization circuit 150 and the DCT inverse transformation circuit 152, and further compared with the video compensated for motion in the frame memory 153, It is possible to perform compression using only the difference information on the subsequent screen for compressing in the time axis direction. Such compression methods are MPEG and H.264. It is a basic method in the compression method such as H.264 and is widely used.

ここで、図24では右目映像と左目映像とをそれぞれ独立した映像ストリームとして入力し、それぞれ別々のエンコードブロックにてエンコードされる。そのため図24では右目及び左目が同じブロックをそれぞれ並列に配した構造となっている。ただし、入力部分にメモリを配置し、一旦左目映像と右目映像とを蓄積した上で、同じエンコード回路を倍の速度で処理し、1つのエンコードブロックで同様に処理を行う事も可能である。これらエンコードされた立体映像情報は、バッファメモリ154でOSDエンコーダ155からのOSD情報、音声エンコーダ156からの音声情報、フォーマットエンコーダ157からのフォーマットに必要な付帯情報を追記し、記録媒体である光ディスク165に記録するデータ形式に整えられる。ここで、フォーマットエンコーダ157は、従来の光ディスクフォーマットに必要とされるNavi情報やメニュー情報に加えて、本発明に係る3D映像情報の記録に必要な付帯情報も追記する。   Here, in FIG. 24, the right-eye video and the left-eye video are input as independent video streams, and are encoded by separate encoding blocks. Therefore, in FIG. 24, the right eye and the left eye have a structure in which the same blocks are arranged in parallel. However, it is also possible to arrange a memory in the input part and temporarily store the left-eye video and the right-eye video, then process the same encoding circuit at double speed and perform the same processing with one encoding block. The encoded stereoscopic video information is additionally recorded with OSD information from the OSD encoder 155, audio information from the audio encoder 156, and additional information necessary for formatting from the format encoder 157 in the buffer memory 154, and an optical disk 165 as a recording medium. It is arranged in the data format to record. Here, the format encoder 157 additionally records incidental information necessary for recording the 3D video information according to the present invention in addition to the Navi information and menu information necessary for the conventional optical disc format.

なお、光ディスクに記録される形式の映像データは、変調手段158で光ディスク165に物理的に書き込むための情報として誤り訂正符号を付加するとともに変調処理され、LD変調回路159にて光ヘッド164に搭載されたレーザを変調させるための信号を生成する。この際、光ディスク165に安定的に記録させるためのサーボ回路162によって、光ヘッド164を移動させる送りモータ163やディスク165を回転させる回転モータ166や光ヘッド164内の対物レンズアクチュエータを制御しトラックあわせや焦点あわせを行っている。また記録時には光ディスク165上のアドレスを読み込む必要があり、光ヘッドにて受光した信号を光電変換した微小信号を再生アンプ161で再生し、アドレスヘッダ認識回路160でアドレス情報を生成する。これらアドレス情報はシステムコントローラ167で各ブロックの起動設定とあわせシーケンス処理され、特に高速なタイミングが必要とられる書き込みタイミング処理等は専用のハードウェアで行われ、プログラミングが必要なシーケンス設定部分はCPU等で行われる。   The video data in the format recorded on the optical disc is added with an error correction code as information to be physically written on the optical disc 165 by the modulation means 158 and modulated, and mounted on the optical head 164 by the LD modulation circuit 159. A signal for modulating the modulated laser is generated. At this time, the servo circuit 162 for stably recording on the optical disk 165 controls the feed motor 163 that moves the optical head 164, the rotation motor 166 that rotates the disk 165, and the objective lens actuator in the optical head 164 to adjust the track. And focusing. Further, it is necessary to read an address on the optical disk 165 at the time of recording. A minute signal obtained by photoelectrically converting a signal received by an optical head is reproduced by a reproduction amplifier 161, and address information is generated by an address header recognition circuit 160. These address information is processed in sequence by the system controller 167 together with the activation setting of each block. Particularly, write timing processing that requires high-speed timing is performed by dedicated hardware, and the sequence setting portion that requires programming is a CPU or the like. Done in

ここで、立体映像記録装置によって生成される映像ストリームは、図25に示す構造となる。まずMPEG等の時間軸方向の圧縮映像を含む圧縮映像データは一般的にGOPと呼ばれる面内圧縮符号映像を含む。例えば15ピクチャ単位程度の映像ブロックとして構成される。ここでは視差情報を利用した右目映像ブロックと左目映像ブロックとの2つあるため、付帯情報51を先頭とし右目映像のGOP168と左目映像のGOP169とがシーケンシャルに配置させる。なお、右目映像及び左目映像がそれぞれ1GOPの例を示しているが、映像条件が変わらない範囲で同一GOP数であれば複数個のGOPから構成してもよい。また、付帯情報51については実施の形態2で説明した通りであるが、ここではさらにGOPヘッダ部分に新たなユーザデータスタートコードを定義し、その後ろに3D映像情報176を記載する事も可能である。   Here, the video stream generated by the stereoscopic video recording apparatus has the structure shown in FIG. First, the compressed video data including the compressed video in the time axis direction such as MPEG includes an in-plane compressed code video generally called GOP. For example, it is configured as a video block of about 15 pictures. Since there are two right-eye video blocks and left-eye video blocks using disparity information here, the GOP 168 of the right-eye video and the GOP 169 of the left-eye video are sequentially arranged with the accompanying information 51 as the head. Note that the right-eye video and the left-eye video each show an example of 1 GOP, but may be composed of a plurality of GOPs as long as the number of GOPs is the same as long as the video conditions do not change. Further, the incidental information 51 is as described in the second embodiment, but here, it is also possible to define a new user data start code in the GOP header portion and describe the 3D video information 176 after that. is there.

まず、3D映像情報176には左目映像か右目映像かを識別するための情報(フラグでもよい)177を配置するとともに、実施の形態2にて説明した3D映像方式の有無85や、3D映像フレームレート86、3D映像情報数87、奥行き情報100、視差量制限情報101を記録する。また、図26に示すように付帯情報51は、トランスポートパケットのレイヤにおいてプライベートパケット(TSP1)178を設け、これをトランスポートデコーダの部分で分離抽出する事となる。図25のように構成する事でMPEGデータの階層レベルでも同じ3D情報を抽出する事が可能となる。これらは再生装置とTVがリンク接続され自動的に3D映像設定する場合や、映像再生中にTVを切り替えたりする場合に、TV側にトランスポートデコーダでの付帯情報抽出設定が有効であれば付帯情報51が有効になるし、MPEGレイヤでの立体映像付帯情報が有効であれば3D映像情報176が有効になってくる。   First, in the 3D video information 176, information (which may be a flag) 177 for identifying whether the video is a left-eye video or a right-eye video is arranged, the presence / absence 85 of the 3D video system described in Embodiment 2, and a 3D video frame The rate 86, the number of 3D video information 87, the depth information 100, and the parallax amount restriction information 101 are recorded. As shown in FIG. 26, the incidental information 51 is provided with a private packet (TSP1) 178 in the transport packet layer, which is separated and extracted by the transport decoder. With the configuration shown in FIG. 25, the same 3D information can be extracted even at the hierarchical level of MPEG data. When the playback device and TV are linked and automatically set 3D video, or when switching TV during video playback, if the additional information extraction setting in the transport decoder is valid on the TV side, this The information 51 becomes valid, and if the 3D video incidental information in the MPEG layer is valid, the 3D video information 176 becomes valid.

また、図25の映像ストリームはMPEG情報レイヤの単位で記載したものであるが、もう1段下のトランスポートパケットの単位で記述したものが図26である。図26において、右目及び左目映像のGOP168,169のブロック単位での映像データは、トランスポートパケット178の先頭からスタートしGOP映像情報の終端では必ずしもトランスポートパケットの整数倍のデータには収まらないため、最終のトランスポートパケット182内の残りをパディングし、最終データ183に対しパディングデータ184で情報を埋める処理を行う。これによりトランスポートパケット179からトランスポートパケット182までを取り出すことにより右目映像のGOP168のみを抽出する事が可能となる。左目映像のGOP169においても右目と同様な処理が行われ、トランスポートパケット185を先頭に、パディングデータ190を含むトランスポートパケット188までを抽出する事により左目映像のみを取り出す事が可能となる。   The video stream shown in FIG. 25 is described in units of MPEG information layers, but FIG. 26 shows that described in units of transport packets one level lower. In FIG. 26, the video data in units of blocks of the GOPs 168 and 169 of the right-eye and left-eye videos starts from the beginning of the transport packet 178 and does not necessarily fit in data that is an integral multiple of the transport packet at the end of the GOP video information. The remaining data in the final transport packet 182 is padded, and the final data 183 is filled with information with padding data 184. Accordingly, it is possible to extract only the GOP 168 of the right-eye video by taking out the transport packet 179 to the transport packet 182. In the GOP 169 of the left eye video, the same processing as that of the right eye is performed, and only the left eye video can be extracted by extracting the transport packet 185 including the padding data 190 from the top of the transport packet 185.

なお、図24の立体映像記録装置においては、左目映像と右目映像とをそのままエンコードしていたが、左目映像と右目映像とは基本的には視差分だけずれた映像情報であり相関性が非常に高いものであるから、例えば左目映像については右目映像からの差分情報のみを記録するように構成すれば、全体の情報量も圧縮が可能である。そのための立体映像記録装置のブロック図を図27に示す。図27に示す立体映像記録装置は、右目映像のブロック部分を主映像として図24で示した映像圧縮のブロック構成と同じ構成を採用している。しかし、左目映像においては、左目映像の動き検出147の出力を右目映像のフレームメモリ153の出力と差分を取り、左目映像と右目映像との差分情報のみを抽出する。この差分情報は、左目映像のラインにおけるDCT変換148及び適応量子化149の処理を経て、可変長符号化処理151を行う事で左目映像の差分情報のみをバッファメモリ154に記録させる。以降の光ディスクに書き込むまでの処理は図24と同じである。なお、図27に示す例では、右目映像を主映像とし、左目映像を差分をとる副映像としたが、左右が逆(左目映像が主映像で右目映像が差分をとる副映像)であっても良いことはいうまでもない。   In the stereoscopic video recording apparatus in FIG. 24, the left-eye video and the right-eye video are encoded as they are. However, the left-eye video and the right-eye video are basically video information that is shifted by the amount of parallax and has a very high correlation. For example, if the left-eye video is configured to record only the difference information from the right-eye video, the entire information amount can be compressed. A block diagram of the stereoscopic video recording apparatus for this purpose is shown in FIG. The stereoscopic video recording apparatus shown in FIG. 27 employs the same configuration as the video compression block configuration shown in FIG. 24 with the block portion of the right-eye video as the main video. However, in the left-eye video, the difference between the output of the motion detection 147 of the left-eye video and the output of the frame memory 153 of the right-eye video is obtained, and only difference information between the left-eye video and the right-eye video is extracted. The difference information is subjected to the DCT transformation 148 and adaptive quantization 149 in the left-eye video line, and the variable-length encoding process 151 is performed, so that only the left-eye video difference information is recorded in the buffer memory 154. The subsequent processing until writing to the optical disc is the same as that in FIG. In the example shown in FIG. 27, the right-eye video is the main video and the left-eye video is the sub-video that takes the difference, but the left and right are reversed (the left-eye video is the main video and the right-eye video is the sub-video). It goes without saying that it is also good.

また、図27に示す立体映像記録装置では、左目映像と右目映像との差分をとることで、片方の映像情報量をさらに圧縮する方法について述べたが、本映像情報が視差情報によるものである事からさらに情報圧縮をかける事が可能である。図28(a),図28(b)に視差映像の原理を模式的に示した図である。図28(a)では、奥行き位置126Mにある手前の映像物126Gと、奥行き位置126Lにある奥の映像物126H、両目126Fまでの奥行き位置(一番手前)126Nとし、映像物126Gの視野角126D、映像物126Hの視野角126Eとしている。また、図28(b)では、映像物126Gの左目映像126GA、映像物126Gの右目映像126GB、左目映像126GAと右目映像126GBとの視差量126I、左目映像と右目映像との同一画素点126Kとしている。さらに、図28(b)では、映像物126Hの左目映像126HA、映像物126Hの右目映像126HB、左目映像126HAと右目映像126HBとの視差量126J、左目映像と右目映像との同一画素点126KKとしている。   In the stereoscopic video recording apparatus shown in FIG. 27, the method of further compressing the video information amount of one side by taking the difference between the left-eye video and the right-eye video has been described, but this video information is based on the parallax information. It is possible to further compress information. FIG. 28A and FIG. 28B schematically show the principle of parallax video. In FIG. 28A, the near-field image object 126G at the depth position 126M, the deep image object 126H at the depth position 126L, and the depth position (frontmost) 126N to both eyes 126F, and the viewing angle of the image object 126G. The viewing angle 126E of the image 126H is 126D. In FIG. 28B, the left eye image 126GA of the image object 126G, the right eye image 126GB of the image object 126G, the parallax amount 126I between the left eye image 126GA and the right eye image 126GB, and the same pixel point 126K of the left eye image and the right eye image. Yes. Further, in FIG. 28B, the left eye image 126HA of the image object 126H, the right eye image 126HB of the image object 126H, the parallax amount 126J between the left eye image 126HA and the right eye image 126HB, and the same pixel point 126KK of the left eye image and the right eye image. Yes.

図29は、片方の映像をさらに圧縮する立体映像記録装置のブロック図である。図29に示す立体映像記録装置は、左目映像と右目映像とからの視差量を演算するための視差情報演算回路191Aと、奥行き方向の動き検出回路191Cと、推定視差情報生成回路191Dとを備えている。さらに、図29に示す立体映像記録装置は、推定視差情報から元の左目映像を右目映像に変換するための逆視差演算処理回路191Bと、右目映像と逆視差演算処理回路191Bによって生成した右目映像とを比較した結果よりDCT変換するDCT変換回191Eと、適応量子化回路191Fと、可変長符号化191Gとを備えている。なお、視差情報演算回路191Aから可変長符号化191Gまでが立体映像圧縮処理を行う部分である。   FIG. 29 is a block diagram of a stereoscopic video recording apparatus that further compresses one video. The stereoscopic video recording apparatus shown in FIG. 29 includes a parallax information calculation circuit 191A for calculating the parallax amount from the left-eye video and the right-eye video, a motion detection circuit 191C in the depth direction, and an estimated parallax information generation circuit 191D. ing. Furthermore, the stereoscopic video recording apparatus shown in FIG. 29 includes a reverse parallax calculation processing circuit 191B for converting the original left-eye video into the right-eye video from the estimated parallax information, and a right-eye video generated by the right-eye video and the reverse parallax calculation processing circuit 191B. Are provided with a DCT conversion circuit 191E that performs DCT conversion, an adaptive quantization circuit 191F, and a variable length coding 191G. Note that the part from the parallax information calculation circuit 191A to the variable length coding 191G is a part that performs the stereoscopic video compression processing.

また、図30は、図29の立体映像記録装置による圧縮方法での映像ストリームのエンコードとデコードを説明するための図である。図30では、右目映像192A〜192G、左目映像右目映像の視差情報演算値193、左目映像194A〜194G、奥行き方向動きベクトル演算値196、推定視差情報197、右目主映像の圧縮映像195A〜195Gが図示されている。さらに、図30では、右目主映像の圧縮映像195A〜195Gに基づく再生主映像198A〜198G、再生主映像198A〜198Gにそれぞれ対応する推定視差情報204〜210、再生副映像211〜217とが図示されている。また、図31は、図27もしくは図29に示す立体映像記録装置による圧縮方法で生成された映像ストリーム構造を示した図である。図31に示す映像ストリーム構造は、基本的に図25と同じであるが、左目映像のGOP169に代えて差分映像情報218である点と、3D映像方式の有無85にGOP映像情報か差分情報かの情報219が追加されている点とが異なる。また、図32は、図29に示す立体映像記録装置による圧縮方法で生成された映像ストリーム構造におけるトランスポートレベルの階層でのストリーム構造を示したものである。図32は、基本的に図26と同じであるが、左目映像のGOP169に代えて差分映像情報218である点が異なる。   FIG. 30 is a diagram for explaining the encoding and decoding of the video stream in the compression method by the stereoscopic video recording apparatus of FIG. In FIG. 30, the parallax information calculation value 193, the left eye video 194A to 194G, the depth direction motion vector calculation value 196, the estimated parallax information 197, and the compressed video 195A to 195G of the right eye main video of the right eye video 192A to 192G, the left eye video and the right eye video. It is shown in the figure. Further, in FIG. 30, reproduction main images 198A to 198G based on the compressed images 195A to 195G of the right-eye main image, estimated parallax information 204 to 210 and reproduction sub-images 211 to 217 corresponding to the reproduction main images 198A to 198G, respectively, are illustrated. Has been. FIG. 31 is a diagram showing a video stream structure generated by the compression method by the stereoscopic video recording apparatus shown in FIG. 27 or FIG. The video stream structure shown in FIG. 31 is basically the same as that in FIG. 25, except that the difference video information 218 is used instead of the GOP 169 of the left-eye video and whether the 3D video format presence / absence 85 is GOP video information or difference information. The difference is that information 219 is added. FIG. 32 shows the stream structure at the transport level in the video stream structure generated by the compression method by the stereoscopic video recording apparatus shown in FIG. FIG. 32 is basically the same as FIG. 26 except that it is differential video information 218 instead of the GOP 169 of the left-eye video.

ここで、視差を利用した右目映像と左目映像とから立体方向を図示すると図28(a)のようになる。図28(a)では、両目126Fから見た視差角度が奥行きに応じて異なって見える。そのため、左右の視差映像となった場合は図28(b)のように手前の映像物126Gは大きく、左目映像126GAと右目映像126GBとが離れて見え、視差量126Iも大きくなる。一方、遠方にある映像物126Hは小さく、左目映像126HAと右目映像126HBとが離れて見え、視差量126Jも小さくなる。   Here, FIG. 28A shows the stereoscopic direction from the right-eye video and the left-eye video using parallax. In FIG. 28 (a), the parallax angle viewed from both eyes 126F looks different depending on the depth. For this reason, when the left and right parallax images are obtained, the front video object 126G is large as shown in FIG. 28B, the left eye image 126GA and the right eye image 126GB appear to be separated, and the parallax amount 126I also increases. On the other hand, the distant image object 126H is small, the left eye image 126HA and the right eye image 126HB appear to be separated, and the parallax amount 126J is also small.

そのため、視差量(126Iもしくは126J)又は視差角情報(126Dもしくは126E)の情報があれば、図28(b)のように左目映像から右目映像を推定(視差情報変換による映像生成)する(126K及び126KK)事が可能である。この条件としては、見る角度によって輝度や色が変わらない事が前提となるため、角度による映像の回り込みや影等の変化については本推定では推定できない情報となる。   Therefore, if there is information on the parallax amount (126I or 126J) or the parallax angle information (126D or 126E), the right-eye video is estimated from the left-eye video (video generation by parallax information conversion) as shown in FIG. 28B (126K). And 126 KK). This condition is based on the premise that the brightness and color do not change depending on the viewing angle, and therefore, the information that cannot be estimated by this estimation about the wraparound of the video or the change of the shadow due to the angle.

ここで、図29に示す立体映像記録装置では、左目映像及び右目映像の動き検出ブロック147から得られる映像物の面内位置情報から視差角を抽出し、視差情報演算回路191Aによってマクロブック単位もしくは画素単位での視差情報を演算する。さらに、時間軸方向での圧縮を行うため奥行き方向動き検出回路191Cにおいて、画面単位での奥行き方向の動きベクトルを抽出する。推定視差情報生成回路191Dでは、この奥行き方向の動き情報と視差情報をもって推定視差情報として生成する。また、上述したように片方の映像(ここでは右目映像として説明)情報から視差情報だけで逆側(ここでは左目映像として説明)の映像を完全に再現できるわけではなく、画像の回り込みによる変化(隠れた部分が見えてくる等)等については推定できない情報として残ってしまう。   Here, in the stereoscopic video recording apparatus shown in FIG. 29, the parallax angle is extracted from the in-plane position information of the video object obtained from the motion detection block 147 of the left-eye video and the right-eye video, and the parallax information arithmetic circuit 191A Calculate disparity information in units of pixels. Further, in order to perform compression in the time axis direction, the depth direction motion detection circuit 191C extracts a motion vector in the depth direction for each screen. The estimated parallax information generation circuit 191D generates the estimated parallax information using the motion information and the parallax information in the depth direction. Further, as described above, the video on the opposite side (explained here as the left-eye video) cannot be completely reproduced from only one video (explained as the right-eye video here) information only by the parallax information, but the change due to the wraparound of the image ( Etc.), etc. will remain as information that cannot be estimated.

そのため、図29に示す立体映像記録装置では、立体映像圧縮において推定視差情報から逆視差演算処理回路191Bによってまず不完全ながら逆側(ここでは左目映像として説明)の映像を視差情報を利用しローカルデコード再現し、これと実際に撮影した逆側の映像を圧縮処理したもの(ローカルデコーダにおけるフレームメモリ153上の映像)との差分をとる。この差分をとった情報が上述した画像の回り込みによる変化した再現できない部分の情報であり、視差情報を利用した圧縮ストリームにおいても視差情報で完全に再現できない部分をカバーする事ができる。また、図示していないが、奥行き方向の動きベクトルを抽出した場合、さらに視差の変化量も情報として利用するため、通常の情報圧縮のローカルデコーダと同じく、逆量子化回路とDCT逆変換回路、フレームメモリを用い、奥行き方向の動きベクトルから元の映像をローカルデコーダにより再現し再比較する事で、奥行き方向の動きベクトルを利用し圧縮効率をアップさせる事ができるようになる。   For this reason, in the stereoscopic video recording apparatus shown in FIG. 29, in the stereoscopic video compression, the reverse parallax calculation processing circuit 191B first uses the parallax information to convert the video on the reverse side (described here as the left-eye video) using the parallax information. Decode reproduction is performed, and a difference between this and a video obtained by compressing the actually captured video on the opposite side (video on the frame memory 153 in the local decoder) is obtained. The information obtained by this difference is the information of the portion that cannot be reproduced due to the above-described wraparound of the image, and can cover the portion that cannot be completely reproduced by the disparity information even in the compressed stream using the disparity information. Although not shown in the figure, when a motion vector in the depth direction is extracted, the amount of change in parallax is also used as information. Therefore, as with a local decoder for normal information compression, an inverse quantization circuit and a DCT inverse transformation circuit, By using the frame memory and reproducing the original video from the motion vector in the depth direction by a local decoder and recomparison, the motion efficiency in the depth direction can be used to increase the compression efficiency.

ここで、画面単位での映像データは図30のように示される。図30にある右目カメラから右目主映像192A〜192G、左目カメラから左目副映像194A〜194Gが取り出される。ここで、図29の視差情報演算回路191Aにより、右目主映像192A〜192Gと左目副映像194A〜194Gとから視差情報193が演算される。また、奥行き方向の動きベクトル演算191Cは、視差情報193の画面単位での変化から奥行き方向動きベクトル演算値196が抽出され推定視差情報197として生成される。この推定視差情報197自体は、画像のマクロブロック単位であったり画素単位であってもよい。   Here, video data in units of screens is shown as shown in FIG. Right-eye main images 192A to 192G are extracted from the right-eye camera in FIG. 30, and left-eye sub-images 194A to 194G are extracted from the left-eye camera. Here, the parallax information calculation circuit 191A in FIG. 29 calculates the parallax information 193 from the right-eye main videos 192A to 192G and the left-eye sub-pictures 194A to 194G. In the depth direction motion vector calculation 191C, the depth direction motion vector calculation value 196 is extracted from the change of the parallax information 193 in units of screens, and is generated as estimated parallax information 197. The estimated parallax information 197 itself may be a macroblock unit or a pixel unit of an image.

一方、映像の再生時には、右目主映像192A〜192Gは映像圧縮により符号化され右目主映像の圧縮映像195A〜195Gとなっている。具体的に右目主映像の圧縮映像は、面内圧縮映像のIピクチャ195Aと、面内動きベクトルを用いた時間方向の圧縮を行ったPピクチャ195D及び195Gと、Bピクチャ195B,195C,195E,195Fから構成されている。この右目主映像の圧縮映像は、通常の圧縮映像伸張回路により再生主映像198A〜198Gとして右目映像に再現される。そして、それぞれの再生主映像(右目映像)198A〜198Gと、画面毎の推定視差情報204〜210と、画面毎の差分情報を逆量子化し逆DCT変換した情報とで再生副映像(左目映像)211〜217が復元される。ここで、差分情報からの復元映像部分は、画像の回りこみ等推定視差情報では再現できない部分を補完する役割を担っている。   On the other hand, at the time of video reproduction, the right-eye main videos 192A to 192G are encoded by video compression to become compressed videos 195A to 195G of the right-eye main video. Specifically, the compressed video of the right-eye main video includes an I-picture 195A of in-plane compressed video, P-pictures 195D and 195G subjected to temporal compression using in-plane motion vectors, and B pictures 195B, 195C, 195E, 195F. The compressed video of the right-eye main video is reproduced as the main video 198A to 198G by the normal compressed video decompression circuit. Then, reproduction sub-video (left-eye video) using the respective reproduction main video (right-eye video) 198A to 198G, estimated parallax information 204 to 210 for each screen, and information obtained by inverse quantization and inverse DCT conversion of the difference information for each screen. 211 to 217 are restored. Here, the restored video portion from the difference information plays a role of complementing a portion that cannot be reproduced by the estimated parallax information such as an image wraparound.

図29又は図27に示す立体映像記録装置での圧縮映像を用いた映像ストリームは、図31のように示され、あくまでもGOP映像情報単位のデータとして単位化される。これは右目映像が元々GOP映像情報単位で単位化されており、左目の差分圧縮データもこの右目映像を利用する関係で画像の単位化レベルを合わせこむ必要があるからである。ここでは右目映像のGOP168内のGOPヘッダ170において、図25で説明したような立体映像に関する付帯情報が付加される。ただし、左目映像に関し図29に示した推定視差情報197を用いた圧縮情報なのか、図27に示した差分圧縮情報なのか、図24に示した立体映像としての圧縮は行わない方式であるか等の識別情報を図31に示すように3D映像方式の有無85にGOP映像情報か差分情報かの情報219を記述しておく必要がある。また、トランスポートパケットのレベルでストリーム構造を見た場合、図32のように示され、図26と同様にGOP映像データの終端部分はトランスポートパケット内でパディングさせるほか、立体方向の圧縮映像データであっても終端部分はトランスポートパケット内でパディングさせる。なお、上述は右目映像が主映像、左目映像が立体方向に圧縮をかけた副映像としているが、逆であってもまったく問題なく、右目映像が主映像で左目映像が副映像、左目映像が主映像で右映像が副映像と混在した映像ストリームであってもよい。ただし、規格上混在を許可させる場合は、どちらの映像が主映像でどちらが副映像であるかの識別情報の記述が必要となる。   The video stream using the compressed video in the stereoscopic video recording apparatus shown in FIG. 29 or FIG. 27 is shown as in FIG. 31, and is unitized as GOP video information unit data. This is because the right-eye video is originally unitized in units of GOP video information, and the differential compression data of the left eye needs to be adjusted to the unitization level of the image so that the right-eye video is used. Here, in the GOP header 170 in the GOP 168 of the right-eye video, incidental information regarding the stereoscopic video as described with reference to FIG. 25 is added. However, whether the left-eye video is compression information using the estimated parallax information 197 shown in FIG. 29, the differential compression information shown in FIG. 27, or is the method that does not compress the stereoscopic video shown in FIG. As shown in FIG. 31, it is necessary to describe information 219 indicating whether the information is GOP video information or difference information in the presence / absence 85 of the 3D video format. Further, when the stream structure is viewed at the level of the transport packet, it is shown as in FIG. 32. As in FIG. 26, the end portion of the GOP video data is padded within the transport packet, and the compressed video data in the stereoscopic direction is also displayed. Even so, the end portion is padded in the transport packet. In the above, the right-eye video is the main video and the left-eye video is the sub-video compressed in the stereoscopic direction, but the reverse is not a problem at all. The right-eye video is the main video, the left-eye video is the sub-video, and the left-eye video is The main video may be a video stream in which the right video is mixed with the sub video. However, when the mixture is permitted according to the standard, it is necessary to describe the identification information which video is the main video and which is the sub video.

また、左目及び右目の立体映像をもっと簡便に映像ストリーム化することも可能である。例えば、図33に示す立体映像記録装置は、簡便に映像ストリーム化する画像構成処理部である合成回路220を備えている。また、図34は、図33に示す立体映像記録装置における映像ストリームの構造を示したもので、左目又は右目映像のGOP221が1つのGOP映像情報単位となっている。また、図35は、図33に示す立体映像記録装置における映像ストリームのトランスポートパケットレベル階層での構造を示したものである。   It is also possible to more easily convert the left-eye and right-eye stereoscopic video into a video stream. For example, the stereoscopic video recording apparatus shown in FIG. 33 includes a synthesis circuit 220 that is an image configuration processing unit that easily converts a video stream. FIG. 34 shows the structure of the video stream in the stereoscopic video recording apparatus shown in FIG. 33, and the left-eye or right-eye video GOP 221 is one GOP video information unit. FIG. 35 shows the structure of the transport packet level hierarchy of the video stream in the stereoscopic video recording apparatus shown in FIG.

ここで、入力される左目及び右目の視差映像は一旦合成回路220に入力され、図33に示すように1つの画面内に縦長の2つの画面として挿入される。この際、各映像の画素は単に映像ラインで間引かれるのではなく、フィルタ処理を施され水平方向に圧縮された後、左目右目映像に合成される。このように各画面は縦長の2枚の左目映像と右目映像とで構成されることになるが、以降は通常の画像圧縮処理の方法を用いてストリーム生成される。この場合でも図34に示す映像ストリームにおいては付帯情報51もしくはGOPヘッダ170内の3D情報領域176において、水平方向に圧縮された映像情報である事が記述され、通常のTVでそのまま再生されないようにする事が必要である。また、図35に示す映像ストリーム構造を採用する場合でも、トランスポートパケットのレベルにおいては図26や図32と同様に、GOP映像情報の終端におけるトランスポートパケットの最終データ183に対しパディングデータ184で情報を埋める処理を行う。なお、本発明では光ディスクに記録された立体映像記録装置や立体映像記録方法について記載したが、記録媒体としてハードディスクであってもまったく同様の効果が得られることはいうまでもない。   Here, the input left-eye and right-eye parallax images are once input to the synthesis circuit 220, and are inserted as two vertically long screens in one screen as shown in FIG. At this time, the pixels of each video are not simply thinned out in the video line, but are subjected to filter processing and compressed in the horizontal direction, and then combined with the left-eye right-eye video. In this manner, each screen is composed of two vertically long left-eye videos and right-eye videos, and thereafter, a stream is generated using a normal image compression processing method. Even in this case, in the video stream shown in FIG. 34, it is described in the supplementary information 51 or the 3D information area 176 in the GOP header 170 that the video information is compressed in the horizontal direction so that it is not reproduced as it is on a normal TV. It is necessary to do. Further, even when the video stream structure shown in FIG. 35 is adopted, at the level of the transport packet, as in FIG. 26 and FIG. 32, the padding data 184 is compared with the final data 183 of the transport packet at the end of the GOP video information. Process to fill in information. In the present invention, the stereoscopic video recording apparatus and the stereoscopic video recording method recorded on the optical disc are described, but it goes without saying that the same effect can be obtained even if the recording medium is a hard disk.

(実施の形態4)
次に、本実施の形態4について、図に従い以下に説明する。実施の形態3においては、立体映像記録装置について説明したが、本実施の形態では立体映像再生装置について説明する。図36は、本実施の形態に係る立体映像再生装置のブロック図である。図36に示す立体映像再生装置では、復調訂正回路222と、アドレスヘッダ認識回路223と、光ディスクドライブ部分と映像音声処理部分であるバックエンドとを接続するためのIF(インターフェイス)224と、光ディスクドライブ部分からのデータを一旦蓄えるためのデータバッファ225とを備えている。また、図36に示す立体映像再生装置では、映像音声データ等のストリームを分離するためのシステムデコーダ226と、圧縮映像を伸張するためのMPEG,H264デコーダ227と、オーディオデコーダ228と、字幕表示等のためのOSDデコーダ229と、OSD情報の奥行き生成回路229Aとを備えている。さらに、図36に示す立体映像再生装置では、3D映像処理回路230と、映像にOSD情報をかぶせるためのブレンディング処理回路229Bと、外部との汎用IF231と、右目専用IF232と、左目専用IF233と、バッファ回路234と、バックエンド全体のシステムコントローラ235とを備える。
(Embodiment 4)
Next, the fourth embodiment will be described below with reference to the drawings. Although the stereoscopic video recording apparatus has been described in the third embodiment, the stereoscopic video reproducing apparatus will be described in the present embodiment. FIG. 36 is a block diagram of the stereoscopic video reproduction apparatus according to the present embodiment. 36, the demodulation / correction circuit 222, the address header recognition circuit 223, the IF (interface) 224 for connecting the optical disk drive part and the back end as the video / audio processing part, and the optical disk drive And a data buffer 225 for temporarily storing data from the portion. 36, a system decoder 226 for separating a stream of video / audio data, an MPEG / H264 decoder 227 for decompressing compressed video, an audio decoder 228, subtitle display, and the like. OSD decoder 229 and a depth generation circuit 229A for OSD information. Further, in the stereoscopic video reproduction device shown in FIG. 36, a 3D video processing circuit 230, a blending processing circuit 229B for covering the video with OSD information, a general-purpose IF 231 to the outside, a right-eye dedicated IF 232, a left-eye dedicated IF 233, A buffer circuit 234 and a system controller 235 for the entire back end are provided.

また、図37は、実施の形態3で示した立体方向の圧縮映像から左目映像をデコードする部分を示したブロック図である。図37では、映像ストリームの視差情報や奥行き動きベクトル情報を抽出するためのシステムデコーダ236と、MPEGやH264等の圧縮映像ストリームをデコードするMPEG、H264デコーダ237と、視差情報238と、動きベクトル情報239と、視差情報演算回路240と、左目映像再現回路241とを備えている。なお、視差情報238、動きベクトル情報239、視差情報演算回路240及び左目映像再現回路241が3D映像処理回路230を構成している。   FIG. 37 is a block diagram showing a portion for decoding the left-eye video from the compressed video in the stereoscopic direction shown in the third embodiment. In FIG. 37, a system decoder 236 for extracting disparity information and depth motion vector information of a video stream, an MPEG and H264 decoder 237 for decoding a compressed video stream such as MPEG and H264, disparity information 238, and motion vector information 239, a parallax information calculation circuit 240, and a left-eye image reproduction circuit 241. Note that the parallax information 238, the motion vector information 239, the parallax information calculation circuit 240, and the left-eye video reproduction circuit 241 constitute a 3D video processing circuit 230.

ここで、図36に示す立体映像再生装置では、まず光ディスクドライブ内の復調訂正回路222よって光ディスク165に記載された映像音声データや付帯データが再生される。この際、サーボ回路162は光ヘッド164からの再生信号を高品位に抽出し続けるように作用し、アドレスヘッダ認識回路223は所定のアドレスの瞬時にアクセスするために作用する。ここで、光ディスクドライブから再生されたデータはIF回路224を介して一旦データバッファ回路225に入力された後、システムデコーダ226に入力される。システムデコーダ226では、映像音声データ等のストリームを分離し、音声情報はオーディオデコーダ228、OSD情報はOSDデコーダ229、映像情報はMPEG,H264デコーダ227に入力される。   Here, in the stereoscopic video reproduction apparatus shown in FIG. 36, first, the audio / video data and the auxiliary data described on the optical disk 165 are reproduced by the demodulation and correction circuit 222 in the optical disk drive. At this time, the servo circuit 162 operates so as to continue to extract the reproduction signal from the optical head 164 with high quality, and the address header recognition circuit 223 functions to instantly access a predetermined address. Here, the data reproduced from the optical disk drive is once inputted to the data buffer circuit 225 via the IF circuit 224 and then inputted to the system decoder 226. The system decoder 226 separates a stream such as video / audio data, and audio information is input to the audio decoder 228, OSD information is input to the OSD decoder 229, and video information is input to the MPEG / H264 decoder 227.

なお、OSD情報はOSD奥行き生成回路229Aでシステムデコーダ226から得られる付帯情報により奥行きをもったOSD情報として生成される。また、MPEG,H264デコーダ227でデコードされた映像ストリームは3D映像処理回路230にて3D映像情報として処理され、ブレンディング回路229Bで奥行きをもったOSD映像とブレンディングされ、転送レートが低い場合はHDMI等の汎用IFで出力したり、左目映像を左目専用IF233で、右目映像を右目専用IF232で、それぞれ出力させる事が可能となる。   Note that the OSD information is generated as OSD information having a depth by the supplementary information obtained from the system decoder 226 by the OSD depth generation circuit 229A. Also, the video stream decoded by the MPEG / H264 decoder 227 is processed as 3D video information by the 3D video processing circuit 230, blended with the OSD video having a depth by the blending circuit 229B, and HDMI is used when the transfer rate is low. The left-eye image can be output by the left-eye dedicated IF 233, and the right-eye image can be output by the right-eye dedicated IF 232.

また、実施の形態3で示したような片側映像が視差情報を用いた圧縮をさらに行っている場合、立体映再生装置における3D映像処理230は図37のように構成される。ここで、システムデコーダ236で抽出した左目の圧縮映像情報である視差情報238と奥行き動きベクトル239を用いて各画素もしくはマクロブロック単位での視差情報演算を視差情報演算回路240で行い、右目映像から左目映像を生成するための変換係数を生成する。この変換係数を用いてMPEG,H264デコーダで生成した右目映像から、左目映像再現回路241にて左目映像を再現する。ここで、圧縮された左目映像が視差情報による圧縮のみであれば視差情報演算回路240の出力に基づく再変換のみであるが、図33に示す立体映像記録装置のようにDCT変換と適応量子化を行った圧縮情報であれば、逆量子化と逆変換回路とを左目映像再現回路241内に内蔵する必要がある。   Further, when the one-side video as shown in the third embodiment is further compressed using the parallax information, the 3D video processing 230 in the stereoscopic projection playback device is configured as shown in FIG. Here, the parallax information calculation circuit 240 performs the parallax information calculation for each pixel or macroblock using the parallax information 238 and the depth motion vector 239 which are the compressed video information of the left eye extracted by the system decoder 236, and starts from the right-eye video. A conversion coefficient for generating a left-eye image is generated. Using the conversion coefficient, the left-eye video reproduction circuit 241 reproduces the left-eye video from the right-eye video generated by the MPEG / H264 decoder. Here, if the compressed left-eye video is only compressed by parallax information, only re-conversion based on the output of the parallax information calculation circuit 240 is performed, but DCT transformation and adaptive quantization as in the stereoscopic video recording apparatus shown in FIG. If the compressed information has been subjected to the above, it is necessary to incorporate an inverse quantization and inverse transform circuit in the left-eye video reproduction circuit 241.

次に、左目及び右目の立体映像から立体でない2D映像を再現する立体再生装置について説明する。図38(a)は、2D映像を再現する立体再生装置のブロック図である。図38(a)では、視差情報に基づく合成処理回路242を備えている。また、図38(b)は、合成処理回路242で構成される映像を模式的に説明する図であり、左目映像232Aと、右目映像233Aとが合成された映像が2D映像231Aである。ここで、一般的なTV等の表示装置においては、必ずしも3D映像対応であるとは限らず、むしろ2D映像対応である事の方が多い。従って3D映像のみが記載されたメディアを再生する場合、2D映像でも再生できるようにしておく事が望ましい。最も簡単な方法としては、右目映像もしくは左目映像のみを表示させる事で2D映像を再現できる。例えば、TVが2D映像しか対応していない場合は、プレーヤとTVの間でのリンク接続処理において自動検知し、片方の映像のみを常に再生しておく事となる。   Next, a description will be given of a stereoscopic playback device that reproduces non-stereoscopic 2D video from left-eye and right-eye stereoscopic video. FIG. 38A is a block diagram of a stereoscopic playback device that reproduces 2D video. In FIG. 38A, a synthesis processing circuit 242 based on parallax information is provided. FIG. 38B is a diagram schematically illustrating an image formed by the composition processing circuit 242, and an image obtained by combining the left-eye image 232A and the right-eye image 233A is a 2D image 231A. Here, a general display device such as a TV does not always support 3D video, but rather supports 2D video. Therefore, when playing back a medium in which only 3D video is described, it is desirable that 2D video can be played back. As the simplest method, 2D video can be reproduced by displaying only the right-eye video or the left-eye video. For example, if the TV only supports 2D video, it is automatically detected in the link connection process between the player and the TV, and only one video is always played back.

しかしながらこの方法では、奥行きが目に近い(飛び出して見える)映像の場合、視差量が大きく、図38(b)に示す左目映像232Aや右目映像233Aのように、左右位置が大きくずれた映像となってしまう問題があった。そのため、左目及び右目映像における視差情報を用いてこれを合成し、2D映像231Aのような中間位置の映像を再現する事で違和感のない2D映像を再現する事ができる。ただし、この場合の画面の両サイドは、視差量が大きいと演算できないため、元の映像が左目映像の場合は左側に広く、右目映像の場合は右側に広く撮影されていないと、映像241Aの部分(画面の両サイド)がカットされたような映像となる。   However, in this method, in the case of an image that is close to the eyes (appears popping out), the amount of parallax is large, and an image with a significantly shifted left and right position such as a left eye image 232A and a right eye image 233A shown in FIG. There was a problem that would become. Therefore, the parallax information in the left-eye and right-eye images can be combined to reproduce a video at an intermediate position, such as the 2D video 231A, so that a 2D video without a sense of incongruity can be reproduced. However, since both sides of the screen in this case cannot be calculated if the amount of parallax is large, if the original video is a left-eye video that is wide on the left side and a right-eye video is not shot on the right side, the video 241A The image looks like the part (both sides of the screen) is cut.

さらに、実施の形態2で示したように画面の飛び出し量が大きいと目の疲れやびっくりした感じを増大する懸念がある。そのため、飛び出し量を可変できるようにした立体映像再生装置のブロック図を図39(a)に示す。図39(a)では、係数変更視差による左目映像再現回路243と、係数変更視差による右目映像変換処理回路244と、飛び出し量可変のためのユーザインターフェイス245と、視差情報係数変更部246とを備えている。また、図39(b)は、立体映像再生装置の飛び出し量の可変を説明するための図である。さらに、図39(c)は、図39(a)の回路により飛び出し量を変化させた場合の結果を説明する図である。また、図39(d)は、立体映像再生装置を接続した表示装置に表示されている飛び出し量を可変するためのOSDバー246Aを図示している。   Furthermore, as shown in the second embodiment, there is a concern that the amount of popping out of the screen is large, which may increase eye fatigue and startle feeling. Therefore, FIG. 39A shows a block diagram of a stereoscopic video reproduction apparatus in which the pop-out amount can be varied. 39A includes a left-eye video reproduction circuit 243 based on coefficient-changed parallax, a right-eye video conversion processing circuit 244 based on coefficient-changed parallax, a user interface 245 for changing the pop-out amount, and a parallax information coefficient change unit 246. ing. FIG. 39B is a diagram for explaining the variation of the pop-out amount of the stereoscopic video reproduction device. Further, FIG. 39 (c) is a diagram for explaining the result when the pop-out amount is changed by the circuit of FIG. 39 (a). FIG. 39D shows an OSD bar 246A for changing the pop-up amount displayed on the display device connected to the stereoscopic video reproduction device.

図29に示す立体映像記録装置のように片側映像を視差情報により圧縮した方式においては、画素もしくはマクロブロック単位でそのまま飛び出し量と関連している視差情報がリンクされている。そのため、ユーザからの飛び出し量可変指示があった場合、図39(d)のユーザインターフェイス245に、例えばTV画面のOSDバー246Aに示されるようなOSD画面を使って指示を入力させ、視差情報係数変更部246にてどの程度飛び出し度合いを減衰させるのか変換係数を決定する。この変換係数によって視差情報演算回路240での視差演算量を決定し、左目映像であれば係数変更視差による左目映像再現回路243により、右目映像であれば係数変視差情報に基づく画像変換処理回路244により左目映像と右目映像との視差量を、図39(b)に示すよう左目映像126GAと右目映像126GBとが破線から実線となるように小さく変換して表示させる。結果的には、専用IF232,233の出力から得られる立体映像は図39(c)の立体視された三角図形のように飛び出し量が小さく再現される。   In the method in which one-side video is compressed with parallax information as in the stereoscopic video recording apparatus shown in FIG. 29, the parallax information related to the pop-out amount is linked in units of pixels or macroblocks. Therefore, when there is an instruction to change the pop-out amount from the user, the instruction is input to the user interface 245 of FIG. 39D using, for example, an OSD screen as shown in the OSD bar 246A of the TV screen, and the disparity information coefficient The conversion unit determines how much the degree of popping is attenuated by the changing unit 246. The parallax calculation amount in the parallax information calculation circuit 240 is determined based on the conversion coefficient. If the left-eye video, the left-eye video reproduction circuit 243 using the coefficient-changed parallax, and if the right-eye video, the image conversion processing circuit 244 based on the coefficient variable parallax information. Thus, the parallax amount between the left-eye image and the right-eye image is converted into a small size so that the left-eye image 126GA and the right-eye image 126GB are changed from a broken line to a solid line as shown in FIG. As a result, the stereoscopic image obtained from the outputs of the dedicated IFs 232 and 233 is reproduced with a small pop-out amount like the stereoscopically viewed triangular figure in FIG.

また、図39(a)に示す立体映像再生装置では、あくまで映像ストリーム上に視差情報が記録されている場合にこれを用いて飛び出し量の変換を行うものであったが、視差情報がない場合が考えられる。そこで、図40に示す立体映像再生装置では、映像ストリーム上に視差情報が記録されていない場合でも飛び出し量を制御できる構成を示す。図40に示す立体映像再生装置では、左目映像と右目映像とにそれぞれMPEG,H264デコーダ237A,237Bと、視差情報抽出部247と、右目映像の視差変換部248と、左目映像の視差変換部249とを備えている。図40に示す立体映像再生装置では、視差映像抽出部247にて左目映像及び右目映像のデコード映像から、新たに視差情報を検出すればよい。また、この視差情報は図39(a)の場合と同様にユーザインターフェイス245を介し、視差情報係数変更部246を介して新たな視差情報を視差情報演算部240で生成し、右目映像の視差変換部248及び左目映像の視差変換部249に供給される。   Further, in the stereoscopic video playback device shown in FIG. 39A, when the parallax information is recorded on the video stream, the pop-out amount is converted using this, but there is no parallax information. Can be considered. Therefore, the stereoscopic video playback device shown in FIG. 40 shows a configuration in which the pop-out amount can be controlled even when parallax information is not recorded on the video stream. In the stereoscopic video reproduction device shown in FIG. 40, MPEG and H264 decoders 237A and 237B, a parallax information extraction unit 247, a parallax conversion unit 248 for a right-eye video, and a parallax conversion unit 249 for a left-eye video, respectively, for left-eye video and right-eye video. And. In the stereoscopic video reproduction apparatus shown in FIG. 40, the parallax information may be newly detected from the decoded video of the left-eye video and the right-eye video by the parallax video extraction unit 247. Also, this disparity information is generated by the disparity information calculation unit 240 via the user interface 245 and the disparity information coefficient changing unit 246 as in the case of FIG. 39A, and the disparity conversion of the right-eye image is performed. Are supplied to the unit 248 and the parallax conversion unit 249 of the left-eye video.

なお、本実施の形態では光ディスクに記録された立体映像情報を再生する装置や再生方法について記載したが、記憶媒体としてハードディスクであってもまったく同様の効果が得られることはいうまでもない。   In the present embodiment, an apparatus and a reproducing method for reproducing stereoscopic video information recorded on an optical disc have been described. Needless to say, the same effect can be obtained even if a hard disk is used as a storage medium.

1 右目映像、2 左目映像、3,8 表示装置、4 シャッタ、5 映像、6 記録装置、7 メガネ、9,10 偏向板、11 表示光学系、12 表示パネル、13 同期回転部材、14 光源、15〜20 表示デバイス、21 回転ミラー、22 像信号、23 映像制御情報、24,25 映像タイトル、26 記録媒体、146 ADコンバータ、147 動き検出回路、148 DCT変換回路、149 適応量子化回路、150 逆量子化回路、151 可変長符号化回路、152 DCT逆変換回路、153 フレームメモリ、154 バッファメモリ、155 OSDエンコーダ、156 音声エンコーダ、157 フォーマットエンコーダ、158 変調回路、159 LD変調回路、160 アドレスヘッダ認識回路、161 再生アンプ、162 サーボ回路、163 送りモータ、164 光ヘッド、165 光ディスク、166 回転モータ、167 システムコントローラ、191A 視差情報演算回路、191B 逆視差演算処理回路、191C 奥行き方向動き検出回路、191D 推定視差情報生成回路、191E DCT変換回路、191F 適応量子化回路、191G 可変長符号化回路、222 復調訂正回路、223 アドレスヘッダ認識回路、224 インターフェイス回路、225 データバッファ、226,236 システムデコーダ、227,237 MPEG・H264デコーダ、228 オーディオデコーダ、229 OSDデコーダ、229A OSD奥行き生成回路、229B ブレンディング回路、230 3D映像処理回路、231 汎用IF、232,233 専用IF、234 バッファ、235 システムデコーダ、238 視差情報生成回路、239 動きベクトル生成回路、240 視差情報演算回路、241 左目映像再現回路、242,244 視差情報に基づく合成処理回路、243 左目映像再現回路、245A OSDバー、246 視差情報係数変更部、245 ユーザインターフェイス、247 視差情報抽出部、248 右目映像視差変換回路、249 左目映像視差変換回路。   1 Right-eye image, 2 Left-eye image, 3, 8 Display device, 4 Shutter, 5 Image, 6 Recording device, 7 Glasses, 9, 10 Deflection plate, 11 Display optical system, 12 Display panel, 13 Synchronous rotating member, 14 Light source, 15 to 20 Display device, 21 Rotating mirror, 22 Image signal, 23 Video control information, 24, 25 Video title, 26 Recording medium, 146 AD converter, 147 Motion detection circuit, 148 DCT conversion circuit, 149 Adaptive quantization circuit, 150 Inverse quantization circuit, 151 variable length coding circuit, 152 DCT inverse conversion circuit, 153 frame memory, 154 buffer memory, 155 OSD encoder, 156 audio encoder, 157 format encoder, 158 modulation circuit, 159 LD modulation circuit, 160 address header Recognition circuit, 161 playback amp 162, servo circuit, 163 feed motor, 164 optical head, 165 optical disk, 166 rotation motor, 167 system controller, 191A parallax information calculation circuit, 191B reverse parallax calculation processing circuit, 191C depth direction motion detection circuit, 191D estimated parallax information generation circuit 191E DCT conversion circuit, 191F adaptive quantization circuit, 191G variable length coding circuit, 222 demodulation correction circuit, 223 address header recognition circuit, 224 interface circuit, 225 data buffer, 226, 236 system decoder, 227, 237 MPEG / H264 Decoder, 228 Audio Decoder, 229 OSD Decoder, 229A OSD Depth Generation Circuit, 229B Blending Circuit, 230 3D Video Processing Circuit, 231 General Purpose IF, 23 , 233 Dedicated IF, 234 buffer, 235 System decoder, 238 Disparity information generation circuit, 239 Motion vector generation circuit, 240 Disparity information calculation circuit, 241 Left-eye image reproduction circuit, 242, 244 Compositing processing circuit based on disparity information, 243 Left-eye image Reproduction circuit, 245A OSD bar, 246 parallax information coefficient changing unit, 245 user interface, 247 parallax information extracting unit, 248 right-eye video parallax conversion circuit, 249 left-eye video parallax conversion circuit.

Claims (5)

左目映像と右目映像とからなる視差を用いた立体映像を光ディスクに記録する映像情報記録方法であって、
左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成された立体映像情報を光ディスクに記録する際、
前記主映像の他方である副映像が、前記主映像のピクチャに対応する副映像情報として、前記主映像との間で動き検出を用いてさらに差分圧縮を行い、前記主映像情報ブロックに比し映像データ量を削減した副映像のデジタル副映像情報ブロックとして生成し、
さらに前記主映像情報ブロックとさらに前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるよう、前記主映像情報ブロックと前記副映像情報ブロックの映像データを交互に並び替えを行うとともに、
前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、当該映像情報ブロックと当該グラフィックスデータと当該音声データが関連するもの同士の組み合わせとしてまとめて配置されるよう、記録データを生成するとともに、
前記立体映像情報の記録時において、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域に対し、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報を、表示するグラフィックス情報表示単位毎に記録するとともに、
前記映像付帯情報記録領域に対し、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報を記録する事で、
2次元映像を再生する場合は前記差分圧縮が行われていない前記主映像とグラフィックデータを再生し、
立体映像を再生する場合は前記主映像情報ブロックと前記副映像情報ブロックの両方とグラフィックデータを再生するとともに、
前記差分圧縮映像をデコードするための前記付情報記録領域の前記映像情報ブロックの3D映像付帯情報と、グラフィックスを立体視するための前記グラフィックスの奥行き情報を合わせて再生する事で、
立体的なグラフィックスを前記視差を用いた立体映像に重ねて表示する事が可能な光ディスクの映像情報記録方法。
A video information recording method for recording a stereoscopic video using parallax consisting of a left-eye video and a right-eye video on an optical disc,
One of the left-eye video and the right-eye video is the main video, and the main video is an I picture that is data-compressed within a frame, and a P-picture that is data-compressed by adding motion compensation using the I picture in the forward direction in time. And when recording stereoscopic video information configured as a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the longitudinal direction in time, on an optical disc,
The sub-picture, which is the other of the main pictures, is further subtracted using motion detection as sub-picture information corresponding to the picture of the main picture using motion detection, and compared with the main picture information block. Generate as sub-picture digital sub-picture information block with reduced video data amount,
Further, the video data of the main video information block and the sub video information block are arranged such that the main video information block and the sub video information block are alternately arranged on the optical disc for each video information block in terms of time. While rearranging alternately,
The graphics data related to the main video information block and the sub video information block is recorded data so as to be collectively arranged as a combination of the video information block, the graphics data, and the audio data. As well as
At the time of recording the stereoscopic video information, the main video information block and the sub-video information block in the optical disc are provided in two different regions, the inner peripheral side and the outer peripheral side of the optical disc, For the video supplementary information recording area related to the video information, supplementary information including depth information for designating the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block. In addition to recording for each graphics information display unit to be displayed,
A table information recording area composed of auxiliary information related to the video information block in the video information block unit is secured for the video auxiliary information recording area, and the video information block is a main video information block or a secondary video information block. By recording 3D video incidental information indicating whether it is a video information block,
When playing back 2D video, play back the main video and graphic data that have not been differentially compressed,
When playing back a stereoscopic video, play back both the main video information block and the sub-video information block and graphic data,
By reproducing the 3D video supplementary information of the video information block in the additional information recording area for decoding the differentially compressed video and the graphics depth information for stereoscopically viewing the graphics,
An optical disc video information recording method capable of displaying stereoscopic graphics superimposed on a stereoscopic video using the parallax.
左目映像と右目映像とからなる視差を用いた立体映像が記録された光ディスクの映像情報再生方法であって、
前記光ディスクに記録された情報が、
左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、
さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、
前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、
また、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、前記映像情報ブロックの映像データに対する組み合わせとしてまとめて配置されており、
また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報である付帯情報が表示されるグラフィックス情報表示単位毎に記録され、
さらに、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスクにおいて、
2次元映像を再生する場合は、前記映像データの記録領域を再生する際、前記副映像をジャンプし、前記主映像情報ブロックと前記グラフィックスデータが配置されているグラフィックスデータ領域を再生するとともに、
立体映像を再生する場合は、前記主映像情報ブロックと前記差分圧縮を行った前記副映像情報ブロックの両方と前記グラフィックスデータ領域を再生するとともに、さらに前記映像付帯情報記録領域における前記グラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報と、前記テーブル情報に格納された前記映像情報ブロックが主映像情報ブロックか副映像情報ブロックかの3D映像付帯情報を再生する事で、
前記映像情報ブロックにおける前記差分圧縮が行われた副映像情報ブロックをデコードし、同期表示を行うことで立体表現された視差映像となる主映像と副映像に分離するとともに、
前記分離された映像情報において、グラフィックスの奥行き情報により視差をつけた立体的なグラフィック情報を前記視差映像に重ねて表示する光ディスクの映像情報再生方法。
A method for reproducing video information on an optical disc on which a stereoscopic video using parallax consisting of a left-eye video and a right-eye video is recorded,
Information recorded on the optical disc is
One of the left-eye video and the right-eye video is the main video, and the main video is an I picture that is data-compressed within a frame, and a P-picture that is data-compressed by adding motion compensation using the I picture in the forward direction in time. And a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the longitudinal direction in time,
Further, the sub-video that is the other of the main video is configured as a digital sub-video information block that is further differentially compressed using motion detection as sub-video information corresponding to a picture of the main video,
The main video information block and the further compressed sub video information block are alternately arranged in time for each video information block on the optical disc,
Further, the graphics data related to the main video information block and the sub video information block are collectively arranged as a combination with respect to the video data of the video information block,
In addition, the video ancillary related to the video information provided in two areas on the optical disc, which are different from the main video information block and the sub-video information block, and on the inner peripheral side and the outer peripheral side of the optical disc. In the information recording area, a graphics information display unit in which auxiliary information which is depth information for designating the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block is displayed Recorded every time,
Further, in the video supplementary information recording area, a recording area of table information consisting of supplementary information related to the video information block in the video information block unit is secured, and the video information block is a main video information block or a 3D video. In the optical disc in which the 3D video supplementary information indicating the sub video information block is recorded in the table information area,
When playing back 2D video, when playing back the video data recording area, the sub-picture is jumped to play back the graphics data area where the main video information block and the graphics data are arranged. ,
When playing back a stereoscopic video, both the main video information block and the sub-video information block subjected to the differential compression and the graphics data area are played back, and the graphics information in the video ancillary information recording area is further reproduced. By reproducing auxiliary information including depth information specifying the pop-up or depth of the image and 3D video auxiliary information indicating whether the video information block stored in the table information is a main video information block or a sub-video information block,
The sub-picture information block in which the differential compression is performed in the video information block is decoded and separated into a main picture and a sub-picture that are stereoscopically represented by performing synchronous display,
A method for reproducing video information on an optical disc, wherein, in the separated video information, stereoscopic graphic information with parallax added by graphics depth information is displayed superimposed on the parallax video.
左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、
さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、
前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、
前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータについては、前記映像情報ブロックの映像データの組み合わせとしてまとめて配置されるよう記録データを生成し、
また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報が表示するグラフィックス情報表示単位毎に記録され、
また、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスクを再生する光ディスク装置において、
前記光ディスクから記録データを再生するための光ディスクドライブと、
前記光ディスクから交互に配置された前記主映像と前記副映像とを前記付帯情報の前記3D映像付帯情報に基づいて抽出分離するためのシステムデコード手段と、
前記抽出分離された主映像情報ブロックをデコードするビデオデコード手段と、
前記主映像の他方である前記抽出分離され差分圧縮された副映像を主映像の動きベクトルを用いてデコードする第二のビデオデコード手段と、
グラフィックスデータを生成するためのOSD生成手段と、
前記生成されたグラフィックスデータにおいて前記光ディスクドライブから再生された前記付帯情報にある前記奥行き情報に基づき、前記グラフィックスデータに視差をあたえ立体的なグラフィックスデータを生成するOSD奥行き生成手段と、
前記立体的なグラフィックスデータを前記立体映像に重ね合わせるブレンディング手段とを有する映像情報再生装置。
One of the left-eye video and the right-eye video is the main video, and the main video is an I picture that is data-compressed within a frame, and a P-picture that is data-compressed by adding motion compensation using the I picture in the forward direction in time. And a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the longitudinal direction in time,
Further, the sub-video that is the other of the main video is configured as a digital sub-video information block that is further differentially compressed using motion detection as sub-video information corresponding to a picture of the main video,
The main video information block and the further compressed sub video information block are alternately arranged in time for each video information block on the optical disc,
For the graphics data related to the main video information block and the sub-video information block, record data is generated so as to be arranged together as a combination of video data of the video information block,
In addition, the video ancillary related to the video information provided in two areas on the optical disc, which are different from the main video information block and the sub-video information block, and on the inner peripheral side and the outer peripheral side of the optical disc. In each information recording area, each graphics information display unit in which auxiliary information including depth information for specifying the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block is displayed. Recorded in
In addition, in the video incidental information recording area, a recording area for table information including auxiliary information related to the video information block in the video information block unit is secured, and the video information block is a main video information block or a 3D video. In an optical disc apparatus for reproducing an optical disc in which 3D video supplementary information indicating a sub-picture information block is recorded in the table information area,
An optical disk drive for reproducing recorded data from the optical disk;
System decoding means for extracting and separating the main video and the sub video alternately arranged from the optical disc based on the 3D video auxiliary information of the auxiliary information;
Video decoding means for decoding the extracted main video information block;
Second video decoding means for decoding, using the motion vector of the main video, the extracted and differentially compressed sub-video that is the other of the main video;
OSD generation means for generating graphics data;
OSD depth generation means for generating stereoscopic graphics data by giving a parallax to the graphics data based on the depth information in the auxiliary information reproduced from the optical disc drive in the generated graphics data;
And a blending unit for superimposing the stereoscopic graphics data on the stereoscopic video.
左目映像と右目映像とからなる視差を用いた立体映像を光ディスクに記録する映像情報記録装置であって、
前記映像情報記録装置は、
左目映像と右目映像のいずれか一方を主映像として、本主映像においてフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックを生成するビデオエンコード手段と、
前記主映像の他方である副映像が、前記主映像のピクチャに対応する副映像情報として、前記主映像との間で動き検出を用いてさらに差分圧縮を行い、前記主映像情報ブロックに比し映像データ量を削減した副映像のデジタル副映像情報ブロックを生成する第二のビデオエンコード手段と、
前記主映像情報ブロックと前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるよう、前記主映像情報ブロックと前記副映像情報ブロックの映像データを交互に並び替えを行うとともに、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータも前記映像情報ブロックの映像データの組み合わせとしてまとめて配置されるようにデータを生成するためのフォーマットエンコード手段及びバッファメモリ手段と、
グラフィックス情報を生成するOSDエンコード手段と、
前記光ディスクにデータを書き込むためのデータ変調手段および光ヘッドを有するとともに、
さらに前記フォーマットエンコード手段が、
前記立体映像情報の記録時に、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域に対し、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報を含む付帯情報を、表示するグラフィックス情報表示単位毎に記録するとともに、前記映像付帯情報記録領域に対し、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報を記録する機能を有し、
映像データ量を削減した副映像情報を含む立体映像情報と、立体的なグラフィックス情報とを前記光ディスクに記録する映像情報記録装置。
A video information recording apparatus for recording a stereoscopic video using parallax consisting of a left-eye video and a right-eye video on an optical disc,
The video information recording device comprises:
Either the left-eye image or the right-eye image is used as the main image, and the I picture that is data-compressed within the frame in the main image and the P-picture that is data-compressed by adding motion compensation by the I picture in the forward direction in time And a video encoding means for generating a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the longitudinal direction in time,
The sub-picture, which is the other of the main pictures, is further subtracted using motion detection as sub-picture information corresponding to the picture of the main picture using motion detection, and compared with the main picture information block. A second video encoding means for generating a digital sub-picture information block of a sub-picture with a reduced amount of video data;
The video data of the main video information block and the sub video information block are alternately arranged so that the main video information block and the sub video information block are alternately arranged on the optical disc for each video information block. A format encoding unit for rearranging and generating data so that graphics data related to the main video information block and the sub video information block are also arranged as a combination of video data of the video information block And buffer memory means;
OSD encoding means for generating graphics information;
Having data modulation means and an optical head for writing data to the optical disc;
Further, the format encoding means includes
The video provided at the time of recording the stereoscopic video information, in the two areas on the inner side and the outer side of the optical disc that are different from the main video information block and the sub-video information block in the optical disc. With respect to the video incidental information recording area related to information, incidental information including depth information that specifies the pop-up or depth of graphics information displayed together with the stereoscopic video in the main video information block and the sub-video information block, Recording is performed for each graphic information display unit to be displayed, and a recording area for table information including auxiliary information regarding the video information block in the video information block unit is secured in the video additional information recording area, and the video 3 indicating whether the information block is a main video information block or a sub-video information block that is 3D video Has a function of recording video supplementary information,
A video information recording apparatus for recording stereoscopic video information including sub-video information with a reduced video data amount and stereoscopic graphics information on the optical disc.
光ディスクに記録された情報が、
左目映像と右目映像のいずれか一方を主映像として、本主映像はフレーム内でデータ圧縮されたIピクチャと、時間的に前方向の前記Iピクチャによる動き補償を加えてデータ圧縮されたPピクチャと、時間的に前後方向の前記Iピクチャ又は前記Pピクチャによる動き補償を加えてデータ圧縮されたBピクチャとを含むデジタル主映像情報ブロックとして構成されており、
さらに前記主映像の他方である副映像が、前記主映像のピクチャに対応した副映像情報として前記主映像との間で動き検出を用いてさらに差分圧縮されたデジタル副映像情報ブロックとして構成され、
前記主映像情報ブロックとさらに圧縮された前記副映像情報ブロックとが、前記光ディスク上において映像情報ブロック毎に時間的に交互に配置されるとともに、
また、前記主映像情報ブロックと前記副映像情報ブロックに関連するグラフィックスデータが、当該映像情報ブロックの映像データとの組み合わせでまとめて配置されており、
また、前記光ディスク内における前記主映像情報ブロックと前記副映像情報ブロックとは別の領域でかつ前記光ディスクの内周側と外周側の2つの領域に設けられた、前記映像情報に関連する映像付帯情報記録領域において、前記主映像情報ブロックと前記副映像情報ブロックにおける、前記立体映像とともに表示されるグラフィックス情報の飛び出し又は奥行きを指定する奥行き情報である付帯情報が、表示されるグラフィックス情報表示単位毎に記録されており、
さらに、前記映像付帯情報記録領域において、前記映像情報ブロック単位の前記映像情報ブロックに関する付帯情報からなるテーブル情報の記録領域が確保されており、前記映像情報ブロックが主映像情報ブロックか3D映像である副映像情報ブロックかを示す3D映像付帯情報が前記テーブル情報領域に記録された光ディスク。
The information recorded on the optical disc
One of the left-eye video and the right-eye video is the main video, and the main video is an I picture that is data-compressed within a frame, and a P-picture that is data-compressed by adding motion compensation using the I picture in the forward direction in time. And a digital main video information block including a B picture compressed by applying motion compensation by the I picture or the P picture in the longitudinal direction in time,
Further, the sub-video that is the other of the main video is configured as a digital sub-video information block that is further differentially compressed using motion detection as sub-video information corresponding to a picture of the main video,
The main video information block and the further compressed sub video information block are alternately arranged in time for each video information block on the optical disc,
In addition, graphics data related to the main video information block and the sub-video information block are arranged in combination with video data of the video information block,
In addition, the video ancillary related to the video information provided in two areas on the optical disc, which are different from the main video information block and the sub-video information block, and on the inner peripheral side and the outer peripheral side of the optical disc. In the information recording area, in the main video information block and the sub-video information block, additional information which is depth information for designating the pop-up or depth of graphics information displayed together with the stereoscopic video is displayed. It is recorded for each unit,
Further, in the video supplementary information recording area, a recording area of table information consisting of supplementary information related to the video information block in the video information block unit is secured, and the video information block is a main video information block or a 3D video. An optical disc in which 3D video supplementary information indicating a sub video information block is recorded in the table information area.
JP2012009710A 2012-01-20 2012-01-20 Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, optical disc Expired - Fee Related JP5383833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012009710A JP5383833B2 (en) 2012-01-20 2012-01-20 Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, optical disc

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012009710A JP5383833B2 (en) 2012-01-20 2012-01-20 Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, optical disc

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007309084A Division JP2009135686A (en) 2007-11-29 2007-11-29 Stereoscopic video recording method, stereoscopic video recording medium, stereoscopic video reproducing method, stereoscopic video recording apparatus, and stereoscopic video reproducing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013208437A Division JP2014042308A (en) 2013-10-03 2013-10-03 Image reproduction method, image reproduction apparatus, and optical disk

Publications (2)

Publication Number Publication Date
JP2012120220A true JP2012120220A (en) 2012-06-21
JP5383833B2 JP5383833B2 (en) 2014-01-08

Family

ID=46502464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012009710A Expired - Fee Related JP5383833B2 (en) 2012-01-20 2012-01-20 Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, optical disc

Country Status (1)

Country Link
JP (1) JP5383833B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174110A (en) * 1996-07-03 1998-06-26 General Instr Corp Of Delaware Ratio control for stereoscopic digital video encoding
JPH11261943A (en) * 1998-03-13 1999-09-24 Matsushita Electric Ind Co Ltd Optical disk medium, video recording and reproducing device, and its optical disk management recording system
JPH11289555A (en) * 1998-04-02 1999-10-19 Toshiba Corp Stereoscopic video display device
JP2000270347A (en) * 1999-03-17 2000-09-29 Sharp Corp Recorder and monitor system using the recorder
JP2001016550A (en) * 1999-04-29 2001-01-19 Thomson Licensing Sa Method for controlling presentation of presentation data unit, digital video system and method for providing sequence of digital encoded video data unit
JP2001160945A (en) * 1999-09-20 2001-06-12 Matsushita Electric Ind Co Ltd Optical disk recorder suitable for seamless reproduction, reproducing device and recording method
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
WO2004071102A1 (en) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. Three-dimensional video providing method and three-dimensional video display device
JP2005094168A (en) * 2003-09-12 2005-04-07 Sharp Corp File structure, image recording apparatus and image reproducing apparatus employing the same
JP2007166651A (en) * 1996-02-28 2007-06-28 Matsushita Electric Ind Co Ltd Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166651A (en) * 1996-02-28 2007-06-28 Matsushita Electric Ind Co Ltd Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
JPH10174110A (en) * 1996-07-03 1998-06-26 General Instr Corp Of Delaware Ratio control for stereoscopic digital video encoding
JPH11261943A (en) * 1998-03-13 1999-09-24 Matsushita Electric Ind Co Ltd Optical disk medium, video recording and reproducing device, and its optical disk management recording system
JPH11289555A (en) * 1998-04-02 1999-10-19 Toshiba Corp Stereoscopic video display device
JP2000270347A (en) * 1999-03-17 2000-09-29 Sharp Corp Recorder and monitor system using the recorder
JP2001016550A (en) * 1999-04-29 2001-01-19 Thomson Licensing Sa Method for controlling presentation of presentation data unit, digital video system and method for providing sequence of digital encoded video data unit
JP2001160945A (en) * 1999-09-20 2001-06-12 Matsushita Electric Ind Co Ltd Optical disk recorder suitable for seamless reproduction, reproducing device and recording method
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
WO2004071102A1 (en) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. Three-dimensional video providing method and three-dimensional video display device
JP2005094168A (en) * 2003-09-12 2005-04-07 Sharp Corp File structure, image recording apparatus and image reproducing apparatus employing the same

Also Published As

Publication number Publication date
JP5383833B2 (en) 2014-01-08

Similar Documents

Publication Publication Date Title
US10951876B2 (en) Stereoscopic video reproducing method, stereoscopic video reproducing apparatus and optical disc
JP5274359B2 (en) 3D video and audio recording method, 3D video and audio playback method, 3D video and audio recording device, 3D video and audio playback device, 3D video and audio recording medium
JP5627860B2 (en) 3D image distribution system, 3D image distribution method, 3D image distribution device, 3D image viewing system, 3D image viewing method, 3D image viewing device
TWI517643B (en) Entry points for 3d trickplay
JP5377589B2 (en) Reproduction method, reproduction apparatus, and optical disc
JP6016860B2 (en) 3D image distribution system, 3D image distribution method, 3D image distribution apparatus
JP6585199B2 (en) Video playback method and video playback apparatus
JP6280260B2 (en) Video playback method, video playback device, and optical disc
JP6109371B2 (en) Video playback method, video playback device, and optical disc
JP6732079B2 (en) Video playback method
JP6049794B2 (en) Video playback method, video playback device, and optical disc
JP5383833B2 (en) Video information recording method, video information reproducing method, video information recording apparatus, video information reproducing apparatus, optical disc
JP2014042308A (en) Image reproduction method, image reproduction apparatus, and optical disk
JP2016015766A (en) Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131001

R150 Certificate of patent or registration of utility model

Ref document number: 5383833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees