JP2006140618A - Three-dimensional video information recording device and program - Google Patents

Three-dimensional video information recording device and program Download PDF

Info

Publication number
JP2006140618A
JP2006140618A JP2004326799A JP2004326799A JP2006140618A JP 2006140618 A JP2006140618 A JP 2006140618A JP 2004326799 A JP2004326799 A JP 2004326799A JP 2004326799 A JP2004326799 A JP 2004326799A JP 2006140618 A JP2006140618 A JP 2006140618A
Authority
JP
Japan
Prior art keywords
video
information
recording
data
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004326799A
Other languages
Japanese (ja)
Inventor
Takayuki Sugawara
隆幸 菅原
Shinji Nakamura
伸司 中村
Kunio Yamada
邦男 山田
Akinari Suehiro
晃也 末廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004326799A priority Critical patent/JP2006140618A/en
Publication of JP2006140618A publication Critical patent/JP2006140618A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional video information recording device and a program capable of efficiently and functionally reproducing both two-dimensional video and three-dimensional video. <P>SOLUTION: Depth information called a differential pack (D_PACK) 12 is packed and MPEG multiplexed in a format conforming with the DVD video standards to obtain a format in which three-dimensional video can be output by using the differential pack 12 and two-dimensional video being normal as the DVD video standards can be output when the differential pack is not used. Further, the depth information is described in a format which conforms with the DVD video standards and linked to DVD-video zone20 and DVD-others Zone21 to record the three-dimensional video and two-dimensional video compatibly with the DVD video standards. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、3次元映像情報の記録再生を、2次元映像情報と互換を保って好適に実現する3次元映像情報記録装置及びプログラムに関する。   The present invention relates to a 3D video information recording apparatus and program that preferably realize recording and reproduction of 3D video information while maintaining compatibility with 2D video information.

従来、例えば特許文献1には、対象物体に関するステレオ画像の相対応する両画素点間を結ぶエピポーラ線の方向とその直交する方向に関して両方向にそれぞれ相対応する両画素点を含むように画面上の2次元探索を行って視差ベクトルを求め、対象物体までの距離を計算する方法が開示されている。このような奥行きを抽出する方法により、立体画像表示に必要な奥行き情報を得ることが可能となってきている。   Conventionally, for example, Patent Document 1 discloses that on the screen, both the pixel points corresponding to each other in both directions with respect to the direction of the epipolar line connecting the corresponding pixel points of the stereo image related to the target object and the direction orthogonal thereto are included. A method of calculating a distance to a target object by performing a two-dimensional search to obtain a disparity vector is disclosed. With such a method for extracting depth, it has become possible to obtain depth information necessary for stereoscopic image display.

また、特許文献2においては、2眼立体映像のためのデータを、メインデータとしては従来の映像を、もう片方の視差画像をMPEGのプライベートストリーム、ユーザーエリアに補助データとして記録することで、2眼立体の映像データを記録する方法が開示されている。
特開2000−28355号公報 特開平9−327041号公報
In Patent Document 2, data for binocular stereoscopic video is recorded as main data, conventional video is recorded as the other data, and the other parallax image is recorded as MPEG private stream and auxiliary data in the user area. A method for recording eye stereoscopic video data is disclosed.
JP 2000-28355 A Japanese Patent Laid-Open No. 9-327041

しかし、特許文献2に開示された方法では、補助データとして記録した画像は、メインに記録した画像からの差分データとして予測符号化されることなどから、片眼の画像の画質が良くなるという問題があり、シーンによって交互に切り替えるなどの工夫方法も開示されているが、本質的な改善とはいえなかった。   However, in the method disclosed in Patent Document 2, since the image recorded as auxiliary data is predictively encoded as difference data from the image recorded in the main, the image quality of one-eye image is improved. There is also a device method such as switching alternately depending on the scene, but it was not an essential improvement.

従来、空間を表現できる立体映像技術で表示再現できるコンテンツの立体的な映像の再生を、所謂DVDビデオ規格に互換性を持った状態で記録して、再生器で切り替えて、効率的かつ機能的に2次元映像と3次元映像の双方の再生をすることができる装置がなく、2次元映像と3次元映像の双方の再生を可能とする装置が要望されていた。   Conventionally, 3D video playback of content that can be displayed and reproduced by 3D video technology that can express space is recorded in a state compatible with the so-called DVD video standard, and is switched by a playback device for efficient and functional However, there is no device capable of reproducing both 2D video and 3D video, and there has been a demand for a device capable of reproducing both 2D video and 3D video.

そこで本発明は、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とする3次元映像情報記録装置及びプログラムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a 3D video information recording apparatus and program capable of efficiently and functionally reproducing both 2D video and 3D video.

本発明の3次元映像情報記録装置は、2次元映像のビデオオブジェクトを記録する手段と、前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を管理情報領域に記録する手段と、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録する手段とを具備することを特徴とする。   The 3D video information recording apparatus according to the present invention comprises means for recording a video object of a 2D video, means for recording management information in which information used for special reproduction of the video object is described in a management information area, And means for multiplexing and recording information relating to the depth for each predetermined unit of each picture of the three-dimensional video as stream data different from the video of the video object.

また、本発明の3次元映像情報記録装置は、2次元映像のビデオオブジェクトを記録する手段と、前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を管理情報領域に記録する手段と、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記管理情報領域とは別の3次元映像用の管理情報領域に記録する手段とを具備することを特徴とする。   Further, the 3D video information recording apparatus of the present invention comprises means for recording a video object of 2D video, means for recording management information in which information used for special reproduction of the video object is described in a management information area, Means for recording information relating to the depth for each predetermined unit of each picture of the 2D video in a management information area for 3D video different from the management information area.

また、本発明の3次元映像情報記録装置は、前記奥行きに関する情報は、2次元映像の各ピクチャの面内の画素差分符号化、予測符号化、ランレングス符号化もしくは2次元映像の各ピクチャの面内の直交変換を用いた符号化の少なくとも一つを用いて符号化をしてから記録をすることを特徴とする。   In the 3D video information recording apparatus according to the present invention, the depth-related information may be obtained by performing pixel difference encoding, predictive encoding, run length encoding, or each picture of the 2D video in the plane of each picture of the 2D video. Recording is performed after encoding using at least one of encoding using in-plane orthogonal transform.

また、本発明の3次元映像情報記録プログラムは、2次元映像のビデオオブジェクトを記録媒体に記録させるステップと、前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を記録媒体の管理情報領域に記録させるステップと、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録媒体に記録させるステップとをコンピュータに実行させることを特徴とする。   The 3D video information recording program according to the present invention includes a step of recording a video object of a 2D video on a recording medium, and management information describing information used for special reproduction of the video object. Causing the computer to execute a step of recording in a region and a step of multiplexing information relating to the depth for each predetermined unit of each picture of the two-dimensional video as stream data different from the video object video and recording it on a recording medium. It is characterized by.

また、本発明の3次元映像情報記録プログラムは、2次元映像のビデオオブジェクトを記録媒体に記録させるステップと、前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を記録媒体の管理情報領域に記録させるステップと、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を記録媒体における前記管理情報領域とは別の3次元映像用の管理情報領域に記録させるステップとをコンピュータに実行させることを特徴とする。   The 3D video information recording program according to the present invention includes a step of recording a video object of a 2D video on a recording medium, and management information describing information used for special reproduction of the video object. And a step of causing the computer to record information on the depth for each predetermined unit of each picture of the 2D video in a management information area for 3D video different from the management information area on the recording medium. It is characterized by making it.

また、本発明の3次元映像情報記録プログラムは、前記奥行きに関する情報は、2次元映像の各ピクチャの面内の画素差分符号化、予測符号化、ランレングス符号化もしくは2次元映像の各ピクチャの面内の直交変換を用いた符号化の少なくとも一つを用いて符号化をしてから記録させることを特徴とする。   In the 3D video information recording program of the present invention, the depth information may be obtained by performing pixel difference encoding, predictive encoding, run length encoding, or each picture of 2D video in the plane of each picture of 2D video. Recording is performed after encoding using at least one of encoding using in-plane orthogonal transform.

本発明の3次元映像情報記録装置は、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を、ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録する手段を有し、所謂DVDビデオ規格に互換性を持った状態で記録することができるので、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   The 3D video information recording apparatus of the present invention has means for multiplexing and recording information relating to the depth for each predetermined unit of each picture of the 2D video as stream data different from the video of the video object, so-called DVD. Since the video standard can be recorded in a compatible state, a system that can efficiently and functionally reproduce both 2D video and 3D video can be constructed.

また、本発明の3次元映像情報記録装置は、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を、管理情報領域とは別の3次元映像用の管理情報領域に記録する手段を有し、所謂DVDビデオ規格に互換性を持った状態で記録することができるので、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   In addition, the 3D video information recording apparatus of the present invention has means for recording information about the depth for each predetermined unit of each picture of the 2D video in a management information area for 3D video different from the management information area. In addition, since recording can be performed with compatibility with the so-called DVD video standard, it is possible to construct a system capable of efficiently and functionally reproducing both 2D video and 3D video.

また、本発明の3次元映像情報記録プログラムによれば、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を、ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録媒体に記録させるので、所謂DVDビデオ規格に互換性を持った状態で記録することができ、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   In addition, according to the 3D video information recording program of the present invention, the information about the depth for each predetermined unit of each picture of the 2D video is multiplexed and recorded on the recording medium as stream data different from the video of the video object. Therefore, it is possible to record in a state compatible with the so-called DVD video standard, and it is possible to construct a system that can efficiently and functionally reproduce both 2D video and 3D video.

また、本発明の3次元映像情報記録プログラムによれば、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を、記録媒体における管理情報領域とは別の3次元映像用の管理情報領域に記録させるので、所謂DVDビデオ規格に互換性を持った状態で記録することができ、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   Further, according to the 3D video information recording program of the present invention, the information about the depth for each predetermined unit of each picture of the 2D video is stored in the management information area for 3D video different from the management information area on the recording medium. Since recording is performed, recording can be performed in a state compatible with the so-called DVD video standard, and a system capable of efficiently and functionally reproducing both 2D video and 3D video can be constructed.

また、奥行き情報をもつことで、2眼方式だけに限定されるなどの再生側の立体表示方式に依存しないでシステムを組むことも可能となる。また、奥行き情報から立体視するデータを作成するので、片眼だけ画像が劣化するなどの立体視における生体に与える影響も少ない安全なシステムを構築できる。   In addition, by having depth information, it is possible to build a system without depending on the stereoscopic display method on the playback side, such as being limited to the twin-lens method. Further, since the data for stereoscopic viewing is created from the depth information, a safe system with little influence on the living body in stereoscopic viewing such as an image deterioration of only one eye can be constructed.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施例1)
本発明の3次元映像情報記録装置及びプログラムの実施例1を図1乃至図9に基づいて説明する。図1は本発明の実施例1の3次元映像情報記録装置の構成を示すブロック図、図2は撮像カメラ2台を用いるシステムの例を示す図、図3は2画面の視差を求めるためのエピポーラ拘束条件の説明図、図4は奥行き情報とDVDとの互換フォーマット説明図、図5はMPEGが適用される符号化装置の構成を示すブロック図、図6は図5に示す符号化装置で符号化された符号化データを復号する復号化装置の構成を示すブロック図、図7−1〜図7−7はMPEGのビデオストリームビデオレイヤの説明表、図8はMPEGの多重化トランスポートストリームシステムレイヤの説明表、図9は図1に示す3次元映像情報記録装置を使用した3次元映像情報記録プログラムを示すフローチャートである。
Example 1
A first embodiment of a 3D video information recording apparatus and program according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a configuration of a 3D video information recording apparatus according to a first embodiment of the present invention, FIG. 2 is a diagram showing an example of a system using two imaging cameras, and FIG. 3 is for obtaining parallax of two screens 4 is an explanatory diagram of epipolar constraint conditions, FIG. 4 is an explanatory diagram of a format compatible with depth information and DVD, FIG. 5 is a block diagram showing a configuration of an encoding apparatus to which MPEG is applied, and FIG. 6 is an encoding apparatus shown in FIG. 7 is a block diagram showing the configuration of a decoding apparatus that decodes encoded data, FIGS. 7-1 to 7-7 are explanatory tables of MPEG video streams and video layers, and FIG. 8 is an MPEG multiplexed transport stream. FIG. 9 is a flowchart showing a 3D video information recording program using the 3D video information recording apparatus shown in FIG.

図1に示すように、本実施例の3次元映像情報記録装置は、対象物体についての左画像及び右画像を撮像する左右一対の撮像カメラ1A及び1Bと、撮像カメラ1Aまたは1Bからの2次元画像等が入力され、画像圧縮を行うビデオ圧縮器2と、撮像カメラ1A及び1Bで撮像した左画像及び右画像から視差ベクトルを抽出する視差ベクトル抽出器3と、視差ベクトルの大きさを計算し、奥行き情報を奥行き情報フォーマット器5に出力する奥行き距離算出器4と、奥行き情報をフォーマット化する奥行き情報フォーマット器5と、ビデオ圧縮器2で圧縮された奥行き情報を多重化する情報多重化器6と、多重化された情報を記録媒体8に記録する記録器7と、装置に設けられた各部を制御する制御部9とを備える。   As shown in FIG. 1, the 3D video information recording apparatus according to the present embodiment includes a pair of left and right imaging cameras 1A and 1B that capture a left image and a right image of a target object, and a two-dimensional image from the imaging camera 1A or 1B. A video compressor 2 that receives an image and the like and compresses the image, a disparity vector extractor 3 that extracts a disparity vector from the left image and the right image captured by the imaging cameras 1A and 1B, and a size of the disparity vector are calculated. Depth information calculator 4 that outputs depth information to depth information formatter 5, depth information formatter 5 that formats depth information, and information multiplexer that multiplexes depth information compressed by video compressor 2 6, a recorder 7 that records the multiplexed information on the recording medium 8, and a controller 9 that controls each unit provided in the apparatus.

図1に示す3次元映像情報記録装置において、まず、左右一対の撮像カメラ1A及び1Bにより撮像された対象物体についての左画像Pl及び右画像Prは視差ベクトル抽出器3において、特開平9−33249号公報に開示されている相関関数などの評価関数に従って、画素毎の対応付けが行われる。   In the 3D video information recording apparatus shown in FIG. 1, first, a left image Pl and a right image Pr of a target object imaged by a pair of left and right imaging cameras 1A and 1B are obtained by a parallax vector extractor 3 in Japanese Patent Laid-Open No. 9-33249. Correspondence for each pixel is performed in accordance with an evaluation function such as a correlation function disclosed in the publication.

ここで、2台の撮像カメラ1A及び1Bはその光軸が同一X−Z平面上に含まれるように配置される。正しく配置される限り、対応点の探索はエピポーラ線である走査線上のみ行えばよいが、実際には走査線上に1画素分も誤差なく配置されていることはむしろ少ない。そこで、左画像Pl及び右画像Prは視差ベクトル抽出器3でエピポーラ線方向である水平方向と、ある程度の垂直方向の視差ベクトルサーチ計算を行う。   Here, the two imaging cameras 1A and 1B are arranged so that their optical axes are included in the same XZ plane. As long as they are correctly arranged, the corresponding points need only be searched for on the scanning line which is an epipolar line, but in reality, it is rather rare that one pixel is arranged on the scanning line without any error. Therefore, the parallax vector extractor 3 performs parallax vector search calculation in the horizontal direction that is the epipolar line direction and a certain degree of vertical direction in the left image Pl and the right image Pr.

エピポーラ線方向の計算方法を、図2及び図3を参照して説明する。2台の撮像カメラ1A及び1Bは、図2に示すように対象物体11に対して目の距離だけ離して並行に置き、得られるその2枚の画像に対して視差ベクトルを抽出し、奥行き情報を計算する。   A method of calculating the epipolar line direction will be described with reference to FIGS. As shown in FIG. 2, the two imaging cameras 1 </ b> A and 1 </ b> B are placed in parallel with a distance of the eye away from the target object 11, and a parallax vector is extracted from the obtained two images to obtain depth information. Calculate

例えば図3に示すように、予め判別されている対応点、もしくは非常に判別しやすい特徴点が、左画像Plには点R(Xl,Yl)に、右画像Prには点S(Xr,Yr)に存在していたとする。この2点R,Sを直線で結ぶことによりエピポーラ線Epの方向が求められる。   For example, as shown in FIG. 3, corresponding points that have been discriminated in advance or feature points that are very easy to discriminate are shown as a point R (Xl, Yl) in the left image Pl and a point S (Xr, Y1) in the right image Pr. Yr). The direction of the epipolar line Ep is obtained by connecting these two points R and S with a straight line.

ここでは、エピポーラ線Epの方向はX軸方向線にほぼ平行であるから、基本的には水平の探索で求められる。例えば水平4画素垂直2画素の小ブロックの画素の差和や、差の2乗和などを評価パラメータとして、最小値になる位置をXの位置で求める。カメラに垂直方向の設置誤差が考えられる場合には、エピポーラ線Epから角度θだけ傾斜していると仮定して水平探索範囲とTanθの積で計算される程度の垂直方向の探索範囲拡大もやむを得ない。   Here, since the direction of the epipolar line Ep is substantially parallel to the X-axis direction line, it is basically obtained by a horizontal search. For example, the position of the minimum value is obtained at the position X by using the difference sum of the pixels of a small block of 4 horizontal pixels and 2 vertical pixels, or the square sum of the differences as an evaluation parameter. If there is a possibility of vertical installation error in the camera, it is unavoidable to expand the vertical search range to the extent calculated by the product of the horizontal search range and Tanθ, assuming that the camera is inclined by the angle θ from the epipolar line Ep. Absent.

設定された探索範囲内で探索を行い、探索は例えば左画像上の点R(Xl,Yl)と右画像上の点S(Xr,Yr)が対応した場合、点R(Xl,Yl)における視差ベクトルをV(Xl−Xr,Yl−Yr)と表す。このような視差ベクトルVを、左画像上のすべてのマクロブロックについて求める。この処理を画面全体に渡って行い、最終的に選択された視差ベクトルVを奥行き距離算出器4へ出力する。   A search is performed within the set search range. For example, when the point R (Xl, Yl) on the left image corresponds to the point S (Xr, Yr) on the right image, the search is performed at the point R (Xl, Yl). The disparity vector is represented as V (X1-Xr, Y1-Yr). Such a disparity vector V is obtained for all macroblocks on the left image. This process is performed over the entire screen, and the finally selected disparity vector V is output to the depth distance calculator 4.

奥行き距離算出器4は、視差ベクトルVの大きさを計算し、例えば水平4画素垂直2画素の小ブロックと設定して探索し、位置を求める。得られた水平位置、垂直位置、奥行き方向を(X,Y,Z)として奥行き情報フォーマット器5へ出力する。   The depth distance calculator 4 calculates the magnitude of the parallax vector V, searches for a small block of, for example, horizontal 4 pixels and vertical 2 pixels, and obtains the position. The obtained horizontal position, vertical position, and depth direction are output to the depth information formatter 5 as (X, Y, Z).

奥行き情報フォーマット器5では、小ブロックの中の奥行き情報を画素に展開する。小ブロックの画素はすべて同じ奥行き値としても良いし、隣り合う奥行きデータとの間で、わずかに滑らかに繋ぐような処理(例えばローパスフィルターなどを施す)をしても良い。画像1枚につき、左上から右下へラスター順番に画素の奥行きデータを並べてフォーマット化する。   The depth information formatter 5 expands the depth information in the small block into pixels. The pixels of the small blocks may all have the same depth value, or may be processed so as to be slightly smoothly connected to adjacent depth data (for example, a low pass filter or the like is applied). For each image, the pixel depth data is arranged in the raster order from the upper left to the lower right and is formatted.

図4にDVDビデオ規格の概略のフォーマット例を示す。詳細は後述するが、ここではディファレンシャルパック(D_PACK)という奥行き情報を構成する2kBのパックデータの中身を説明する。   FIG. 4 shows a schematic format example of the DVD video standard. Although details will be described later, the contents of pack data of 2 kB constituting depth information called differential pack (D_PACK) will be described here.

ディファレンシャルパック(D_PACK)12は複数集めると1フレームごとのデータになる。フレームレイヤ13の始めにはスタートコード(StartCode)14があり、例えば16進で000001FFから始まるようにする。これは後述するデータ符号化に対して、ランレングス符号化や離散コサイン変換(DCT)や可変長符号化器(VLC)を用いてMPEGのように符号化する場合でも、スタートコード14はその体系のデータとは区別できるよう特殊なデータを選んで作成してある。   When a plurality of differential packs (D_PACK) 12 are collected, data for each frame is obtained. There is a start code (StartCode) 14 at the beginning of the frame layer 13, for example, starting from 000001FF in hexadecimal. This is because the start code 14 is a system for encoding data such as MPEG using run length coding, discrete cosine transform (DCT), or variable length coder (VLC) as compared with data coding described later. Special data is selected and created so that it can be distinguished from other data.

スタートコード14の後には、原理的には、以下のような4通りが考えられる。(1)各ピクセルの奥行き情報8ビットをラスター順番で記述する。(2)各ピクセルの値が同じ値を示す場合は、いくつ続いたかのラン長を7ビットで記述してからその値を示す。(3)各ピクセルを8ビットのグレースケール画像と見立てて、MPEGのIピクチャ画像と同じように符号化する。ただしこの場合には色信号がないので、MPEGの符号化におけるマクロブロック(MB)の中身は6個の8×8のDCTブロックを使用するのに対して、本発明ではY信号の4つのみとするように符号化する。(4)上記MPEGの符号化に加えてIピクチャ画像だけでなく、PピクチャやBピクチャを用いて符号化する。図4はこのうち(2)を示している。   After the start code 14, in principle, the following four types are conceivable. (1) Describe 8 bits of depth information of each pixel in raster order. (2) When the value of each pixel shows the same value, the run length of how many continues is described in 7 bits and then the value is shown. (3) Each pixel is regarded as an 8-bit grayscale image and is encoded in the same manner as an MPEG I-picture image. However, in this case, since there is no color signal, the contents of the macro block (MB) in MPEG encoding use six 8 × 8 DCT blocks, whereas in the present invention, only four Y signals are used. Is encoded as follows. (4) In addition to the above MPEG encoding, encoding is performed using not only an I picture image but also a P picture and a B picture. FIG. 4 shows (2) of these.

始めのDE15は奥行き情報が有効かどうかを示すもので、このフラッグが有効である場合には1を記述する。1の場合には、後に続く奥行き情報は有効となる。無効である場合には0を記述する。0の場合には後に続く奥行き情報は無効になり、奥行きは全く画素に対して変化がなく、後述するOFFSET値に均一にセットされる。   The first DE 15 indicates whether or not the depth information is valid. If this flag is valid, 1 is described. In the case of 1, the following depth information is valid. If invalid, 0 is described. In the case of 0, the following depth information is invalid, and the depth does not change at all with respect to the pixels, and is set uniformly to an OFFSET value described later.

次のOFFSET16は、奥行き情報のデータに対して−128から+127までの値でOFFSETを付けるものである。OFFSETをかけた後の奥行き情報データが、もし0から255領域を超える奥行き情報になった場合には、適宜リミッターを使用して奥行き情報のデータ幅を8ビットに抑える工夫をする。すなわち、DE15を0としてOFFSET16を0とすると、このフレームの全画素の奥行き情報はたとえ後述するようなフォーマットで何らかの奥行き情報が記述されていたとしても、すべて0とされることになる。   The next OFFSET 16 adds OFFSET to the depth information data with a value from −128 to +127. If the depth information data after applying the OFFSET is depth information exceeding 0 to 255 regions, the data width of the depth information is appropriately reduced to 8 bits using a limiter. That is, if DE15 is set to 0 and OFFSET16 is set to 0, the depth information of all the pixels in this frame is all set to 0 even if some depth information is described in a format described later.

次に、NumOfSkipPixel17で8ビット(1から256までのランレングス)を示し、その後にZP18で奥行き情報を−128から+127までの値で示す。これは、例えば100という奥行きデータを持つ画素が4つ続いたら、100,100,100,100と4回伝送するのではなく、NumOfSkipPixel=4として、次にZP=100とするだけで同様な情報を伝送することができるものである。   Next, 8 bits (run length from 1 to 256) are indicated by NumOfSkipPixel 17, and then depth information is indicated by values from −128 to +127 by ZP18. For example, if four pixels having depth data of 100 continue, instead of transmitting 100, 100, 100, 100 and 4 times, the same information is obtained only by setting NumOfSkipPixel = 4 and then ZP = 100. Can be transmitted.

なお(2)の応用で、隣り合う画素の奥行きデータは非常に似ていることが多いので、差分をとって差分データを上記のように記録することも可能である。奥行き情報がより圧縮されて符号化効率が良くなることが期待される。また、MPEGを用いればより符号化効率が良くなる。   In the application of (2), the depth data of adjacent pixels are often very similar, so it is possible to record the difference data as described above by taking the difference. It is expected that the depth information is further compressed and the encoding efficiency is improved. Further, if MPEG is used, the encoding efficiency is further improved.

ここで簡単にMPEGについて説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2、現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Pictures Expert Group)の略称である。   Here, MPEG will be briefly described. MPEG is the name of an organization that examines video coding standards established in 1988 by ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Standards Meeting Technical Committee 1 / Technical Committee 2, now SC29). It is an abbreviation for “Moving Pictures Expert Group”.

MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準で、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCITT SGXV、現在のITU−T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISO/IEC 11172として成立している。   MPEG1 (MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and is intended for video compression for low transfer rates of JPEG and ISDN video conferences and videophones for the purpose of still image coding. H. It inherits the basic technology of H.261 (CCITT SGXV, standardized by the current ITU-T SG15), and introduces a new technology for storage media. These were established in August 1993 as ISO / IEC 11172.

MPEG2(MPEGフェーズ2)は通信や放送などの多様なアプリケーションに対応できるように汎用標準を目的として、1994年11月ISO/IEC 13818,H.262として成立している。   MPEG2 (MPEG Phase 2) is a general-purpose standard designed to be compatible with various applications such as communication and broadcasting, in November 1994, ISO / IEC 13818, H.264. It is established as 262.

MPEGは幾つかの技術を組み合わせて作成されている。まず、動き補償器で復号化した画像と、入力画像との差分を取ることで時間冗長部分を削減する。   MPEG is created by combining several technologies. First, the time redundant part is reduced by taking the difference between the image decoded by the motion compensator and the input image.

予測の方向は、過去、未来、過去と未来の両方からの3モード存在する。またこれらのモードは16画素×16画素のマクロブロック(MB)ごとに切り替えて使用できる。予測方向は入力画像に与えられたピクチャタイプによって決定される。過去からの予測と、予測をしないでそのマクロブロックを独立で符号化する2モード存在するのがPピクチャである。また未来からの予測、過去からの予測、過去と未来の両方からの予測、独立で符号化するという4モードが存在するのがBピクチャである。そして、すべてのマクロブロックが独立で符号化するのがIピクチャである。   There are three modes of prediction from the past, the future, and both the past and the future. These modes can be switched and used for each macro block (MB) of 16 pixels × 16 pixels. The prediction direction is determined by the picture type given to the input image. There are two modes in which the prediction from the past and the macroblock are independently encoded without prediction are P pictures. The B picture has four modes: prediction from the future, prediction from the past, prediction from both the past and the future, and independent encoding. It is the I picture that all the macroblocks encode independently.

動き補償は、動き領域をマクロブロックごとにパターンマッチングを行ってハーフペル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何処からの予測かを示すMC(Motion Compensation)モードとともにマクロブロックの付加情報として伝送される。   In motion compensation, a motion region is subjected to pattern matching for each macroblock, a motion vector is detected with half-pel accuracy, and prediction is performed after shifting by the amount of motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the macroblock together with an MC (Motion Compensation) mode indicating where the prediction is from.

Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Picture)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が使用される。   A picture from an I picture to a picture before the next I picture is called a GOP (Group Of Picture), and when used in a storage medium or the like, generally about 15 pictures are used.

図5はMPEGが適用される符号化装置の構成を示すブロック図である。この図5において、入力画像信号は演算器41と後述する動き補償予測器50に送られる。   FIG. 5 is a block diagram showing the configuration of an encoding apparatus to which MPEG is applied. In FIG. 5, an input image signal is sent to a calculator 41 and a motion compensation predictor 50 described later.

演算器41では、動き補償予測器50にて復号化した画像信号と入力画像信号との差分が求められ、その差分画像信号がDCT器42に送られる。   The computing unit 41 obtains the difference between the image signal decoded by the motion compensation predictor 50 and the input image signal, and sends the difference image signal to the DCT unit 42.

差分画像信号はDCT器42において直交変換が行われる。DCT(Discrete Cosine Transform)とは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGではマクロブロックを4分割し8×8のDCTブロックに対して、2次元DCTを行う。一般にビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。   The difference image signal is subjected to orthogonal transformation in the DCT unit 42. DCT (Discrete Cosine Transform) is an orthogonal transform that discretely transforms an integral transformation with a cosine function as an integral kernel into a finite space. In MPEG, a macroblock is divided into four and two-dimensional DCT is performed on an 8 × 8 DCT block. In general, a video signal has many low-frequency components and few high-frequency components. Therefore, when DCT is performed, coefficients are concentrated in a low frequency.

DCTされた画像データ(DCT係数)は量子化器43で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で除算する。デコーダーで逆量子化するときは量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。   The quantized image data (DCT coefficient) subjected to DCT is quantized by the quantizer 43. Quantization is a quantized value obtained by multiplying a value obtained by weighting the 8 × 8 two-dimensional frequency called the quantization matrix with a visual characteristic and a value called a quantization scale that is a scalar multiplication of the whole, and the DCT coefficient is quantized. Divide by value. When inverse quantization is performed by the decoder, a value approximating the original DCT coefficient is obtained by multiplying by the quantized value.

量子化されたデータはVLC器44で可変長符号化される。量子化された値のうち直流(DC)成分は予測符号化の1つであるDPCM(differential pulse code modulation)を使用する。また交流(AC)成分は低域から高域にジグザグスキャン(zigzag scan)を行い、ゼロのラン長及び有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。   The quantized data is variable length encoded by the VLC unit 44. Of the quantized values, the direct current (DC) component uses DPCM (differential pulse code modulation) which is one of predictive coding. The alternating current (AC) component is zigzag scanned from low to high, and a zero run length and effective coefficient value are taken as one event. Huffman encoding is performed.

可変長符号化されたデータは一時バッファ45に蓄えられ、所定の転送レートで符号化データとして出力される。また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器51に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器43にフィードバックして量子化スケールを調整することで符号量制御される。   The variable-length encoded data is stored in the temporary buffer 45 and output as encoded data at a predetermined transfer rate. The generated code amount for each macroblock of the output data is transmitted to the code amount controller 51, and the error code amount with respect to the generated code amount with respect to the target code amount is fed back to the quantizer 43 to quantize the scale. The amount of code is controlled by adjusting.

量子化された画像データは逆量子化器46にて逆量子化、逆DCT器47にて逆DCTされ、一時画像メモリ49に蓄えられた後、動き補償予測器50において、差分画像を計算するためのリファレンスの復号化画像として使用される。   The quantized image data is inversely quantized by the inverse quantizer 46, inversely DCTed by the inverse DCT unit 47, and stored in the temporary image memory 49. Then, the motion compensated predictor 50 calculates a difference image. Used as a reference decoded image.

図6は図5に示す符号化装置で符号化された符号化データを復号する復号化装置の構成を示すブロック図である。この図6において、符号化されたストリームはバッファ52にバッファリングされ、バッファ52からのデータはVLD器53に入力される。   FIG. 6 is a block diagram showing a configuration of a decoding apparatus that decodes encoded data encoded by the encoding apparatus shown in FIG. In FIG. 6, the encoded stream is buffered in the buffer 52, and the data from the buffer 52 is input to the VLD unit 53.

VLD器53では可変長復号化され、直流(DC)成分および交流(AC)成分を得る。交流(AC)成分データは低域から高域にジグザグスキャンの順で8×8のマトリックスに配置する。このデータは逆量子化器54に入力され、量子化マトリックスにて逆量子化される。逆量子化されたデータは逆DCT器55に入力され、逆DCTされ一時、画像データ(復号化データ)として出力される。   The VLD unit 53 performs variable length decoding to obtain a direct current (DC) component and an alternating current (AC) component. The alternating current (AC) component data is arranged in an 8 × 8 matrix in the zigzag scan order from the low range to the high range. This data is input to the inverse quantizer 54 and is inversely quantized by the quantization matrix. The inversely quantized data is input to the inverse DCT unit 55, inversely DCTed, and temporarily output as image data (decoded data).

また、復号化データは一時、画像メモリ57に蓄えられた後、動き補償予測器58において、差分画像を計算するためのリファレンスの復号化画像として使用される。以上がMPEGの説明である。   The decoded data is temporarily stored in the image memory 57, and then used as a reference decoded image for calculating a difference image in the motion compensation predictor 58. The above is the description of MPEG.

一方、図1に示す本実施例の3次元映像情報記録装置の構成の説明を続けると、前述のような構成で、奥行きデータに128をオフセットして0から255のY信号と見立てて、MPEG圧縮を用いることができる。MPEGのビットストリームのシンタックスでは、図7−6に示すMacroBlock layerの後ろから5行目の(A)に記載した、
for ( i=0; i<6; i++ )
という部分を、本発明では、
for ( i=0; i<4; i++ )
とすることで、マクロブロックをY信号4つのみにすることができる。
On the other hand, if the description of the configuration of the 3D video information recording apparatus of the present embodiment shown in FIG. 1 is continued, with the above-described configuration, 128 is offset into the depth data and is regarded as a Y signal from 0 to 255. Compression can be used. In the syntax of the MPEG bitstream, it is described in (A) on the fifth line from the back of the MacroBlock layer shown in FIG.
for (i = 0; i <6; i ++)
In the present invention,
for (i = 0; i <4; i ++)
By doing so, only four Y signals can be provided for the macroblock.

即ち、次の図7−7に示すBlock layer の10〜14行目の(B)に対応する色差信号の処理部分が省略されることになる。   That is, the color difference signal processing portion corresponding to (B) in the 10th to 14th rows of the block layer shown in FIG. 7-7 is omitted.

一方、撮像カメラ1B(もしくは1A)の画像はビデオ圧縮器2へ出力される。ビデオ圧縮器2では、撮像カメラ1B(もしくは1A)からの2次元画像、奥行き情報フォーマット器5からの奥行き情報が入力され、例えばMPEG規格の画像圧縮が行われる。   On the other hand, the image of the imaging camera 1B (or 1A) is output to the video compressor 2. The video compressor 2 receives the two-dimensional image from the imaging camera 1B (or 1A) and the depth information from the depth information formatter 5, and performs, for example, MPEG standard image compression.

なお、奥行き情報は、MPEGの規定のなかで互換性の取れるような、ユーザーデータ領域やプライベートストリームにて出力する。   The depth information is output in a user data area or a private stream so that compatibility can be obtained in the MPEG regulations.

次に、MPEGの規格に準拠しながら奥行き情報を記録する手段を説明する。このように圧縮された奥行き情報は、前述のように図4に示すディファレンシャルパック(D_PACK)12という、例えば2KBのパック構造にしてMPEG多重化を行って、別のストリームとしてビデオやオーディオとともに多重化しても良いし、図7−4に示すMPEGビットストリームのPicture LayerのUser data領域に記述しても良い。また、フレームレイヤを1つのピクチャのuser dataに記録するようにしても良い。   Next, means for recording depth information while conforming to the MPEG standard will be described. As described above, the compressed depth information is multiplexed with video and audio as another stream by performing MPEG multiplexing in the differential pack (D_PACK) 12 shown in FIG. Alternatively, it may be described in the User data area of the Picture Layer of the MPEG bit stream shown in FIG. Further, the frame layer may be recorded in user data of one picture.

例えばMPEG画像圧縮の規格には、ピクチャレイヤ、GOPレイヤなどにそれぞれユーザーデータ領域が設定されている。これらはMPEGのシンタックスで映像音声とは関係ないデータを埋め込むことのできる所定のエリアとして設定されているuser_data、もしくはprivate_data_byte、もしくはユーザーが任意に設定できるprivate_streamなどのデータパケットに記録する。   For example, in the MPEG image compression standard, user data areas are set in the picture layer, the GOP layer, and the like. These are recorded in a data packet such as user_data or private_data_byte which is set as a predetermined area in which data unrelated to video and audio can be embedded in MPEG syntax, or private_stream which can be arbitrarily set by the user.

例えばMPEG1のビデオにおけるピクチャレイヤは、図7−4に示すように、スライスレイヤの手前で、user_data_start_codeを送った後にuser_dataを8ビット単位で記録することができるような仕組みが定義されている。また、MPEG2などの多重化トランスポートストリームのシステムレイヤにも図8に示すように、transport_private_data_flagに1を立てると、private_dataが存在することを明示することができ、データ長もトランスポートパケットをはみ出さないという制限のもとで、transport_private_data_lengthに設定したデータ長のprivate_dataを送信することができる。   For example, as shown in FIG. 7-4, a picture layer in MPEG1 video defines a mechanism that allows user_data to be recorded in units of 8 bits after sending user_data_start_code before the slice layer. Also, as shown in FIG. 8, in the system layer of the multiplexed transport stream such as MPEG2, when 1 is set in transport_private_data_flag, it can be clearly indicated that private_data exists, and the data length also protrudes from the transport packet. It is possible to send private_data with the data length set in transport_private_data_length under the restriction that there is no such.

これ以外にも、MPEGシステムでユーザー固有のデータを記録する方法は、stream_id にprivate_streamを設定して専用のパケットを宣言することで送信するなど、仕組みは幾つか定義されており、本実施例における奥行き情報はこれらの領域にピクチャ毎記録することができ、どの仕組みを用いても良い。   In addition to this, there are several mechanisms for recording user-specific data in the MPEG system, such as sending private data by declaring a dedicated packet with stream_id set to private_stream. Depth information can be recorded for each picture in these areas, and any mechanism may be used.

MPEG1ビデオのuser_data を用いる例をもう少し詳細に説明する。user_data_start_codeはスライスレイヤの手前で0x000001B2とMPEGでは定義されている。そのコードを送った後に、ユーザーデータエリア内で本発明の認証に用いる関数値の存在を示す、予め一意に識別可能なコードである例えば0x0f0f0f0f2428fdaaのコードを送信する。このコードは他のアプリケーションでuser_dataを使う場合に識別する目的で記録するもので、コードの値は特に意味はない。そのコードの後に図4に示すフレームレイヤ構造をMPEGの1ピクチャ毎にピクチャレイヤにラスター順番に記録する。   An example using MPEG1 video user_data will be described in more detail. user_data_start_code is defined in MPEG as 0x000001B2 before the slice layer. After sending the code, a code of, for example, 0x0f0f0f0f2428fdaa, which is a uniquely identifiable code indicating the presence of the function value used for authentication of the present invention in the user data area, is transmitted. This code is recorded for the purpose of identification when user_data is used in another application, and the value of the code has no particular meaning. After the code, the frame layer structure shown in FIG. 4 is recorded in raster order on the picture layer for each MPEG picture.

このように情報多重化器6によって多重化されたデータは、記録器7によって記録媒体8に記録される。   The data multiplexed by the information multiplexer 6 is recorded on the recording medium 8 by the recorder 7.

次に、本実施例の3次元映像情報記録プログラムを図9に基づいて説明する。図9は図1に示す3次元映像情報記録装置を使用した3次元映像情報記録プログラムを示すフローチャートである。詳細なステップの処理内容は図1に示す3次元映像情報記録装置のブロック図の説明で記したものと同様なので、ここではステップの順番についてのみ簡単に説明する。   Next, the 3D video information recording program of this embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing a 3D video information recording program using the 3D video information recording apparatus shown in FIG. Since the detailed processing contents of the steps are the same as those described in the description of the block diagram of the 3D video information recording apparatus shown in FIG. 1, only the order of the steps will be briefly described here.

まず、ステップS110において、制御部9は、撮像カメラ1A及び1Bからの画像データを視差ベクトル抽出器3へ所定の時間分入力させ、制御部9のメモリーに記憶させるように制御する。また、制御部9は、撮像カメラ1B(もしくは1A)の画像をビデオ圧縮器2へ出力させる。   First, in step S110, the control unit 9 controls the image data from the imaging cameras 1A and 1B to be input to the parallax vector extractor 3 for a predetermined time and stored in the memory of the control unit 9. Further, the control unit 9 causes the image of the imaging camera 1B (or 1A) to be output to the video compressor 2.

次に、ステップS120では、制御部9は、視差ベクトル抽出器3に入力された画像の視差ベクトルを抽出させるように制御する。ここでは前述の図1の説明で記した、エピポーラ線方向である水平方向と、ある程度の垂直方向の視差ベクトルサーチ計算を画像上のすべてのマクロブロックについて求めさせる。この処理を画面全体に渡って行い、最終的に選択された視差ベクトルVを奥行き距離算出器4へ出力させる。   Next, in step S120, the control unit 9 performs control so that the parallax vector of the image input to the parallax vector extractor 3 is extracted. Here, the parallax vector search calculation in the horizontal direction, which is the epipolar line direction, and a certain vertical direction described in the description of FIG. 1 is obtained for all macroblocks on the image. This process is performed over the entire screen, and the finally selected disparity vector V is output to the depth distance calculator 4.

次に、ステップS130では、制御部9は、奥行き距離算出器4にマクロブロックの奥行き距離を計算させるように制御する。即ち、視差ベクトルの大きさを計算させ、例えば水平4画素垂直2画素の小ブロックと設定して探索して位置を求めさせる。そして、得られた水平位置、垂直位置、奥行き方向を(X,Y,Z)として奥行き情報フォーマット器5へ出力させる。   Next, in step S130, the control unit 9 controls the depth distance calculator 4 to calculate the macro block depth distance. That is, the size of the parallax vector is calculated, and for example, the position is determined by searching for a small block of 4 horizontal pixels and 2 vertical pixels. Then, the obtained horizontal position, vertical position, and depth direction are output to the depth information formatter 5 as (X, Y, Z).

次に、ステップS140では、制御部9は、奥行き情報のフォーマット器5に奥行き距離算出器4から送られた奥行き情報を図4に示すフォーマット例のようにフォーマット化させるように制御する。   Next, in step S140, the control unit 9 controls the depth information formatter 5 to format the depth information sent from the depth distance calculator 4 as in the format example shown in FIG.

その後、ステップS150では、制御部9は、ビデオ圧縮器2に撮像カメラ1B(もしくは1A)から入力された2次元画像と、奥行き情報フォーマット器5から入力された奥行き情報を圧縮させるように制御する。   Thereafter, in step S150, the control unit 9 controls the video compressor 2 to compress the two-dimensional image input from the imaging camera 1B (or 1A) and the depth information input from the depth information formatter 5. .

次に、ステップS160では、制御部9は、ビデオ圧縮器2で圧縮された奥行き情報を情報多重化器6によってMPEG多重化させるように制御する。例えば前述のように、図4に示すディファレンシャルパック12という、2kBのパック構造にしてMPEG多重化を行って、別のストリームとしてビデオやオーディオとともに多重化させる。   Next, in step S160, the control unit 9 performs control so that the depth information compressed by the video compressor 2 is MPEG-multiplexed by the information multiplexer 6. For example, as described above, a 2 kB pack structure called the differential pack 12 shown in FIG. 4 is used for MPEG multiplexing and multiplexed with video and audio as another stream.

次に、ステップS170では、制御部9は、情報多重化器6で多重化されたデータを記録器7によって所定の単位で記録媒体8に記録させるように制御する。DVDであれば2kBが単位である。   Next, in step S170, the control unit 9 controls the data multiplexed by the information multiplexer 6 to be recorded on the recording medium 8 by the recording unit 7 in a predetermined unit. For a DVD, the unit is 2 kB.

そして、ステップS180では、制御部9は、撮像カメラ1A及び1Bからの入力画像データがまだあるかどうかを判定し、これがある場合(YES)にはステップS110に戻り、これがない場合(NO)には、プログラムを終了する。   In step S180, the control unit 9 determines whether there is still input image data from the imaging cameras 1A and 1B. If there is such data (YES), the control unit 9 returns to step S110, and if this is not present (NO). Ends the program.

このように本実施例の3次元映像情報記録装置及びプログラムによれば、奥行き情報をMPEG1ビデオのユーザーデータ領域に記録するので、ユーザーデータを用いなければ2次元映像が出力され、ユーザーデータを用いれば3次元映像が出力されるフォーマットとなり、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   As described above, according to the 3D video information recording apparatus and program of this embodiment, the depth information is recorded in the user data area of the MPEG1 video. Therefore, if the user data is not used, a 2D video is output and the user data is used. For example, a 3D video is output, and a system that can efficiently and functionally reproduce both 2D video and 3D video can be constructed.

次に、本実施例の3次元映像情報記録装置で3次元映像情報を記録した記録媒体8から3次元映像情報を再生する装置を、図10に基づいて説明する。図10は図1に示す3次元映像情報記録装置で記録媒体に記録した3次元映像情報を再生する3次元映像情報再生装置の構成を示すブロック図である。   Next, an apparatus for reproducing 3D video information from the recording medium 8 on which 3D video information is recorded by the 3D video information recording apparatus of this embodiment will be described with reference to FIG. FIG. 10 is a block diagram showing a configuration of a 3D video information reproducing apparatus for reproducing 3D video information recorded on a recording medium by the 3D video information recording apparatus shown in FIG.

まず、記録媒体8からデータを再生器61にて読み取り、情報分離化器62へ出力する。情報分離化器62では、ビデオ信号と他の信号のパケットを分離し、ビデオ信号をビデオ復号器63に出力する。ビデオ復号器63ではビデオを復号すると同時に、ビデオのピクチャレイヤのユーザーデータを奥行き情報取り出し器64に出力する。   First, data is read from the recording medium 8 by the regenerator 61 and output to the information separator 62. The information separator 62 separates the video signal and other signal packets and outputs the video signal to the video decoder 63. The video decoder 63 decodes the video and simultaneously outputs the user data of the video picture layer to the depth information extractor 64.

そして、奥行き情報取り出し器64ではユーザーデータから、図4に示すフォーマットで記録されている奥行き情報を取り出す。奥行き情報と復号されたビデオ信号は視野変換器65に出力される。   Then, the depth information extractor 64 extracts depth information recorded in the format shown in FIG. 4 from the user data. The depth information and the decoded video signal are output to the view field converter 65.

次に、視野変換器65では、奥行き情報と2次元の復号された画像から、立体画像表示器66の立体表示方式に応じた視差画像生成を行う。   Next, the visual field converter 65 generates a parallax image according to the stereoscopic display method of the stereoscopic image display 66 from the depth information and the two-dimensional decoded image.

なお、図10に示す3次元映像再生装置に設けられた各部は制御部67により制御されている。   Note that each unit provided in the 3D video reproduction apparatus shown in FIG. 10 is controlled by the control unit 67.

視差画像を生成するにはCGにおける座標系の変換方法に視野変換方式を用いる。これは、視点座標系への変換の式によって視点を変えた画像を得るもので、奥行き情報があれば自由な視点で生成することができる。   In order to generate a parallax image, a visual field conversion method is used as a conversion method of a coordinate system in CG. This is to obtain an image in which the viewpoint is changed by the conversion formula to the viewpoint coordinate system, and if there is depth information, it can be generated from any viewpoint.

例えば、視点の座標を(x,y,z)、注視点の座標を(x,y,z)とする。また、視点と注視点間の距離を(x,y,z)とすると、
=x−x
=y−y
=z−z
となる。
For example, the coordinates of the viewpoint (x i, y i, z i), the coordinates of the gazing point (x a, y a, z a) and. If the distance between the viewpoint and the point of gaze is (x f , y f , z f ),
x f = x i −x a
y f = y i −y a
z f = z i -z a
It becomes.

まず、最初に平行移動により原点の位置を動かす。この変換をTとする。Tは単に(−x,−y,−z)だけ平行移動する変換である。 First, the position of the origin is moved by parallel movement. This conversion to T 1. T 1 is a transformation that simply translates (−x a , −y a , −z a ).

次に、回転により座標値の向きを変える。図11に示すように、OからO方向のベクトルはOからz軸のベクトルをまずα角だけy軸に回転させ、次にβ角x軸に回転させる。実際にはOの座標値を動かすので回転方向が逆になり、y軸に−α回転する変換をT、x軸に−β回転する変換をTとする。 Next, the direction of the coordinate value is changed by rotation. As shown in FIG. 11, a vector of O f direction from O a only first α angular vector of the z-axis from O a rotated y-axis, then allowed to rotate in the β angle x-axis. Actually, becomes the direction of rotation reversed so move the coordinates of O f, the conversion to -β rotate transform that -α rotating the y axis T 2, x-axis and T 3.

ここで、αはOをxy平面に投影した足とOとがなす角であるので、

Figure 2006140618
Here, alpha since is angle between foot and O a obtained by projecting the O f the xy plane,
Figure 2006140618

となる。 It becomes.

また、βはO間の長さ(x +y 1/2とO’間の長さyにより、

Figure 2006140618
Moreover, beta by O a O length between f (x f 2 + y f 2) 1/2 and O f O f 'between length y f,
Figure 2006140618

となる。 It becomes.

最後の変換は、xy平面に対してz軸の正方向が手前向きになるような座標系を、z軸の方向を反転させる変換Tを行う。これは単にzを−zにするだけである。 The end of conversion, the positive direction of the z-axis of the coordinate system such that the forward direction, to convert T 4 for reversing the direction of the z-axis relative to the xy plane. This simply sets z to -z.

これらT〜Tの4つの変換マトリクスを掛け合わせると、視点座標の変換マトリクスTは、

Figure 2006140618
When these four transformation matrices T 1 to T 4 are multiplied, the viewpoint coordinate transformation matrix T is
Figure 2006140618

となる。 It becomes.

例えば、立体画像表示器66の立体表示方式がパララックスバリアを用いた2眼式立体表示方式であれば、視距離によって設定できるαをこの式に代入し、βやγは0とすることで、右目用と左目用の視差を持つ画像を生成することができる。   For example, if the stereoscopic display method of the stereoscopic image display 66 is a binocular stereoscopic display method using a parallax barrier, α that can be set according to the viewing distance is substituted into this equation, and β and γ are set to 0. Images with parallax for the right eye and for the left eye can be generated.

また、IP(Integral Photography:インテグラルフォトグラフィー、あるいはインテグラルイメージングともいう)であれば、複数のレンズアレイに対応した要素画像を、そのレンズ位置に対応したカメラで撮像したものを画像の大きさと共に、前記の視点座標の変換マトリクスを用いて計算して生成することができる。このようにして生成した立体画像データを立体画像表示器66へ出力し立体画像再生を行う。   In addition, in the case of IP (Integral Photography), the size of an image obtained by capturing an element image corresponding to a plurality of lens arrays with a camera corresponding to the lens position. At the same time, it can be calculated and generated using the transformation matrix of the viewpoint coordinates. The stereoscopic image data generated in this way is output to the stereoscopic image display 66 to reproduce the stereoscopic image.

ここで、立体画像表示方式のうち代表的なパララックスバリア方式とIP方式とを説明する。   Here, typical parallax barrier methods and IP methods among the stereoscopic image display methods will be described.

パララックスバリアは液晶によって実現することができる。図12はパララックスバリア方式の説明図である。これは、2枚の液晶パネルを積層するもので、一方の液晶パネル71には細いスリット状の開口部があり、その裏側に適当な間隔をおいて他方の液晶パネル72を配置する。液晶パネル72には左右2眼分の画像を交互に配置し、所定の視点からこの開口部を通して見た場合に右目、左目に分離された画像を知覚できるものである。これによって右目、左目に違う画像を入力させることができるので、立体画像として知覚することができる。   The parallax barrier can be realized by liquid crystal. FIG. 12 is an explanatory diagram of the parallax barrier system. This is a stack of two liquid crystal panels. One liquid crystal panel 71 has a thin slit-like opening, and the other liquid crystal panel 72 is arranged on the back side with an appropriate interval. On the liquid crystal panel 72, images for the left and right eyes are alternately arranged, and when viewed through this opening from a predetermined viewpoint, an image separated into the right eye and the left eye can be perceived. As a result, different images can be input to the right eye and the left eye, and can be perceived as a stereoscopic image.

しかしながら、目のピントは常に液晶パネル71のスクリーン上に合わされているにも係わらず、像がこの位置とは違う場所に感じられることから、生理学的な不自然さを伴うことで、ユーザーが疲れやすい、映像酔いし易いなどの問題も指摘されており、近年は4つの立体視の生理的要因((1)両眼視差:ある物体を見る際に、人間の左右の目はそれぞれ違った方向から見る2つの異なる像を捕らえている性質(2)ピント調節:見る対象からの距離の変化に伴って水晶体の厚さをコントロールしてレンズの厚みを変えるような性質(3)輻輳:遠い、近いの変化で眼球が内側に回転したり外側へ回転したりする動きを伴うという性質(4)運動視差:ユーザーが自分で動いたり見る角度を変えたりすることによる像の違いを見る性質)、輻輳調節矛盾(輻輳点とピントのあう位置の矛盾)を満たすような方式も提案されている。   However, even though the eye is always focused on the screen of the liquid crystal panel 71, the image feels different from this position. It has been pointed out that it is easy to get sick and video sickness. In recent years, four stereoscopic physiological factors ((1) binocular parallax: when looking at an object, the left and right eyes of a human being in different directions (2) Focus adjustment: The property of changing the lens thickness by controlling the lens thickness as the distance from the viewing object changes (3) Convergence: Distant The property that the eyeball is accompanied by the movement of the eyeball rotating inward or rotating outward due to a close change (4) Motion parallax: The property of seeing the difference in the image due to the user moving himself or changing the viewing angle) Scheme to meet the convergence adjusting contradiction (inconsistency position to meet the convergence point and focus) has been proposed.

その中でも有望なものとして、Lippmannが1908年に発表した方式がIP方式である。IPは、2次元的に配列したレンズアレイ(フライアイレンズ、蝿の目レンズ、複眼レンズなどともいう)を利用して物体の奥行き情報を取得するものである。   Among them, as a promising method, a method announced by Lippmann in 1908 is an IP method. The IP obtains depth information of an object using a two-dimensionally arranged lens array (also referred to as a fly-eye lens, eyelid lens, compound eye lens, or the like).

1990年代に入ると、従来の写真乾板による記録を電子技術で置き換えることによりIPによる動画を生成する技術が開発され、さらに、屈折率分布レンズアレイ(GRINレンズアレイともいう)とハイビジョンカメラを用いて被写体を撮像して要素画像群を取得しながら、各画像を液晶ディスプレイにリアルタイムに伝送して表示し、フライアイレンズにより空間上に結像することに成功し、IP方式による3次元テレビジョン放送の実現可能性が示された(NHK放送技術研究所「3次元映像の基礎」 オーム社 1995年)。   In the 1990s, a technology for generating moving images by IP was developed by replacing the recording by conventional photographic plates with electronic technology, and using a gradient index lens array (also called GRIN lens array) and a high-vision camera. While capturing a subject and acquiring elemental image groups, each image was transmitted and displayed in real time on a liquid crystal display, and was successfully imaged in space by a fly-eye lens. (NHK Broadcasting Technology Laboratories “Basics of 3D Video” Ohm Corporation 1995).

図13はIP方式の原理の説明図である。図13(a)に示すように、撮影時に微小な要素レンズ73を多数並べて、微小カメラの1画素が1方向の光線の映像を撮影し、再生するときには図13(b)に示すように、微小カメラからの映像をLCD74などで再現し、全部の微小カメラの1点ずつが集合して、全体として1方向から見た再生像をつくる。   FIG. 13 is an explanatory diagram of the principle of the IP method. As shown in FIG. 13A, a large number of minute lens elements 73 are arranged at the time of photographing, and when one pixel of the minute camera shoots and reproduces an image of light in one direction, as shown in FIG. The image from the micro camera is reproduced on the LCD 74 or the like, and one point of each of the micro cameras is gathered to form a reproduction image viewed from one direction as a whole.

微小な要素レンズ73を2次元に並べることで水平垂直の運動視差を作り出すことも可能であり、水平方向に並べれば水平方向のみの視差を持たせることも可能である。   It is possible to create horizontal and vertical motion parallax by arranging minute element lenses 73 two-dimensionally, and it is also possible to have parallax only in the horizontal direction by arranging them in the horizontal direction.

IP方式では複数のレンズを経由して見えた複数の要素画像を、この要素画像を奥行き情報をもとに視点変換にて作成し、その要素画像を配列に並べて、あたかも図13(a)に示す方式で撮像したかのようにLCDへ要素画像配列を表示することで立体視再生を実現する。   In the IP method, a plurality of element images viewed through a plurality of lenses are created by viewpoint conversion based on the depth information, and the element images are arranged in an array, as shown in FIG. Stereoscopic reproduction is realized by displaying the element image array on the LCD as if it were picked up by the method shown.

実際には、図14に示すようにLCD75のIPレンズアレイ76を近接して構成し、2次元映像を見るのと同じような構成で薄いディスプレイとして設計する。   Actually, as shown in FIG. 14, the IP lens array 76 of the LCD 75 is configured close to each other, and is designed as a thin display with a configuration similar to that for viewing a two-dimensional image.

次に、図10に示す3次元映像情報再生装置で3次元映像情報情報を再生する3次元映像情報再生プログラムを、図15に示すフローチャートに基づいて説明する。詳細なステップの処理内容は図10に示す3次元映像情報再生装置のブロック図の説明で記したものと同様なので、ここではステップの順番についてのみ簡単に説明する。   Next, a 3D video information playback program for playing back 3D video information information with the 3D video information playback apparatus shown in FIG. 10 will be described with reference to the flowchart shown in FIG. Since the detailed processing contents of the steps are the same as those described in the description of the block diagram of the 3D video information reproducing apparatus shown in FIG. 10, only the order of the steps will be briefly described here.

まず、ステップS210では、制御部67は、再生器61に記録媒体8から多重化されたデータを読み取らせ、ステップS220では、制御部67は、情報分離化器62によってMPEG分離化を行わせるように制御する。そして、ステップS230では、制御部67は、ビデオ復号器63に分離化された情報からビデオデータをビデオデータ復号化させるように制御する。   First, in step S210, the controller 67 causes the player 61 to read the multiplexed data from the recording medium 8, and in step S220, the controller 67 causes the information separator 62 to perform MPEG separation. To control. In step S230, the control unit 67 performs control so that the video data is decoded from the information separated by the video decoder 63.

そして、ステップS240では、制御部67は、奥行き情報取り出し器64に分離化された情報から奥行き情報を検出させるように制御する。   In step S240, the control unit 67 controls the depth information extractor 64 to detect the depth information from the separated information.

次に、ステップS250では、制御部67は、画素に対して持つ奥行き情報を使用して、視野変換器65にビデオ画像の視野変換を行わせるように制御する。これは、視点座標系への変換の式によって視点を変えた画像を得るものである。   Next, in step S250, the control unit 67 performs control so that the field-of-view converter 65 performs field-of-view conversion of the video image using the depth information of the pixels. This is to obtain an image in which the viewpoint is changed by an equation for conversion to the viewpoint coordinate system.

その後、ステップS260では、制御部67は、立体画像表示器66にビデオの立体表示を行わせるように制御する。立体表示方式は、パララックスバリアを用いた2眼式立体表示方式でも、IP方式でも良い。   Thereafter, in step S260, the control unit 67 controls the stereoscopic image display 66 to perform stereoscopic display of video. The stereoscopic display method may be a binocular stereoscopic display method using a parallax barrier or an IP method.

そして、ステップS270では、制御部67は、記録媒体8に表示画像データがまだあるかどうかを判定し、これがある場合(YES)にはステップS210に戻り、これがない場合(NO)には、プログラムを終了する。   In step S270, the control unit 67 determines whether or not there is still display image data on the recording medium 8. If there is (YES), the process returns to step S210. If not (NO), the program is returned to the program. Exit.

(実施例2)
本発明の3次元映像情報記録装置及びプログラムの実施例2を図16に基づいて説明する。図16は本発明の実施例2の3次元映像情報記録装置の構成を示すブロック図である。なお、図16では、図1に示した実施例1の3次元映像情報記録装置の構成と同一構成には同一符号を付して説明する。
(Example 2)
A second embodiment of the 3D video information recording apparatus and program of the present invention will be described with reference to FIG. FIG. 16 is a block diagram showing the configuration of the 3D video information recording apparatus according to the second embodiment of the present invention. In FIG. 16, the same components as those of the three-dimensional video information recording apparatus according to the first embodiment shown in FIG.

図16に示すように、本実施例の3次元映像情報記録装置は、対象物体についての左画像及び右画像を撮像する左右一対の撮像カメラ1A及び1Bと、撮像カメラ1Aまたは1Bからの2次元画像等が入力され、画像圧縮を行うビデオ圧縮器2と、撮像カメラ1A及び1Bで撮像した左画像および右画像から視差ベクトルを抽出する視差ベクトル抽出器3と、視差ベクトルの大きさを計算し、奥行き情報を奥行き情報フォーマット器5に出力する奥行き距離算出器4と、奥行き情報をフォーマット化する奥行き情報フォーマット器5と、奥行き情報フォーマット器5からの出力をDVDフォーマットに変換して記録器7に出力するDVDフォーマット器10と、ビデオ圧縮器2で圧縮された奥行き情報を多重化する情報多重化器6と、DVDフォーマット器10と情報多重化器6からの情報を記録媒体8に記録する記録器7と、装置に設けられた各部を制御する制御部9とを備える。   As shown in FIG. 16, the 3D video information recording apparatus of the present embodiment is a two-dimensional image from a pair of left and right imaging cameras 1A and 1B that capture a left image and a right image of a target object, and the imaging camera 1A or 1B. A video compressor 2 that inputs an image and the like, compresses the image, a disparity vector extractor 3 that extracts a disparity vector from the left image and the right image captured by the imaging cameras 1A and 1B, and calculates the magnitude of the disparity vector Depth information calculator 4 that outputs depth information to depth information formatter 5, depth information formatter 5 that formats depth information, and output from depth information formatter 5 is converted to a DVD format and recorder 7. A DVD formatter 10 that outputs to the video compressor, an information multiplexer 6 that multiplexes the depth information compressed by the video compressor 2, and a DVD. Comprises a recording unit 7 for recording information from the formatting unit 10 and the information multiplexer 6 to the recording medium 8, and a control unit 9 that controls each unit provided in the apparatus.

図1に示す3次元映像情報記録装置と同一構成のブロックの動作は同様であるが、図14に示すように、奥行き情報フォーマット器5からの情報をDVDフォーマット器10に出力し、DVDフォーマット器10で次に述べるDVDフォーマットに変換して、記録器7に送り、記録媒体8に記録する。   The operation of the block having the same configuration as that of the 3D video information recording apparatus shown in FIG. 1 is the same. However, as shown in FIG. 14, the information from the depth information formatter 5 is output to the DVD formatter 10, and the DVD formatter In 10, it is converted into the DVD format described below, sent to the recorder 7, and recorded on the recording medium 8.

本実施例の3次元映像情報記録装置は、DVDビデオの規格に準拠する形式をとり、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報をビデオオブジェクトの映像とは別のストリームデータとして多重化して記録する手段を有する。   The 3D video information recording apparatus according to the present embodiment has a format compliant with the DVD video standard, and multiplexes information on the depth for each predetermined unit of each picture of the 2D video as stream data different from the video object video. And means for recording the data.

DVDフォーマットは図4に示すように、DVDビデオには記録層がVolume spaceとして、Volume and File structure19,DVD-video zone20,DVD-others zone21に分かれており、DVD-video zone20にはビデオマネージャー(VMG)22、ビデオタイトルセット(VTS)23という構造が存在している。   As shown in FIG. 4, the DVD format has a recording layer as a volume space and is divided into a volume and file structure 19, a DVD-video zone 20, and a DVD-others zone 21, and the DVD-video zone 20 includes a video manager (VMG). ) 22 and a structure of video title set (VTS) 23 exists.

ビデオマネージャー22はビデオマネージャーインフォメーションなどの後続するビデオタイトルセット23の識別情報や様々な情報自体のスタートアドレスやエンドアドレス、どこのビデオストリームから再生を開始するかなどの情報が記述されている。ビデオタイトルセット23には、再生されるべきオーディオやビデオのデータのアドレス情報や識別情報などのControl Data24が記述されている。   The video manager 22 describes information such as identification information of the succeeding video title set 23 such as video manager information, start addresses and end addresses of various information itself, and from which video stream playback is started. In the video title set 23, Control Data 24 such as address information and identification information of audio and video data to be reproduced is described.

これらのビデオマネージャー22やControl Data24は、再生に必須な情報を記録した管理情報領域であり、この領域のデータはDVDフォーマット器やDVDフォーマットステップによって記録され、DVDフォーマット復号器やDVDフォーマット復号ステップによって再生される。   The video manager 22 and the control data 24 are management information areas in which information essential for reproduction is recorded. Data in this area is recorded by a DVD formatter or a DVD format step, and is recorded by a DVD format decoder or a DVD format decoding step. Played.

その後にビデオオブジェクトセット(VOBS)25というビデオとオーディオの多重化されたMPEGストリームのセットがあり、さらにビデオオブジェクト(VOB)26という小単位のMPEGストリームがある。ビデオオブジェクト26の下にはさらに細分化されたセル(CELL)27という単位、さらにはビデオオブジェクトユニット(VOBU)28があり、これがMPEGストリームのグループオブピクチャ(GOP)にほぼ相当する構造となっている。このビデオオブジェクトユニット28の再生時間は、ビデオオブジェクトユニット28中に含まれる単数又は複数個のGOPから構成されるビデオデータの再生時間に相当し、その再生時間は0.4〜1.0秒程度のものである。   Thereafter, there is a set of video and audio multiplexed MPEG streams called a video object set (VOBS) 25, and there is a small unit MPEG stream called a video object (VOB) 26. Below the video object 26, there are further subdivided units of cells (CELL) 27 and further video object units (VOBU) 28, which have a structure substantially corresponding to the group of pictures (GOP) of the MPEG stream. Yes. The playback time of the video object unit 28 corresponds to the playback time of video data composed of one or more GOPs included in the video object unit 28, and the playback time is about 0.4 to 1.0 seconds. belongs to.

ビデオオブジェクトユニット(VOBU)28の中には、ナビゲーションパック(NV_PACK)29、オーディオパック(A_PACK)30、ビデオパック(V_PACK)31がそれぞれMPEG多重化されている。先頭のナビゲーションパック29にはストリームサーチ情報などが記述されている。また、ビデオパック31にはビデオ圧縮データがパック化されたデータ、オーディオパック30にはオーディオ圧縮データがパック化されたデータがある。   In the video object unit (VOBU) 28, a navigation pack (NV_PACK) 29, an audio pack (A_PACK) 30, and a video pack (V_PACK) 31 are MPEG-multiplexed. In the first navigation pack 29, stream search information and the like are described. The video pack 31 includes data in which video compressed data is packed, and the audio pack 30 includes data in which audio compressed data is packed.

次に、本実施例の3次元映像情報記録プログラムを図17に基づいて説明する。図17は図16に示す3次元映像情報記録装置を使用した3次元映像情報記録プログラムを示すフローチャートである。詳細なステップの処理内容は図1及び図16に示す3次元映像情報記録装置のブロック図の説明で記したものと同様なので、ここではステップの順番についてのみ簡単に説明する。   Next, the 3D video information recording program of the present embodiment will be described with reference to FIG. FIG. 17 is a flowchart showing a 3D video information recording program using the 3D video information recording apparatus shown in FIG. Since the detailed processing contents of the steps are the same as those described in the description of the block diagram of the 3D video information recording apparatus shown in FIGS. 1 and 16, only the order of the steps will be briefly described here.

まず、ステップS310〜S360では、図9に示すフローチャートのステップS110〜S160と同様の処理を行う。   First, in steps S310 to S360, processing similar to that in steps S110 to S160 in the flowchart shown in FIG. 9 is performed.

その後、ステップS370では、制御部9は、奥行き情報フォーマット器5でフォーマット化された奥行き情報を、DVDフォーマット器10によって図4に示すDVDフォーマットに変換させるように制御する。   Thereafter, in step S370, the control unit 9 controls the DVD formatter 10 to convert the depth information formatted by the depth information formatter 5 into the DVD format shown in FIG.

次に、ステップS380では、制御部9は、情報多重化器6で多重化されたデータとDVDフォーマット器10でDVDフォーマットに変換されたデータとを、記録器7によって所定の単位で記録媒体8に記録させるように制御する。DVDであれば2kBが単位である。   Next, in step S380, the control unit 9 records the data multiplexed by the information multiplexer 6 and the data converted into the DVD format by the DVD formatter 10 in a predetermined unit by the recording unit 8. To control the recording. For a DVD, the unit is 2 kB.

そして、ステップS390では、制御部9は、撮像カメラ1A及び1Bからの入力画像データがまだあるかどうかを判定し、これがある場合(YES)にはステップS310に戻り、これがない場合(NO)には、プログラムを終了する。   In step S390, the control unit 9 determines whether there is still input image data from the imaging cameras 1A and 1B. If there is (YES), the control unit 9 returns to step S310, and if not (NO). Ends the program.

このように本実施例の3次元映像情報記録装置及びプログラムによれば、DVDビデオ規格に準拠した形式で、ディファレンシャルパック(D_PACK)12という前述した奥行き情報データをパック化してMPEG多重化するので、ディファレンシャルパック12を用いれば3次元映像になり、これを用いなければDVDビデオ規格として標準的な2次元映像が出力できるフォーマットとなるので、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   Thus, according to the 3D video information recording apparatus and program of the present embodiment, the above-described depth information data called the differential pack (D_PACK) 12 is packed and MPEG-multiplexed in a format compliant with the DVD video standard. If the differential pack 12 is used, a 3D image is obtained, and if this is not used, a standard 2D image can be output as a DVD video standard. Therefore, both 2D and 3D images can be efficiently and functionally used. It is possible to construct a system that enables playback of images.

次に、本実施例の3次元映像情報記録装置で3次元映像情報を記録した記録媒体8から3次元映像情報を再生する装置を、図18に基づいて説明する。図18は図16に示す3次元映像情報記録装置で記録媒体に記録した3次元映像情報を再生する3次元映像情報再生装置の構成を示すブロック図である。   Next, an apparatus for reproducing 3D video information from the recording medium 8 on which 3D video information is recorded by the 3D video information recording apparatus of this embodiment will be described with reference to FIG. FIG. 18 is a block diagram showing a configuration of a 3D video information reproducing apparatus for reproducing 3D video information recorded on a recording medium by the 3D video information recording apparatus shown in FIG.

まず、記録媒体8からデータを再生器61にて読み取り、DVDフォーマット復号器68によってDVDフォーマットからMPEGのストリームを抽出し、情報分離化器62へ出力する。   First, data is read from the recording medium 8 by the playback device 61, and an MPEG stream is extracted from the DVD format by the DVD format decoder 68 and output to the information separator 62.

その後は実施例1で説明した、図10に示す3次元映像情報再生装置と同様の処理を行い、立体画像表示器66に出力再生する。   After that, the same processing as that of the 3D video information reproducing apparatus shown in FIG.

次に、図18に示す3次元映像情報再生装置で3次元映像情報を再生するプログラムを、図19に示すフローチャートに基づいて説明する。詳細なステップの処理内容は図10及び図18に示す3次元映像情報再生装置のブロック図の説明で記したものと同様なので、ここではステップの順番についてのみ簡単に説明する。   Next, a program for reproducing 3D video information by the 3D video information reproducing apparatus shown in FIG. 18 will be described based on the flowchart shown in FIG. Since the detailed processing contents of the steps are the same as those described in the description of the block diagram of the 3D video information reproducing apparatus shown in FIGS. 10 and 18, only the order of the steps will be briefly described here.

まず、ステップS410では、制御部67は、再生器61に記録媒体8から多重化されたデータを読み取らせ、ステップS420では、制御部67は、DVDフォーマット復号器68によってDVDフォーマットを復号させるように制御する。   First, in step S410, the control unit 67 causes the player 61 to read the multiplexed data from the recording medium 8, and in step S420, the control unit 67 causes the DVD format decoder 68 to decode the DVD format. Control.

その後、ステップS430〜S480は図15に示すフローチャートのステップS220〜S270と同様の処理を行う。   Thereafter, steps S430 to S480 perform the same processing as steps S220 to S270 of the flowchart shown in FIG.

(実施例3)
本発明の3次元映像情報記録装置の実施例3を図20に基づいて説明する。図20は奥行き情報とDVDとの互換フォーマット説明図である。なお、図20では、図4に示したフォーマットの構成と同一構成には同一符号を付して説明する。
(Example 3)
A third embodiment of the 3D video information recording apparatus of the present invention will be described with reference to FIG. FIG. 20 is an explanatory diagram of a compatible format of depth information and DVD. In FIG. 20, the same components as those of the format shown in FIG.

本実施例の3次元映像情報記録装置は、DVDビデオの規格に準拠する形式をとり、2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を管理情報領域とは別の3次元映像用の管理情報領域に記録する手段を有する。これは、DVDビデオの規格に準拠する形式を取りながらも、ディファレンシャルパック(D_PACK)に記録するのではなく、DVD others zoneというDVD規格準拠の形式で、自由に使用できる領域に奥行き情報を記録するものである。   The 3D video information recording apparatus according to the present embodiment has a format compliant with the DVD video standard, and information on the depth for each predetermined unit of each picture of the 2D video is for a 3D video different from the management information area. Means for recording in the management information area. This is a format that conforms to the DVD video standard, but does not record in the differential pack (D_PACK), but records the depth information in a freely usable area in a DVD standard conforming format called DVD others zone. Is.

なお、本実施例の3次元映像情報記録装置の構成は図16に示す実施例2の3次元映像情報記録装置の構成と同様である。   The configuration of the 3D video information recording apparatus of this embodiment is the same as that of the 3D video information recording apparatus of Embodiment 2 shown in FIG.

DVD-others zone21にはビデオマネージャー(DVMG)81、ビデオタイトルセット(DVTS)82という構造を記述する。ビデオマネージャー81はビデオマネージャーインフォメーションなど後続するビデオタイトルセット82の識別情報や様々な情報自体のスタートアドレスやエンドアドレス、どこのビデオストリームから再生を開始するかなどの情報が記述されている。ビデオタイトルセット82には、再生されるべきオーディオやビデオのデータのアドレス情報や識別情報などのControl Dataが記述されたDVTSインフォメーション(DVTSI)83がある。   In the DVD-others zone 21, a structure of a video manager (DVMG) 81 and a video title set (DVTS) 82 is described. The video manager 81 describes information such as identification information of the subsequent video title set 82 such as video manager information, start addresses and end addresses of various information itself, and from which video stream playback is started. The video title set 82 includes DVTS information (DVTSI) 83 in which control data such as address information and identification information of audio and video data to be reproduced is described.

これらのビデオマネージャー81やDVTSインフォメーション83は、再生に必須な情報を記録した管理情報領域であり、この領域のデータはDVDフォーマット器やDVDフォーマットステップによって記録され、DVDフォーマット復号器やDVDフォーマット復号ステップによって再生される。   The video manager 81 and the DVTS information 83 are management information areas in which information necessary for reproduction is recorded. Data in this area is recorded by a DVD formatter or a DVD format step, and a DVD format decoder or a DVD format decoding step. Played by.

その後にビデオオブジェクトセット(DVOBS)84というビデオとオーディオの多重化されたMPEGストリームのセットがあり、さらにビデオオブジェクト(DVOB)85という小単位のMPEGストリームがある。ビデオオブジェクト85の下にはさらに細分化されたセル(DCELL)86という単位、さらにはビデオオブジェクトユニット(DVOBU)87があり、奥行き情報のフレームレイヤの数フレームをまとめた構造になっている。   After that, there is a set of video and audio multiplexed MPEG streams called a video object set (DVOBS) 84, and there is a small unit MPEG stream called a video object (DVOB) 85. Below the video object 85, there are units of subdivided cells (DCELL) 86, and further a video object unit (DVOBU) 87, which has a structure in which several frames of the frame layer of depth information are collected.

DVD-video zone20の2次元映像のデータと同じ構造とし、一つ一つのビデオオブジェクトユニット、セル、ビデオオブジェクトなどは同じフレーム枚数(同じ再生時間長)を持たせることで、サーチなどのアクセス性を高めることができる。   It has the same structure as the 2D video data in the DVD-video zone 20, and each video object unit, cell, video object, etc. has the same number of frames (same playback time length), so that accessibility such as search is possible. Can be increased.

このように本実施例の3次元映像情報記録装置によれば、DVDビデオ規格に準拠した形式で、DVD-video zone20とDVD-others zone21にリンクした形式で奥行き情報データを記述するので、3次元映像と2次元映像をDVDビデオ規格互換で記録することができ、効率的かつ機能的に2次元映像と3次元映像の双方の再生を可能とするシステムを構築できる。   As described above, according to the 3D video information recording apparatus of the present embodiment, the depth information data is described in a format linked to the DVD-video zone 20 and the DVD-others zone 21 in a format compliant with the DVD video standard. A video and 2D video can be recorded in compliance with the DVD video standard, and a system capable of efficiently and functionally reproducing both 2D video and 3D video can be constructed.

なお、本実施例の3次元映像情報記録装置を使用した3次元映像情報記録プログラムは図17に示すフローチャートと同様である。   A 3D video information recording program using the 3D video information recording apparatus of this embodiment is the same as the flowchart shown in FIG.

また、本実施例の3次元映像情報記録装置で3次元映像情報を記録した記録媒体8からの3次元映像の再生は、実施例2で図18に示した3次元映像情報再生装置により行うことができ、本実施例の3次元映像情報再生装置で3次元映像情報を記録した記録媒体8から3次元映像情報を再生するプログラムは図19に示すフローチャートと同様である。   Further, the 3D video information reproducing apparatus shown in FIG. 18 in the second embodiment reproduces the 3D video from the recording medium 8 on which the 3D video information is recorded by the 3D video information recording apparatus of the present embodiment. The program for reproducing the 3D video information from the recording medium 8 on which the 3D video information is recorded by the 3D video information reproducing apparatus of this embodiment is the same as the flowchart shown in FIG.

(実施例4)
本発明の3次元映像情報記録装置の実施例4を図21に基づいて説明する。図21は本発明の実施例4の3次元映像情報記録装置の構成を示すブロック図である。
Example 4
Embodiment 4 of the 3D video information recording apparatus of the present invention will be described with reference to FIG. FIG. 21 is a block diagram showing the configuration of the 3D video information recording apparatus according to the fourth embodiment of the present invention.

図21に示すように、本実施例の3次元映像情報記録装置は、CGをベースにして3次元ビデオデータを作成するものであり、CG画像を生成する画像信号生成器92を内蔵するCPU91と、画像信号生成器92で生成されたCG画像が入力され、画像圧縮を行うビデオ圧縮器2と、奥行き情報をフォーマット化する奥行き情報フォーマット器5と、ビデオ圧縮器2で圧縮された奥行き情報を多重化する情報多重化器6と、多重化された情報を記録媒体8に記録する記録器7と、装置に設けられた各部を制御する制御部9とを備える。   As shown in FIG. 21, the 3D video information recording apparatus according to the present embodiment creates 3D video data based on CG, and includes a CPU 91 having a built-in image signal generator 92 for generating CG images. The CG image generated by the image signal generator 92 is input, the video compressor 2 that compresses the image, the depth information formatter 5 that formats the depth information, and the depth information compressed by the video compressor 2 An information multiplexer 6 that multiplexes, a recorder 7 that records the multiplexed information on a recording medium 8, and a control unit 9 that controls each unit provided in the apparatus.

CGでは撮像のためのカメラを必要としないので、すべてCPU91内で処理が行われる。CPU91の中に画像信号生成器92があり、それぞれが専用のソフトにより起動される。CG画像データは基本的にはポリゴンなどの小サイズの画像に対し、位置の情報と奥行きの情報が予め備わっている。   Since CG does not require a camera for imaging, all processing is performed within the CPU 91. There is an image signal generator 92 in the CPU 91, and each is activated by dedicated software. The CG image data basically includes position information and depth information in advance for a small-sized image such as a polygon.

従って、先に説明した4×2のマクロブロックの相当するポリゴンの部分の位置情報は容易に計算が可能である。ビデオデータはビデオ圧縮器2に入力され、圧縮が施される。圧縮されたビデオデータは先の図1に示した実施例1の3次元映像情報記録装置と同様に、奥行き情報フォーマット器5によってフォーマット化された情報と共に、情報多重化器6によって多重化され、記録器7によって記録媒体8に記録される。   Therefore, the position information of the polygon portion corresponding to the 4 × 2 macroblock described above can be easily calculated. The video data is input to the video compressor 2 and compressed. The compressed video data is multiplexed by the information multiplexer 6 together with the information formatted by the depth information formatter 5 as in the 3D video information recording apparatus of the first embodiment shown in FIG. Recording is performed on the recording medium 8 by the recorder 7.

本実施例の3次元映像情報記録装置によれば、CGをベースにした3次元ビデオデータを作成し、奥行き情報をMPEG1ビデオのユーザーデータ領域に記録するので、実施例1の3次元映像情報記録装置と同様の効果が得られる。   According to the 3D video information recording apparatus of this embodiment, 3D video data based on CG is created and depth information is recorded in the user data area of MPEG1 video. The same effect as the device can be obtained.

(実施例5)
本発明の3次元映像情報記録装置の実施例5を図22に基づいて説明する。図22は本発明の実施例5の3次元映像情報記録装置の構成を示すブロック図である。
(Example 5)
Embodiment 5 of the 3D image information recording apparatus of the present invention will be described with reference to FIG. FIG. 22 is a block diagram showing the configuration of the 3D video information recording apparatus according to the fifth embodiment of the present invention.

図22に示すように、本実施例の3次元映像情報記録装置は、画像を生成する画像信号生成器92を内蔵するCPU91と、画像信号生成器92で生成されたCG画像が入力され、画像圧縮を行うビデオ圧縮器2と、奥行き情報をフォーマット化する奥行き情報フォーマット器5と、奥行き情報フォーマット器5からの出力をフォーマットに変換して記録器7に送るDVDフォーマット器10と、ビデオ圧縮器2で圧縮された奥行き情報を多重化する情報多重化器6と、DVDフォーマット器10と情報多重化器6からの出力を記録媒体8に記録する記録器7と、装置に設けられた各部を制御する制御部9とを備える。   As shown in FIG. 22, the 3D video information recording apparatus according to the present embodiment receives a CPU 91 incorporating an image signal generator 92 for generating an image and a CG image generated by the image signal generator 92. A video compressor 2 that performs compression, a depth information formatter 5 that formats depth information, a DVD formatter 10 that converts the output from the depth information formatter 5 into a format and sends it to a recorder 7, and a video compressor 2, an information multiplexer 6 that multiplexes the depth information compressed in 2, a DVD formatter 10, a recorder 7 that records the output from the information multiplexer 6 on a recording medium 8, and each unit provided in the apparatus. And a control unit 9 for controlling.

本実施例の3次元映像情報記録装置は、DVDビデオの規格に準拠する形式をとるもので、図21に示す3次元映像情報記録装置と同一構成のブロックの動作は同様であるが、図22に示すように、奥行き情報フォーマット器5からの出力をDVDフォーマット器10に入力し、図4や図20に示すフォーマットにフォーマット化してから記録器7により記録媒体8に記録する。   The 3D video information recording apparatus of the present embodiment takes a format conforming to the DVD video standard, and the operation of the block having the same configuration as that of the 3D video information recording apparatus shown in FIG. As shown in FIG. 4, the output from the depth information formatter 5 is input to the DVD formatter 10, formatted into the format shown in FIGS. 4 and 20, and then recorded on the recording medium 8 by the recorder 7.

本実施例の3次元映像情報記録装置によれば、CGをベースにした3次元ビデオデータを作成し、図4に示すようにDVDフォーマット化すれば、DVDビデオ規格に準拠した形式で奥行き情報データをパック化してMPEG多重化するので、実施例2の3次元映像情報記録装置と同様の効果が得られる。   According to the 3D video information recording apparatus of this embodiment, if 3D video data based on CG is created and converted into a DVD format as shown in FIG. 4, the depth information data is in a format compliant with the DVD video standard. Are packed and MPEG-multiplexed, so that the same effect as the 3D video information recording apparatus of the second embodiment can be obtained.

また、図20に示すようにDVDフォーマット化すれば、DVDビデオ規格に準拠した形式でDVD-video zone20とDVD-others zone21にリンクした形式で奥行き情報データを記述するので、実施例3と同様の効果が得られる。   Also, as shown in FIG. 20, if the DVD is formatted, the depth information data is described in a format linked to the DVD-video zone 20 and the DVD-others zone 21 in a format compliant with the DVD video standard. An effect is obtained.

なお、実施例1〜5においては、最終的な情報は記録媒体に記録したが、通信や放送特有のパケット化を行い、図23に示すように通信(放送)用パケット化器93を経由して通信(放送)網94に伝送するように構成することも容易である。この場合、通信や放送特有のパケット化がなされているパケット情報を受信して、図24に示すように通信(放送)用パケット解除器95を経由して通信(放送)網94から受信再生することができる。   In the first to fifth embodiments, the final information is recorded on the recording medium. However, the communication and broadcast-specific packetization is performed, and the communication (broadcast) packetizer 93 is used as shown in FIG. Thus, it can be easily configured to transmit to the communication (broadcast) network 94. In this case, packet information that has been packetized peculiar to communication or broadcasting is received and received and reproduced from the communication (broadcasting) network 94 via the communication (broadcasting) packet release unit 95 as shown in FIG. be able to.

また、上記説明では、立体映像表示方式はIP方式やパララックスバリア方式で説明したが、レンチキュラーレンズ方式や、超多眼方式、偏向眼鏡を用いた2眼方式、アナグリフなど、立体知覚できる方式であれば良い。   In the above description, the stereoscopic image display method has been described by the IP method or the parallax barrier method. I just need it.

また、本発明の3次元映像情報記録プログラムは、コンピュータに実現させるようにしても良い。このプログラムは、記録媒体から読み取られてコンピュータに取り込まれても良いし、通信ネットワークを介して伝送されてコンピュータに取り込まれても良い。   The 3D video information recording program of the present invention may be realized by a computer. This program may be read from a recording medium and loaded into a computer, or may be transmitted via a communication network and loaded into a computer.

また、本発明では、記録媒体にデータを記録しなくても、通信、放送などあらゆる伝送媒体を経由してデータを送信することが可能で、その場合には記録装置は伝送装置として使用することもできる。また再生装置は受信装置として使用することも可能である。   Further, in the present invention, it is possible to transmit data via any transmission medium such as communication and broadcasting without recording data on the recording medium. In this case, the recording apparatus should be used as a transmission apparatus. You can also. The playback device can also be used as a receiving device.

また、本発明の信号データを記録した記録媒体は、3次元映像の奥行き情報を記録してあるという媒体特有の効果があり、複数の立体映像再生方法に対応して3次元映像再生を可能とするシステムを好適に実現することができる。   In addition, the recording medium on which the signal data of the present invention is recorded has an effect peculiar to the medium in which the depth information of the three-dimensional video is recorded. It is possible to suitably realize the system that performs this.

また、記録媒体は、媒体という定義はデータを記録できる媒体という、狭義な媒体というものだけでなく、信号データを伝送するための電磁波、光などを含む。また、記録媒体に記録されている情報は、記録されていない状態での電子ファイルなどのデータ自身を含むものとする。   In addition, the definition of the medium includes not only a narrowly-defined medium that can record data, but also an electromagnetic wave and light for transmitting signal data. The information recorded on the recording medium includes data itself such as an electronic file in an unrecorded state.

また、映像の奥行き情報は1ピクチャ毎に記録するように説明したが、0.5秒程度ごとでも1秒程度ごとでも良い。その場合には、MPEGのGOPレイヤのユーザーデータを用いることで実現できる。   Further, although the video depth information has been described as being recorded for each picture, it may be about every 0.5 second or about every 1 second. In that case, it can be realized by using user data of the GOP layer of MPEG.

また、本発明はビデオを中心に記載したが、ビデオと共にオーディオデータが存在していてMPEGの多重化でオーディオとビデオが多重化されていても有効であり、オーディオやビデオに限らず、他のサブピクチャや制御情報などのデータがあっても同様である。   Although the present invention has been described centering on video, it is effective even when audio data is present together with video and audio and video are multiplexed by MPEG multiplexing. The same applies to data such as sub-pictures and control information.

本発明の実施例1の3次元映像情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional video information recording device of Example 1 of this invention. 撮像カメラ2台を用いるシステムの例を示す図である。It is a figure which shows the example of the system using two imaging cameras. 2画面の視差を求めるためのエピポーラ拘束条件の説明図である。It is explanatory drawing of the epipolar constraint conditions for calculating | requiring the parallax of 2 screens. 実施例1における奥行き情報とDVDとの互換フォーマット説明図である。It is explanatory drawing of the compatible format of depth information and DVD in Example 1. FIG. MPEGが適用される符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the encoding apparatus with which MPEG is applied. 図5に示す符号化装置で符号化された符号化データを復号する復号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the decoding apparatus which decodes the encoding data encoded with the encoding apparatus shown in FIG. MPEGのビデオストリームビデオレイヤの説明表(その1)である。4 is an explanatory table (No. 1) of an MPEG video stream video layer. MPEGのビデオストリームビデオレイヤの説明表(その2)である。4 is an explanatory table (2) of an MPEG video stream video layer. MPEGのビデオストリームビデオレイヤの説明表(その3)である。4 is an explanatory table (No. 3) of an MPEG video stream video layer. MPEGのビデオストリームビデオレイヤの説明表(その4)である。4 is an explanatory table (part 4) of an MPEG video stream video layer. MPEGのビデオストリームビデオレイヤの説明表(その5)である。FIG. 10 is an explanatory table (No. 5) of an MPEG video stream video layer. FIG. MPEGのビデオストリームビデオレイヤの説明表(その6)である。7 is an explanatory table (No. 6) of an MPEG video stream video layer. MPEGのビデオストリームビデオレイヤの説明表(その7)である。FIG. 10 is an explanatory table (No. 7) of an MPEG video stream video layer. FIG. MPEGの多重化トランスポートストリームシステムレイヤの説明表である。It is an explanatory table of the multiplexed transport stream system layer of MPEG. 本発明の実施例1の3次元映像情報記録プログラムを示すフローチャートである。It is a flowchart which shows the three-dimensional video information recording program of Example 1 of this invention. 図1に示す3次元映像情報記録装置で記録媒体に記録した3次元映像情報を再生する3次元映像情報再生装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a 3D video information reproducing apparatus that reproduces 3D video information recorded on a recording medium by the 3D video information recording apparatus shown in FIG. 1. 視野変換を説明するベクトル図である。It is a vector diagram explaining visual field conversion. パララックスバリア方式の説明図である。It is explanatory drawing of a parallax barrier system. IP方式の原理の説明図である。It is explanatory drawing of the principle of IP system. IP方式のディスプレイの説明図である。It is explanatory drawing of the display of an IP system. 図10に示す3次元映像情報再生装置で3次元映像情報情報を再生する3次元映像情報再生プログラムを示すフローチャートである。It is a flowchart which shows the 3D video information reproduction | regeneration program which reproduces | regenerates 3D video information information with the 3D video information reproduction | regeneration apparatus shown in FIG. 本発明の実施例2の3次元映像情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional video information recording device of Example 2 of this invention. 本発明の実施例2の3次元映像情報記録プログラムを示すフローチャートである。It is a flowchart which shows the 3D video information recording program of Example 2 of this invention. 図16に示す3次元映像情報記録装置で記録媒体に記録した3次元映像情報を再生する3次元映像情報再生装置の構成を示すブロック図である。FIG. 17 is a block diagram showing a configuration of a 3D video information reproducing apparatus that reproduces 3D video information recorded on a recording medium by the 3D video information recording apparatus shown in FIG. 16. 図18に示す3次元映像情報再生装置で3次元映像情報を再生するプログラムを示すフローチャートである。FIG. 19 is a flowchart showing a program for playing back 3D video information by the 3D video information playback device shown in FIG. 18. FIG. 実施例3における奥行き情報とDVDとの互換フォーマット説明図である。FIG. 10 is an explanatory diagram of a compatible format of depth information and DVD in the third embodiment. 本発明の実施例4の3次元映像情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional video information recording device of Example 4 of this invention. 本発明の実施例5の3次元映像情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional video information recording device of Example 5 of this invention. 記録媒体に記録せずに通信(放送)網に伝送する構成を示すブロック図である。It is a block diagram which shows the structure which transmits to a communication (broadcasting) network, without recording on a recording medium. 通信(放送)網から映像情報を再生する3次元映像情報再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional video information reproduction apparatus which reproduces | regenerates video information from a communication (broadcast) network.

符号の説明Explanation of symbols

1A,1B 撮像カメラ
2 ビデオ圧縮器
3 視差ベクトル抽出器
4 奥行き距離算出器
5 奥行き情報フォーマット器
6 情報多重化器
7 記録器
8 記録媒体
9 制御部
10 DVDフォーマット器
12 ディファレンシャルパック(D_PACK)
13 フレームレイヤ
14 スタートコード
15 DE
16 OFFSET
17 NumOfSkipPixel
18 ZP
19 Volume and File structure
20 DVD-video zone
21 DVD-others zone
22 ビデオマネージャー(VMG)
23 ビデオタイトルセット(VTS)
24 Control Data
25 ビデオオブジェクトセット(VOBS)
26 ビデオオブジェクト(VOB)
27 セル(CELL)
28 ビデオオブジェクトユニット(VOBU)
29 ナビゲーションパック(NV_PACK)
30 オーディオパック(A_PACK)
31 ビデオパック(V_PACK)
61 再生器
62 情報分離化器
63 ビデオ復号器
64 奥行き情報取り出し器
65 視野変換器
66 立体画像表示器
67 制御部
68 DVDフォーマット復号器
81 ビデオマネージャー(DVMG)
82 ビデオタイトルセット(DVTS)
83 DVTSインフォメーション(DVTSI)
84 ビデオオブジェクトセット(DVOBS)
85 ビデオオブジェクト(DVOB)
86 セル(DCELL)
87 ビデオオブジェクトユニット(DVOBU)
91 CPU
92 画像信号生成器
93 通信(放送)用パケット化器
94 通信(放送)網
95 通信(放送)用パケット解除器
1A, 1B Imaging Camera 2 Video Compressor 3 Parallax Vector Extractor 4 Depth Distance Calculator 5 Depth Information Formatter 6 Information Multiplexer 7 Recorder 8 Recording Medium 9 Control Unit 10 DVD Formatter 12 Differential Pack (D_PACK)
13 Frame layer 14 Start code 15 DE
16 OFFSET
17 NumOfSkipPixel
18 ZP
19 Volume and File structure
20 DVD-video zone
21 DVD-others zone
22 Video Manager (VMG)
23 Video title set (VTS)
24 Control Data
25 Video Object Set (VOBS)
26 Video object (VOB)
27 cells (CELL)
28 Video Object Unit (VOBU)
29 Navigation Pack (NV_PACK)
30 audio pack (A_PACK)
31 Video pack (V_PACK)
61 Regenerator 62 Information Separator 63 Video Decoder 64 Depth Information Extractor 65 Field of View Converter 66 Stereo Image Display 67 Control Unit 68 DVD Format Decoder 81 Video Manager (DVMG)
82 Video Title Set (DVTS)
83 DVTS Information (DVTSI)
84 Video Object Set (DVOBS)
85 Video object (DVOB)
86 cells (DCELL)
87 Video Object Unit (DVOBU)
91 CPU
92 Image signal generator 93 Communication (broadcast) packetizer 94 Communication (broadcast) network 95 Communication (broadcast) packet release unit

Claims (6)

2次元映像のビデオオブジェクトを記録する手段と、
前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を管理情報領域に記録する手段と、
2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録する手段と
を具備することを特徴とする3次元映像情報記録装置。
Means for recording a two-dimensional video object;
Means for recording management information in which information used for special reproduction of the video object is described in a management information area;
3D video information recording apparatus comprising: means for multiplexing and recording information relating to depth for each predetermined unit of each picture of a 2D video as stream data different from the video of the video object.
2次元映像のビデオオブジェクトを記録する手段と、
前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を管理情報領域に記録する手段と、
2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記管理情報領域とは別の3次元映像用の管理情報領域に記録する手段と
を具備することを特徴とする3次元映像情報記録装置。
Means for recording a two-dimensional video object;
Means for recording management information in which information used for special reproduction of the video object is described in a management information area;
3D video information recording apparatus comprising: means for recording information relating to depth in a predetermined unit of each picture of a 2D video in a management information area for 3D video different from the management information area .
前記奥行きに関する情報は、2次元映像の各ピクチャの面内の画素差分符号化、予測符号化、ランレングス符号化もしくは2次元映像の各ピクチャの面内の直交変換を用いた符号化の少なくとも一つを用いて符号化をしてから記録をすることを特徴とする請求項1又は2に記載の3次元映像情報記録装置。   The depth-related information is at least one of pixel differential encoding, predictive encoding, run length encoding, or encoding using in-plane orthogonal transform of each picture of the 2D video. The 3D video information recording apparatus according to claim 1, wherein the recording is performed after encoding using one of the two. 2次元映像のビデオオブジェクトを記録媒体に記録させるステップと、
前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を記録媒体の管理情報領域に記録させるステップと、
2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を前記ビデオオブジェクトの映像とは別のストリームデータとして多重化して記録媒体に記録させるステップと
をコンピュータに実行させるための3次元映像情報記録プログラム。
Recording a two-dimensional video object on a recording medium;
Recording management information describing information used for special playback of the video object in a management information area of a recording medium;
A three-dimensional video information recording program for causing a computer to execute a step of multiplexing information relating to depth for each predetermined unit of each picture of a two-dimensional video as a stream data different from the video of the video object and recording it on a recording medium .
2次元映像のビデオオブジェクトを記録媒体に記録させるステップと、
前記ビデオオブジェクトの特殊再生に用いる情報が記述されている管理情報を記録媒体の管理情報領域に記録させるステップと、
2次元映像の各ピクチャの所定単位ごとに奥行きに関する情報を記録媒体における前記管理情報領域とは別の3次元映像用の管理情報領域に記録させるステップと
をコンピュータに実行させるための3次元映像情報記録プログラム。
Recording a two-dimensional video object on a recording medium;
Recording management information describing information used for special playback of the video object in a management information area of a recording medium;
3D video information for causing a computer to execute a step of recording information on depth for each predetermined unit of each picture of the 2D video in a management information area for 3D video different from the management information area in the recording medium. Recording program.
前記奥行きに関する情報は、2次元映像の各ピクチャの面内の画素差分符号化、予測符号化、ランレングス符号化もしくは2次元映像の各ピクチャの面内の直交変換を用いた符号化の少なくとも一つを用いて符号化をしてから記録させることを特徴とする請求項4又は5に記載の3次元映像情報記録プログラム。

The depth-related information is at least one of pixel differential encoding, predictive encoding, run length encoding, or encoding using in-plane orthogonal transform of each picture of the 2D video. 6. The three-dimensional video information recording program according to claim 4 or 5, wherein the three-dimensional video information recording program is recorded after encoding using one of the two.

JP2004326799A 2004-11-10 2004-11-10 Three-dimensional video information recording device and program Pending JP2006140618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004326799A JP2006140618A (en) 2004-11-10 2004-11-10 Three-dimensional video information recording device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004326799A JP2006140618A (en) 2004-11-10 2004-11-10 Three-dimensional video information recording device and program

Publications (1)

Publication Number Publication Date
JP2006140618A true JP2006140618A (en) 2006-06-01

Family

ID=36621130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004326799A Pending JP2006140618A (en) 2004-11-10 2004-11-10 Three-dimensional video information recording device and program

Country Status (1)

Country Link
JP (1) JP2006140618A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921686B1 (en) 2008-02-18 2009-10-15 전자부품연구원 Stereoscopic video file format and computer readable recording medium for recording a stereoscopic video file therefore
JP2010244630A (en) * 2009-04-07 2010-10-28 Sony Corp Information processing device, information processing method, program, and data structure
EP2265031A1 (en) 2009-06-19 2010-12-22 Sony Corporation Image processing apparatus, image processing method, and program
JP2011015227A (en) * 2009-07-02 2011-01-20 Nippon Hoso Kyokai <Nhk> Stereoscopic image generating device and program
JP2011019202A (en) * 2009-07-10 2011-01-27 Sony Corp Image signal processing apparatus and image display
JP2011508498A (en) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image encoding method for stereoscopic rendering
WO2011055674A1 (en) * 2009-11-05 2011-05-12 ソニー株式会社 Receiver, transmitter, communication system, display control method, program, and data structure
JP2011205529A (en) * 2010-03-26 2011-10-13 Sony Corp Image processing apparatus, method, and program
US20120002828A1 (en) * 2010-06-30 2012-01-05 Sony Corporation Audio processing device, audio processing method, and program
JP2012512554A (en) * 2008-12-15 2012-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image-based 3D video format
JP2012135019A (en) * 2012-02-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Encoding method of distance information, decoding method, encoding device, decoding device, encoding program and decoding program,
US8368768B2 (en) 2009-06-02 2013-02-05 Sony Corporation Image processing apparatus, image processing method, and program
JPWO2012029884A1 (en) * 2010-09-03 2013-10-31 ソニー株式会社 Encoding apparatus, encoding method, decoding apparatus, and decoding method
EP2373041A4 (en) * 2008-12-26 2015-05-20 Panasonic Ip Man Co Ltd Recording medium, reproduction device, and integrated circuit
CN105635741A (en) * 2014-10-29 2016-06-01 深圳市敬人科技创意有限公司 Non-key frame depth rapid generation method

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011508498A (en) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image encoding method for stereoscopic rendering
KR101545009B1 (en) * 2007-12-20 2015-08-18 코닌클리케 필립스 엔.브이. Image encoding method for stereoscopic rendering
KR100921686B1 (en) 2008-02-18 2009-10-15 전자부품연구원 Stereoscopic video file format and computer readable recording medium for recording a stereoscopic video file therefore
JP2012512554A (en) * 2008-12-15 2012-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image-based 3D video format
EP2373041A4 (en) * 2008-12-26 2015-05-20 Panasonic Ip Man Co Ltd Recording medium, reproduction device, and integrated circuit
JP2010244630A (en) * 2009-04-07 2010-10-28 Sony Corp Information processing device, information processing method, program, and data structure
US8633966B2 (en) 2009-04-07 2014-01-21 Sony Corporation Information processing device, information processing method, program, and data structure
US8368768B2 (en) 2009-06-02 2013-02-05 Sony Corporation Image processing apparatus, image processing method, and program
EP2265031A1 (en) 2009-06-19 2010-12-22 Sony Corporation Image processing apparatus, image processing method, and program
JP2011015227A (en) * 2009-07-02 2011-01-20 Nippon Hoso Kyokai <Nhk> Stereoscopic image generating device and program
JP2011019202A (en) * 2009-07-10 2011-01-27 Sony Corp Image signal processing apparatus and image display
WO2011055674A1 (en) * 2009-11-05 2011-05-12 ソニー株式会社 Receiver, transmitter, communication system, display control method, program, and data structure
US8872890B2 (en) 2009-11-05 2014-10-28 Sony Corporation Method and receiver for enabling switching involving a 3D video signal
US10051226B2 (en) 2009-11-05 2018-08-14 Sony Corporation Transmitter for enabling switching involving a 3D video signal
JP2011120195A (en) * 2009-11-05 2011-06-16 Sony Corp Receiver, transmitter, communication system, display control method, program, and data structure
CN102308588A (en) * 2009-11-05 2012-01-04 索尼公司 Receiver,transmitter, communication system,display control method, program and data structure
JP2011205529A (en) * 2010-03-26 2011-10-13 Sony Corp Image processing apparatus, method, and program
US8879840B2 (en) 2010-03-26 2014-11-04 Sony Corporation Image processor, image processing method, and program for shift-changing depth data of an image
US9351092B2 (en) * 2010-06-30 2016-05-24 Sony Corporation Audio processing device, audio processing method, and program
US20120002828A1 (en) * 2010-06-30 2012-01-05 Sony Corporation Audio processing device, audio processing method, and program
JPWO2012029884A1 (en) * 2010-09-03 2013-10-31 ソニー株式会社 Encoding apparatus, encoding method, decoding apparatus, and decoding method
JP2016015767A (en) * 2010-09-03 2016-01-28 ソニー株式会社 Decoder, decoding method, program and recording medium
US9667941B2 (en) 2010-09-03 2017-05-30 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JP2012135019A (en) * 2012-02-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Encoding method of distance information, decoding method, encoding device, decoding device, encoding program and decoding program,
CN105635741A (en) * 2014-10-29 2016-06-01 深圳市敬人科技创意有限公司 Non-key frame depth rapid generation method

Similar Documents

Publication Publication Date Title
JP2006191357A (en) Reproduction device and reproduction program
JP5328082B2 (en) Video transmission and reception method and apparatus, and transmission stream structure thereof
KR100716142B1 (en) Method for transferring stereoscopic image data
US8259162B2 (en) Method and apparatus for generating stereoscopic image data stream for temporally partial three-dimensional (3D) data, and method and apparatus for displaying temporally partial 3D data of stereoscopic image
US5619256A (en) Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
EP0915433B1 (en) View offset estimation for steroscopic video coding
US5612735A (en) Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
EP0961506B1 (en) Autostereoscopic display
JP2006128818A (en) Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium
US20090295907A1 (en) Method and apparatus for generating stereoscopic image data stream by using camera parameter, and method and apparatus for restoring stereoscopic image by using camera parameter
US20070041443A1 (en) Method and apparatus for encoding multiview video
US20100002764A1 (en) Method For Encoding An Extended-Channel Video Data Subset Of A Stereoscopic Video Data Set, And A Stereo Video Encoding Apparatus For Implementing The Same
US8810628B2 (en) Image processing apparatus and image processing method
JP2006140618A (en) Three-dimensional video information recording device and program
WO2009011492A1 (en) Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
JP2007525907A (en) System and method for stereoscopic 3D video image digital decoding
JP2005094168A (en) File structure, image recording apparatus and image reproducing apparatus employing the same
JP2004240469A (en) Image data generation device and image data reproducing device for reproducing its data
JP2008109267A (en) Solid image generating device and solid image decoding device
JP2009296272A (en) Image encoding device and image encoding method
US10037335B1 (en) Detection of 3-D videos
JP2012100211A (en) Stereoscopic image data creating apparatus, stereoscopic image data playback apparatus, and file managing method
WO2012060156A1 (en) Multi-viewpoint image encoding device and multi-viewpoint image decoding device
WO2012147354A1 (en) Video processing device and video processing method
JP2006128816A (en) Recording program and reproducing program corresponding to stereoscopic video and stereoscopic audio, recording apparatus and reproducing apparatus, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309