JP2011193486A - System and method for stereoscopic 3d video image digital decoding - Google Patents

System and method for stereoscopic 3d video image digital decoding Download PDF

Info

Publication number
JP2011193486A
JP2011193486A JP2011090295A JP2011090295A JP2011193486A JP 2011193486 A JP2011193486 A JP 2011193486A JP 2011090295 A JP2011090295 A JP 2011090295A JP 2011090295 A JP2011090295 A JP 2011090295A JP 2011193486 A JP2011193486 A JP 2011193486A
Authority
JP
Japan
Prior art keywords
image
delta
field
video
field image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011090295A
Other languages
Japanese (ja)
Other versions
JP2011193486A5 (en
JP5228077B2 (en
Inventor
Novelo Manuel Rafael Gutierrez
ノヴェロ, マニュエル ラファエル グティエレス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TD VISION CORP DE C V SA
Original Assignee
TD VISION CORP DE C V SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TD VISION CORP DE C V SA filed Critical TD VISION CORP DE C V SA
Priority to JP2011090295A priority Critical patent/JP5228077B2/en
Publication of JP2011193486A publication Critical patent/JP2011193486A/en
Publication of JP2011193486A5 publication Critical patent/JP2011193486A5/ja
Application granted granted Critical
Publication of JP5228077B2 publication Critical patent/JP5228077B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and system for digitally decoding an MPEG (Moving Picture Expert Group)2 compatible 3D stereoscopic video image having an original codification algorithm. <P>SOLUTION: By performing a hardware modification and a software modification in different portions of a decoding process in order to obtain a 3D image in a digital video stream, a structure and a video sequence of the video stream are modified for including a flag needed to identify a type of the TDVision(R) technology image at bit level. The modification is performed while decoding information via e.g., software and hardware in the decoding process, double output buffer are activated, a parallel decoding selector and a differential decoding selector are activated, a decompression process is executed and an image is displayed in the corresponding output buffer. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、3DVisor(登録商標)デバイスでの立体ビデオイメージ表示に関し、具体的には、標準化された圧縮技法を使用することによって3次元情報の保管を可能にする、ディジタルデータ圧縮システムによるビデオイメージデコーディング方法に関する。   The present invention relates to stereoscopic video image display on a 3D Visor® device, and in particular, a video image with a digital data compression system that enables storage of 3D information by using standardized compression techniques. It relates to a decoding method.

現在、データ圧縮技法は、1つのイメージまたは一連のイメージの表現のビット消費を減らすために使用されている。標準化作業が、国際標準化機構の専門家のグループによって実行された。現在、これらの方法を、通常、JPEG(Joint Photographic Expert Group)、およびMPEG(Moving Pictures Expert Group)と称する。   Currently, data compression techniques are used to reduce the bit consumption of a representation of an image or series of images. Standardization work was performed by a group of experts from the International Organization for Standardization. Currently, these methods are commonly referred to as JPEG (Joint Photographic Expert Group) and MPEG (Moving Pictures Expert Group).

これらの技法の共通の特性は、イメージブロックが、通常は離散コサイン変換(DCT)と称する、ブロックに適当な変換の適用によって処理されることである。形成されたブロックが、量子化プロセスにサブミットされ、その後、可変長コードを用いてコード化される。   A common property of these techniques is that the image block is processed by applying an appropriate transform to the block, commonly referred to as the discrete cosine transform (DCT). The formed block is submitted to a quantization process and then encoded using a variable length code.

可変長コードは、可逆プロセスであり、可変長コードを用いてコーディングされたものの正確な再構成を可能にする。   The variable length code is a reversible process and allows accurate reconstruction of what was coded using the variable length code.

ディジタルビデオ信号の表示に、30Hzから75Hzの周波数で連続して表示されまたは提示される、ある個数のイメージフレーム(30fpsから96fps)が含まれる。各イメージフレームは、それでも、特定のシステムのディスプレイ解像度に従って、画素アレイによって形成されたイメージである。たとえば、VHSシステムは、320列480行のディスプレイ解像度を有し、NTSCシステムは、720列486行のディスプレイ解像度を有し、高品位テレビジョンシステム(HDTV)は、1360列1020行のディスプレイ解像度を有する。低解像度のディジタル化された形式である320列480行VHSフォーマットに関して、2時間のムービーは、100ギガバイトのディジタルビデオ情報と同等とすることができる。これと比較して、従来のコンパクト光ディスクは、約0.6ギガバイトの容量を有し、磁気ハードディスクは、1〜2ギガバイトの容量を有し、現在のコンパクト光ディスクは、8ギガバイト以上の容量を有する。   The display of the digital video signal includes a number of image frames (30 fps to 96 fps) that are continuously displayed or presented at a frequency of 30 Hz to 75 Hz. Each image frame is still an image formed by the pixel array according to the display resolution of the particular system. For example, a VHS system has a display resolution of 320 columns and 480 rows, an NTSC system has a display resolution of 720 columns and 486 rows, and a high definition television system (HDTV) has a display resolution of 1360 columns and 1020 rows. Have. For a 320 column 480 row VHS format, a low resolution digitized format, a two hour movie can be equivalent to 100 gigabytes of digital video information. In comparison, the conventional compact optical disk has a capacity of about 0.6 gigabytes, the magnetic hard disk has a capacity of 1 to 2 gigabytes, and the current compact optical disk has a capacity of 8 gigabytes or more. .

我々が映画またはTVの画面で見るすべてのイメージが、高い速度で完全なイメージ(写真に似た静止画)を提示するという原理に基づく。これらが、30フレーム毎秒速度(30fps)ですばやく順次の形で提示される時に、我々は、人間の目の保持力に起因して、これらを動画として知覚する。   Every image we see on a movie or TV screen is based on the principle that it presents a complete image (still like a photo) at high speed. When they are presented in rapid and sequential form at a rate of 30 frames per second (30 fps), we perceive them as moving images due to the retention of the human eye.

順次の形で提示されるイメージを分類し、ビデオ信号を形成するために、各イメージを行に分割する必要があり、ここで、各行は、画素またはピクセルに分割され、各画素は、2つの関連する値すなわちルマおよびクロマを有する。ルマは、各点での光強度を表し、ルマは、定義された色空間(RGB)の関数として色を表し、この色空間は、3バイトによって表すことができる。   In order to classify images presented in sequential form and form a video signal, each image needs to be divided into rows, where each row is divided into pixels or pixels, Has associated values, luma and chroma. The luma represents the light intensity at each point, the luma represents the color as a function of a defined color space (RGB), and this color space can be represented by 3 bytes.

イメージは、水平垂直ラスタで上から下へ、左から右へと周期的に画面に表示される。走査線の本数および表示の周波数は、NTSC、PAL、またはSECAMなどのフォーマットの関数として変化し得る。   Images are displayed on the screen periodically from top to bottom and left to right in a horizontal and vertical raster. The number of scan lines and the frequency of display can vary as a function of formats such as NTSC, PAL, or SECAM.

ビデオ信号を、送出、受取、および通常のテレビジョンセットまたは3DVisor(登録商標)などのディスプレイデバイスでの表示のためのデコードの後に、ディジタルフォーマットで保管するためにディジタル化することができ、このプロセスを、アナログ−ディジタルビデオ信号コーディング−デコーディングと称する。   This process can be digitized for storage in digital format after transmission, reception, and decoding for display on a normal television set or display device such as 3D Visor®, this process Is referred to as analog-digital video signal coding-decoding.

定義により、MPEGは、システムストリームにビデオおよびオーディオをインターレースする2つの異なる方法を有する。   By definition, MPEG has two different ways to interlace video and audio into the system stream.

トランスポートストリームは、干渉を受けやすい衛星システムなど、より高い誤りの可能性を有するシステムで使用される。各パッケージは、188バイト長であり、識別ヘッダから始まり、この識別ヘッダが、ギャップの認識および誤りの修復を可能にする。さまざまなオーディオプログラムおよびビデオプログラムを、単一のトランスポートストリーム上でトランスポートストリームを介して同時に伝送することができ、ヘッダに起因して、これらを独立に個別にデコードし、多数のプログラムに統合することができる。   Transport streams are used in systems with a higher likelihood of error, such as satellite systems that are susceptible to interference. Each package is 188 bytes long and begins with an identification header that allows gap recognition and error correction. Various audio and video programs can be transmitted simultaneously over a single transport stream over a transport stream, and due to the header, these can be independently decoded and integrated into multiple programs can do.

プログラムストリームは、DVD再生時など、より低い誤りの可能性を有するシステムで使用される。この場合に、パッケージは、可変長を有し、トランスポートストリームで使用されるパッケージより実質的に大きいサイズを有する。主要な特性として、プログラムストリームは、単一のプログラム内容だけを許容する。   Program streams are used in systems that have a lower likelihood of error, such as during DVD playback. In this case, the package has a variable length and has a substantially larger size than the package used in the transport stream. As a key characteristic, the program stream allows only a single program content.

トランスポートストリームおよびプログラムストリームが異なるパッケージを扱う時であっても、ビデオフォーマットおよびオーディオフォーマットは、同一の形でデコードされる。   Even when the transport stream and program stream handle different packages, the video and audio formats are decoded in the same way.

次に、上のパッケージに適用される、たとえば時間予測、圧縮、および空間圧縮など、3つの圧縮タイプがある。   Next, there are three compression types that apply to the above packages, such as temporal prediction, compression, and spatial compression.

デコーディングは、長々しい数学プロセスに関連し、その目的は、情報量を減らすことである。フルフレームの完全なイメージが、マクロブロックと呼ばれる単位に分割され、各マクロブロックは、16画素×16画素のマトリックスから構成され、上から下、左から右に順序付けられ、名前を付けられる。画面上のマトリックスアレイを用いる場合であっても、情報ストリームを介して送られる情報は、特殊な順次シーケンスに従う、すなわち、マクロブロックは、昇順で順序付けられる、すなわち、macroblock0、macroblock1、などである。   Decoding is associated with a lengthy mathematical process, the purpose of which is to reduce the amount of information. A full image of a full frame is divided into units called macroblocks, each macroblock being composed of a 16 pixel by 16 pixel matrix, ordered from top to bottom, left to right, and named. Even when using a matrix array on the screen, the information sent via the information stream follows a special sequential sequence, i.e. the macroblocks are ordered in ascending order, i.e. macroblock0, macroblock1, etc.

連続するマクロブロックの組は、スライスを表す。マクロブロックが単一の行に関係するならば、1スライス内に任意の個数のマクロブロックを設けることができる。マクロブロックと同様に、スライスは、左から右、下から上に番号を付けられる。スライスは、イメージ全体をカバーしなければならない。というのは、これが、MPEG2がビデオを圧縮する形であるからであり、コーディングされたイメージは、必ずしも、画素ごとのサンプルを必要としない。一部のMPEGプロファイルは、固定したスライス構造の処理を必要とし、このスライス構造によって、イメージ全体がカバーされなければならない。   A set of consecutive macroblocks represents a slice. If a macroblock relates to a single row, any number of macroblocks can be provided in one slice. Similar to macroblocks, slices are numbered from left to right and from bottom to top. The slice must cover the entire image. This is because MPEG2 is a form of compressing video, and the coded image does not necessarily require samples per pixel. Some MPEG profiles require processing of a fixed slice structure, which must cover the entire image.

Katata他に1999年10月5日に与えられた米国特許第5963257号は、位置区域およびイメージ形式、下レイヤコード、予測コーディング上レイヤコードによって、コーディングされたデータを分離し、したがってコーディングされたデータの階層構造を得る手段を有するフラットビデオイメージデコーディングデバイスを保護し、このデコーダは、高品質イメージを得るために、階層構造でコーディングされたデータを分離する手段を有する。   U.S. Pat. No. 5,963,257, issued Oct. 5, 1999 to Katata et al., Separates coded data by location area and image format, lower layer code, predictive coding upper layer code, and thus coded data Protecting a flat video image decoding device having means for obtaining a hierarchical structure, the decoder comprises means for separating the data coded in the hierarchical structure in order to obtain a high quality image.

Shen他に2001年9月18日に与えられた米国特許第6292588号は、再構成されたフラットイメージのデータが小さい領域のイメージデータおよび前記イメージの最適予測データの合計から生成される形で、小さい領域から再構成され、デコードされる予測フラットイメージをコーディングするデバイスおよび方法を保護する。イメージデータストリーム用の前記予測デコーディングデバイスには、単一次元DCT係数の可変長コードが含まれる。Boonに2002年4月9日に与えられた米国特許第6370276号は、上記に類似するデコーディング方法を使用する。   U.S. Pat. No. 6,292,588 issued September 18, 2001 to Shen et al., In which the reconstructed flat image data is generated from the sum of the image data of a small area and the optimal prediction data of the image, Protect devices and methods for coding predictive flat images that are reconstructed from small areas and decoded. The predictive decoding device for the image data stream includes a variable length code of single dimensional DCT coefficients. US Pat. No. 6,370,276, granted to Boon on April 9, 2002, uses a decoding method similar to the above.

Lazzaro他に2002年9月24日に与えられた米国特許第6456432号は、立体3Dイメージディスプレイシステムを保護し、このシステムは、2つの透視図からイメージをとり、これらをCRTに表示し、観察者の両目に関するフリッカなしで、これらのイメージをフィールドシーケンシャルな形で多重化する。   U.S. Pat. No. 6,456,432, issued September 24, 2002 to Lazzaro et al., Protects a stereoscopic 3D image display system, which takes images from two perspective views and displays them on a CRT for viewing. These images are multiplexed in a field-sequential manner, without flicker for both eyes.

Duruoz他に2003年12月2日に与えられた米国特許第6658056号は、指定された位置のディジタルビデオフィールドを出力メモリ内に得るために「隣接フィールド」コマンドに対応する論理表示セクションを含むディジタルビデオデコーダを保護する。ディジタルビデオ表示システムは、MPEG2ビデオデコーダを備える。イメージは、メモリバッファとしてデコードされ、このメモリバッファは、最適化され、補償変数テーブルを維持し、データフィールドとして表示される固定メモリポインタテーブルにアクセスする。   U.S. Pat. No. 6,658,056, issued Dec. 2, 2003 to Durouz et al., Includes a digital display section corresponding to a "neighbor field" command to obtain a digital video field at a specified location in output memory. Protect the video decoder. The digital video display system includes an MPEG2 video decoder. The image is decoded as a memory buffer, which is optimized, maintains a compensation variable table, and accesses a fixed memory pointer table that is displayed as a data field.

Boonに2003年12月16日に与えられた米国特許第6665445号は、イメージ伝送用のデータ構造、フラットイメージコーディング方法、およびフラットイメージデコーディング方法を保護する。このデコーディング方法は、2つの部分からなり、第1部分は、イメージ形式情報データストリームを分類し、第2部分は、イメージデータストリームの画素値に関するデコーディングプロセスであり、両方の部分を、フラットイメージ信号コーディングに従って切り替えることができる。   US Pat. No. 6,665,445 granted to Boon on December 16, 2003 protects data structures for image transmission, flat image coding methods, and flat image decoding methods. This decoding method consists of two parts, the first part classifies the image format information data stream, the second part is a decoding process relating to the pixel values of the image data stream, both parts being flat It can be switched according to the image signal coding.

Moutin他に2004年1月13日に与えられた米国特許第6678331号は、共用メモリを使用するMPEGデコーダを保護する。実際には、回路に、マイクロプロセッサ、フラットイメージシーケンスをデコードするMPEGデコーダ、マイクロプロセッサ用の共通メモリ、およびデコーダが含まれる。この回路に、デコーダ遅延を評価する回路と、マイクロプロセッサまたはデコーダに関するメモリ優先順位を判定する制御回路も含まれる。   U.S. Pat. No. 6,678,331, issued January 13, 2004 to Moutin et al., Protects MPEG decoders that use shared memory. In practice, the circuit includes a microprocessor, an MPEG decoder that decodes a flat image sequence, a common memory for the microprocessor, and a decoder. This circuit also includes a circuit that evaluates the decoder delay and a control circuit that determines the memory priority for the microprocessor or decoder.

Fergusonに2004年1月13日に与えられた米国特許第6678424号は、リアルタイムヒューマンビジョンシステムの挙動モデルを保護する。実際には、このモデルは、異なるチャネル内の、一方が他方から導出される、2次元の2つのイメージ信号を処理する。   US Pat. No. 6,678,424 granted to Ferguson on January 13, 2004 protects the behavior model of a real-time human vision system. In practice, this model processes two two-dimensional image signals in different channels, one derived from the other.

本発明の目的は、ソフトウェアの変更およびハードウェアの変更からなる、立体3Dビデオイメージディジタルデコーディングのシステムおよび方法を提供することである。   It is an object of the present invention to provide a stereoscopic 3D video image digital decoding system and method consisting of software changes and hardware changes.

本発明の追加の目的は、通常のvideo_sequenceプロセスが、コーディングされたイメージデータすなわち、variable_length_decoding(VLD)、inverse_scan、inverse_quantization、inverse_discrete_cosine_transform(IDCT)、およびmotion_compensationに適用されるデコーディング方法を提供することである。   An additional object of the present invention is that the normal video_sequence process is applied to the coded image data, ie, the variable_length_decoding (VLD), the inverse_scan, the inverse_quantization, the inverse_discrete_cosine_transform (encoding), and the encoding_smp .

本発明のもう1つの目的は、ビデオフォーマットの識別のデコーディング、2DイメージMPEG2後方互換性、TDVision(登録商標)タイプイメージの区別、最後のイメージバッファの保管、情報デコーディングの適用、誤り訂正の適用、および各々のチャネルバッファへの結果の保管に関するソフトウェア情報の変更を行うことである。   Another object of the present invention is to decode video format identification, 2D image MPEG2 backward compatibility, TDVision® type image discrimination, last image buffer storage, application of information decoding, error correction Applying and changing software information related to storing results in each channel buffer.

本発明のもう1つの目的は、TDVision(登録商標)タイプイメージが見つかった時に、最後の完全なイメージのバッファが左または右のチャネルバッファに保管される形で、video_sequenceプロセスの通常の形を有するデコーディング方法を提供することである。   Another object of the invention is to have the normal form of a video_sequence process, with the last complete image buffer being stored in the left or right channel buffer when a TDVision® type image is found. It is to provide a decoding method.

本発明のもう1つの目的は、2つの互いに依存する(異なる)ビデオ信号を同一のvideo_sequence内で送ることができ、その情報デコーディングがBタイプフレームとして適用され、保管される、デコーディングプロセスを提供することである。   Another object of the present invention is to provide a decoding process in which two mutually dependent (different) video signals can be sent in the same video_sequence, and that information decoding is applied and stored as a B-type frame. Is to provide.

本発明のもう1つの目的は、動きベクトルおよび色訂正ベクトルが適用される時に、誤り訂正が最後に得られたイメージに適用されるデコーディングプロセスを提供することである。   Another object of the present invention is to provide a decoding process in which error correction is applied to the last obtained image when motion vectors and color correction vectors are applied.

本発明のもう1つの目的は、2つの独立のプログラムストリームを同時に受け取り、分類するためにソフトウェアによってデコーダをプログラムすることである。   Another object of the present invention is to program the decoder by software to receive and classify two independent program streams simultaneously.

本発明のもう1つの目的は、二重出力バッファがアクティブ化されるハードウェアを介して3Dイメージ情報をデコードするデコーディングシステムを提供することである。   Another object of the present invention is to provide a decoding system that decodes 3D image information via hardware in which a dual output buffer is activated.

本発明のもう1つの目的は、イメージデコーディングセレクタを並列に差によってアクティブ化する、3Dイメージ情報のデコーディングシステムを提供することである。   Another object of the present invention is to provide a 3D image information decoding system that activates image decoding selectors in parallel.

本発明のもう1つの目的は、圧縮解除プロセスを実行し、対応する出力バッファを表示する、3Dイメージ情報デコーディングシステムを提供することである。   Another object of the present invention is to provide a 3D image information decoding system that performs a decompression process and displays a corresponding output buffer.

本発明の対象目的が関係するテクノロジマップを表す。2 represents a technology map to which the subject purpose of the present invention relates. 本プロセスのステップの概要が示された流れ図を示す。Figure 2 shows a flow diagram outlining the steps of the process. ビットレベルでTDVision(登録商標)テクノロジイメージタイプを識別するための、変更されなければならない構造と、データストリームのvideo_sequenceとの概略を示す。Fig. 4 shows an overview of the structure to be changed and the video_sequence of the data stream for identifying the TDVision ™ technology image type at the bit level. TDVision(登録商標)デコーディング方法のコンパイルソフトウェアフォーマット(40)を示す。Fig. 6 shows a compiled software format (40) for a TDVision (R) decoding method. ハードウェアセクションでのデコーディングコンパイルフォーマットを示す。Decoding compilation format in the hardware section.

ハードウェアとソフトウェアアルゴリズムの組合せは、立体3Dイメージ情報圧縮を可能にし、この情報は、立体対識別子を有する2つの同時プログラムを送り、したがってコーディング−デコーディングプロセスをはかどらせることによって、3Dvision(登録商標)カメラから来る左右の信号に対応する2つの独立だが同一のtime_codeを有するビデオ信号として受け取られる。また、2つの互いに依存するビデオ信号を、その差を入手することによって処理することができ、この差は、イメージタイプ識別子を有する「B」タイプフレームとして保管される。コーディングプロセスは、技術開発を促進するためにオープンにされているので、このデコーディングプロセスすなわち、コーディングされたデータに可変長デコーディングを適用し(実質的な削減が得られるが、ルックアップテーブルを使用してデコーディングを実行しなければならない)、逆スキャンプロセスを適用し、各データにスカラをかける逆量子化プロセスを適用し、逆コサイン変換関数を適用し、誤り訂正または動き補償ステージを適用し、デコードされたイメージを最終的に得ることに従うことだけが必要である。   The combination of hardware and software algorithms enables stereoscopic 3D image information compression, which sends 3 simultaneous programs with stereoscopic pair identifiers, thus accelerating the coding-decoding process. ) Received as video signals having two independent but identical time_codes corresponding to the left and right signals coming from the camera. Also, two interdependent video signals can be processed by obtaining the difference, which is stored as a “B” type frame with an image type identifier. Since the coding process is open to facilitate technology development, this decoding process, i.e. applying variable length decoding to the coded data (substantial reduction is obtained, but the lookup table Decoding), applying an inverse scan process, applying an inverse quantization process that applies a scalar to each data, applying an inverse cosine transform function, applying an error correction or motion compensation stage It is only necessary to follow the final obtaining of the decoded image.

構造および動作方法に関する本発明の新規の特性は、添付明細書と一緒に添付図面の説明からよりよく理解されるが、添付図面では、類似する符号が類似する部分およびステップを指す。   The novel features of the invention relating to structure and method of operation are better understood from the description of the accompanying drawings in conjunction with the accompanying specification, wherein like numerals refer to like parts and steps.

図1は、本発明の対象目的が関係するテクノロジマップを表す。図1には、立体3Dイメージのコーディングおよびデコーディングのシステムと、対応する方法とが示されている。イメージは、立体カメラ(32)から来て、情報は適当なシステム(30)または(33)でコンパイルされ(31)、表示される。情報は、(34)でコーディングされ、これを、(35)などの適当な以前のデコーディングステージを有するシステムに伝送することができ、(35)は、ケーブルシステム(36)、衛星システム(37)、高品位テレビジョンシステム(38)、またはTDVision(登録商標)社の3DVisors(登録商標)(39)などの立体視システムとすることができる。   FIG. 1 represents a technology map to which the subject purpose of the present invention pertains. FIG. 1 shows a stereoscopic 3D image coding and decoding system and corresponding method. The image comes from the stereo camera (32) and the information is compiled (31) and displayed by the appropriate system (30) or (33). The information is coded at (34) and can be transmitted to a system with a suitable previous decoding stage, such as (35), which includes a cable system (36), a satellite system (37 ), High-definition television system (38), or 3DVisions (registered trademark) (39) of TDVision (registered trademark).

図2に、本プロセスのステップの概要が示された流れ図を示す。目的は、現在のMPEG2デコーダに対する変更と、デコーディングプロセス(2)のソフトウェア(3)およびハードウェア(4)に対する変更を行うことによってディジタルビデオストリームから3次元イメージを得ることであり、デコーダ(1)は、MPEG2−4と互換でなければならない。   FIG. 2 shows a flow diagram outlining the steps of the process. The purpose is to obtain a 3D image from a digital video stream by making changes to the current MPEG2 decoder and to the software (3) and hardware (4) of the decoding process (2), and the decoder (1 ) Must be compatible with MPEG2-4.

図3は、ビットレベルでTDVision(登録商標)テクノロジイメージタイプを識別するための、変更されなければならない構造と、データストリームのvideo_sequenceとの概略を示す。   FIG. 3 shows an overview of the structure to be changed and the video_sequence of the data stream to identify the TDVision® technology image type at the bit level.

デコーディングプロセスのステージのそれぞれを、下で詳細に説明する(20)。   Each of the stages of the decoding process is described in detail below (20).

コーディングされたデータ(10)は、ブロック情報、マクロブロック、フィールド、フレーム、およびMPEG2フォーマットビデオイメージを有するバイトである。   The coded data (10) is a byte with block information, macroblocks, fields, frames, and an MPEG2 format video image.

Variable_length_decoding(11)(VLC、可変長デコーダ)は、最も頻繁なパターンがより短いコードによって置換され、頻繁に発生しないパターンがより長いコードによって置換される圧縮アルゴリズムである。この情報の圧縮された版は、より少ないスペースを占め、ネットワークによってより高速に伝送することができる。しかし、これは、簡単に編集可能なフォーマットではなく、ルックアップテーブルを使用する圧縮解除を必要とする。   Variable_length_decoding (11) (VLC, variable length decoder) is a compression algorithm in which the most frequent pattern is replaced by a shorter code and a pattern that does not occur frequently is replaced by a longer code. The compressed version of this information takes up less space and can be transmitted faster over the network. However, this is not an easily editable format and requires decompression using a lookup table.

たとえば、語BEETLEは、次のようになる
文字 ASCIIコード VLS
B 0100 0010 0000 0010 10
E 0110 0101 11
L 0110 1100 0001 01
T 0111 0100 0100
For example, the word BEETLE has the following characters: ASCII code VLS
B 0100 0010 0000 0010 10
E 0110 0101 11
L 0110 1100 0001 01
T 0111 0100 0100

したがって、この語のASCIIコードは、0100 0010 0110 0101 0110 0101 0111 01000 0110 1100 0110 0101であり、VLCでは0000 0010 10 11 11 0100 00010 01 11である。   Therefore, the ASCII code for this word is 0100 0010 0110 0101 0110 0101 0111 01000 0110 1100 1110 0110 0101 and 0000 0010 10 11 11 0100 0010 01 11 in VLC.

実質的な減少が認められるが、VLCから語「Beetle」に戻すためには、ルックアップテーブル内の検索が、ビットストリームをデコードするために必要であり、これは、読取ビットの正確な比較によって行われる。   Although a substantial decrease is observed, in order to return from the VLC to the word “Beetle”, a lookup in the lookup table is required to decode the bitstream, which is due to an accurate comparison of the read bits. Done.

逆スキャン(12):情報を、ブロックによってグループ化しなければならず、VLCを用いて情報をコーディングすることによって、線形ストリームが得られる。ブロックは、8×8データ行列であり、したがって、線形情報を正方形の8×8行列に変換する必要がある。これは、プログレッシブイメージまたはインターレースイメージのどちらであるかに応じて、両方のシーケンスタイプで上から下、左から右への降下するジグザグの形で行われる。   Reverse scan (12): Information must be grouped by block, and by coding the information using VLC, a linear stream is obtained. The block is an 8 × 8 data matrix, so the linear information needs to be converted to a square 8 × 8 matrix. This is done in the form of a zigzag descending from top to bottom and from left to right in both sequence types, depending on whether it is a progressive image or an interlaced image.

逆量子化(13):これは、単純に、各データ値に係数をかけることからなる。分類された時に、ブロック内のデータの大半が、人間の目が知覚できない情報を除去するために量子化され、この量子化は、より大きいMPEG2ストリーム変換を得ることを可能にし、デコーディングプロセスで逆プロセス(逆量子化)を実行することも必要とする。   Inverse quantization (13): This simply consists of multiplying each data value by a coefficient. When classified, most of the data in the block is quantized to remove information that cannot be perceived by the human eye, and this quantization allows to obtain a larger MPEG2 stream transform, and in the decoding process It is also necessary to perform an inverse process (inverse quantization).

逆コサイン変換(14)(IDCT、inverse_discrete_cosine_transform):各ブロック内で処理されるデータは、周波数領域に関係し、この逆コサイン変換は、空間領域のサンプルに戻すことを可能にする。IDCTでデータを変換したならば、画素、色、および色訂正を得ることができる。   Inverse Cosine Transform (14) (IDCT, inverse_discrete_cosine_transform): The data processed in each block is related to the frequency domain, and this inverse cosine transform makes it possible to return to the spatial domain samples. Once the data is converted with IDCT, pixels, colors, and color corrections can be obtained.

動き補償(15)は、MPEGフォーマットのデコーディングステージの前に生成されたいくつかの誤りを訂正することを可能にし、動き補償は、基準として前のフレームをとり、画素に関する動きベクトルを計算し(4つまでのベクトルを計算することができる)、これらを使用して新しいイメージを作成する。この動き補償は、PタイプイメージおよびBタイプイメージに適用され、ここで、イメージ位置が、基準イメージからの「t」時間に対して突き止められる。動き補償のほかに、誤り訂正も適用される。というのは、特定の画素の位置を予測することは不十分であり、その色の変化も存在し得るからである。したがって、デコードされたイメージが得られる(16)。   Motion compensation (15) makes it possible to correct some errors generated before the decoding stage of the MPEG format, motion compensation takes the previous frame as a reference and calculates a motion vector for the pixel. These can be used to create new images (up to four vectors can be calculated). This motion compensation is applied to P-type and B-type images, where the image position is located relative to the “t” time from the reference image. In addition to motion compensation, error correction is also applied. This is because it is insufficient to predict the position of a particular pixel, and its color change may exist. Thus, a decoded image is obtained (16).

PタイプイメージまたはBタイプイメージをデコードするために、基準イメージがとられ、動きベクトルが、代数的に加算されて、次のイメージが計算され、最後に、誤り訂正データが適用され、したがって、デコードされたイメージが成功裡に生成される。実際には、video_sequence内で、2つの互いに依存するビデオ信号「R−L=デルタが存在し、デルタ差は、TDVision(登録商標)識別子を有するBタイプ立体対フレームとして保管されるものであり、デコーディングの瞬間に、イメージからの差によって構成される。すなわち、R−delta=LおよびL−delta=Rであり、左イメージは、右イメージとの差から構成され、右イメージは、左イメージとの差から構成される。   In order to decode a P-type image or a B-type image, a reference image is taken, motion vectors are added algebraically to calculate the next image, and finally error correction data is applied, thus decoding. The generated image is successfully generated. In fact, within the video_sequence there are two interdependent video signals “RL = Delta, where the delta difference is stored as a B-type stereo pair frame with a TDVision® identifier, At the moment of decoding, it is composed by the difference from the image, ie R-delta = L and L-delta = R, the left image is composed of the difference from the right image, the right image is the left image And the difference.

前のプロセスは、左または右の信号がとられ、両方が一時バッファに保管され、その後、左信号と右信号の間の差が計算され、その後、前記イメージからの差によって後にデコードされる、video_sequenceに保管されたBタイプイメージとしてコーディングされる形で概要を示された。   The previous process takes the left or right signal, both are stored in a temporary buffer, then the difference between the left and right signals is calculated and then decoded later by the difference from the image, It was outlined in the form of being coded as a B-type image stored in video_sequence.

デコーディングプロセスでは、VLCステージによって入力されたデータが、同一ステージによって出力されるデータよりはるかに小さいことを演繹することができる。   In the decoding process, it can be deduced that the data input by the VLC stage is much smaller than the data output by the same stage.

MPEGビデオシーケンス構造 これは、MPEG2フォーマットで使用される最大の構造であり、次のフォーマットを有する。
ビデオシーケンス(Video_Sequence)
シーケンスヘッダ(Sequence_Header)
シーケンス拡張(Sequence_Extension)
ユーザデータ(0)および拡張(Extension_and_User_Data(0))
イメージグループヘッダ(Group_of_Picture_Header)
ユーザデータ(1)および拡張(Extension_and_User_Data(1))
イメージヘッダ(Picture_Header)
コーディングされたイメージ拡張(Picture_Coding_Extension)
ユーザデータ(2)および拡張(Extension_and_User_Data(2))
イメージデータ(Picture_Data)
スライス(Slice)
マクロブロック(Macroblock)
動きベクトル(Motion_Vectors)
コーディングされたブロックパターン(Coded_Block_Pattern)
ブロック(Block)
最終シーケンスコード(Sequence_end_Code)
MPEG Video Sequence Structure This is the largest structure used in the MPEG2 format and has the following format:
Video sequence (Video_Sequence)
Sequence header (Sequence_Header)
Sequence extension (Sequence_Extension)
User data (0) and extension (Extension_and_User_Data (0))
Image group header (Group_of_Picture_Header)
User data (1) and extension (Extension_and_User_Data (1))
Image header (Picture_Header)
Coded image extension (Picture_Coding_Extension)
User data (2) and extension (Extension_and_User_Data (2))
Image data (Picture_Data)
Slice
Macroblock
Motion vector (Motion_Vectors)
Coded block pattern (Coded_Block_Pattern)
Block
Final sequence code (Sequence_end_Code)

これらの構造が、ビデオシーケンスを構成する。ビデオシーケンスは、MPEGフォーマットについて適用され、各バージョンを区別するために、シーケンスヘッダの直後にシーケンス拡張が存在することの検証がなければならず、シーケンス拡張がヘッダに続かない場合には、そのストリームはMPEG1フォーマットである。   These structures constitute a video sequence. The video sequence applies to the MPEG format, and to distinguish between versions, there must be a verification that a sequence extension exists immediately after the sequence header, and if the sequence extension does not follow the header, the stream Is the MPEG1 format.

ビデオシーケンスの始めに、sequence_headerおよびsequence_extensionがvideo_sequenceに現れる。sequence_extensionは、最初の試行で同一でなければならず、sequence_headerの「s」回の反復は、最初の出現と比較してほとんど変化せず、量子化行列を定義する部分だけが変化しなければならない。シーケンス反復を有することによって、ビデオストリームへのランダムアクセスが可能になる、すなわち、デコーダがビデオストリームの途中から再生を開始することを望む場合に、これを行うことができる。というのは、次のイメージをデコードするために、その瞬間の前のsequence_headerおよびsequence_extensionを見つけることだけが必要になるからである。これは、伝送時刻の後に同調された衛星デコーダなど、先頭から開始できないビデオストリームについても発生する。   At the beginning of the video sequence, sequence_header and sequence_extension appear in video_sequence. The sequence_extension must be the same in the first trial, and the “s” iteration of the sequence_header should change little compared to the first occurrence, and only the part defining the quantization matrix must change. . Having sequence repetition allows random access to the video stream, i.e. this can be done if the decoder wants to start playing in the middle of the video stream. This is because in order to decode the next image, it is only necessary to find the previous sequence_header and sequence_extension. This also occurs for video streams that cannot start from the beginning, such as a satellite decoder tuned after the transmission time.

フルビデオ信号コーディング−デコーディングプロセスは、次のステップからなる。
ビデオ信号をディジタル化すること。これは、NTSCフォーマット、PALフォーマット、またはSECAMフォーマットで行うことができる。
ディジタル形式でビデオ信号を保管すること
信号を送ること
ディジタルビデオストリームを物理媒体(DVD、VCD、MiniDV)に記録すること
信号を受け取ること
ビデオストリームを再生すること
信号をデコードすること
信号を表示すること
The full video signal coding-decoding process consists of the following steps.
Digitizing a video signal. This can be done in NTSC format, PAL format, or SECAM format.
Storing a video signal in digital format Sending a signal Recording a digital video stream on a physical medium (DVD, VCD, MiniDV) Receiving a signal Playing a video stream Decoding a signal Displaying a signal

適当なDSPによって処理されるメモリを2倍にし、8つまでの出力バッファを配置する可能性を有することが必須であり、これによって、TDVision(登録商標)社の3DVisor(登録商標)などのデバイスで立体イメージの以前の表現および同時表現が可能になる。   It is essential to have the possibility of doubling the memory processed by a suitable DSP and placing up to eight output buffers, thereby allowing devices such as TDVision® 3D Visor® Enables the previous and simultaneous representation of stereoscopic images.

実際には、たとえば、Texas Instruments社のTMS320C62X DSPの例示的な事例で、DSPのプログラミングAPIを呼び出す時に、2チャネルを初期化しなければならない。
MPEG2VDEC_create(const IMPEG2VDEC_fxns*fxns,const MEPG2VDEC_Params* params)
In practice, for example, in the TMS320C62X DSP example case from Texas Instruments, two channels must be initialized when calling the DSP programming API.
MPEG2VDEC_create (const IMPEG2VDEC_fxns * fxns, const MPEG2VDEC_Params * params)

ここで、IMPEG2VDEC_fxns y MEPG2VDEC_Paramsは、各ビデオチャネルの動作パラメータを定義するポインタ構造であり、たとえば、
3DLhandle=MPEG2VDEC_create(fxns3DLEFT,Params3DLEFT)
3DRhandle=MPEG2VDEC_create(fxns3DRIGHT,Params3DRIGHT
である。
Here, IMPEG2VDEC_fxns y MPEG2VDEC_Params is a pointer structure that defines the operation parameters of each video channel.
3DLhandle = MPEG2VDEC_create (fxns3DLEFT, Params3DLEFT)
3DRhandle = MPEG2VDEC_create (fxns3DLIGHT, Params3DLIGHT
It is.

これによって、左右の立体チャネルごとに1つずつの、2つのビデオチャネルをデコードできるようになり、2つのビデオハンドラが得られる。   This makes it possible to decode two video channels, one for each left and right stereo channel, resulting in two video handlers.

二重表示出力バッファが必要であり、ソフトウェアによって、AP関数を呼び出すことによって、2つのバッファのうちのどちらが出力を表示しなければならないかが定義される。
すなわち、MPEG2VDEC_APPLY(3DRhandle,inputR1,inputR2,inputR3,3doutright_pb,3doutright_fb)
MPEG2VDEC_APPLY(3DLhandle,inputL1,inputL2,inputL3,3doutleft_pb,3doutleft_fb)
A dual display output buffer is required and the software defines which of the two buffers should display the output by calling the AP function.
That is, MPEG2VDEC_APPLY (3DRhandle, inputR1, inputR2, inputR3, 3doutright_pb, 3doutright_fb)
MPEG2VDEC_APPLY (3DLhandle, inputL1, inputL2, inputL3, 3outleft_pb, 3outleft_fb)

これと同一の手順を、類似する機能を有するすべてのDSP、マイクロプロセッサ、または電子デバイスについて実施することができる。   This same procedure can be implemented for all DSPs, microprocessors, or electronic devices with similar functions.

ここで、3DLhandleは、DSPの作成関数によって返されるハンドルへのポインタであり、input1パラメータは、FUNC_DECODE_FRAMEまたはFUNC_START_PARAのアドレスであり、input2は、外部入力バッファアドレスへのポインタであり、input3は、外部入力バッファのサイズである。   Here, 3DLhandle is a pointer to the handle returned by the DSP creation function, input1 parameter is the address of FUNC_DECODE_FRAME or FUNC_START_PARA, input2 is a pointer to the external input buffer address, and input3 is the external input The size of the buffer.

3doutleft_pbは、パラメータバッファのアドレスであり、3doutleft_fbは、デコードされたイメージが保管される出力バッファの先頭である。   3dleft_pb is the address of the parameter buffer, and 3dleft_fb is the head of the output buffer where the decoded image is stored.

timecodeおよびtimestampは、順次同期式の形での最終デバイスへの出力に使用される。   Timecode and timestamp are used for output to the final device in a sequential synchronous fashion.

DSPによって処理されるメモリを2倍にし、8つまでの出力バッファを配置する可能性を有することが必須であり、これによって、TDVision(登録商標)Corporation社の3DVisor(登録商標)などのデバイスで立体イメージの以前の表示および同時表示が可能になる。   It is essential to double the memory processed by the DSP and have the possibility of placing up to eight output buffers, which allows devices such as 3D Visor (registered trademark) from TDVision (registered trademark) Corporation Previous display and simultaneous display of stereoscopic images are possible.

ソフトウェアプロセスおよびハードウェアプロセスの統合は、DSPと称するデバイスによって実行され、このDSPは、ハードウェアプロセスのほとんどを実行する。これらのDSPは、製造業者によって供給されるC言語およびアセンブリ言語のハイブリッドによってプログラムされる。各DSPは、DSP内に置かれ、ソフトウェアによって呼び出される関数リストまたは手続き呼出しからなる、それ自体のAPIを有する。   The integration of software and hardware processes is performed by a device called a DSP, which performs most of the hardware processes. These DSPs are programmed by a hybrid of C and assembly language supplied by the manufacturer. Each DSP has its own API that consists of a function list or procedure call that is placed in the DSP and called by software.

この参照情報を用いて、MPEG2フォーマット互換3Dイメージデコーディングに関する本願が作られる。   This reference information is used to create an application relating to MPEG2 format compatible 3D image decoding.

実際には、ビデオシーケンスの始めに、シーケンスヘッダ(sequence_header)およびシーケンス拡張が必ず現れる。シーケンス拡張の反復は、最初と同一でなければならない。対照的に、シーケンスヘッダ反復は、最初の出現と比較してほとんど変化せず、量子化行列を定義する部分だけが変化しなければならない。   In practice, a sequence header (sequence_header) and a sequence extension always appear at the beginning of a video sequence. The sequence extension iteration must be the same as the first. In contrast, sequence header iterations change little compared to the first occurrence, and only the part defining the quantization matrix must change.

図4に、TDVision(登録商標)デコーディング方法のコンパイルソフトウェアフォーマット(40)を示すが、ここで、sequence_header(42)内でディジタル立体イメージビデオストリームのvideo_sequence(41)が識別され、これは、依存または独立(平行イメージ)とすることができる。イメージがTDVision(登録商標)である場合に、2重バッファがアクティブ化され、aspect_ratio_informationの変更が識別される。ここで見つけることができる、イメージに対応する情報が、user_data(43)に読み取られる。sequence_scalable_extension(44)は、それとベースレイヤとエンハンスメントレイヤとに含まれる情報を定義し、video_sequenceをここで突き止めることができ、scalable_modeおよびレイヤ識別子を定義し、extra_bit_picture(45)は、picture_estructureおよびpicture_headerを定義し、picture_coding_extension(46)は、「B」タイプイメージを読み取り、それがTDVision(登録商標)タイプイメージである場合に、第2バッファをデコードする。picture_temporal_scalable_extension()(47)は、時間スケーラビリティを有する場合に、Bタイプイメージをデコードするのに使用される。   FIG. 4 shows the compiled software format (40) of the TDVision® decoding method, where the video_sequence (41) of the digital stereoscopic image video stream is identified in the sequence_header (42), which depends on Or it can be independent (parallel image). If the image is TDVision®, the double buffer is activated and the change in aspect_ratio_information is identified. Information corresponding to the image, which can be found here, is read into user_data (43). The sequence_scalable_extension (44) defines the information contained in it, the base layer and the enhancement layer, the video_sequence can be located here, the scalable_mode and the layer identifier are defined, and the extra_bit_picture (45) defines the picture_eture , Picture_coding_extension (46) reads the “B” type image and decodes the second buffer if it is a TDVision® type image. picture_temporal_scalable_extension () (47) is used to decode a B-type image if it has temporal scalability.

すなわち、シーケンスヘッダ(sequence_header)は、ビデオストリームに対する上位情報レベルを提供し、わかりやすくするために、それぞれに対応するビット数も示され、上位ビットは、シーケンス拡張(Sequence_Extension)構造内に置かれ、次の構造によって形成される。

Figure 2011193486

Figure 2011193486
That is, the sequence header (sequence_header) provides a higher level of information for the video stream, and for the sake of clarity, the corresponding number of bits is also shown, and the higher order bits are placed in the sequence extension (Sequence_Extension) structure, Formed by the following structure.
Figure 2011193486

Figure 2011193486

Picture_temporal_scalable_extension()
時間スケーラビリティを有する場合に、2つの空間解像度ストリームが存在し、下レイヤは、ビデオフレームのより小さいインデックスの版を提供し、上レイヤは、同一ビデオのフレームのより大きいインデックスの版を導出するのに使用することができる。時間スケーラビリティは、低品質、低コスト、または無料のデコーダによって使用することができ、より高いフレーム毎秒は、有料で使用される。

Figure 2011193486
Picture_temporal_scalable_extension ()
In the case of temporal scalability, there are two spatial resolution streams, the lower layer provides a smaller index version of the video frame, and the upper layer derives a larger index version of the same video frame. Can be used for Temporal scalability can be used by low quality, low cost, or free decoders, with higher frames per second being used for a fee.
Figure 2011193486

イメージ空間スケーラビリティの場合に、エンハンスメントレイヤにデータが含まれ、このデータは、ベースレイヤのよりよい解像度を可能にし、したがって、ベースレイヤのよりよい解像度を再構築することができる。エンハンスメントレイヤが、動き補償の基準としてのベースレイヤの関数として使用される時に、エンハンスメントレイヤのより高い解像度を得るために、下レイヤをエスカレートし、オフセットしなければならない。

Figure 2011193486
In the case of image space scalability, data is included in the enhancement layer, which allows for a better resolution of the base layer and can thus reconstruct a better resolution of the base layer. When the enhancement layer is used as a function of the base layer as a reference for motion compensation, the lower layer must be escalated and offset to obtain a higher resolution of the enhancement layer.
Figure 2011193486

EXTENSION_AND_USER_DATA(2)
イメージは、
DVD(ディジタル多用途ディスク)
DTV(ディジタルテレビジョン)
HDTV(高品位テレビジョン)
ケーブル(DVB、ディジタルビデオ放送)
衛星(DDS、ディジタル衛星システム)
で表示することができ、これはソフトウェアプロセスとハードウェアプロセスの統合である。
EXTENSION_AND_USER_DATA (2)
The image is
DVD (digital versatile disc)
DTV (digital television)
HDTV (High Definition Television)
Cable (DVB, digital video broadcasting)
Satellite (DDS, digital satellite system)
This is the integration of software and hardware processes.

図5のハードウェアセクションでのデコーディングコンパイルフォーマット(50)は、DSP入力メモリに複製され、それと同時に、立体TDVision(登録商標)カメラによって撮影された左右の立体の既存信号に対応する2つの独立のまたは依存するビデオ信号の同時入力が許容される。この手順では、video_sequence(51)が、左右のフレームを交番させるかこれらを並列に送るために検出され、sequence_header(52)識別、イメージタイプ(53)が識別され、通常ビデオストリーム(54)に渡され、次に、誤り訂正プロセス(55)にサブミットされ、ビデオイメージ情報が、出力バッファ(56)に送られ、出力バッファ(56)は、この情報を共用し、ビデオストリーム情報が3Dまたは2Dで表示される前記チャネル内の左チャネル(57)および右チャネル(58)に分配する。   The decoding compilation format (50) in the hardware section of FIG. 5 is duplicated in the DSP input memory and at the same time two independent stereo signals corresponding to the left and right stereo existing signals taken by the stereo TDVision® camera. Simultaneous or dependent video signals are allowed. In this procedure, video_sequence (51) is detected to alternate left and right frames or send them in parallel, sequence_header (52) identification, image type (53) is identified and passed to normal video stream (54). And then submitted to the error correction process (55), the video image information is sent to the output buffer (56), which shares this information and the video stream information is in 3D or 2D. Distribute to the left channel (57) and right channel (58) within the displayed channel.

2つの独立だが同一のtime_codeに同期化されたビデオストリームとしての同時形式でL(左)とR(右)の両方のビデオストリームを保管することにあり、したがって、これらを、後にデコードし、より大きい出力バッファ内で並列に再生することができる。これらを、従属とし、差によって分類解除(decodify)することもできる。   It is to store both L (left) and R (right) video streams in a simultaneous format as video streams synchronized to two independent but identical time_codes, so they are later decoded and more Can be played back in parallel in a large output buffer. These can be made dependent and declassified by difference.

ハードウェアに関して、プロセスのほとんどが、DSP(ディジタル信号プロセッサ)と称するデバイスによって実行される。例として、たとえば、Motorola社のモデルおよびTexas Instruments社のモデル(TMS320C62X)を使用することができる。   With regard to hardware, most of the process is performed by a device called a DSP (Digital Signal Processor). By way of example, for example, the Motorola model and the Texas Instruments model (TMS320C62X) can be used.

これらのDSPは、当の製造業者によって供給されるC言語およびアセンブリ言語のハイブリッドによってプログラムされる。各DSPは、DSP内に置かれ、ソフトウェアによって呼び出される関数リストまたは手続き呼出しからなる、それ自体のAPIを有する。この参照情報から、3Dイメージがコーディングされ、このコードは、MPEG2フォーマットおよびそれ自体のコーディングアルゴリズムと互換である。情報がコーディングされる時に、DSPは、MPEG2圧縮されたビデオストリームを形成するために、予測プロセス、比較プロセス、量子化プロセス、およびDCT関数適用プロセスを実行する責任を負う。   These DSPs are programmed with a hybrid of C and assembly language supplied by the manufacturer. Each DSP has its own API that consists of a function list or procedure call that is placed in the DSP and called by software. From this reference information, a 3D image is coded, which is compatible with the MPEG2 format and its own coding algorithm. When the information is coded, the DSP is responsible for performing a prediction process, a comparison process, a quantization process, and a DCT function application process to form an MPEG2 compressed video stream.

ディジタルビデオストリームから3次元イメージを得るために、デコーディングプロセスの異なる部分のソフトウェア変更およびハードウェア変更によって、現在のMPEG2デコーダに対するある種の変更が行われた。ビデオデータストリームの構造およびvideo_sequenceを、TDVision(登録商標)テクノロジイメージタイプをビットレベルで識別するのに必要なフラグを含めるために変更しなければならない。   In order to obtain a 3D image from a digital video stream, certain changes to the current MPEG2 decoder have been made by software and hardware changes in different parts of the decoding process. The structure and video_sequence of the video data stream must be changed to include the flags necessary to identify the TDVision ™ technology image type at the bit level.

この変更は、次のデコーディングステップで行われる。   This change is made in the next decoding step.

ソフトウェア
−ビデオフォーマット識別。
− TDVision(登録商標)ビデオでない場合のMPEG2後方互換性のための論理「and」の適用。
− video_sequenceをスキャンする、通常の形(前の技法)でのイメージデコーディング。
− TDVision(登録商標)タイプイメージの場合に、
_ それらが従属または独立のどちらのビデオ信号であるかの区別。
_ 最後の完全なイメージバッファを左または右のチャネルバッファに保管する。
_ Bタイプフレーム情報デコーディングを適用する。
_ 動きベクトルおよび色訂正ベクトルを適用することによって、最後に得られたイメージに誤り訂正を適用する。
_ その結果を各々のチャネルバッファに保管する。
_ ビデオシーケンス読取を継続する。
Software-Video format identification.
-Application of logic "and" for MPEG2 backward compatibility when not TDVision (R) video.
-Image decoding in the usual way (previous technique), scanning video_sequence.
-For TDVision (R) type images,
Distinguishing whether they are subordinate or independent video signals.
Store the last complete image buffer in the left or right channel buffer.
Apply B-type frame information decoding.
Apply error correction to the last obtained image by applying motion vectors and color correction vectors.
Store the result in each channel buffer.
_ Continue video sequence reading.

ハードウェア
情報がハードウェアを介してデコードされる時に、
_イメージが2Dまたは3Dのどちらであるかを区別する。
_二重出力バッファをアクティブ化する(メモリを増やす)。
_差デコーディングセレクタをアクティブ化する。
_平行デコーディングセレクタをアクティブ化する。
_圧縮解除プロセスを実行する。
_イメージをそれに対応する出力バッファ内で表示する。
When hardware information is decoded through the hardware,
Distinguish whether the image is 2D or 3D.
_Activate the dual output buffer (increase memory).
_Activate the difference decoding selector.
Activate the parallel decoding selector.
Perform the decompression process.
Display the image in the corresponding output buffer.

次の構造、副構造、およびシーケンスドは、特定の形で使用され、MPEG2後方互換TDVision(登録商標)テクノロジのハードウェア実施のvideo_sequence構造に属する。
実際には、
Sequence_header
Aspect_ratio_information
1001 TDVision(登録商標)で該当なし
1010 TDVision(登録商標)の4:3
1011 TDVision(登録商標)の16:9
1100 TDVision(登録商標)の2.21:1
The following structures, substructures, and sequenced are used in a specific way and belong to the video_sequence structure of the hardware implementation of MPEG2 backward compatible TDVision® technology.
actually,
Sequence_header
Aspect_ratio_information
1001 Not applicable with TDVision (registered trademark) 1010 TDVision (registered trademark) 4: 3
1011 TDVision® 16: 9
1100 TDVision (R) 2.21: 1

0111との論理「and」を実行して、2Dシステムとの後方互換性を得るが、これが行われる時に、立体対(左または右)のバッファをソースに対して等しくしなければならないことの指示がDSPに送られ、したがって、デコードされるすべてのイメージが、すべてのデバイスでのイメージ表示を可能にするために両方の出力バッファに送られる。
Frame_rate_code
1001 TDVision(登録商標)フォーマットの24000/101 (23.976)
1010 TDVision(登録商標)フォーマットの24
1011 TDVision(登録商標)フォーマットの25
1100 TDVision(登録商標)フォーマットの30000/1001 (29.97)
1101 TDVision(登録商標)フォーマットの30
1110 TDVision(登録商標)フォーマットの50
1111 TDVision(登録商標)フォーマットの60000/1001 (59.94)
An indication that the logical “and” with 0111 is performed to obtain backward compatibility with 2D systems, but when this is done, the solid pair (left or right) buffer must be equal to the source Are sent to the DSP, so all images to be decoded are sent to both output buffers to allow image display on all devices.
Frame_rate_code
1001 TDVision® format 24000/101 (23.976)
1010 24 in TDVision® format
1011 25 in TDVision® format
1100 30000/1001 (29.97) in TDVision® format
1101 30 in TDVision (registered trademark) format
1110 TDVision (registered trademark) format 50
1111 TDVision® format 60,000 / 1001 (59.94)

2Dシステムとの後方互換性を得るために、0111との論理「and」を実行する。
User_data()
Sequence_scalable_extension
Picture_header
Extra_bit_picture
0=TDVision(登録商標)
1=通常
Picture_coding_extension
ピクチャ構造
00=TDVision(登録商標)フォーマットのイメージ
Picture_temporal_scalable_extension()
In order to obtain backward compatibility with 2D systems, a logical “and” with 0111 is performed.
User_data ()
Sequence_scalable_extension
Picture_header
Extra_bit_picture
0 = TDVision (registered trademark)
1 = Normal Picture_coding_extension
Picture structure 00 = Image in TDVision (registered trademark) format Picture_temporal_scalable_extension ()

情報をコーディングする瞬間に、DPSが使用され、このDPSは、予測プロセス、比較プロセス、および量子化プロセスを実行する責任を負い、DCTを適用してMPEG2圧縮されたビデオストリームを形成し、2Dイメージと3Dイメージの間で区別する。   At the moment of coding information, DPS is used, which is responsible for performing the prediction, comparison, and quantization processes, applying DCT to form an MPEG2 compressed video stream, 2D image And 3D images.

2つのビデオ信号が、独立だが同一のtime_codeを有する形式でコーディングされ、これらの信号は、3DVision(登録商標)カメラから来る左信号および右信号に対応し、両方のプログラムがTDVision(登録商標)立体対識別子と共に同時に送られる。このタイプのデコーディングは、「平行イメージによる(by parallel images)」と称し、左と右(LとR)の両方のビデオストリームを2つの独立だがtime_code同期化されたビデオストリームとして同時に保管することにある。これらは、後に、並列にデコードされ、再生される。デコーディングソフトウェアだけをデコードする必要があり、トランスポートストリームのコーディングおよび圧縮アルゴリズムは、現在のものと同一である。   Two video signals are coded in a format that has independent but identical time_codes, these signals correspond to the left and right signals coming from the 3DVision® camera, both programs being TDVision® stereoscopic Sent together with a pair identifier. This type of decoding is referred to as “by parallel images” and stores both left and right (L and R) video streams simultaneously as two independent but time_code synchronized video streams. It is in. These are later decoded and played back in parallel. Only the decoding software needs to be decoded and the transport stream coding and compression algorithm is the same as the current one.

デコーダでのソフトウェア変更   Software changes at the decoder

デコーダでは、この例の事例ではTMS320C62XファミリのTexas Instruments社のDSPの使用でプログラミングAPIに従って、2つのプログラムストリームまたは、2つの互いに依存するビデオ信号すなわち識別子と共にBタイプフレームとして保管された両方の間の差から構成されたビデオ信号を、同時にプログラムしなければならない。   At the decoder, in this example case between the two program streams or both stored as a B-type frame with two interdependent video signals or identifiers according to the programming API with the use of the Texas Instruments DSP of the TMS320C62X family The video signal composed of the differences must be programmed simultaneously.

DSPのプログラミングアルゴリズムおよび方法
−DSPを始動する時に2つのプロセスチャネル(主バッファおよび副バッファまたはAPIを呼び出す時には左右)を作成する。
−各チャネルのRAMメモリポインタ(メモリマップ内のRAMアドレス)を得る。
−TDVision(登録商標)タイプビデオシーケンスを得た時に
これをBタイプと解釈し
イメージをリアルタイムでデコードし
変更または差を相補バッファに適用し
結果を副バッファに保管する。
DSP Programming Algorithms and Methods-Creates two process channels when starting the DSP (left and right when calling the main buffer and secondary buffer or API).
Get the RAM memory pointer (RAM address in the memory map) for each channel.
-When obtaining a TDVision (R) type video sequence, interpret it as type B, decode the image in real time, apply changes or differences to the complementary buffer, and store the result in the secondary buffer.

video_sequenceデータストリームでソフトウェアに関して、次の2つのオプションが実施される。
1.一方は、ソフトウェアだけを変更し、user_data()セクションを使用して、立体信号を再生成できるようにする誤り訂正を保管する。
2.他方は、ハードウェアによってPICTURE_DATA3D()関数をイネーブルし、この関数は、MPEG2互換リーダに透過的であり、TDVision(登録商標)互換DSPによってデコードすることができる。
The following two options are implemented for software in the video_sequence data stream:
1. One changes only the software and uses the user_data () section to store error corrections that allow the stereo signal to be regenerated.
2. The other enables the PICTURE_DATA3D () function by hardware, which is transparent to an MPEG2 compatible reader and can be decoded by a TDVision ™ compatible DSP.

MPEG2デコーダは、user_data()コードを検出した瞬間に、3DVISION_START_IDENTIFIER=0X000ABCD 32ビット識別子を検索し、これは、コードを再作成するのが極端に高く、むずかしいか、データを表さない。次に、読み取るべき3Dブロック長を考慮に入れるが、これは32ビット「n」データである。この情報がUSER_DATA()内で検出された時に、特殊なデコーディング関数への呼出しが行われ、これが、その後、出力バッファと比較され、Bタイプフレームに関する通常の訂正として、video_sequenceの現在の読取オフセットすなわちnバイトから適用される。この訂正の出力が、他の出力アドレスに送られ、この出力アドレスは、電子表示デバイスに存在するものに追加されるビデオ出力に直接に関連する。   The MPEG2 decoder searches for the 3DVISION_START_IDENTIFIER = 0X000ABCD 32-bit identifier at the moment it detects the user_data () code, which is extremely expensive to recreate the code, which is difficult or does not represent data. Next, the 3D block length to be read is taken into account, which is 32-bit “n” data. When this information is detected in USER_DATA (), a call to a special decoding function is made, which is then compared to the output buffer and as a normal correction for B-type frames, the current reading offset of video_sequence That is, it is applied from n bytes. The output of this correction is sent to another output address, which is directly related to the video output added to what is present on the electronic display device.

PICTURE_DATA3D()構造が認識される場合に、直接にデコーダによる情報の読取に進むが、情報は第2出力バッファに書き込まれ、第2出力バッファは、電子表示デバイスに存在するものに追加されるビデオ出力にも接続される。   If the PICTURE_DATA3D () structure is recognized, the process proceeds directly to reading the information by the decoder, but the information is written to the second output buffer, which is added to what is present in the electronic display device. Also connected to the output.

プログラムストリームの場合に、2つの信号(左および右)が、time_codeによって同期化され、これらの信号は、十分な同時複数ビデオチャネルデコーディング能力を有するMPEGデコーダによって並列にデコードされるか、同一video_sequence内の2つの互いに依存するビデオ信号、たとえば「R−L=デルタ」を送ることができ、ここで、デルタは、立体対TDVision(登録商標)識別子と共に「B」タイプフレームとして保管された差であり、2つの信号は、前述のTexas Instruments社のDSPの場合と同様に、イメージからの差によってデコーディングの瞬間に再構成することができる、すなわち、「R−デルタ=L」または「L−デルタ=R」であるが、これは、例示的であって制限的な例ではないと考えられる。   In the case of a program stream, the two signals (left and right) are synchronized by time_code, and these signals are either decoded in parallel by an MPEG decoder with sufficient simultaneous multiple video channel decoding capability, or the same video_sequence Two interdependent video signals, e.g., "RL = delta" can be sent, where delta is the difference stored as a "B" type frame with a stereo pair TDVision (R) identifier Yes, the two signals can be reconstructed at the instant of decoding by the difference from the image, as in the case of the Texas Instruments DSP mentioned above, ie "R-delta = L" or "L- Delta = R ”, but this is exemplary Not considered to be a limiting example Te.

単一のビデオシーケンスを含むビデオも、実施されるが、60フレーム毎秒で左右のフレームが交番し(それぞれ30フレーム)、デコードされた時に、ビデオバッファイメージが対応する左チャネルまたは右チャネルに置かれる。   Video including a single video sequence is also implemented, but the left and right frames alternate at 60 frames per second (30 frames each) and when decoded, the video buffer image is placed in the corresponding left or right channel. .

ハードウェアを介して、信号がTDVision(登録商標)タイプであるかどうかを検出する能力もあり、そうである場合には、その信号がトランスポートストリーム、プログラムストリーム、または60フレーム毎秒の左右多重化であるかどうかが識別される。   There is also the ability to detect whether the signal is of TDVision® type via hardware, in which case the signal is transport stream, program stream, or left and right multiplexed at 60 frames per second Is identified.

トランスポートストリームの場合に、後方互換性システムが、3D特性なしで2Dでのみ同一のビデオを表示する能力を有する、現在のデコーダ内で使用可能であり、この場合に、DSPは、TDVision(登録商標)または以前の技法のデバイスでイメージを表示するためにディスエーブルされる。   In the case of transport streams, backward compatible systems can be used in current decoders that have the ability to display the same video only in 2D without 3D properties, in which case the DSP can use TDVision (registered) Trademarked) or disabled for displaying images on devices of previous techniques.

プログラムストリームの場合に、現在衛星伝送システムで使用されているものなどの無変更のコーダが使用されるが、レセプタおよびデコーダは、TDVision(登録商標)フラグ識別システムを有し、したがって、左右対を形成するために第2ビデオバッファをイネーブルする。   In the case of program streams, unaltered coders such as those currently used in satellite transmission systems are used, but the receptors and decoders have a TDVision® flag identification system, so Enable the second video buffer to form.

最後に、多重化されたビデオの場合に、2つのビデオバッファ(左右)を有するMPEGデコーダがイネーブルされ、適当なフレームを識別し、各信号を30フレーム毎秒で分離し、したがって、フリッカレスイメージがもたらされ、ビデオストリームが一定なので、また、人間の目の特性保持波(characteristic retention wave)に起因して、多重化効果は知覚されない。   Finally, in the case of multiplexed video, an MPEG decoder with two video buffers (left and right) is enabled to identify the appropriate frames and separate each signal at 30 frames per second, thus flickerless images As a result, the multiplexing effect is not perceived because the video stream is constant and due to the characteristic retention wave of the human eye.

本発明の特定の実施形態を図示し、説明したが、当業者には、本発明の範囲から逸脱せずに複数の修正または変更を作ることができることは明白であろう。そのような修正および変更のすべてが、添付の特許請求の範囲に含まれ、その結果、すべての変更および修正が、本発明の範囲に含まれるようになることが意図されている。   While particular embodiments of the present invention have been illustrated and described, it would be obvious to those skilled in the art that multiple modifications or changes can be made without departing from the scope of the invention. All such modifications and changes are intended to be included within the scope of the appended claims, and as a result, all changes and modifications are intended to be included within the scope of the present invention.

Claims (32)

ユーザに対して立体デジタルビデオを表示するシステムであって、
第1の視野画像と第2の視野画像との差から導出されるデルタイメージが存在するか否かを示すデータをそれぞれが有する複数のヘッダと、それぞれが対応する前記ヘッダを有する複数の前記第1の視野画像とを有する一以上のビデオストリームを受信する受信手段と、
前記データを有する前記ヘッダを読み出して、前記一以上のビデオストリームが前記第1の視野画像と前記第2の視野画像との差から導出される前記デルタイメージも有するか否かを判定し、前記デルタイメージが存在することを前記ヘッダの前記データが示している場合には前記デルタイメージおよび前記第1の視野画像から前記第2の視野画像を構成するデコーダと、
前記第1の視野画像および前記第2の視野画像による立体デジタルビデオを出力するビデオ出力手段と、
を備えるシステム。
A system for displaying stereoscopic digital video to a user,
A plurality of headers each having data indicating whether or not a delta image derived from a difference between the first field image and the second field image exists, and a plurality of the first fields each having the corresponding header. Receiving means for receiving one or more video streams having one field-of-view image;
Reading the header with the data to determine whether the one or more video streams also have the delta image derived from a difference between the first field image and the second field image; A decoder that constructs the second field image from the delta image and the first field image if the data of the header indicates that a delta image is present;
Video output means for outputting stereoscopic digital video by the first field image and the second field image;
A system comprising:
前記システムが、ケーブルシステム、高品位テレビジョンシステム、衛星テレビジョンシステム、光ディスクシステム、DVDシステム、およびデジタルテレビシステムのうちの少なくとも一つの一部である、
請求項1に記載のシステム。
The system is part of at least one of a cable system, a high-definition television system, a satellite television system, an optical disc system, a DVD system, and a digital television system;
The system of claim 1.
前記一以上のビデオストリームがタイムコードを有する、
請求項1に記載のシステム。
The one or more video streams have a time code;
The system of claim 1.
前記第1の視野画像のフレームおよび前記第2の視野画像のフレームが高品位ディスプレイまたは立体視覚システムに出力される、
請求項1に記載のシステム。
The frame of the first field image and the frame of the second field image are output to a high definition display or a stereoscopic vision system;
The system of claim 1.
前記デコーダが前記デルタイメージを前記第1の視野画像に加算することで前記第2の視野画像を構成する、
請求項1に記載のシステム。
The decoder constructs the second field image by adding the delta image to the first field image;
The system of claim 1.
前記デコーダが前記ヘッダの所定のビット集合を読み出して、前記一以上のビデオストリームがデルタイメージを有するか否かを判定する、
請求項1に記載のシステム。
The decoder reads a predetermined set of bits of the header to determine whether the one or more video streams have a delta image;
The system of claim 1.
前記デルタイメージが、デルタイメージに特有のビデオストリームデータ内に格納される、
請求項1に記載のシステム。
The delta image is stored in video stream data specific to the delta image;
The system of claim 1.
前記デルタイメージがPタイプイメージまたはBタイプイメージのフレームを有する、
請求項1に記載のシステム。
The delta image has a frame of a P-type image or a B-type image;
The system of claim 1.
前記一以上のビデオストリームが複数のビデオストリームを有する、
請求項1に記載のシステム。
The one or more video streams comprise a plurality of video streams;
The system of claim 1.
前記デコーダが前記ヘッダおよび前記第1の視野画像を第1のビデオストリームから読み出し、前記デルタイメージを所定のデータ構造から読み出す、
請求項1に記載のシステム。
The decoder reads the header and the first field-of-view image from a first video stream, and reads the delta image from a predetermined data structure;
The system of claim 1.
前記デルタイメージが、前記第1の視野画像と前記第2の視野画像との差を測定することで算出される複数の動きベクトルを含む、
請求項1に記載のシステム。
The delta image includes a plurality of motion vectors calculated by measuring a difference between the first field image and the second field image;
The system of claim 1.
立体デジタルビデオを復号するシステムであって、
第1の視野画像と第2の視野画像との差から導出されるデルタイメージが存在するか否かを示すデータをそれぞれが有する複数のヘッダと、それぞれが対応する前記ヘッダを有する複数の前記第1の視野画像とを有する一以上のビデオストリームを受信する受信手段と、
前記データを有する前記ヘッダを読み出して、前記一以上のビデオストリームが前記第1の視野画像と前記第2の視野画像との差から導出される前記デルタイメージも有するか否かを判定し、前記デルタイメージが存在することを前記ヘッダの前記データが示している場合には前記デルタイメージおよび前記第1の視野画像から前記第2の視野画像を構成する構成手段と、
前記第1の視野画像および前記第2の視野画像による立体デジタルビデオを出力するビデオ出力手段と、
を備えるシステム。
A system for decoding stereoscopic digital video,
A plurality of headers each having data indicating whether or not a delta image derived from a difference between the first field image and the second field image exists, and a plurality of the first fields each having the corresponding header. Receiving means for receiving one or more video streams having one field-of-view image;
Reading the header with the data to determine whether the one or more video streams also have the delta image derived from a difference between the first field image and the second field image; Means for constructing the second field image from the delta image and the first field image if the data in the header indicates that a delta image is present;
Video output means for outputting stereoscopic digital video by the first field image and the second field image;
A system comprising:
前記ビデオ出力手段が、前記立体デジタルビデオを高品位ディスプレイまたは立体視覚システムに出力する、
請求項12に記載のシステム。
The video output means outputs the stereoscopic digital video to a high-definition display or a stereoscopic vision system;
The system of claim 12.
前記構成手段が、前記ヘッダおよび前記第1の視野画像を第1のビデオストリームから読み出し、前記デルタイメージを所定のデータ構造から読み出す、
請求項12に記載のシステム。
The constructing means reads the header and the first field-of-view image from a first video stream, and reads the delta image from a predetermined data structure;
The system of claim 12.
前記構成手段が前記デルタイメージを前記第1の視野画像に加算することで前記第2の視野画像を構成する、
請求項12に記載のシステム。
The constructing means constructs the second field image by adding the delta image to the first field image;
The system of claim 12.
前記デルタイメージがPタイプイメージまたはBタイプイメージを有する、
請求項12に記載のシステム。
The delta image has a P-type image or a B-type image;
The system of claim 12.
前記一以上のビデオストリームがMPEG互換のビデオストリームである、
請求項12に記載のシステム。
The one or more video streams are MPEG compatible video streams;
The system of claim 12.
前記一以上のビデオストリームが複数のビデオストリームを有する、
請求項12に記載のシステム。
The one or more video streams comprise a plurality of video streams;
The system of claim 12.
前記デルタイメージが、デルタイメージに特有の所定の構造体に格納される、
請求項12に記載のシステム。
The delta image is stored in a predetermined structure specific to the delta image;
The system of claim 12.
前記第1の視野画像がPタイプイメージである、
請求項12に記載のシステム。
The first visual field image is a P-type image;
The system of claim 12.
前記構成手段がディジタル信号プロセッサにより実行される、
請求項12に記載のシステム。
The constructing means is executed by a digital signal processor;
The system of claim 12.
前記デルタイメージが、前記第1の視野画像と前記第2の視野画像との差を測定することで算出される複数の動きベクトルを含む、
請求項1に記載のシステム。
The delta image includes a plurality of motion vectors calculated by measuring a difference between the first field image and the second field image;
The system of claim 1.
立体デジタルビデオを復号する方法であって、
第1の視野画像と第2の視野画像との差から導出されるデルタイメージが存在するか否かを示すデータをそれぞれが有する複数のヘッダと、それぞれが対応する前記ヘッダを有する複数の前記第1の視野画像とを有する一以上のビデオストリームを受信する受信ステップと、
前記データを有する前記ヘッダを読み出して、前記一以上のビデオストリームが前記第1の視野画像と前記第2の視野画像との差から導出される前記デルタイメージも有するか否かを判定し、前記デルタイメージが存在することを前記ヘッダの前記データが示している場合には前記デルタイメージおよび前記第1の視野画像から前記第2の視野画像を構成する構成ステップと、
前記第1の視野画像および前記第2の視野画像による立体デジタルビデオを出力する出力ステップと、
を含む方法。
A method for decoding stereoscopic digital video, comprising:
A plurality of headers each having data indicating whether or not a delta image derived from a difference between the first field image and the second field image exists, and a plurality of the first fields each having the corresponding header. Receiving one or more video streams having one field of view image;
Reading the header with the data to determine whether the one or more video streams also have the delta image derived from a difference between the first field image and the second field image; Configuring the second field image from the delta image and the first field image if the data in the header indicates that a delta image exists; and
Outputting a stereoscopic digital video based on the first field image and the second field image;
Including methods.
前記立体デジタルビデオが高品位ディスプレイまたは立体視覚システムに出力される、
請求項23に記載の方法。
The stereoscopic digital video is output to a high definition display or stereoscopic vision system;
24. The method of claim 23.
前記ヘッダおよび前記第1の視野画像が第1のビデオストリームから読み出され、前記デルタイメージが所定のデータ構造から読み出される、
請求項23に記載の方法。
The header and the first field-of-view image are read from a first video stream, and the delta image is read from a predetermined data structure;
24. The method of claim 23.
前記デルタイメージが前記第1の視野画像に加算されることで前記第2の視野画像が構成される、
請求項23に記載の方法。
The delta image is added to the first field image to form the second field image,
24. The method of claim 23.
前記一以上のビデオストリームがMPEG互換のビデオストリームである、
請求項23に記載の方法。
The one or more video streams are MPEG compatible video streams;
24. The method of claim 23.
前記デルタイメージがPタイプイメージまたはBタイプイメージを有する、
請求項27に記載の方法。
The delta image has a P-type image or a B-type image;
28. The method of claim 27.
前記一以上のビデオストリームが複数のビデオストリームを有する、
請求項23に記載の方法。
The one or more video streams comprise a plurality of video streams;
24. The method of claim 23.
前記デルタイメージが、デルタイメージに特有の所定の構造体に格納される、
請求項23に記載の方法。
The delta image is stored in a predetermined structure specific to the delta image;
24. The method of claim 23.
前記第1の視野画像がPタイプイメージである、
請求項23に記載の方法。
The first visual field image is a P-type image;
24. The method of claim 23.
前記デルタイメージが、前記第1の視野画像と前記第2の視野画像との差を測定することで算出される複数の動きベクトルを含む、
請求項23に記載の方法。
The delta image includes a plurality of motion vectors calculated by measuring a difference between the first field image and the second field image;
24. The method of claim 23.
JP2011090295A 2011-04-14 2011-04-14 System and method for stereoscopic 3D video image digital decoding Expired - Fee Related JP5228077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011090295A JP5228077B2 (en) 2011-04-14 2011-04-14 System and method for stereoscopic 3D video image digital decoding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011090295A JP5228077B2 (en) 2011-04-14 2011-04-14 System and method for stereoscopic 3D video image digital decoding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007500701A Division JP2007525907A (en) 2004-02-27 2004-02-27 System and method for stereoscopic 3D video image digital decoding

Publications (3)

Publication Number Publication Date
JP2011193486A true JP2011193486A (en) 2011-09-29
JP2011193486A5 JP2011193486A5 (en) 2012-09-06
JP5228077B2 JP5228077B2 (en) 2013-07-03

Family

ID=44797863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011090295A Expired - Fee Related JP5228077B2 (en) 2011-04-14 2011-04-14 System and method for stereoscopic 3D video image digital decoding

Country Status (1)

Country Link
JP (1) JP5228077B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979772A (en) * 2021-02-24 2022-08-30 腾讯科技(深圳)有限公司 Configuration method, device and medium of decoder and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054140A (en) * 1999-08-11 2001-02-23 Sukurudo Enterprise Kk Stereo video band compression coding method, decoding method and recording medium
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054140A (en) * 1999-08-11 2001-02-23 Sukurudo Enterprise Kk Stereo video band compression coding method, decoding method and recording medium
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979772A (en) * 2021-02-24 2022-08-30 腾讯科技(深圳)有限公司 Configuration method, device and medium of decoder and electronic equipment

Also Published As

Publication number Publication date
JP5228077B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
KR101177663B1 (en) Method and system for digital decoding 3d stereoscopic video images
KR101187550B1 (en) Method and system for digital coding 3d stereoscopic video images
RU2573257C2 (en) Image signal decoding device, image signal decoding method, image signal encoding device, image signal encoding method and programme
US8571101B2 (en) Method and system for encoding a video signal, encoded video signal, method and system for decoding a video signal
JP5228077B2 (en) System and method for stereoscopic 3D video image digital decoding
JP5227439B2 (en) Stereo 3D video image digital coding system and method
KR20070011340A (en) Method and system for digital coding 3d stereoscopic video images
KR20070011341A (en) Method and system for digital decoding 3d stereoscopic video images
CN101917616A (en) The method and system that is used for digital coding three-dimensional video image
LGGGGGG C ZIT źd d': http:% pic. gc. ca-Ottawa-Hull KlA 0C9-http://cipo. gc. ca () PI
MXPA06009733A (en) Method and system for digital coding 3d stereoscopic video images.
MXPA06009734A (en) Method and system for digital decoding 3d stereoscopic video images.

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120928

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

R150 Certificate of patent or registration of utility model

Ref document number: 5228077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees