JPH0870475A - Method and device for encoding and decoding stereoscopic animation - Google Patents

Method and device for encoding and decoding stereoscopic animation

Info

Publication number
JPH0870475A
JPH0870475A JP7156489A JP15648995A JPH0870475A JP H0870475 A JPH0870475 A JP H0870475A JP 7156489 A JP7156489 A JP 7156489A JP 15648995 A JP15648995 A JP 15648995A JP H0870475 A JPH0870475 A JP H0870475A
Authority
JP
Japan
Prior art keywords
moving image
encoding
field
image
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7156489A
Other languages
Japanese (ja)
Inventor
Ten Urano
天 浦野
Hideo Kodama
秀雄 児玉
Yasuhachi Hamamoto
安八 濱本
Etsuko Sugimoto
悦子 杉本
Tomoko Kobayashi
智子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP7156489A priority Critical patent/JPH0870475A/en
Publication of JPH0870475A publication Critical patent/JPH0870475A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To improve the compression efficiency of a stereoscopic animation signal by synthesizing a right-eye animation signal with a left-eye animation signal at every horizontal scanning line by means of a frame unit. CONSTITUTION: A left-eye animation 1 and a right-eye animation 2 have plural frames formed by plural line pictures obtained by non-interlace scanning system. A compositing unit M respectively inputs the left animation 1 and the right animation 2 and merges one frame of the left animation 1 with one frame of the right one 2. By this merge processing, a frame picture 3 is generated by alternately merging the line L1 of the left animation 1 and the line L2 of the right one 2. An encoder 4 inputs the frame picture 3 merged by the compositing unit M and encodes it. That is, the line L1 of the left animation 1 and the line L2 of the right one 2 are alternately merged and one frame picture 3 is generated so that the stereoscopic animation is efficiently encoded by utilizing the encoder 4 corresponding to publicly known MPEG(Moving Picture Image Coding Experto Group) standard.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は右目用及び左目用の動画
像からなる立体動画像信号の符号化・復号化方法及び装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for encoding / decoding a stereoscopic moving image signal composed of moving images for the right eye and the left eye.

【0002】[0002]

【従来の技術】右目用及び左目用のデジタル動画像から
なる立体動画像を符号化する方法として、例えば、以下
に示す3つの方法がある。第1の方法は、例えば、特開
平6−153239号において、主画像(右目画像)を
そのまま符号化し、副画像(左目画像)を主画像を参照
しつつ視差の補償を行い、その結果得られる圧縮データ
を符号化する。第2の方法は、主画像をそのまま符号化
し、副画像を主画像または他の副画像を参照して視差補
償及び動き補償を行い、これらの補償の結果得られるデ
ータを符号化する。第3の方法は、MPEG(Moving P
icture Image Coding Experts Group)方式に従い、主画
像及び副画像を独立してそれぞれを符号化する。上記し
た第1〜第3の方法で得られた立体動画像信号の符号化
データを復号する場合、符号化とは逆の処理を行って再
生画像を得る。
2. Description of the Related Art For example, there are the following three methods for encoding a stereoscopic moving image composed of digital moving images for the right eye and the left eye. In the first method, for example, in Japanese Patent Laid-Open No. 6-153239, the main image (right-eye image) is encoded as it is, and the sub-image (left-eye image) is compensated for parallax while referring to the main image. Encode the compressed data. In the second method, the main image is encoded as it is, the sub-image is referred to the main image or another sub-image to perform parallax compensation and motion compensation, and the data obtained as a result of these compensations is encoded. The third method is MPEG (Moving P
icture Image Coding Experts Group) method, each of the main image and the sub-image is independently encoded. When decoding the encoded data of the stereoscopic moving image signal obtained by the above-described first to third methods, a process reverse to the encoding is performed to obtain a reproduced image.

【0003】第3の方法におけるMPEGは、ISO
(International Organization for Standardization)
傘下に設立された画像圧縮の標準化委員会の名称「Movi
ng Picture Experts Group」の略である。MPEGに
は、主にエンコードレートの違いにより、現在のところ
MPEG−1,MPEG−2の2つの規格がある。MP
EG−1はISO/IEC 11172に標準規格とし
て規定されており、MPEG−2はISO/IEC 1
3818に標準規格草案として規定されている。USP
5231484,USP5293229及びUSP53
25125は,このMPEGに関する技術を開示してい
る。MPEG規格に従い符号化を行うエンコーダは、ビ
ットストリームシンタクスと呼ばれるフォーマット形式
で画像データを扱う。シンタクスはブロックと、複数の
ブロックを含むマクロブロックと、複数のマクロブロッ
クを含むスライスと、複数のスライスを含むピクチャ
と、複数のピクチャを含むGOP(Group of Picture)
と、複数のGOPを含むシーケンスからなる階層構造を
もつ。マクロブロックは予測符号化の単位となるデータ
であり、16×16画素から成る。
In the third method, MPEG is ISO
(International Organization for Standardization)
Name of the image compression standardization committee established under the umbrella, "Movi
ng Picture Experts Group ”. MPEG currently has two standards, MPEG-1 and MPEG-2, mainly due to the difference in encoding rate. MP
EG-1 is specified as a standard in ISO / IEC 11172, and MPEG-2 is ISO / IEC 1
3818 as a draft standard. USP
5231484, USP 5293229 and USP 53
25125 discloses a technique related to this MPEG. An encoder that performs encoding in accordance with the MPEG standard handles image data in a format called bitstream syntax. The syntax is a block, a macroblock including a plurality of blocks, a slice including a plurality of macroblocks, a picture including a plurality of slices, and a GOP (Group of Picture) including a plurality of pictures.
And has a hierarchical structure composed of a sequence including a plurality of GOPs. A macro block is data that is a unit of predictive coding, and includes 16 × 16 pixels.

【0004】MPEG方式のエンコーダは、動き補償付
き予測符号化、離散コサイン変換(DCT;Discrete C
osine Transformation) 、適応量子化、ハフマン符号化
を行ってIピクチャ,Pピクチャ,Bピクチャを生成す
る。MPEG−1エンコーダは、Bピクチャを生成する
ための動き補償付き予測において、まず、現画面と、そ
の現画面に時間的に先行する参照画面内及び/又は時間
的に後続する参照画面とを照らし合わせる。次に、エン
コーダは現画面内のデータ圧縮の対象となる領域の現マ
クロブロックに最も似ている参照画面の領域の参照マク
ロブロックを、その参照画面から探し出す。そして、エ
ンコーダは、探し出された参照マクロブロックと現マク
ロブロックとの差分値を求める。このとき、エンコーダ
は、現マクロブロックの位置から参照マクロブロックの
位置を指示するベクトル(動きベクトルと呼ばれる)を
検出する。例えば、特開平4−145777号公報、特
開平4−79484号公報、特開平3−40687号公
報、特開平4−207790号公報、特開平4−234
276号公報、及び特開平4−40193号公報は動き
ベクトルの検出の技術を開示している。MPEG規格I
SO/IEC 11172には、フルサーチ法、ロガリ
ズミックサーチ法、テレスコピックサーチ法等の動きベ
クトルの検出方法が示されている。
The MPEG encoder is a predictive coding with motion compensation, a discrete cosine transform (DCT; Discrete C).
osine transformation), adaptive quantization, and Huffman coding to generate I picture, P picture, and B picture. In motion-compensated prediction for generating a B picture, the MPEG-1 encoder first illuminates a current screen and a reference screen temporally preceding and / or temporally preceding the current screen. To match. Next, the encoder searches the reference screen for a reference macroblock in the region of the reference screen that most resembles the current macroblock in the region of the current screen for data compression. Then, the encoder obtains a difference value between the found reference macroblock and the current macroblock. At this time, the encoder detects a vector (called a motion vector) indicating the position of the reference macroblock from the position of the current macroblock. For example, JP-A-4-145777, JP-A-4-79484, JP-A-3-40687, JP-A-4-207790, and JP-A-4-234.
Japanese Patent Laid-Open No. 276 and Japanese Patent Laid-Open No. 40193/1992 disclose a technique of detecting a motion vector. MPEG standard I
SO / IEC 11172 describes a motion vector detection method such as a full search method, a logarithmic search method, and a telescopic search method.

【0005】エンコーダは、動き補償付き予測により得
られた現マクロブロックと参照マクロブロックの差分デ
ータに対して、DCT、量子化、可変長符号化を行いデ
ータを圧縮する。MPEG−1エンコーダは16×16
画素(マクロブロック)を4つに分割した8×8画素単
位(ブロック)でDCTを行う。エンコーダは、圧縮さ
れた差分データを伸長して、その伸長された差分データ
に参照マクロブロック(このマクロブロックは動きベク
トルにより参照画面内で指定される。)の画像データを
加算して、現マクロブロックの画像データを再現するこ
とができる。エンコーダは、差分データの伸長の際、可
変長復号化、逆量子化、逆DCTを行う。エンコーダ
は、現画面に対して時間的に先行する少なくとも1画面
及び時間的に後続する少なくとも1画面のそれぞれの画
像データを自己のメモリ内に記憶する。
The encoder performs DCT, quantization, and variable length coding on the difference data between the current macroblock and the reference macroblock obtained by the motion-compensated prediction, and compresses the data. 16x16 for MPEG-1 encoder
DCT is performed in 8 × 8 pixel units (blocks) obtained by dividing a pixel (macroblock) into four. The encoder expands the compressed difference data, adds the image data of the reference macroblock (this macroblock is designated in the reference screen by the motion vector) to the expanded difference data, and adds the current macro. The image data of the block can be reproduced. The encoder performs variable length decoding, inverse quantization, and inverse DCT when decompressing the difference data. The encoder stores, in its memory, image data of at least one screen temporally preceding the current screen and at least one screen temporally subsequent thereto.

【0006】[0006]

【発明が解決しようとする課題】上記した第1及び第2
の方法において主画像及び副画像の処理をそれぞれ別々
に行うことは、両画像の符号化時のタイミングの制御や
両画像の符号量の管理が複雑となるという問題点があ
る。更に、両方法において右目画像と左目画像との画質
を均等にするために、両画像の符号量を管理及び制御す
ることは困難であるという問題点もある。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
When the main image and the sub-image are separately processed in the above method, there is a problem in that timing control at the time of encoding both images and management of the code amount of both images become complicated. Further, in both methods, it is difficult to manage and control the code amount of both images in order to equalize the image quality of the right-eye image and the left-eye image.

【0007】上記した第3の方法において、平均的に右
目動画像と左目動画像が互いに相関性を持っているにも
かかわらず各々を単独に符号化することは、符号化処理
の圧縮効率の向上を妨げる。立体画像は、右目動画像と
左目動画像の差が大きいほど立体感がある。しかし、画
面全体をとおして両画像が全く異なることは少なく、か
つ、このように異なる画面が長時間続くことも少ない。
従って、両画像は類似しており、この類似した両画像を
別々に符号化することは、圧縮効率を低下させることに
なる。
In the above-mentioned third method, independently encoding each of the right-eye moving images and the left-eye moving images, even though they have an average correlation with each other, is effective in reducing the compression efficiency of the encoding process. Hinder improvement. The stereoscopic image has a stereoscopic effect as the difference between the right-eye moving image and the left-eye moving image increases. However, it is rare that the two images are completely different over the entire screen, and such different screens do not last for a long time.
Therefore, both images are similar, and encoding these similar images separately reduces compression efficiency.

【0008】本発明は上記問題点を解決するためになさ
れたものであって、その目的は、立体動画像信号の圧縮
効率を高くすることができる符号化方法及び装置を提供
することにある。
The present invention has been made to solve the above problems, and an object of the present invention is to provide an encoding method and apparatus capable of increasing the compression efficiency of a stereoscopic moving image signal.

【0009】第2の目的は、前記方法及び装置により符
号化(圧縮)された立体動画像信号を効率良く復号化
(伸長)することができる立体動画像信号の復号化方法
及び装置を提供することにある。
A second object is to provide a method and apparatus for decoding a stereoscopic moving image signal, which can efficiently decode (decompress) a stereoscopic moving image signal encoded (compressed) by the method and apparatus. Especially.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
請求項1〜6に記載の発明は、合成器により、フレーム
単位の右目用の動画像信号とフレーム単位の左目用の動
画像信号とを、1水平走査線毎にマージし、このマージ
した動画像信号をMPEG2方式のエンコーダによりフ
レーム構造で符号化する。この場合、フレーム単位の動
画像信号とは、ノンインタレース走査の動画像信号又
は、インタレース走査のフィールド画像の2フィールド
を合成したノンインタレース動画像信号であってもよ
い。更に、ノンインタレース動画像信号は、垂直フィル
タを用いて垂直方向のフィルタ処理を行うようにしても
よい。このフィルタ処理は、ノンインタレース動画像信
号の垂直方向の差成分が大きい場合に行われるようにし
てもよい。又、合成器により、フィールド単位の右目用
の動画像信号とフィールド単位の左目用の動画像信号と
を、1水平走査線毎にマージし、このマージした動画像
信号をMPEG2方式のエンコーダによりフレーム構造
で符号化してもよい(請求項6〜8は第1の方法に対応
する)。
In order to solve the above-mentioned problems, the invention according to claims 1 to 6 uses a synthesizer to generate a moving image signal for the right eye in frame units and a moving image signal for the left eye in frame units. Is merged for each horizontal scanning line, and the merged moving image signal is encoded with a frame structure by an MPEG2 system encoder. In this case, the frame-based moving image signal may be a non-interlaced scanning moving image signal or a non-interlaced moving image signal obtained by combining two fields of interlaced scanning field images. Further, the non-interlaced moving image signal may be subjected to vertical filtering using a vertical filter. This filtering process may be performed when the vertical difference component of the non-interlaced video signal is large. Further, the combiner merges the moving image signal for the right eye in the field unit and the moving image signal for the left eye in the field unit for each horizontal scanning line, and the merged moving image signal is framed by the MPEG2 encoder. It may be encoded with a structure (claims 6 to 8 correspond to the first method).

【0011】請求項7に記載の発明は、左目用の動画像
信号と右目用の動画像信号とを1画面毎に交互にマージ
し、このマージした動画像信号をMPEG2方式のエン
コーダによりフィールド構造で符号化する。又、請求項
8に記載の発明は、フィールド単位の右目用の動画像信
号とフィールド単位の左目用の動画像信号とをフィール
ド毎に合成して合成動画像信号を形成し、その合成動画
像信号をフィールド構造のMPEG2方式のエンコーダ
により符号化する(請求項7,8は第2の方法に対応す
る)。
According to a seventh aspect of the present invention, a moving image signal for the left eye and a moving image signal for the right eye are alternately merged for each screen, and the merged moving image signal is field-structured by an MPEG2 encoder. Encode with. According to the invention of claim 8, the moving image signal for the right eye in field units and the moving image signal for the left eye in field units are combined for each field to form a combined moving image signal. The signal is encoded by a field structure MPEG2 encoder (claims 7 and 8 correspond to the second method).

【0012】請求項9及び10に記載の発明は、左動画
像と右動画像とを用いた立体動画像信号の符号化方法で
あって、前記左右動画像の各々はピクチャであり、左動
画像におけるピクチャは、インタレース走査された奇数
ライン画像から形成された第1フィールドと、インタレ
ース走査された偶数ライン画像から形成された第2フィ
ールドとを備えており、前記右動画像におけるピクチャ
は、インタレース走査された奇数ライン画像から形成さ
れた第3フィールドと、インタレース走査された偶数ラ
イン画像から形成された第4フィールドとを備えてお
り、前記第1及び第3フィールドにおけるライン画像を
合成して、該第1及び第3フィールドの奇数ラインが交
互に配置された第1合成フィールドを生成するステップ
と、前記第2及び第4フィールドにおけるライン画像を
合成して、該第2及び第4フィールドの偶数ラインが交
互に配置された第2合成フィールドを生成するステップ
と、MPEG−2に適合するエンコーダを用いて、前記
第1及び第2合成フィールドを符号化するステップとを
備えている。この符号化ステップにおいて用いられるエ
ンコーダは、MPEG−2のフレーム構造に適合するエ
ンコーダであってもよい(請求項9及び10は第3の方
法に対応する)。
The present invention according to claims 9 and 10 is a method for encoding a stereoscopic moving image signal using a left moving image and a right moving image, wherein each of the left and right moving images is a picture, and a left moving image is displayed. The picture in the image comprises a first field formed from an interlaced scanned odd line image and a second field formed from an interlaced scanned even line image, and the picture in the right moving image is A third field formed from the interlaced-scanned odd line image and a fourth field formed from the interlaced-scanned even line image, and the line image in the first and third fields Synthesizing to generate a first synthesized field in which odd lines of the first and third fields are alternately arranged; Combining line images in a field to generate a second composite field in which even lines of the second and fourth fields are arranged alternately, and using an MPEG-2 compatible encoder Encoding the second combined field. The encoder used in this encoding step may be an encoder adapted to the frame structure of MPEG-2 (claims 9 and 10 correspond to the third method).

【0013】請求項11,12に記載の発明は、上記第
1〜第3の方法において、符号化された立体動画像情報
に立体動画像の符号化に関連する情報を付加する。この
関連情報は、符号化された情報が立体画像情報か否かを
表す情報、前記左右動画像を合成する際の所定単位の仕
様を表す情報、元の画像信号がインタレース走査か否か
を表す情報のうち少なくとも1つを含む。
According to the eleventh and twelfth aspects of the present invention, in the first to third methods, the information related to the encoding of the stereoscopic moving image is added to the encoded stereoscopic moving image information. This related information is information indicating whether or not the encoded information is stereoscopic image information, information indicating the specification of a predetermined unit when the left and right moving images are combined, and whether or not the original image signal is interlaced scanning. At least one of the represented information is included.

【0014】請求項13及び14に記載の発明は、第2
の方法に使用する符号化装置であり、その装置は、右目
用の動画像信号と左目用の動画像信号とを、1画面毎に
合成する合成器と、この合成した画像信号を16×16
画素のマクロブロック単位で画像圧縮符号化するエンコ
ーダとを備えている。更に、このエンコーダは、合成さ
れた動画像信号を16×16画素のマクロブロック単位
で動き補償フィ−ルド間予測符号化により圧縮符号化す
る第1予測符号化手段と、16×16画素のマクロブロ
ックを、その上部16×8画素のアッパ−ブロックと、
下部16×8画素のロウアーブロックの単位で個別に動
き補償フィールド間予測符号化により圧縮符号化する第
2予測符号化手段と、この第1予測符号化手段による符
号化画像データと、この第2予測符号化手段よる符号化
画像データとの内、符号量が少ないと判定された画像デ
ータを選択的に出力する選択手段とを備える。
The invention described in claims 13 and 14 is the second aspect.
The encoding device used in the method of 1), which includes a combiner that combines the moving image signal for the right eye and the moving image signal for the left eye for each screen, and the combined image signal of 16 × 16.
An encoder for performing image compression coding in macroblock units of pixels is provided. Further, this encoder includes a first predictive coding means for compressing and coding the combined moving picture signal by motion-compensating inter-field predictive coding in macroblock units of 16 × 16 pixels, and a 16 × 16 pixel macro. A block with an upper block of 16 × 8 pixels on top of it,
Second predictive coding means for compressing and coding individually by motion compensation inter-field predictive coding in units of lower blocks of 16 × 8 pixels in the lower part, coded image data by this first predictive coding means, and this second A selection unit that selectively outputs image data determined to have a small code amount among the image data encoded by the predictive encoding unit is provided.

【0015】請求項15,16に記載の発明は、更に、
前記符号化装置が符号化した立体動画像情報に立体動画
像の符号化に関連する情報を付加するための挿入器を備
えている。
The invention according to claims 15 and 16 further comprises:
The encoder includes an inserter for adding information related to the encoding of a stereoscopic moving image to the stereoscopic moving image information encoded by the encoding device.

【0016】請求項17に記載の発明は、請求項1に記
載の第1の符号化方法によって符号化された合成動画像
をフレーム構造のMPEG2方式のデコーダ(6)によ
り復号化し、その復号化された合成画像を1水平走査線
毎に交互に分離して、フレーム単位の右目用の動画像信
号と、フレーム単位の左目用の動画像信号とを別々に形
成する(第2の復号化方法)。
According to a seventeenth aspect of the present invention, a composite moving image encoded by the first encoding method according to the first aspect is decoded by a frame structure MPEG2 system decoder (6), and the decoding is performed. The generated combined image is alternately separated for each horizontal scanning line to separately form a moving image signal for the right eye in frame units and a moving image signal for the left eye in frame units (second decoding method). ).

【0017】請求項18に記載の発明は、請求項8に記
載の第2の符号化方法によって符号化された合成動画像
をフィールド構造のMPEG2方式のデコーダにより復
号化し、その復号化された合成動画像を1フィールド毎
に交互に分離して、フィールド単位の右目用の動画像信
号とフィールド単位の左目用の動画像信号とを別々に形
成する(第3の復号化方法)。
According to the eighteenth aspect of the present invention, a composite moving image encoded by the second encoding method according to the eighth aspect is decoded by a field structure MPEG2 system decoder, and the decoded combination is obtained. The moving image is alternately separated for each field, and the moving image signal for the right eye in the field unit and the moving image signal for the left eye in the field unit are separately formed (third decoding method).

【0018】請求項19に記載の発明は、請求項17に
記載の第1の復号化方法に使用する復号化装置であっ
て、符号化された合成動画像を復号化するためのフレー
ム構造のMPEG2方式のデコーダと、該デコーダによ
り復号化された合成画像を1水平走査線毎に交互に分離
して、フレーム単位の右目用の動画像信号と、フレーム
単位の左目用の動画像信号とを別々に形成するための分
離器とを備えている。
The invention described in claim 19 is the decoding device used in the first decoding method according to claim 17, wherein the decoding device has a frame structure for decoding the encoded composite moving image. An MPEG2 system decoder and a composite image decoded by the decoder are alternately separated for each horizontal scanning line to generate a moving image signal for the right eye in frame units and a moving image signal for the left eye in frame units. And a separator for forming separately.

【0019】請求項20に記載の発明は、請求項18に
記載の第2の復号化方法に使用する復号化装置であっ
て、符号化された合成動画像を復号化するためのフィー
ルド構造のMPEG2方式のデコーダと、該デコーダに
より復号化された合成動画像を1フィールド毎に交互に
分離して、フィールド単位の右目用の動画像信号とフィ
ールド単位の左目用の動画像信号とを別々に形成するた
めの分離器とを備えている。
The invention described in claim 20 is a decoding device used in the second decoding method according to claim 18, which has a field structure for decoding the encoded composite moving image. An MPEG2 system decoder and a composite moving image decoded by the decoder are alternately separated for each field, and a moving image signal for the right eye in field units and a moving image signal for the left eye in field units are separately provided. And a separator for forming.

【0020】[0020]

【作用】第1の符号化方法によれば、フレーム単位の右
目用の動画像信号と、フレーム単位の左目用の動画像信
号とが1水平走査線毎に合成されることにより、その合
成動画像をフレーム構造のMPEG2方式のエンコーダ
により効率良く符号化することが可能となる。
According to the first encoding method, the moving image signal for the right eye in frame units and the moving image signal for the left eye in frame units are combined for each horizontal scanning line, so that the combined moving image is obtained. An image can be efficiently coded by an MPEG2 system encoder having a frame structure.

【0021】第2の符号化方法によれば、左目用の動画
像信号と右目用の動画像信号とが1フィールド毎に合成
されて、左右画面が1セットの合成画面を複数もつ合成
動画像が形成される。従って、その合成動画像をフィ−
ルド構造のMPEG2エンコーダにより効率良く符号化
することが可能となる。
According to the second encoding method, the moving image signal for the left eye and the moving image signal for the right eye are combined for each field, and the left and right screens are a combined moving image having a plurality of sets of combined screens. Is formed. Therefore, the composite moving image is
It is possible to perform efficient encoding by the MPEG2 encoder having a field structure.

【0022】この第2の符号化方法に用いられる符号化
装置によれば、符号化効率に応じて第1及び第2予測符
号化手段のいずれかが選択的に行われる。第1予測符号
化手段においては、合成された動画像信号が16×16
画素のマクロブロック単位で動き補償フィ−ルド間予測
符号化により圧縮される。すなわち、右画像又は左画像
のマクロブロックと、1つの合成画面を形成する右画面
と左画面との間でフィ−ルド間予測符号化が行われる。
従って、例えば、右画像マクロブロックと右画面との同
じ種類の画像間での動き補償予測符号化や、右画像マク
ロブロックと左画面との異なる種類の画像間での視差補
償予測符号化が可能となる。又、第2予測符号化手段に
おいては、16×16画素のマクロブロックが、その上
部16×8画素のアッパ−ブロックと、下部16×8画
素のロウアーブロックの単位で個別に動き補償フィール
ド間予測符号化により圧縮される。このようなマクロブ
ロックの単位で符号化を行うことは、より高密度の圧縮
が可能となる。
According to the encoding device used in this second encoding method, either the first or the second predictive encoding means is selectively performed according to the encoding efficiency. In the first predictive coding means, the combined moving image signal is 16 × 16.
It is compressed by motion compensation inter-field predictive coding in units of macroblocks of pixels. That is, the inter-field predictive coding is performed between the macro block of the right image or the left image and the right screen and the left screen forming one combined screen.
Therefore, for example, it is possible to perform motion compensation predictive coding between the same type of images of the right image macroblock and the right screen, or parallax compensation predictive coding between different types of images of the right image macroblock and the left screen. Becomes Also, in the second predictive coding means, the 16 × 16 pixel macroblock is individually motion compensated inter-field prediction in units of an upper 16 × 8 pixel upper block and a lower 16 × 8 pixel lower block. It is compressed by encoding. Encoding in units of such macroblocks enables higher-density compression.

【0023】第3の符号化方法によれば、フィールド単
位の右目用の動画像信号とフィールド単位の左目用の動
画像信号とが1水平走査線毎に合成されることにより、
その合成動画像信号をフィールド構造のMPEG2方式
のエンコーダにより効率良く符号化することが可能とな
る。
According to the third encoding method, the moving image signal for the right eye in the field unit and the moving image signal for the left eye in the field unit are combined for each horizontal scanning line.
The composite moving image signal can be efficiently coded by an MPEG2 system encoder having a field structure.

【0024】第1の復号化方法によれば、第1の符号化
方法によって符号化された合成動画像信号がフレーム構
造のMPEG2方式のデコーダにより復号化され、その
復号化された画像が1ライン毎に交互に分離されて、左
右動画像を別々に形成される。従って、第1の符号化方
法によって符号化された立体動画像信号が効率良く伸長
される。
According to the first decoding method, the composite moving image signal encoded by the first encoding method is decoded by the MPEG2 system decoder having the frame structure, and the decoded image is one line. The left and right moving images are separately formed by alternately separating them. Therefore, the stereoscopic moving image signal encoded by the first encoding method is efficiently expanded.

【0025】第2の復号化方法によれば、第2の符号化
方法によって符号化された合成動画像がフィールド構造
のMPEG2方式のデコーダにより復号化され、その復
号化された合成画像が1フィールド毎に交互に分離され
て、フレーム単位の右目用の動画像信号と、フレーム単
位の左目用の動画像信号とが別々に形成される。従っ
て、第2の符号化方法によって符号化された立体動画像
信号が効率良く伸長される。
According to the second decoding method, the composite moving image coded by the second coding method is decoded by the field structure MPEG2 decoder, and the decoded composite image is one field. The moving image signal for the right eye in frame units and the moving image signal for the left eye in frame units are separately formed for each frame. Therefore, the stereoscopic moving image signal encoded by the second encoding method is efficiently expanded.

【0026】[0026]

【実施例】【Example】

〔第1実施例〕以下、本発明を具体化した第一実施例を
図面を参照しつつ説明する。図1に示すように、左画像
(左目用動画像)1及び右画像(右目用動画像)2は、
ノンインタレース(プログレッシブとも呼ばれる)走査
方式により得られた複数のライン画像により形成される
複数のフレーム(ピクチャ)をもつ。なお、左目用動画
像1及び右右目用動画像2のピクチャがノンインタレー
ス走査ではなく、インタレース走査されたライン画像に
より形成されてもよい。
[First Embodiment] A first embodiment of the present invention will be described below with reference to the drawings. As shown in FIG. 1, the left image (left-eye moving image) 1 and the right image (right-eye moving image) 2 are
It has a plurality of frames (pictures) formed by a plurality of line images obtained by a non-interlaced (also called progressive) scanning method. The pictures of the left-eye moving image 1 and the right-eye moving image 2 may be formed by interlaced line images instead of non-interlaced scanning.

【0027】合成器Mは、この左画像1及び右画像2を
それぞれ入力し、左画像1の1フレームと右画像2の1
フレームとをマージする。このマージ処理は、左画像1
のラインL1と右画像2のラインL2とを交互にマージし
て、フレーム画像3を形成する。
The synthesizer M inputs the left image 1 and the right image 2, respectively, and receives one frame of the left image 1 and 1 of the right image 2.
Merge with the frame. This merge process is performed on the left image 1
Line L1 and the line L2 of the right image 2 are alternately merged to form the frame image 3.

【0028】エンコーダ4は、合成器Mによりマージさ
れたフレーム画像3を入力し、これを符号化する。エン
コーダ4は、動画像の国際標準方式である公知のMPE
G−1又はMPEG−2規格に対応している。エンコー
ダ4は、フレーム画像3に示されるフレーム構造の画像
と、奇数フィールド画像及び偶数フィールド画像からな
るフィールド構造の画像との2種類の画像の符号化を行
うことができる。
The encoder 4 inputs the frame image 3 merged by the synthesizer M and encodes it. The encoder 4 is a well-known MPE which is an international standard method for moving images.
It corresponds to the G-1 or MPEG-2 standard. The encoder 4 can encode two types of images, that is, an image having a frame structure shown in the frame image 3 and an image having a field structure including an odd field image and an even field image.

【0029】エンコーダは、シンタクスと呼ばれるフォ
ーマット形式で画像データを扱う。シンタクスはブロッ
クと、複数のブロックを含むマクロブロックと、複数の
マクロブロックを含むスライスと、複数のスライスを含
むピクチャと、複数のピクチャを含むGOP(Group of
Picture) と、複数のGOPを含むシーケンスからなる
階層構造をもつ。マクロブロックは、4つの輝度信号の
ブロックと、2つの色差信号のブロックの計6ブロック
からなる。
The encoder handles image data in a format called a syntax. The syntax is a block, a macroblock including a plurality of blocks, a slice including a plurality of macroblocks, a picture including a plurality of slices, and a GOP (Group of Groups) including a plurality of pictures.
Picture) and a sequence including multiple GOPs. The macro block is composed of four luminance signal blocks and two chrominance signal blocks, that is, a total of six blocks.

【0030】エンコーダ4は、離散コサイン変換:Disc
rete Cosine Transform(DCT) ,,動き補償付きフレ
ーム間予測,量子化,及びハフマン符号化を主に行う。
エンコーダ4はDCTにおいて、画像がもつ輝度信号及
び色差信号を8×8画素のブロック単位で直交変換し
て、画像データの空間方向の冗長性を削減し、その結
果、輝度信号及び色差信号の空間周波数の低域成分が大
きく、高域成分が小さくなる。エンコーダ4は、DCT
処理された信号を量子化した後、ハフマン符号化を行
う。
The encoder 4 has a discrete cosine transform: Disc
Rete Cosine Transform (DCT), inter-frame prediction with motion compensation, quantization, and Huffman coding are mainly performed.
In the DCT, the encoder 4 orthogonally transforms the luminance signal and the color difference signal of the image in block units of 8 × 8 pixels to reduce the redundancy in the spatial direction of the image data, and as a result, the space of the luminance signal and the color difference signal. The low frequency component of the frequency is large and the high frequency component is small. The encoder 4 is a DCT
After the processed signal is quantized, Huffman coding is performed.

【0031】エンコーダ4は、動き補償付きフレーム間
予測において、画像データの時間方向の冗長性を取り除
く。すなわち、エンコーダ4は、ある時点でのフレーム
画像(ピクチャ)と、それより数フレーム分だけ前ある
いは後ろのフレーム画像との差分を求め、その差分を符
号化する。このとき、エンコーダ4は、動き補償として
マクロブロック単位でフレーム画像の動きの方向と大き
さ(動きベクトル)を検出し、その動きベクトルに基づ
いて符号化を行う。
In the inter-frame prediction with motion compensation, the encoder 4 removes the redundancy of the image data in the time direction. That is, the encoder 4 obtains a difference between a frame image (picture) at a certain time point and a frame image several frames before or after the frame image, and encodes the difference. At this time, the encoder 4 detects the direction and magnitude (motion vector) of the motion of the frame image in macroblock units as motion compensation, and performs encoding based on the motion vector.

【0032】エンコーダ4は可変長符号化においてハフ
マン符号化方式に従って符号化する。そして、エンコー
ダ4は、符号化されたフレーム画像3を図示しない光ピ
ックアップを備えた記録装置に出力し、その光ピックア
ップ符号化データを記録媒体としての光磁気ディスク5
に記録する。
The encoder 4 performs variable length coding according to the Huffman coding method. Then, the encoder 4 outputs the encoded frame image 3 to a recording device having an optical pickup (not shown), and the optical pickup encoded data is used as a magneto-optical disk 5 as a recording medium.
To record.

【0033】以上、左画像1のラインL1と右画像2のラ
イン2 とを交互にマージして1つのフレーム画像3を形
成することにより、公知のMPEG規格に対応したエン
コーダ4を利用して、立体動画像を効率良く符号化する
ことができる。
As described above, by alternately merging the line L1 of the left image 1 and the line 2 of the right image 2 to form one frame image 3, the encoder 4 corresponding to the well-known MPEG standard is used, It is possible to efficiently encode a stereoscopic moving image.

【0034】左画像1及び右画像2を再生する場合、図
示しない光ピックアップが光磁気ディスク5に記録され
た符号化データを読み取り、デコ−ダ6がその符号化デ
ータの読取信号を入力し、符号化データの復号を行う。
デコーダ6は、エンコーダ4と同様にMPEG−1又は
MPEG−2規格に対応しており、符号化データを、可
変長復号化、逆量子化及び逆DCT等の復号化処理を行
って、画像を再生する。
When reproducing the left image 1 and the right image 2, an optical pickup (not shown) reads the coded data recorded on the magneto-optical disk 5, and the decoder 6 inputs the read signal of the coded data. Decode encoded data.
The decoder 6 is compatible with the MPEG-1 or MPEG-2 standard similarly to the encoder 4, and performs a decoding process such as variable length decoding, inverse quantization and inverse DCT on the encoded data to form an image. Reproduce.

【0035】デコーダ6は、フレーム間符号化処理で動
き補償を行っている場合、符号化データに含まれる動き
ベクトルを復号し、これと自己がもつリファレンスメモ
リ(図示せず)に蓄えられた復号化参照画像とを用い
て、動き補償がなされた画像を再生する。このようにし
て、デコーダ6は、MPEG規格に従う符号化データの
復号化処理を行って、ラインL1とラインL2とが交互にマ
ージされたフレーム画像3と同じ再生フレーム画像7を
分離器Sに出力する。
The decoder 6 decodes the motion vector included in the encoded data when the motion compensation is performed in the inter-frame encoding process, and the decoding stored in the reference memory (not shown) of the decoder 6 is included in the decoder 6. The motion-compensated image is reproduced using the encoded reference image. In this way, the decoder 6 performs the decoding process of the encoded data according to the MPEG standard, and outputs the same reproduction frame image 7 as the frame image 3 in which the line L1 and the line L2 are alternately merged to the separator S. To do.

【0036】分離器Sは再生フレーム画像7を再生左画
像1Aと再生右画像2Aとに分離する。分離器Sは、再
生フレーム画像7の偶数ラインL1が左画像1を構成し、
奇数ラインL2が右画像2を構成するように、各ラインL
1,L2 を交互に振り分ける。このようにして、光磁気デ
ィスク5に記録された左画像1及び右画像2の復号再生
が完了する。このように、MPEG規格に対応したデコ
ーダ6は、左画像1及び右画像2が合成され、かつエン
コーダ4によりエンコードされたフレーム画像3を効率
良く復号化することができる。
The separator S separates the reproduced frame image 7 into a reproduced left image 1A and a reproduced right image 2A. In the separator S, the even line L1 of the reproduction frame image 7 constitutes the left image 1,
Each line L so that the odd line L2 constitutes the right image 2.
Distribute 1, L2 alternately. In this way, the decoding and reproduction of the left image 1 and the right image 2 recorded on the magneto-optical disk 5 are completed. In this way, the decoder 6 compatible with the MPEG standard can efficiently decode the frame image 3 in which the left image 1 and the right image 2 are combined and encoded by the encoder 4.

【0037】〔第2実施例〕次に、本発明を具体化した
第2実施例を説明する。この実施例では、左画像1及び
右画像2はインタレース画像である。図2に示すよう
に、左画像1は、奇数フィールド画像OF1 と偶数フィー
ルド画像EF1 とをもつ。右画像2は、奇数フィールド画
像OF2 と偶数フィールド画像EF2 とをもつ。
[Second Embodiment] Next, a second embodiment of the present invention will be described. In this example, left image 1 and right image 2 are interlaced images. As shown in FIG. 2, the left image 1 has an odd field image OF1 and an even field image EF1. The right image 2 has an odd field image OF2 and an even field image EF2.

【0038】左画像1及び右画像2を符号化する場合、
合成器Maは奇数フィールド画像OF1 のラインOL1 と、
奇数フィールド画像OF2 のラインOL2 とを交互にマージ
して第1フィールド画像8を形成する。合成器Mbは偶
数フィールド画像EF1 のラインEL1 と、偶数フィールド
画像EF2 のラインEL2 とを交互にマージして第2フィー
ルド画像9を形成する。
When encoding the left image 1 and the right image 2,
The synthesizer Ma uses the line OL1 of the odd field image OF1 and
The line OL2 of the odd field image OF2 is alternately merged to form the first field image 8. The combiner Mb alternately merges the line EL1 of the even field image EF1 and the line EL2 of the even field image EF2 to form the second field image 9.

【0039】エンコーダ/デコーダ10は、エンコーダ
部及びデーコダ部を備え、エンコーダ部は第1及び第2
のフィールド画像8,9をそれぞれ入力して、それらを
符号化する。このエンコーダ/デコーダ10は、第1フ
ィールド画像8を奇数フレーム画像とし、第2フィール
ド画像9を偶数フレーム画像としてフレーム構造のMP
EG−2規格で符号化を行う。
The encoder / decoder 10 includes an encoder section and a decoder section, and the encoder section includes first and second encoder sections.
The field images 8 and 9 are input respectively and encoded. This encoder / decoder 10 uses the first field image 8 as an odd-numbered frame image and the second field image 9 as an even-numbered frame image, and has a frame structure MP.
Encoding is performed according to the EG-2 standard.

【0040】エンコーダ/デコーダ10は、符号化の際
に各フレーム画像の個々についてDCTを行うととも
に、このフレーム画像間で適応的にフレーム間動き補償
付き符号化と、フィールド間動き補償付き符号化を行
う。エンコーダ/デコーダ10は、符号化データを図示
しない光ピックアップを備えた記録装置に出力し、光ピ
ックアップはその符号化データを光磁気ディスクに記録
する。
The encoder / decoder 10 performs DCT on each frame image at the time of encoding, and adaptively performs interframe motion compensation coding and interfield motion compensation coding between the frame images. To do. The encoder / decoder 10 outputs the encoded data to a recording device having an optical pickup (not shown), and the optical pickup records the encoded data on a magneto-optical disk.

【0041】この第2実施例において合成器Maは、左
右画像の各々がもつ2つの奇数フィールド画像OF1,OF2
をマージして第1フィールド画像8を形成し、合成器M
bは、2つの偶数フィールド画像EF1,EF2 をマージして
第2フィールド画像9を形成する。
In the second embodiment, the combiner Ma uses the two odd field images OF1 and OF2 of the left and right images respectively.
Are combined to form the first field image 8 and the combiner M
b merges the two even field images EF1 and EF2 to form the second field image 9.

【0042】以上、各フィールド画像をMPEG−2に
対応したエンコーダ/デコーダ10を利用して、立体動
画像信号を効率良く符号化することができる。左画像1
及び右画像2を再生する場合、エンコーダ/デコーダ1
0は、図示しない光ピックアップによって読取られた光
磁気ディスクの符号化データを入力し、これをデコーダ
部が復号化して再生第1及び第2フィールド画像11、
12を生成する。エンコーダ/デコーダ10は、これら
の画像データを分離器S1 に出力する。
As described above, the three-dimensional moving image signal can be efficiently encoded by using the encoder / decoder 10 corresponding to MPEG-2 for each field image. Left image 1
And when reproducing the right image 2, the encoder / decoder 1
0 receives the encoded data of the magneto-optical disk read by an optical pickup (not shown), and the decoder unit decodes the encoded data to reproduce the first and second field images 11,
12 is generated. The encoder / decoder 10 outputs these image data to the separator S1.

【0043】分離器S1 は再生第1フィールド画像11
を奇数フィールド画像OF1 と奇数フィールド画像OF2 と
にそれぞれ分離する。分離器S1 は、複数のラインOL1
からなる奇数フィールド画像OF1 と、複数のラインOL2
からなる奇数フィールド画像OF2 をそれぞれ形成すべ
く、各ラインOL1,OL2 を振り分ける。分離器S2 は再生
第2フィールド画像12を偶数フィールド画像EF1 と偶
数フィールド画像EF2 とにそれぞれ分離する。
The separator S1 is used for the reproduction first field image 11
Are separated into an odd field image OF1 and an odd field image OF2, respectively. Separator S1 has multiple lines OL1
An odd field image OF1 consisting of multiple lines OL2
The lines OL1 and OL2 are distributed so as to form the odd-numbered field image OF2, respectively. The separator S2 separates the reproduced second field image 12 into an even field image EF1 and an even field image EF2.

【0044】分離器S2 は、複数のラインEL1 からなる
偶数フィールド画像EF1 と、複数のラインEL2 からなる
偶数フィールド画像EF2 とをそれぞれ形成すべく、各ラ
インEL1 ,EL2 を振り分ける。このようにして奇数フィ
ールド画像OF1 と偶数フィールド画像EF1 とからなる再
生左画像1A、及び奇数フィールド画像0F2 と偶数フィ
ールド画像EF2 とからなる再生右画像2Aが得られる。
The separator S2 distributes the lines EL1 and EL2 to form an even field image EF1 composed of a plurality of lines EL1 and an even field image EF2 composed of a plurality of lines EL2. In this way, a reproduced left image 1A composed of the odd field image OF1 and the even field image EF1 and a reproduced right image 2A composed of the odd field image 0F2 and the even field image EF2 are obtained.

【0045】エンコーダ/デコーダ10はMPEG−2
規格に従って復号化を行い再生第1及び第2フィールド
画像11,12を得る。分離器S1 ,S2 はそれらの画
像を奇数フィールド画像OF1,OF2 及び偶数フィールド画
像EF1,EF2 にそれぞれ分離する。このように、エンコー
ダ/デコーダ10及び分離器S1 ,S2 により、再生左
画像1A及び再生右画像2Aを容易に得ることができ
る。
The encoder / decoder 10 is MPEG-2.
Decoding is performed according to the standard to obtain reproduced first and second field images 11 and 12. Separators S1 and S2 separate the images into odd field images OF1 and OF2 and even field images EF1 and EF2, respectively. Thus, the reproduced left image 1A and the reproduced right image 2A can be easily obtained by the encoder / decoder 10 and the separators S1 and S2.

【0046】〔第3実施例〕次に、本発明を具体化した
第3実施例を説明する。この実施例では、左画像1及び
右画像2はそれぞれインタレース画像である。しかし、
各画像1,2の奇数フィールド画像同士及び偶数フィー
ルド画像同士のマージは行われない。
[Third Embodiment] Next, a third embodiment of the present invention will be described. In this example, left image 1 and right image 2 are interlaced images, respectively. But,
The odd field images and the even field images of the images 1 and 2 are not merged.

【0047】図3に示すように、左画像1及び右画像2
を符号化する場合、2つの垂直フィルタ13は個々の画
像1,2に対してそれぞれ位相のずれを補正して左フィ
ルタ画像14及び右フィルタ画像15をそれぞれ生成す
る。垂直フィルタ13は、各画像1,2の垂直方向の信
号のずれを補正して、それらを擬似的なノンインタレー
ス画像にする。
As shown in FIG. 3, the left image 1 and the right image 2
, The two vertical filters 13 correct the phase shifts of the individual images 1 and 2 to generate a left filter image 14 and a right filter image 15, respectively. The vertical filter 13 corrects the deviation of signals in the vertical direction of the images 1 and 2 to make them pseudo non-interlaced images.

【0048】垂直フィルタ13は、静止画か動画かを判
定し、静止画である場合には位相のずれの補正を行わ
ず、動画である場合には動き検出を行い、その結果得ら
れる動きベクトルの大きさに基づいてずれを補正する。
垂直フィルタ13がこのような動作を行うことにより、
ノンインタレース画像のフィルタ処理の必要性がなくな
り、その画質劣化を防止することができる。
The vertical filter 13 determines whether the image is a still image or a moving image. If the image is a still image, the phase shift is not corrected, and if the image is a moving image, the motion detection is performed. The deviation is corrected based on the size of.
By the vertical filter 13 performing such an operation,
The need for filter processing of non-interlaced images is eliminated, and deterioration of the image quality can be prevented.

【0049】合成器Mは第1実施例と同様に、左フィル
タ画像14のラインL1と右フィルタ画像15のラインL2
とを交互にマージしてインタレース画像と同等のフレー
ム画像16を形成する。そして、第1実施例と同様にエ
ンコーダ(図示せず)が、フレーム画像16を符号化
し、ピックアップ(図示せず)がその符号化データを光
磁気ディスクに記録する。
Similar to the first embodiment, the synthesizer M uses the line L1 of the left filter image 14 and the line L2 of the right filter image 15
Are alternately merged to form a frame image 16 equivalent to an interlaced image. Then, as in the first embodiment, an encoder (not shown) encodes the frame image 16, and a pickup (not shown) records the encoded data on the magneto-optical disk.

【0050】左画像1及び右画像2を再生する場合、光
磁気ディスクから読取られた符号化データを図示しない
デコーダが復号化を行って再生フレーム画像17を生成
する。分離器Sは再生フレーム画像17を再生左画像1
Aと再生右画像2Aに分離する。
When reproducing the left image 1 and the right image 2, a decoder (not shown) decodes the encoded data read from the magneto-optical disk to generate a reproduced frame image 17. The separator S reproduces the reproduction frame image 17 and reproduces the left image 1
A and the reproduction right image 2A are separated.

【0051】この第3実施例において、垂直フィルタ1
3を用いて左画像1及び右画像2の擬似的なノンインタ
レース画像を生成することにより、第2実施例のように
各画像1,2をフィールド単位でマージするための合成
器Ma,Mbを用いる必要がなく、マージにかかる手間
を省くことができる。
In the third embodiment, the vertical filter 1
3 is used to generate a pseudo non-interlaced image of the left image 1 and the right image 2, thereby synthesizing Ma and Mb for merging the images 1 and 2 field by field as in the second embodiment. It is not necessary to use, and the labor for merging can be saved.

【0052】〔第1実施例に対応する第1の例〕次に、
第1実施例に対応するより詳細な第1の例を図4〜図1
4を参照しつつ、説明する。図4は概略的な立体動画像
信号の符号化装置を示し、その装置は、合成器20,周
知のMPEG−1方式のエンコーダ22を備えている。
[First Example Corresponding to First Embodiment] Next,
A more detailed first example corresponding to the first embodiment is shown in FIGS.
This will be described with reference to FIG. FIG. 4 shows a schematic stereoscopic video signal encoding apparatus, which is provided with a synthesizer 20 and a well-known MPEG-1 type encoder 22.

【0053】合成器20は図5に示すように、右目動画
像RVと左目動画像LVを同時に入力し、これらをライ
ン毎に交互に合成し、垂直方向のライン数が2倍の合成
画像信号DVを生成する。
As shown in FIG. 5, the synthesizer 20 inputs the right-eye moving image RV and the left-eye moving image LV at the same time, and synthesizes them alternately line by line to produce a combined image signal having twice the number of lines in the vertical direction. Generate DV.

【0054】MPEG−1エンコーダ22は合成器20
から出力された合成画像信号DVを入力し、これを符号
化する。は、その合成信号DVを符号化し、光ピックア
ップ24は、MPEG−1エンコーダ22から出力され
た符号化データを入力して、記録媒体としての光磁気デ
ィスク26に記録する。
The MPEG-1 encoder 22 is the synthesizer 20.
The composite image signal DV output from is input and encoded. Encodes the composite signal DV, and the optical pickup 24 inputs the encoded data output from the MPEG-1 encoder 22 and records it on a magneto-optical disk 26 as a recording medium.

【0055】図6は合成器20のブロック回路図を示
す。合成器20は第1カメラ28によって撮影された右
目画像信号を格納するための第1ラインメモリ32と,
第2カメラ30によって撮影された左目画像信号LVを
格納するための第2ラインメモリ34と,クロックジェ
ネレータ36,メモリ制御回路38を備えている。
FIG. 6 shows a block circuit diagram of the synthesizer 20. The synthesizer 20 includes a first line memory 32 for storing the right-eye image signal captured by the first camera 28,
A second line memory 34 for storing the left-eye image signal LV photographed by the second camera 30, a clock generator 36, and a memory control circuit 38 are provided.

【0056】第1カメラ28は同期信号SYNCを第2
カメラ30及びクロックジェネレータ36に出力する。
第2カメラ30は同期信号SYNCに同期して動作す
る。クロックジェネレータ36は、同期信号SYNCに
同期してクロック信号を生成し、これをメモリ制御回路
38に出力する。
The first camera 28 sends the synchronization signal SYNC to the second signal.
It is output to the camera 30 and the clock generator 36.
The second camera 30 operates in synchronization with the synchronization signal SYNC. The clock generator 36 generates a clock signal in synchronization with the synchronization signal SYNC and outputs this to the memory control circuit 38.

【0057】メモリ制御回路38は、クロックジェネレ
ータ36からのクロック信号に応答して、図7に示す書
き込みクロック信号f1 を生成し、これを第1及び第2
ラインメモリ32,34にそれぞれ出力する。第1ライ
ンメモリ32は、書き込みクロック信号f1 に応答して
右画像信号RVを1ライン(R1-1,R1-2.... にて図
示)毎に格納する。第2ラインメモリは、同様に左画像
信号LVを1ライン(L1-1,L1-2.... にて図示)毎に
格納する。
The memory control circuit 38 generates the write clock signal f 1 shown in FIG. 7 in response to the clock signal from the clock generator 36, and outputs this to the first and second write clock signals f 1 .
It outputs to the line memories 32 and 34, respectively. The first line memory 32 stores the right image signal RV for each line (shown by R1-1, R1-2 ...) In response to the write clock signal f 1 . Similarly, the second line memory stores the left image signal LV for each line (illustrated by L1-1, L1-2 ...).

【0058】更に、メモリ制御回路38は、クロック信
号に応答して書き込みクロック信号f1 に同期し、かつ
その信号f1 の周波数の2倍の周波数をもつ第1読出し
クロック信号f2 を生成し、これを第1ラインメモリ3
2に出力する。メモリ制御回路38は、クロック信号に
応答して第1読出しクロック信号f2 に遅延し、かつ書
き込みクロック信号f1 の周波数の2倍の周波数をもつ
第2読出しクロック信号f3 とを生成し、これを第2ラ
インメモリ34に出力する。
[0058] Further, the memory control circuit 38 is synchronized with the write clock signal f 1 in response to a clock signal, and generates the first read clock signal f 2 having a frequency twice the frequency of the signal f 1 , This is the first line memory 3
Output to 2. The memory control circuit 38 delays the first read clock signal f 2 in response to the clock signal and generates a second read clock signal f 3 having a frequency twice the frequency of the write clock signal f 1 . This is output to the second line memory 34.

【0059】第1ラインメモリ32は、第1読出しクロ
ック信号f1 に応答して、1/2に圧縮された右画像信
号RVを1ライン毎にエンコーダ22に出力する。第2
ラインメモリ34は、第2読出しクロック信号f3 に応
答して、同じく1/2に圧縮された右画像信号RVに遅
延する左画像信号LVを1ライン毎にエンコーダ22に
出力する。この結果、合成器20は、右左動画像信号を
1ライン毎に交互に合成した合成画像信号DVをエンコ
ーダ22に出力する。
The first line memory 32 outputs the right image signal RV compressed to 1/2 to the encoder 22 line by line in response to the first read clock signal f 1 . Second
In response to the second read clock signal f 3 , the line memory 34 outputs the left image signal LV delayed to the right image signal RV, which is also compressed to ½, to the encoder 22 line by line. As a result, the synthesizer 20 outputs to the encoder 22 the synthesized image signal DV obtained by alternately synthesizing the right and left moving image signals for each line.

【0060】図8は、MPEG1エンコーダ22のブロ
ック回路図を示す。エンコーダ22は、画面並べ変え回
路110,マクロブロック変換器112,減算器11
4,ブロック変換器115,DCT116,量子化回路
118,可変長符号化回路120,挿入器121,バッ
ファ122,ビットレート制御回路124,逆量子化回
路126,加算器130,画像メモリ132,動き補償
読出し制御回路134,モード判定回路136及び動き
検出回路138を備えている。
FIG. 8 shows a block circuit diagram of the MPEG1 encoder 22. The encoder 22 includes a screen rearrangement circuit 110, a macroblock converter 112, a subtractor 11
4, block converter 115, DCT 116, quantization circuit 118, variable length coding circuit 120, inserter 121, buffer 122, bit rate control circuit 124, inverse quantization circuit 126, adder 130, image memory 132, motion compensation A read control circuit 134, a mode determination circuit 136, and a motion detection circuit 138 are provided.

【0061】画面並び替え回路110は、合成器22か
ら出力された合成画像信号DVを入力し、その合成画像
を構成する画面(ピクチャ)順を並び変える。例えば、
現画面に対して時間的に後続する参照画面を用いて符号
化する場合、並び替え回路110は、その後続する参照
画面を先に出力すべく、現画面と参照画面とを並び変え
る。
The screen rearrangement circuit 110 receives the composite image signal DV output from the combiner 22, and rearranges the order of screens (pictures) forming the composite image. For example,
When encoding is performed using a reference screen that temporally follows the current screen, the rearrangement circuit 110 rearranges the current screen and the reference screen so that the subsequent reference screen is output first.

【0062】図9に示すように、符号化する画面には3
つのタイプがあり、1つ目は参照画面を用いることなく
フレーム内のみの符号化を行うIピクチャと呼ばれる画
面である。2つ目はIピクチャに対して時間的に後続す
る画面で、かつそのIピクチャを参照画面として用いて
フレーム間予測符号化を行うPピクチャと呼ばれる画面
である。3つ目はIピクチャ又はPピクチャに対して時
間的に先行及び/又は後続する画面で、かつそのIピク
チャ又はPピクチャを参照画面として用いてフレーム間
予測符号化を行うBピクチャと呼ばれる画面である。
As shown in FIG. 9, there are 3 screens to be encoded.
There are two types, and the first is a screen called an I picture that performs coding only within a frame without using a reference screen. The second is a screen that temporally follows the I picture, and is a screen called a P picture that performs interframe predictive coding using the I picture as a reference screen. The third is a screen that temporally precedes and / or follows an I picture or a P picture, and a screen called a B picture that performs interframe predictive coding using the I picture or P picture as a reference screen. is there.

【0063】フレーム間予測符号化は、P又はBピクチ
ャを分割したマクロブロック単位が対象である。フレー
ム間予測符号化されるマクロブロックをインターマクロ
ブロック、フレーム間予測符号化しないマクロブロック
をイントラマクロブロックと呼ぶ。
Inter-frame predictive coding is targeted for macroblock units obtained by dividing P or B pictures. A macroblock that is interframe predictive coded is called an inter macroblock, and a macroblock that is not interframe predictive coded is called an intra macroblock.

【0064】マクロブロック変換器112は、画面並び
替え回路110から出力された各画面を走査変換により
16×16画素の複数のマクロブロックに分割し、これ
を動き検出回路138及び減算器114に出力する。
The macroblock converter 112 divides each screen output from the screen rearrangement circuit 110 into a plurality of macroblocks of 16 × 16 pixels by scanning conversion, and outputs this to the motion detection circuit 138 and the subtractor 114. To do.

【0065】減算器114は、マクロブロック変換器1
12から出力される現画面の現マクロブロックと、画像
メモリ132から出力された参照画面の参照マクロブロ
ックを減算して差分データを出力する。(この画像メモ
リ132については後述する。) ブロック変換器115は図10に示すように、16×1
6画素の各マクロブロックを8×8画素の4つのブロッ
クに分割する。DCT116はブロック単位で離散コサ
イン変換を行い、図11に示すように各ブロックを、低
周波数項から高周波数項の周波数成分に分解して、各周
波数項の係数Cijから成る8行8列の係数行列〔Cij〕
に各々変換する((a)→(b)の処理)。量子化回路
118は、DCT116により変換された各係数Cijを
除数Qij(=Kij×q)で除算して量子化する。Kijは
量子化マトリクステーブルで与えられる定数であり、q
はビットレート制御回路124から出力される量子化ス
テップ幅である。量子化回路118は低周波数項の高周
波数項の順に係数データCijを順次出力する。
The subtractor 114 is the macroblock converter 1
The current macroblock of the current screen output from 12 and the reference macroblock of the reference screen output from the image memory 132 are subtracted to output difference data. (This image memory 132 will be described later.) The block converter 115 is 16 × 1 as shown in FIG.
Each macroblock of 6 pixels is divided into 4 blocks of 8x8 pixels. The DCT 116 performs a discrete cosine transform on a block-by-block basis, decomposes each block into frequency components from low frequency terms to high frequency terms, and forms a coefficient of 8 rows and 8 columns consisting of coefficients Cij of each frequency term. Matrix [Cij]
Respectively (processing of (a) → (b)). The quantization circuit 118 divides each coefficient Cij converted by the DCT 116 by a divisor Qij (= Kij × q) and quantizes it. Kij is a constant given by the quantization matrix table, and q
Is a quantization step width output from the bit rate control circuit 124. The quantization circuit 118 sequentially outputs the coefficient data Cij in the order of the low frequency terms and the high frequency terms.

【0066】可変長符号化回路120は、量子化回路1
18から出力された係数データCijを可変長符号化して
ビットストリームを生成する。ビットレート制御回路1
24は、可変長符号化回路120を介して挿入器121
から出力されるビットストリームのビットレートの値と
目標値とを比較して、そのビットレートの値を目標値に
すべく、量子化ステップ幅qを決定する。制御回路12
4は、ビットレートが目標値より小さいとき、量子化ス
テップ幅qを小さくし、目標値より大きいとき量子化ス
テップ幅qを大きくする。このビットレートの目標値は
図示しない符号化制御回路から出力される。
The variable length coding circuit 120 is the quantization circuit 1
The coefficient data Cij output from 18 is variable-length coded to generate a bitstream. Bit rate control circuit 1
24 is an inserter 121 via the variable length coding circuit 120.
The bit-rate value of the bit stream output from is compared with the target value, and the quantization step width q is determined so that the bit-rate value becomes the target value. Control circuit 12
No. 4 reduces the quantization step width q when the bit rate is smaller than the target value, and increases the quantization step width q when the bit rate is larger than the target value. The target value of this bit rate is output from an encoding control circuit (not shown).

【0067】逆量子化回路126及び逆DCT128
は、量子化回路118及びDCT116と逆の動作を行
い、量子化された画像データを元の画像データに復号
し、これを加算器130に出力する。
Inverse quantization circuit 126 and inverse DCT 128
Performs the reverse operation of the quantization circuit 118 and the DCT 116, decodes the quantized image data into original image data, and outputs this to the adder 130.

【0068】加算器130は、復号された画像データが
インターマクロブロック(減算器114が生成した差分
データ)である場合次の処理を行う。加算器130は、
その差分データに画像メモリ132から出力された参照
画面のマクロブロックデータ(このデータについては後
述する)を加算して、参照画面を再生する。加算器13
0は、再生された参照画面を画像メモリ132に格納す
る。画像メモリ132は、少なくとも2つの参照画面を
蓄えることができる。この参照画面の組み合わせは、I
ピクチャとIピクチャ、IピクチャとPピクチャ、又
は、PピクチャとPピクチャである。
The adder 130 performs the following processing when the decoded image data is an inter macroblock (difference data generated by the subtractor 114). The adder 130 is
The reference screen macroblock data (this data will be described later) added from the image memory 132 is added to the difference data to reproduce the reference screen. Adder 13
0 stores the reproduced reference screen in the image memory 132. The image memory 132 can store at least two reference screens. This reference screen combination is I
A picture and an I picture, an I picture and a P picture, or a P picture and a P picture.

【0069】画像メモリ132は読出し制御回路134
の制御に従って、参照画面又は参照マクロブロックデー
タを動き検出回路138,モード判定回路136,減算
器114及び加算器130に出力する。
The image memory 132 has a read control circuit 134.
Under the control of, the reference screen or the reference macroblock data is output to the motion detection circuit 138, the mode determination circuit 136, the subtractor 114, and the adder 130.

【0070】次に、図12〜図14に示す動き検出回路
138,モード判定回路136及び読出し制御回路13
4の詳細を説明する。ここで、例えば、画像メモリ13
2は、デコードされたIピクチャRL1と、Pピクチャ
RL3を格納しているものとする。マクロブロック変換
器112は図13に示すBピクチャのマクロブロックS
MBを動き検出回路138及びモード判定回路136に
出力するものとする。
Next, the motion detection circuit 138, the mode determination circuit 136 and the read control circuit 13 shown in FIGS.
4 will be described in detail. Here, for example, the image memory 13
2 stores the decoded I picture RL1 and P picture RL3. The macroblock converter 112 uses the macroblock S of the B picture shown in FIG.
MB is output to the motion detection circuit 138 and the mode determination circuit 136.

【0071】動き検出回路138は、平均回路200,
第1〜第3動きベクトル検出回路210,212,21
4を備えている。平均回路200は、画像メモリ132
から出力されるIピクチャ及びPピクチャを入力し、両
ピクチャを平均化し、その平均化されたピクチャを第3
動きベクトル検出回路214に出力する。
The motion detecting circuit 138 includes an averaging circuit 200,
First to third motion vector detection circuits 210, 212, 21
It is equipped with 4. The averaging circuit 200 includes an image memory 132
I picture and P picture output from are input, both pictures are averaged, and the averaged picture is the third picture.
It is output to the motion vector detection circuit 214.

【0072】第1検出回路210は、現マクロブロック
SMBとPピクチャとを比較して、Pピクチャからその
SMBに最も類似する参照マクロブロックを探し出す。
そして、第1検出回路210は、探しだされた参照マク
ロブロックの位置を示す動きベクトルMV(B)を検出
する。すなわち、第1検出回路210は、現マクロブロ
ックSMBの座標位置に対応する参照画面Pピクチャ内
の座標位置(第1位置)と参照マクロブロックの座標位
置(第2位置)とのずれを動きベクトルMV(B)とし
て検出する。この動きベクトルMV(B)は、図14C
に示す後方向予測に対応している。
The first detection circuit 210 compares the current macroblock SMB with the P picture, and searches the P picture for the reference macroblock most similar to the SMB.
Then, the first detection circuit 210 detects the motion vector MV (B) indicating the position of the searched reference macroblock. That is, the first detection circuit 210 calculates the difference between the coordinate position (first position) in the reference picture P picture corresponding to the coordinate position of the current macroblock SMB and the coordinate position (second position) of the reference macroblock as a motion vector. It is detected as MV (B). This motion vector MV (B) is shown in FIG. 14C.
It corresponds to the backward prediction shown in.

【0073】第2動きベクトル検出回路212は、Iピ
クチャから現マクロブロックSMBに最も類似する参照
マクロブロックを探し出し、その参照マクロブロックの
位置を示す動きベクトルMV(F)を検出する。この動
きベクトルMV(F)は、図14Aに示す前方向予測に
対応している。
The second motion vector detection circuit 212 searches the I picture for a reference macroblock most similar to the current macroblock SMB, and detects a motion vector MV (F) indicating the position of the reference macroblock. This motion vector MV (F) corresponds to the forward prediction shown in FIG. 14A.

【0074】第3動きベクトル検出回路214は、平均
回路200によりIピクチャとPピクチャが平均化され
たピクチャから現マクロブロックSMBに類似する参照
マクロブロックを探し出し、その参照マクロブロック位
置を示す動きベクトルMV(F+B)を検出する。この
動きベクトルMV(F+B)は、図14Bで示す双方向
予測に対応している。このようにして第1〜第3検出回
路210,212,214は、動きベクトルMV
(F),MV(F+B),MV(B)を、モード判定回
路136及び読出し制御回路134に出力する。
The third motion vector detection circuit 214 searches for a reference macroblock similar to the current macroblock SMB from the picture obtained by averaging the I picture and P picture by the averaging circuit 200, and a motion vector indicating the reference macroblock position. MV (F + B) is detected. This motion vector MV (F + B) corresponds to the bidirectional prediction shown in FIG. 14B. In this way, the first to third detection circuits 210, 212 and 214 are operated by the motion vector MV.
(F), MV (F + B), and MV (B) are output to the mode determination circuit 136 and the read control circuit 134.

【0075】読出制御回路134は、動きベクトルMV
(F)に基づいて、対応するIピクチャの参照マクロブ
ロックをメモリ132から読み出して、モード判定回路
136に出力する。又、読出制御回路134は、動きベ
クトルMV(F+B)に基づいて、対応するIピクチャ
及びPピクチャの参照マクロブロックをメモリ132か
らそれぞれ読み出して、モード判定回路136に出力す
る。更に、読出制御回路134は、動きベクトルMV
(B)に基づいて、対応するPピクチャの参照マクロブ
ロックをメモリ132から読み出して、モード判定回路
136に出力する。
The read control circuit 134 uses the motion vector MV.
Based on (F), the reference macroblock of the corresponding I picture is read from the memory 132 and output to the mode determination circuit 136. The read control circuit 134 also reads the reference macroblocks of the corresponding I picture and P picture from the memory 132 based on the motion vector MV (F + B), and outputs them to the mode determination circuit 136. Further, the read control circuit 134 determines that the motion vector MV
Based on (B), the reference macroblock of the corresponding P picture is read from the memory 132 and output to the mode determination circuit 136.

【0076】モード判定回路136は、平均回路22
0,第1〜第4分散値算出回路216,226,22
8,230,分散値比較回路232,第1〜第3減算器
218,222,224及び切換回路234を備えてい
る。
The mode determination circuit 136 is the averaging circuit 22.
0, first to fourth variance value calculation circuits 216, 226, 22
8, 230, a variance value comparison circuit 232, first to third subtractors 218, 222, 224, and a switching circuit 234.

【0077】第1算出回路216は、マクロブロック変
換器112から出力された現マクロブロックSMB(イ
ントラマクロブロック)の分散値(アクティビティ)を
算出する。この分散値は画面の平坦度を示す。
The first calculation circuit 216 calculates the variance value (activity) of the current macroblock SMB (intra macroblock) output from the macroblock converter 112. This dispersion value indicates the flatness of the screen.

【0078】第1減算器218は現マクロブロックSM
Bと、前方向予測による参照マクロブロックとの差分を
求め、第2算出回路226はこの差分に応じた分散値を
算出する。第2減算器222は現マクロブロックSMB
と、平均回路220で平均化された双方向予測による参
照マクロブロックとの差分を求め、第3算出回路228
はこの差分に応じた分散値を算出する。第3減算器22
4は、現マクロブロックSMBと、後方向予測による参
照マクロブロックとの差分を求め、第4算出回路230
はこの差分に応じた分散値を算出する。
The first subtractor 218 uses the current macroblock SM.
The difference between B and the reference macroblock obtained by the forward prediction is calculated, and the second calculation circuit 226 calculates the variance value according to this difference. The second subtractor 222 detects the current macroblock SMB.
And a reference macroblock by bidirectional prediction averaged by the averaging circuit 220, and the third calculation circuit 228
Calculates the variance value according to this difference. Third subtractor 22
4 calculates the difference between the current macroblock SMB and the reference macroblock by backward prediction, and the fourth calculation circuit 230
Calculates the variance value according to this difference.

【0079】分散値比較回路232は、各回路216,
226,228,230から出力された各分散値を比較
して、最も値の小さい分散値に対応するマクロブロック
タイプ情報MBTを出力する。このマクロブロックタイ
プ情報MBTは、現マクロブロックの符号化(イントラ
モード),前方向予測,後方向方予測,双方向予測によ
る符号化(インターモード)の4つ符号化のうちのいず
れかを示す。比較回路232は、インターモードの場
合、制御信号を切換回路234に出力する。
The variance value comparison circuit 232 includes circuits 216 and 216.
The respective variance values output from 226, 228, and 230 are compared, and the macroblock type information MBT corresponding to the variance value having the smallest value is output. This macroblock type information MBT indicates any one of four encodings of the current macroblock (intra mode), forward prediction, backward prediction, and bidirectional prediction (inter mode). . In the inter mode, the comparison circuit 232 outputs the control signal to the switching circuit 234.

【0080】切換回路234はその制御信号に応答し
て、対応する動きベクトルを読出し制御回路148及び
挿入器121に出力する。例えば、算出回路230の分
散値が最も小さい場合、比較回路232は後方向予測に
よるインターモードのマクロブロックタイプMBTを出
力し、切換回路234は動きベクトルMV(B)を読出
し制御回路134に出力する。読出し制御回路134
は、動きベクトルMVに基づいて対応する参照マクロブ
ロックの読出し制御信号をメモリ132に出力する。こ
のように、モード判定回路136は、イントラモード、
図14Aに示す前方向予測符号化、図14Bに示す双方
向予測符号化、図11Cに示す後方向予測符号化のう
ち、最も圧縮効率のよい方法を自動的に選択する。この
モード選択により、立体動画像の圧縮効率を向上するこ
とができる。
The switching circuit 234 outputs the corresponding motion vector to the read control circuit 148 and the inserter 121 in response to the control signal. For example, when the variance value of the calculation circuit 230 is the smallest, the comparison circuit 232 outputs the inter prediction macroblock type MBT by backward prediction, and the switching circuit 234 outputs the motion vector MV (B) to the read control circuit 134. . Read control circuit 134
Outputs a read control signal of the corresponding reference macroblock to the memory 132 based on the motion vector MV. As described above, the mode determination circuit 136 uses the intra mode,
Of the forward predictive coding shown in FIG. 14A, the bidirectional predictive coding shown in FIG. 14B, and the backward predictive coding shown in FIG. 11C, the method with the highest compression efficiency is automatically selected. By this mode selection, the compression efficiency of the stereoscopic moving image can be improved.

【0081】図8に示すように、挿入器121は、可変
長符号化回路120から出力されるビットストリームに
図示しないデコーダが復号化を行うための各種情報を挿
入する。これらの各種情報は、 1)図示しない外部の入力装置から出力された画面サイ
ズを示す情報、 2)その入力装置から出力された立体画像の符号化に関
連する情報、 3)モード判定回路136から出力されたマクロブロッ
クタイプ情報MBT、 4)モード判定回路136から出力された動きベクトル
情報MV、 5)図示しない符号化制御回路から出力されたビットレ
ートの目標値を示す情報を含む。更に、2)の情報は、 2a)符号化データが立体画像データか否かを表す情
報、 2b)左右動画像のマージ方法を表す情報, 2c)符号化前の画像がインタレース画像か否かを表す
情報を含む。バッファメモリ122は、各種情報を含む
ビットストリームを一時的に蓄えた後、所定のビットレ
ートでビットストリームを出力する。
As shown in FIG. 8, the inserter 121 inserts various information for decoding by a decoder (not shown) into the bit stream output from the variable length coding circuit 120. These various types of information are: 1) information indicating a screen size output from an external input device (not shown), 2) information related to the encoding of a stereoscopic image output from the input device, and 3) from the mode determination circuit 136. The macro block type information MBT is output, 4) the motion vector information MV is output from the mode determination circuit 136, and 5) the bit rate target value output from an encoding control circuit (not shown) is included. Further, 2) information includes 2a) information indicating whether or not the encoded data is stereoscopic image data, 2b) information indicating a method of merging left and right moving images, and 2c) whether or not the image before encoding is an interlaced image. Including information that represents. The buffer memory 122 temporarily stores a bitstream including various kinds of information, and then outputs the bitstream at a predetermined bit rate.

【0082】上述したように、この第1の例は、合成器
20が相関性の強い(類似性の高い)左画像と右画像と
をライン毎に合成して1つの画像(ピクチャ)とし、公
知のMPEG−1に従うエンコーダ22により符号化を
行う。このとき、MPEG−1エンコーダ22は、現画
面と参照画面との差分から両画像の相関性を検出し、そ
の検出に基づいて圧縮度が最も高い符号化方法を選択す
る。そして、エンコーダ22は、その選択に応じた方法
により合成画像を8×8画素のブロック単位で符号化
(DCT)する。このようにMPEG1エンコーダ22
を用いることにより、立体動画像信号の圧縮効率を高め
ることができる。
As described above, in the first example, the synthesizer 20 synthesizes the left image and the right image having strong correlation (high similarity) line by line into one image (picture), Encoding is performed by a known MPEG-1 encoder 22. At this time, the MPEG-1 encoder 22 detects the correlation between both images from the difference between the current screen and the reference screen, and selects the coding method with the highest degree of compression based on the detection. Then, the encoder 22 encodes (DCT) the combined image in block units of 8 × 8 pixels by a method according to the selection. In this way, the MPEG1 encoder 22
By using, it is possible to improve the compression efficiency of the stereoscopic moving image signal.

【0083】〔第1実施例に対応する第2の例〕次に、
第1実施例に対応するより詳細な第2の例について図1
5に従って説明する。図15に示すように、合成器40
は、水平パルス生成器42及び切換えスイッチ44を備
えている。
[Second Example Corresponding to First Embodiment] Next,
A more detailed second example corresponding to the first embodiment is shown in FIG.
5 will be described. As shown in FIG.
Includes a horizontal pulse generator 42 and a changeover switch 44.

【0084】水平パルス生成器42は、第1カメラ28
から提供される同期信号SYNCに応答して1水平走査
期間毎に反転するパルス信号を生成し、この信号をスイ
ッチ44に出力する。切り換えスイッチ44は、第1及
び第2カメラ28,30から左右動画像信号を入力し、
パルス信号に応答して1水平走査期間毎に切換動作を行
い、左右動画像信号をライン毎に交互に出力する。
The horizontal pulse generator 42 is used for the first camera 28.
In response to the synchronization signal SYNC provided by the above, a pulse signal that is inverted every horizontal scanning period is generated, and this signal is output to the switch 44. The changeover switch 44 inputs the left and right moving image signals from the first and second cameras 28 and 30,
The switching operation is performed every horizontal scanning period in response to the pulse signal, and the left and right moving image signals are alternately output for each line.

【0085】この第2の例は、左右動画像信号を倍速で
読み出して合成する第1の例とは異なり、単に右目画像
と左目画像を1ライン毎に交互に出力する。この結果、
左右動画像の画面と同じサイズの合成画像が形成され
る。MPEG1エンコーダ22は、この合成画像を合成
器40から受け取って、これを符号化する。このとき、
第2の例の合成画像の画面サイズは第1の例のそれとは
異なるので、MPEG−1エンコーダ22における処理
画面サイズの設定値は変更する。
The second example is different from the first example in which the left and right moving image signals are read out at a double speed and synthesized, and the right eye image and the left eye image are simply output alternately line by line. As a result,
A combined image having the same size as the left and right moving image screen is formed. The MPEG1 encoder 22 receives this combined image from the combiner 40 and encodes it. At this time,
Since the screen size of the composite image of the second example is different from that of the first example, the set value of the processing screen size in the MPEG-1 encoder 22 is changed.

【0086】〔第1実施例に対応する第3の例〕次に、
第1実施例に対応するより詳細な第3の例を図16〜図
25に従って説明する。
[Third Example Corresponding to the First Embodiment] Next,
A more detailed third example corresponding to the first embodiment will be described with reference to FIGS.

【0087】図16に示すように、立体画像符号化装置
は、合成器20及びフレーム構造モードに対応したMP
EG−2方式のエンコーダ46を備えている。合成器2
0は、第1の例と同様に右動画像RVと左動画像LVを
1ライン毎に交互に合成し、垂直方向のライン数が2倍
の合成画像DV(合成ピクチャ)を形成する。MPEG
−2エンコ−ダ46は、合成画像DVを符号化する。光
ピックアップ部24は、その符号化データを記録媒体と
しての光磁気ディスク26に記録する。
As shown in FIG. 16, the stereoscopic image coding apparatus uses the MP corresponding to the synthesizer 20 and the frame structure mode.
An EG-2 type encoder 46 is provided. Synthesizer 2
In the case of 0, as in the first example, the right moving image RV and the left moving image LV are alternately combined for each line to form a combined image DV (combined picture) having twice the number of lines in the vertical direction. MPEG
The -2 encoder 46 encodes the composite image DV. The optical pickup section 24 records the encoded data on a magneto-optical disk 26 as a recording medium.

【0088】図17はMPEG−2エンコーダ46のブ
ロック回路図を示す。なお、第1の例のエンコーダ22
と同一の構成については同一符号を付してその説明を省
略する。エンコーダ46は、更に、フレーム/フィール
ドブロック変換器145,逆フレーム/フィールドブロ
ック変換器146を備えている。
FIG. 17 shows a block circuit diagram of the MPEG-2 encoder 46. The encoder 22 of the first example
The same components as those of the above are denoted by the same reference numerals and the description thereof will be omitted. The encoder 46 further comprises a frame / field block converter 145 and an inverse frame / field block converter 146.

【0089】ブロック変換器145は、第1及び第2ブ
ロック変換器115,140,スイッチ回路142,モ
ード選択回路144を備えている。第1ブロック変換器
115は、図18に示すように、第1の例のブロック変
換器115と同様に、16×16画素のマクロブロック
をDCT用の4つの8×8画素のブロック(フレームブ
ロック)に変換する。この変換では、各フレームブロッ
クは、その奇数ラインが右画像、偶数ラインが左画像で
構成されている。
The block converter 145 includes first and second block converters 115 and 140, a switch circuit 142, and a mode selection circuit 144. As shown in FIG. 18, the first block converter 115 converts a macro block of 16 × 16 pixels into four blocks of 8 × 8 pixels (frame block) for DCT, as in the block converter 115 of the first example. ). In this conversion, each frame block has an odd line of a right image and an even line of a left image.

【0090】第2ブロック変換器140は、図17に示
すように、16×16画素のマクロブロックを8×8画
素の2つの第1ブロック(第1フィールドブロック)
と、8×8画素の2つの第2ブロック(第2フィールド
ブロック)に変換する。この変換では、各第1フィール
ドブロックは全ラインが右画像で構成され、各第2フィ
ールドブロックは全ラインが左画像で構成されている。
As shown in FIG. 17, the second block converter 140 converts a macro block of 16 × 16 pixels into two first blocks (first field block) of 8 × 8 pixels.
Then, it is converted into two second blocks (second field blocks) of 8 × 8 pixels. In this conversion, each line of each first field block is composed of a right image, and each line of each second field block is composed of a left image.

【0091】モード選択回路144は、第1、第2ブロ
ック変換器115,140からフレームブロックと、第
1及び第2フィールドブロックとをそれぞれ受取り、そ
れらブロックの分散値(又は、アクティビティ)を算出
する。モード選択回路144は、フレームブロックの分
散値と、第1及び第2フィールドブロックの分散値を比
較し、より小さな値をもつブロックタイプを示すモード
信号を生成する。選択回路144は、このモード信号を
スイッチ回路142,挿入器121及び逆フレーム/フ
ィールドブロック変換器146に出力する。スイッチ回
路142は、そのモード信号に応答して、全フレームブ
ロックと、第1及び第2フィールドブロックのいずれか
を選択的にDCT116に出力する。逆ブロック変換器
142は、モード信号に従って逆DCT128から出力
された第1及び第2フィールドブロックを左右画像がマ
ージされたマクロブロックに変換して、これを加算器1
30に出力する。逆ブロック変換器142は、モード信
号に従って逆DCTから出力されたフレームブロックを
マクロブロックに変換して、これを加算器130に出力
する。
The mode selection circuit 144 receives the frame block and the first and second field blocks from the first and second block converters 115 and 140, respectively, and calculates the variance value (or activity) of these blocks. . The mode selection circuit 144 compares the variance value of the frame block with the variance value of the first and second field blocks and generates a mode signal indicating a block type having a smaller value. The selection circuit 144 outputs this mode signal to the switch circuit 142, the inserter 121, and the inverse frame / field block converter 146. In response to the mode signal, the switch circuit 142 selectively outputs the entire frame block or one of the first and second field blocks to the DCT 116. The inverse block converter 142 converts the first and second field blocks output from the inverse DCT 128 according to the mode signal into a macro block into which left and right images are merged, and adds the macro block to the adder 1
Output to 30. The inverse block converter 142 converts the frame block output from the inverse DCT into a macroblock according to the mode signal, and outputs the macroblock to the adder 130.

【0092】次に、図21に示す動き検出回路150及
びモード判定回路152の詳細について説明する。ここ
で、例えば、画像メモリ132は、図20に示すデコー
ドされたIピクチャRL1及びPピクチャRL3を格納
しているものとする。更に、マクロブロック変換器11
2は、IピクチャRL1とPピクチャRL3との間にあ
るBピクチャRL2のマクロブロックSMBを動き検出
回路150及びモード判定回路152に出力しているも
のとする。
Next, details of the motion detection circuit 150 and the mode determination circuit 152 shown in FIG. 21 will be described. Here, for example, the image memory 132 is assumed to store the decoded I picture RL1 and P picture RL3 shown in FIG. Furthermore, the macroblock converter 11
2 outputs the macroblock SMB of the B picture RL2 between the I picture RL1 and the P picture RL3 to the motion detection circuit 150 and the mode determination circuit 152.

【0093】(動き検出)動き検出回路150はフレー
ム間予測による動きベクトルを検出及び生成する第1回
路240と、フィールド間予測による動きベクトルを検
出及び生成する第2回路242と、第1及び第2分離回
路250,260を備えている。
(Motion Detection) The motion detection circuit 150 includes a first circuit 240 for detecting and generating a motion vector by inter-frame prediction, a second circuit 242 for detecting and generating a motion vector by inter-field prediction, and first and second circuits. Two separation circuits 250 and 260 are provided.

【0094】(1)フレーム間予測による動きベクトル
の検出 第1回路240は、第1及び第2動きベクトル検出回路
244,246,及び平均回路248を備えている。第
1検出回路244は、画像メモリ132から出力された
PピクチャRL3の中で、マクロブロック変換器112
から出力されたマクロブロックSMBに最も類似する参
照マクロブロックを探し出す。そして、第1検出回路2
44は、図22に示すように参照マクロブロックの位置
を示す後方向動きベクトルMV(B)を検出する。
(1) Motion Vector Detection by Inter-frame Prediction The first circuit 240 includes first and second motion vector detection circuits 244, 246 and an averaging circuit 248. The first detection circuit 244 includes the macroblock converter 112 in the P picture RL3 output from the image memory 132.
The reference macroblock that is most similar to the macroblock SMB output from Then, the first detection circuit 2
As shown in FIG. 22, 44 detects the backward motion vector MV (B) indicating the position of the reference macroblock.

【0095】同様に、第2検出回路246は、現マクロ
ブロックSMBとIピクチャRL1を用いて、前方向動
きベクトルMV(F)を検出する。平均回路248は、
この2つの動きベクトルMV(F)とMV(B)を平均
して双方向(又は、内挿的)動きベクトルMV(F+
B)を生成する。このようにして第1回路240は、フ
レーム間予測による3種類の動きベクトルを読出し制御
回路148及びモード判定回路152に出力する。
Similarly, the second detection circuit 246 detects the forward motion vector MV (F) using the current macroblock SMB and the I picture RL1. The averaging circuit 248 is
The two motion vectors MV (F) and MV (B) are averaged to obtain a bidirectional (or interpolative) motion vector MV (F +
B) is generated. In this way, the first circuit 240 outputs the three types of motion vectors based on the inter-frame prediction to the read control circuit 148 and the mode determination circuit 152.

【0096】(2)フィールド間予測による動きベクト
ルの検出 第2回路242は、16×8画素出力回路270,第1
〜第8動きベクトル検出回路252,254,256,
258,262,264,266,268,及び第1及
び第2動きベクトル生成回路272,274を備えてい
る。
(2) Motion Vector Detection by Inter-field Prediction The second circuit 242 is the 16 × 8 pixel output circuit 270, the first circuit.
~ Eighth motion vector detection circuit 252, 254, 256,
258, 262, 264, 266, 268, and first and second motion vector generation circuits 272, 274.

【0097】第1分離回路250は、PピクチャRL3
をその奇数ラインからなる右画像R3と、偶数ラインか
らなる左画像L3に分離する。第1分離回路250は、
右画像R3を第1及び第2検出回路252,254に出
力し、左画像L3を第3及び第4検出回路256,25
8に出力する。
The first separation circuit 250 uses the P picture RL3.
Is divided into a right image R3 composed of the odd lines and a left image L3 composed of the even lines. The first separation circuit 250 is
The right image R3 is output to the first and second detection circuits 252 and 254, and the left image L3 is output to the third and fourth detection circuits 256 and 25.
Output to 8.

【0098】第2分離回路260は、IピクチャRL1
をその奇数ラインからなる右画像R1と偶数ラインから
なる左画像L1に分離する。第2分離回路260は、右
画像R1を第5及び第6検出回路262,264に出力
し、左画像L1を第7及び第8検出回路266,268
に出力する。
The second separation circuit 260 uses the I picture RL1.
Is separated into a right image R1 composed of the odd lines and a left image L1 composed of the even lines. The second separation circuit 260 outputs the right image R1 to the fifth and sixth detection circuits 262 and 264, and the left image L1 to the seventh and eighth detection circuits 266 and 268.
Output to.

【0099】16×8画素出力回路270は、図23に
示すように、現マクロブロックSMBを、奇数ラインか
らなる16×8画素の右画像半マクロブロックR2B
と、偶数ラインからなる16×8画素の左画像半マクロ
ブロックL2Bに分離する。
As shown in FIG. 23, the 16 × 8 pixel output circuit 270 converts the current macroblock SMB into a right image half macroblock R2B of 16 × 8 pixels consisting of odd lines.
Then, the left image half macroblock L2B of 16 × 8 pixels including even lines is separated.

【0100】出力回路270は右半マクロブロックR2
Bを第1,第3,第5及び第7検出回路252,25
6,262,266に出力し、左半マクロブロックL2
Bを第2,第4,第6及び第8検出回路254,25
8,264,266に出力する。動きベクトルの検出
は、これらの右画像R1,R3,左画像L1,L3,及
び左右画像半マクロブロックR2B,L2Bを用いて行
う。
The output circuit 270 is the right half macroblock R2.
B is the first, third, fifth and seventh detection circuits 252, 25
6,262,266 to the left half macroblock L2
B is the second, fourth, sixth and eighth detection circuits 254, 25
It outputs to 8,264,266. Motion vector detection is performed using these right images R1, R3, left images L1, L3, and left and right image half macroblocks R2B, L2B.

【0101】第1検出回路252は、図24Cに示すよ
うに、右画像R3と右画像半マクロブロックR2Bとか
ら後方向動きベクトルMV1(Be)を検出する。第3
検出回路は、図24Dに示すように、左画像L3とR2
Bとから後方向動きベクトルMV1(Bo)を検出す
る。第5検出回路262は、図24Aに示すように、右
画像R1とR2Bとから前方向動きベクトルMV1(F
e)を検出する。第7検出回路266は、図24Bに示
すように、左画像L1とR2Bとから前方向動きベクト
ルMV1(Fo)を検出する。
As shown in FIG. 24C, the first detection circuit 252 detects the backward motion vector MV1 (Be) from the right image R3 and the right image half macroblock R2B. Third
The detection circuit, as shown in FIG. 24D, includes left images L3 and R2.
The backward motion vector MV1 (Bo) is detected from B and B. As shown in FIG. 24A, the fifth detection circuit 262 detects the forward motion vector MV1 (F) from the right images R1 and R2B.
e) is detected. As shown in FIG. 24B, the seventh detection circuit 266 detects the forward motion vector MV1 (Fo) from the left images L1 and R2B.

【0102】第2検出回路254は、図25Cに示すよ
うに、左画像L2と左画像半マクロブロックL2Bとか
ら後方向動きベクトルMV2(Be)を検出する。第4
検出回路258は、図25Dに示すように、左画像L3
とL2Bとから後方向動きベクトルMV2(Bo)を検
出する。第6検出回路264は、図25Aに示すよう
に、右画像R1とL2Bとから前方向動きベクトルMV
2(Fe)を検出する。第8検出回路268は、図25
Bに示すように、左画像L1とL2Bとから前方向動き
ベクトルMV2(Fo)を検出する。
As shown in FIG. 25C, the second detection circuit 254 detects the backward motion vector MV2 (Be) from the left image L2 and the left image half macroblock L2B. Fourth
As shown in FIG. 25D, the detection circuit 258 displays the left image L3.
And L2B, the backward motion vector MV2 (Bo) is detected. As shown in FIG. 25A, the sixth detection circuit 264 determines the forward motion vector MV from the right images R1 and L2B.
2 (Fe) is detected. The eighth detection circuit 268 is shown in FIG.
As shown in B, the forward motion vector MV2 (Fo) is detected from the left images L1 and L2B.

【0103】第1動きベクトル生成回路272は、第
1,第3,第5及び第7検出回路252,256,25
8及び266が検出した4種類の動きベクトルMV1
(Be,Bo,Fe,Fo)から、図24E〜図24H
に示すように4種類の双方向動きベクトルMV1(Fe
+Be,Fe+Bo,Fo+Be,Fo+Bo)を生成
する。
The first motion vector generation circuit 272 includes the first, third, fifth and seventh detection circuits 252, 256, 25.
8 and 266 detected four types of motion vector MV1
From (Be, Bo, Fe, Fo), FIGS.
4 types of bidirectional motion vectors MV1 (Fe
+ Be, Fe + Bo, Fo + Be, Fo + Bo) are generated.

【0104】第2動きベクトル生成回路274は、第
2,第4,第6及び第8検出回路254,258,26
4及び268が検出した4種類の動きベクトルMV2
(Be,Bo,Fe,Fo)から、図25E〜図25H
に示すように4種類の双方向動きベクトルMV2(Fe
+Be,Fe+Bo,Fo+Be,Fo+Bo)を生成
する。このようにして第2回路242は、フィールド間
予測による16種類の動きベクトルを読出し制御回路1
48及びモード判定回路152に出力する。
The second motion vector generation circuit 274 includes the second, fourth, sixth and eighth detection circuits 254, 258, 26.
4 and 268 detect four types of motion vectors MV2
From (Be, Bo, Fe, Fo), FIGS.
4 types of bidirectional motion vectors MV2 (Fe
+ Be, Fe + Bo, Fo + Be, Fo + Bo) are generated. In this way, the second circuit 242 reads the 16 types of motion vectors by the inter-field prediction and reads out the control circuit 1.
48 and the mode determination circuit 152.

【0105】読出し制御回路148は、第1回路240
からの3種類の動きベクトルに対応した数の16×16
画素の参照マクロブロックをモード判定回路152に出
力すべく、画像メモリ132を制御する。その参照マク
ロブロックは、IピクチャRL1及び/又はPピクチャ
RL3の中から取出され、かつ奇数ラインが右画像で、
偶数ラインが左画像で構成されている。
The read control circuit 148 includes the first circuit 240.
16 × 16 corresponding to the three types of motion vectors from
The image memory 132 is controlled to output the reference macroblock of the pixel to the mode determination circuit 152. The reference macroblock is taken out of the I picture RL1 and / or the P picture RL3, and the odd line is the right image,
Even lines are composed of the left image.

【0106】又、読出し制御回路148は、第2回路2
42からの16種類の動きベクトルに対応した数の16
×8画素の参照半マクロブロックをモード判定回路15
2に出力すべく、画像メモリ132を制御する。その参
照マクロブロックは、IピクチャRL1及び/又はPピ
クチャRL3の中から取出され、かつ全ラインが右画像
又は左画像で構成されている。
Further, the read control circuit 148 includes the second circuit 2
16 corresponding to 16 kinds of motion vectors from 42
The reference half macroblock of × 8 pixels is used as the mode determination circuit 15
The image memory 132 is controlled so that the image data is output to the image memory 2. The reference macroblock is extracted from the I picture RL1 and / or the P picture RL3, and all lines are composed of the right image or the left image.

【0107】(符号化モード判定)モード判定回路15
2は、現マクロブロックSMBを入力する第1分散値検
出回路278と、3種類の参照マクロブロックに対応し
た数の第2〜第4分散値検出回路280,284,28
8及び第1〜第3減算器282,286,290を備え
ている。モード判定回路152は、更に、16種類の参
照半マクロブロックに対応した数の第5,第6分散値検
出回路294,300(残りの14個の検出回路は図示
せず)及び第4,第5減算器296,298(残りの1
4個の減算器は図示せず),16×8画素出力回路29
2,分散値比較回路302及び選択回路276を備えて
いる。
(Coding Mode Judgment) Mode Judging Circuit 15
Reference numeral 2 denotes a first variance value detection circuit 278 for inputting the current macroblock SMB, and second to fourth variance value detection circuits 280, 284, 28 corresponding to three types of reference macroblocks.
8 and first to third subtractors 282, 286, 290. The mode determination circuit 152 further includes the fifth, sixth variance value detection circuits 294, 300 (the remaining 14 detection circuits are not shown) and the fourth, fourth number corresponding to 16 types of reference half macroblocks. 5 subtractors 296, 298 (remaining 1
4 subtractors are not shown), 16 × 8 pixel output circuit 29
2. A dispersion value comparison circuit 302 and a selection circuit 276 are provided.

【0108】(1)フレーム間予測における分散値の算
出 第1分散値算出回路278は、マクロブロック変換器1
12から現マクロブロックSMBを受取り、そのマクロ
ブロックSMBの圧縮効率を示す分散値を算出する。第
1引算器282は、現マクロブロックSMBと、動きベ
クトルMV(F)に対応した16×16参照マクロブロ
ックとの差分(又は、予測エラー) を算出する。
(1) Calculation of variance value in inter-frame prediction The first variance value calculation circuit 278 is used for the macroblock converter 1
The current macroblock SMB is received from 12, and a variance value indicating the compression efficiency of the macroblock SMB is calculated. The first subtractor 282 calculates the difference (or prediction error) between the current macroblock SMB and the 16 × 16 reference macroblock corresponding to the motion vector MV (F).

【0109】第2算出回路280は、第1引算器282
から差分を受取り、前方向フレーム間予測の圧縮効率を
示す分散値を算出する。第2引算器286は、SMB
と、動きベクトルMV(F+B)に対応した参照マクロ
ブロックとの差分を算出する。
The second calculation circuit 280 uses the first subtractor 282.
The difference is received from and the variance value indicating the compression efficiency of the forward inter-frame prediction is calculated. The second subtractor 286 is the SMB
And the reference macroblock corresponding to the motion vector MV (F + B) are calculated.

【0110】第3算出回路284は、第2引算器286
から差分を受取り、双方向フレーム間予測の圧縮効率を
示す分散値を算出する。第3引算器290は、SMB
と、動きベクトルMV(B)に対応した参照マクロブロ
ックとの差分を算出する。
The third calculation circuit 284 is connected to the second subtractor 286.
The difference is received from and the variance value indicating the compression efficiency of bidirectional inter-frame prediction is calculated. The third subtractor 290 is an SMB
And the reference macroblock corresponding to the motion vector MV (B) are calculated.

【0111】第4算出回路284は、第3引算器290
から差分を受取り後方向フレーム間予測の圧縮効率を示
す分散値を算出する。 (2)フィールド間予測における分散値の算出 16×8画素出力回路292は、図23に示すように、
現マクロブロックSMBを、奇数ラインからなる16×
8画素の右画像半マクロブロックR2Bと、偶数ライン
からなる16×8画素の左画像半マクロブロックL2B
に分離する。出力回路292は右半マクロブロックR2
Bを第4減算器296を含む8つの図示しない減算器に
出力し、左半マクロブロックL2Bを第5減算器298
を含む図示しない別の8つの減算器に出力する。
The fourth calculation circuit 284 is connected to the third subtractor 290.
The difference value is received from and the variance value indicating the compression efficiency of the backward frame prediction is calculated. (2) Calculation of variance value in inter-field prediction The 16 × 8 pixel output circuit 292, as shown in FIG.
The current macroblock SMB is made up of 16 × consisting of odd lines.
Right image half macroblock R2B of 8 pixels and left image half macroblock L2B of 16 × 8 pixels consisting of even lines
To separate. The output circuit 292 is the right half macro block R2.
B is output to eight subtractors (not shown) including the fourth subtractor 296, and the left half macroblock L2B is output to the fifth subtractor 298.
To eight other subtracters (not shown).

【0112】第4減算器296は、右半マクロブロック
R2Bと、図24Aに示す動きベクトルMV1(Fe)
に対応した参照半マクロブロックとの差分を算出する。
第5算出回路294は、第4減算器296から差分を受
取り、右画像の前方向フィールド間予測の圧縮効率を示
す分散値を算出する。
The fourth subtracter 296 includes the right half macroblock R2B and the motion vector MV1 (Fe) shown in FIG. 24A.
The difference with the reference half macroblock corresponding to is calculated.
The fifth calculation circuit 294 receives the difference from the fourth subtractor 296 and calculates the variance value indicating the compression efficiency of the forward inter-field prediction of the right image.

【0113】同様にして、図示しない7つの減算器は、
右半マクロブロックR2Bと、図24B〜図24Hに示
す各動きベクトルMV1(Fo,Be,Bo,Fe+B
e,Fe+Bo,Fo+Be,Fo+Bo)に対応した
各参照半マクロブロックとの差分をそれぞれ算出する。
図示しない7つの算出回路は、各差分を受取り、それら
の分散値を算出する。
Similarly, seven subtractors not shown are
The right half macroblock R2B and each motion vector MV1 (Fo, Be, Bo, Fe + B shown in FIGS. 24B to 24H).
e, Fe + Bo, Fo + Be, Fo + Bo) and the difference with each reference half macroblock are calculated.
Seven calculation circuits (not shown) receive each difference and calculate the variance value thereof.

【0114】第5減算器298は、左半マクロブロック
L2Bと、図25Aに示す動きベクトルMV2(Fe)
に対応した参照半マクロブロックとの差分を算出する。
第6算出回路294は、第5減算器298から差分を受
取り、左画像の前方向フィールド間予測の圧縮効率を示
す分散値を算出する。
The fifth subtractor 298 is arranged to detect the left half macroblock L2B and the motion vector MV2 (Fe) shown in FIG. 25A.
The difference with the reference half macroblock corresponding to is calculated.
The sixth calculation circuit 294 receives the difference from the fifth subtractor 298 and calculates a variance value indicating the compression efficiency of the forward inter-field prediction of the left image.

【0115】同様にして、図示しない7つの減算器は、
左半マクロブロックL2Bと、図25B〜図25Hに示
す各動きベクトルMV2(Fo,Be,Bo,Fe+B
e,Fe+Bo,Fo+Be,Fo+Bo)に対応した
各参照半マクロブロックとの差分をそれぞれ算出する。
図示しない7つの算出回路は、各差分を受取り、それら
の分散値を算出する。
Similarly, seven subtractors (not shown)
The left half macroblock L2B and each motion vector MV2 (Fo, Be, Bo, Fe + B shown in FIGS. 25B to 25H).
e, Fe + Bo, Fo + Be, Fo + Bo) and the difference with each reference half macroblock are calculated.
Seven calculation circuits (not shown) receive each difference and calculate the variance value thereof.

【0116】(3)最適な符号化モードの判定 分散値比較回路302は、各第1〜第6算出回路27
8,280,284,288,294,300,及び図
示しない14個の算出回路から出力された各分散値を比
較して、最も小さな値をもつマクロブロックを特定し、
その特定されたマクロブロックを示すタイプ情報MBT
を選択回路276及び挿入器121に出力する。この情
報MBTは、イントラモード(動きベクトルを用いない
フレーム内符号化)及び6種類のインターモードのいず
れかの符号化を示す。6種類のインターモードは、表1
に示すように、
(3) Determination of Optimum Coding Mode The variance value comparison circuit 302 includes the first to sixth calculation circuits 27.
8, 280, 284, 288, 294, 300, and each variance value output from 14 calculation circuits (not shown) are compared to identify the macroblock having the smallest value,
Type information MBT indicating the specified macroblock
Is output to the selection circuit 276 and the inserter 121. This information MBT indicates the coding of any of the intra mode (intra-frame coding that does not use a motion vector) and the six types of inter modes. The six types of inter modes are shown in Table 1.
As shown in

【0117】[0117]

【表1】 i)前方向動きベクトルMV(F)を用いたフレーム間
予測符号化、 ii)後方向動きベクトルMV(B)を用いたフレーム間
予測符号化、 iii)双方向動きベクトルMV(F+B)を用いたフレ
ーム間予測符号化、 iv)グループ1に含まれるペアの前方向動きベクトルM
V1,MV2を用いたフィールド間予測符号化、 v)グループ2に含まれるペアの後方向動きベクトルM
V1,MV2を用いたフィールド間予測符号化、 vi)グループ3に含まれるペアの双方向動きベクトルM
V1,MV2を用いたフィールド間予測符号化が設定さ
れている。
[Table 1] i) interframe predictive coding using forward motion vector MV (F), ii) interframe predictive coding using backward motion vector MV (B), iii) bidirectional motion vector MV (F + B) Inter-frame predictive coding, iv) Forward motion vector M of pair included in group 1
Inter-field predictive coding using V1 and MV2, v) backward motion vector M of a pair included in group 2
Inter-field predictive coding using V1 and MV2, vi) Paired bidirectional motion vector M included in group 3
Inter-field predictive coding using V1 and MV2 is set.

【0118】選択回路276は、3種類のフレーム間予
測動きベクトルMV(F,B,F+B)及び16種類の
フィールド間予測動きベクトルMV1(Fe...),
MV2(Fe...)の入力、及びインターモードを示
す情報MBTの入力に応答して、対応する動きベクトル
を読出し制御回路148及び挿入器121に選択的に出
力する。
The selection circuit 276 has three types of inter-frame predicted motion vectors MV (F, B, F + B) and 16 types of inter-field predicted motion vectors MV1 (Fe ...),
In response to the input of MV2 (Fe ...) And the input of the information MBT indicating the inter mode, the corresponding motion vector is selectively output to the read control circuit 148 and the inserter 121.

【0119】上記したように第3の例では、左右合成画
像の予測符号化において2つのタイプの動き補償を選択
的に得ることができる。1つ目のタイプは、左右合成画
像RL1及び/又はRL3と16×16画素のマクロブ
ロックSMBとを用いたフレーム間予測による動き補償
である。2つ目は、左右別々の画像R1,R3,L1,
L3と16×8画素の左右半マクロブロックR2B,L
2Bとを用いたフィールド間予測による動き補償すなわ
ち、視差補償である。
As described above, in the third example, two types of motion compensation can be selectively obtained in predictive coding of left and right composite images. The first type is motion compensation by inter-frame prediction using the left and right composite images RL1 and / or RL3 and a macro block SMB of 16 × 16 pixels. The second is left and right separate images R1, R3, L1,
L3 and left and right half macro blocks R2B, L of 16 × 8 pixels
This is motion compensation by inter-field prediction using 2B, that is, parallax compensation.

【0120】従って、動き補償のもとで左右画像の相関
性の程度の高い平面的な合成画像の符号化効率を高める
ことができるとともに、視差補償のもとで左右画像の相
関性の程度の低い立体的な合成画像の符号化効率を高め
ることができる。更に、フレーム/フィールドブロック
変換器145を設けることにより、左右合成マクロブロ
ックの分散値と、左右別々の半マクロブロックの分散値
に応じてDCT処理を効率良く行うことができる。 〔第1実施例に対応する第4の例〕次に、第1実施例に
対応するより詳細な第4の例を図26〜図35に従って
説明する。図26に示すように、第4の例の立体画像符
号化装置は、合成器48及びフィールド構造モード対応
のMPEG−2方式のエンコーダ50を備えている。
Therefore, it is possible to improve the coding efficiency of a planar composite image having a high degree of correlation between the left and right images under the motion compensation, and to increase the degree of correlation of the left and right images under the parallax compensation. It is possible to improve the coding efficiency of a low stereoscopic composite image. Further, by providing the frame / field block converter 145, the DCT processing can be efficiently performed according to the variance values of the left and right combined macroblocks and the variance values of the left and right separate half macroblocks. [Fourth Example Corresponding to First Embodiment] Next, a more detailed fourth example corresponding to the first embodiment will be described with reference to FIGS. As shown in FIG. 26, the stereoscopic image coding apparatus according to the fourth example includes a synthesizer 48 and an MPEG-2 system encoder 50 compatible with the field structure mode.

【0121】図27に示すように、合成器48は、第1
カメラ28によって撮影された右目画像信号を格納する
ための第1画像メモリ52と、第2カメラ30によって
撮影された左目画像信号LVを格納するための第2画像
メモリ54と,クロックジェネレータ58,メモリ制御
回路60を備えている。
As shown in FIG. 27, the synthesizer 48 has a first
A first image memory 52 for storing the right-eye image signal captured by the camera 28, a second image memory 54 for storing the left-eye image signal LV captured by the second camera 30, a clock generator 58, and a memory. A control circuit 60 is provided.

【0122】クロックジェネレータ58は、第1カメラ
28から出力される同期信号SYNCに同期してクロッ
ク信号を生成し、これをメモリ制御回路60に出力す
る。メモリ制御回路60は、クロック信号に同期して書
き込み信号を第1及び第2画像メモリ52,54に出力
する。両メモリ52,54はその書き込み信号に応答し
て、左右動画像を所定の周期(この場合、1/30秒)
で1画面(ピクチャ)毎にそれぞれ格納する。
The clock generator 58 generates a clock signal in synchronization with the synchronization signal SYNC output from the first camera 28, and outputs this to the memory control circuit 60. The memory control circuit 60 outputs a write signal to the first and second image memories 52 and 54 in synchronization with the clock signal. Both memories 52 and 54 respond to the write signal to display the left and right moving images in a predetermined cycle (1/30 seconds in this case).
Are stored for each screen (picture).

【0123】メモリ制御回路60は、クロック信号に同
期し、かつその信号の2倍の周波数をもつ第1読出し信
号と、その第1読出し信号に遅延する同じく2倍の周波
数をもつ第2読出し信号を生成する。
The memory control circuit 60 includes a first read signal which is synchronized with the clock signal and has a frequency twice that of the signal, and a second read signal which is delayed by the first read signal and has a frequency twice that of the first read signal. To generate.

【0124】第1画像メモリ52は第1読出し信号に応
答して右動画像を所定の周期(この場合、1/60秒)
で1画面毎に読出す。第2画像メモリ54は、第2読出
し信号に応答して右動画像に遅延する左動画像を所定の
周期で1画面毎に読出す。この両メモリ52,54の読
出しによって、図28に示すように合成器48は、垂直
方向の走査期間が1/2の左右合成画像信号DV2をエ
ンコーダ50に出力する。
The first image memory 52 responds to the first read signal to display the right moving image in a predetermined cycle (in this case, 1/60 second).
To read every screen. The second image memory 54 reads out the left moving image delayed to the right moving image for each screen in a predetermined cycle in response to the second read signal. As shown in FIG. 28, the combiner 48 outputs the left and right combined image signal DV2 having a vertical scanning period of ½ to the encoder 50 by reading the both memories 52 and 54.

【0125】図29は、MPEG−2エンコーダ50の
ブロック回路図を示す。なお、第1の例のエンコーダ2
2と同一の構成については同一符号を付してその説明を
省略する。ここで、例えば、画像メモリ132は、図3
0に示すフィールド構造の右画像Iピクチャ(フィール
ド)R1及び左画像Iピクチャ(フィールド)L1から
なるデコードされたIピクチャと、右画像Pピクチャ
(フィールド)R3及び左画像Pピクチャ(フィール
ド)L3からなるデコードされたPピクチャを格納して
いるものとする。更に、マクロブロック変換器112
は、IピクチャR1とPピクチャR3との間にある右画
像BピクチャR2のマクロブロックSMB2を動き検出
回路150及びモード判定回路152に出力するものと
する。
FIG. 29 shows a block circuit diagram of the MPEG-2 encoder 50. The encoder 2 of the first example
The same components as those in No. 2 are designated by the same reference numerals and the description thereof is omitted. Here, for example, the image memory 132 is the same as that shown in FIG.
From the decoded I picture consisting of the right picture I picture (field) R1 and the left picture I picture (field) L1 of the field structure shown in 0, and the right picture P picture (field) R3 and the left picture P picture (field) L3 It is assumed that the decoded P picture is stored. Further, the macroblock converter 112
Outputs the macro block SMB2 of the right image B picture R2 between the I picture R1 and the P picture R3 to the motion detection circuit 150 and the mode determination circuit 152.

【0126】(動き検出)図31に示すように動き検出
回路156は、第1及び第2回路400,402と分離
回路414を備えている。第1回路400は、16×1
6画素のマクロブロックを用いてフィールド間予測によ
る動きベクトルを検出及び生成する。第2回路402
は、16×8画素の半マクロブロックを用いてフィール
ド間予測による動きベクトルを検出及び生成する。
(Motion Detection) As shown in FIG. 31, the motion detection circuit 156 includes first and second circuits 400 and 402 and a separation circuit 414. The first circuit 400 is 16 × 1
A 6-pixel macroblock is used to detect and generate a motion vector by inter-field prediction. Second circuit 402
Detects and generates a motion vector by inter-field prediction using a 16 × 8 pixel half macroblock.

【0127】(1)16×16フィールド間予測による
動きベクトルの検出 第1回路400は、第1〜第4動きベクトル検出回路4
04,406,408,410と、動きベクトル生成回
路412とを備えている。
(1) Motion vector detection by 16 × 16 inter-field prediction The first circuit 400 is composed of the first to fourth motion vector detection circuits 4
04, 406, 408, 410 and a motion vector generation circuit 412.

【0128】第1検出回路404は、画像メモリ132
から出力された左PピクチャL3の中で、マクロブロッ
ク変換器112から出力された16×16画素の現マク
ロブロックSMB2に最も類似する参照マクロブロック
を探し出す。第1検出回路404は、図32Dに示すよ
うにその参照マクロブロックの位置を示す後方向動きベ
クトルMV(Bo)を検出する。
The first detection circuit 404 is connected to the image memory 132.
In the left P-picture L3 output from, the reference macroblock most similar to the current macroblock SMB2 of 16 × 16 pixels output from the macroblock converter 112 is searched for. The first detection circuit 404 detects a backward motion vector MV (Bo) indicating the position of the reference macroblock as shown in FIG. 32D.

【0129】同様にして、第2検出回路406は、SM
B2と右PピクチャR3とから図32Cで示す後方向動
きベクトルMV(Be)を検出する。第3検出回路40
8は、SMB2と左IピクチャL1とから図32Bで示
す前方向動きベクトルMV(Fo)を検出する。第3検
出回路410は、SMB2と右IピクチャR1とから図
32Aで示す前方向動きベクトルMV(Fe)を検出す
る。
Similarly, the second detection circuit 406 detects that the SM
The backward motion vector MV (Be) shown in FIG. 32C is detected from B2 and the right P picture R3. Third detection circuit 40
8 detects the forward motion vector MV (Fo) shown in FIG. 32B from the SMB2 and the left I picture L1. The third detection circuit 410 detects the forward motion vector MV (Fe) shown in FIG. 32A from the SMB2 and the right I picture R1.

【0130】動きベクトル生成回路412は、4つの動
きベクトルMV(Fe,Fo,Be,Bo)から、図3
2E,F,G,Hに示す4種類の双方向動きベクトル
(Fe+Be,Fe+Bo,Fo+Be,Fo+Bo)
を生成する。このようにして第1回路400は、16×
16画像の参照マクロブロックSMB2と4つのピクチ
ャとの間で検出及び生成した8種類の動きベクトルを読
出し制御回路158及びモード判定回路160に出力す
る。
The motion vector generation circuit 412 extracts the four motion vectors MV (Fe, Fo, Be, Bo) from FIG.
2E, F, G, H four types of bidirectional motion vectors (Fe + Be, Fe + Bo, Fo + Be, Fo + Bo)
Generate In this way, the first circuit 400 is 16 ×
The eight types of motion vectors detected and generated between the reference macroblock SMB2 of 16 images and four pictures are output to the read control circuit 158 and the mode determination circuit 160.

【0131】(2)16×8フィールド間予測による動
きベクトルの検出 図31に示す第2回路402は、右PピクチャR3を入
力する第1及び第2動きベクトル検出回路416,41
8と、左PピクチャL3を入力する第3及び第4動きベ
クトル検出回路420,422と、右IピクチャR1を
入力する第5及び第6動きベクトル検出回路424,4
26と、左IピクチャL1を入力する第7及び第8動き
ベクトル検出回路428,430,及び第1及び第2動
きベクトル生成回路432,434を備えている。
(2) Motion Vector Detection by 16 × 8 Inter-field Prediction The second circuit 402 shown in FIG. 31 is the first and second motion vector detection circuits 416, 41 for inputting the right P picture R3.
8 and the third and fourth motion vector detection circuits 420 and 422 for inputting the left P picture L3, and the fifth and sixth motion vector detection circuits 424, 4 for inputting the right I picture R1.
26, and seventh and eighth motion vector detection circuits 428 and 430 for inputting the left I-picture L1 and first and second motion vector generation circuits 432 and 434.

【0132】分離回路414は、図35に示すように現
マクロブロックSMBを受取り、これを2つの16×8
画素のアッパ−マクロブロックU2B及びロウアーマク
ロブロックS2Bに分離する。分離回路414は、アッ
パ−マクロブロックU2Bを第1,第3,第5,第7検
出回路416,420,424,428に出力し、ロウ
アーマクロブロックS2Bを第2,第4,第6,第8検
出回路418,422,426,430に出力する。
Separation circuit 414 receives the current macroblock SMB as shown in FIG.
Pixel upper macroblock U2B and lower macroblock S2B are separated. The separation circuit 414 outputs the upper-macro block U2B to the first, third, fifth and seventh detection circuits 416, 420, 424, 428, and the lower macro block S2B as the second, fourth, sixth and sixth. 8 detection circuits 418, 422, 426 and 430.

【0133】第1検出回路416は、アッパ−マクロブ
ロックU2Bと右PピクチャR3とから図33Cに示す
後方向動きベクトルMVU(Be)を検出する。第3検
出回路420は、U2Bと左PピクチャL3とから図3
3Dに示す後方向動きベクトルMVU(Bo)を検出す
る。第5検出回路424は、U2Bと右IピクチャR1
とから図33Aに示す前方向動きベクトルMVU(F
e)を検出する。第7検出回路428は、U2Bと左I
ピクチャL1とから図33Bで示す前方向動きベクトル
MVU(Fo)を検出する。
The first detection circuit 416 detects the backward motion vector MVU (Be) shown in FIG. 33C from the upper macroblock U2B and the right P picture R3. The third detection circuit 420 includes the U2B and the left P picture L3 as shown in FIG.
The backward motion vector MVU (Bo) shown in 3D is detected. The fifth detection circuit 424 controls the U2B and the right I-picture R1.
From the forward motion vector MVU (F
e) is detected. The seventh detection circuit 428 has U2B and left I
The forward motion vector MVU (Fo) shown in FIG. 33B is detected from the picture L1.

【0134】第2検出回路418は、ロウアーマクロブ
ロックS2Bと右PピクチャR3とから図34Cに示す
後方向動きベクトルMVS(Be)を検出する。第4検
出回路422は、S2Bと左PピクチャL3とから図3
4Dに示す後方向動きベクトルMVS(Bo)を検出す
る。第6検出回路426は、S2Bと右IピクチャR1
とから図34Aに示す前方向動きベクトルMVS(F
e)を検出する。第8検出回路430は、S2Bと左I
ピクチャL1とから図34Bに示す前方向動きベクトル
MVS(Fo)を検出する。
The second detection circuit 418 detects the backward motion vector MVS (Be) shown in FIG. 34C from the lower macroblock S2B and the right P picture R3. The fourth detection circuit 422 uses the S2B and the left P picture L3 as shown in FIG.
The backward motion vector MVS (Bo) shown in 4D is detected. The sixth detection circuit 426 detects S2B and right I-picture R1.
From the forward motion vector MVS (F
e) is detected. The eighth detection circuit 430 includes S2B and left I
The forward motion vector MVS (Fo) shown in FIG. 34B is detected from the picture L1.

【0135】第1動きベクトル生成回路432は、第
1,第3,第5及び第7検出回路416,420,42
4及び428が検出した4種類の動きベクトルMVU
(Be,Bo,Fe,Fo)から、図33E〜Hに示す
ように4種類の双方向動きベクトルMVU(Fe+B
e,Fe+Bo,Fo+Be,Fo+Bo)を生成す
る。
The first motion vector generation circuit 432 includes the first, third, fifth and seventh detection circuits 416, 420, 42.
4 and 428 detected four types of motion vector MVU
From (Be, Bo, Fe, Fo), four types of bidirectional motion vectors MVU (Fe + B) as shown in FIGS.
e, Fe + Bo, Fo + Be, Fo + Bo).

【0136】第2動きベクトル生成回路432は、第
2,第4,第6及び第8検出回路418,422,42
6及び430が検出した4種類の動きベクトルMVS
(Be,Bo,Fe,Fo)から、図34E〜Hに示す
ように4種類の双方向動きベクトルMVS(Fe+B
e,Fe+Bo,Fo+Be,Fo+Bo)を生成す
る。
The second motion vector generation circuit 432 includes the second, fourth, sixth and eighth detection circuits 418, 422, 42.
4 and 6 types of motion vectors MVS detected by 430
From (Be, Bo, Fe, Fo), four types of bidirectional motion vectors MVS (Fe + B) as shown in FIGS.
e, Fe + Bo, Fo + Be, Fo + Bo).

【0137】このようにして第2回路402は、16×
8画素のアッパ−及びロウアーマクロブロックU2B,
S2Bと4つのピクチャR1,R3,L1,L3との間
で検出及び生成した16種類の動きベクトルを読出し制
御回路148及びモード判定回路152に出力する。
In this way, the second circuit 402 is 16 ×
8-pixel upper and lower macroblocks U2B,
The 16 types of motion vectors detected and generated between S2B and the four pictures R1, R3, L1, L3 are output to the read control circuit 148 and the mode determination circuit 152.

【0138】読出し制御回路158は、第1回路400
からの8種類の動きベクトルに対応した数の16×16
画素の参照マクロブロックをモード判定回路160に出
力すべく、画像メモリ132を制御する。又、読出し制
御回路158は、第2回路からの16種類の動きベクト
ルに対応した数の16×8画素の参照半マクロブロック
をモード判定回路152に出力すべく、画像メモリ13
2を制御する。
The read control circuit 158 includes the first circuit 400.
16 × 16, the number corresponding to 8 types of motion vectors from
The image memory 132 is controlled to output the reference macroblock of the pixel to the mode determination circuit 160. The read control circuit 158 also outputs to the mode determination circuit 152 the reference half macroblocks of 16 × 8 pixels, the number of which corresponds to the 16 types of motion vectors from the second circuit.
Control 2

【0139】(符号化モード判定)モード判定回路16
0は、現マクロブロックSMB2を入力する第1分散値
検出回路438と、8種類の参照マクロブロックに対応
した数の第2,第3分散値検出回路440,445(残
りの6個の検出回路は図示せず)及び第1,第2減算器
442,443(残りの6個の減算器は図示せず)を備
えている。
(Coding Mode Judgment) Mode Judging Circuit 16
0 is the first variance value detection circuit 438 that inputs the current macroblock SMB2, and the second and third variance value detection circuits 440 and 445 (the remaining six detection circuits) corresponding to eight types of reference macroblocks. (Not shown) and first and second subtractors 442 and 443 (the remaining six subtractors are not shown).

【0140】モード判定回路152は、更に、16種類
の参照半マクロブロックに対応した数の第3,第4分散
値検出回路446,452(残りの14個の検出回路は
図示せず),第3,第4減算器448,450(残りの
14個の減算器は図示せず),分離回路444,分散値
比較回路454及び選択回路436を備えている。
The mode determination circuit 152 further includes the third and fourth variance value detection circuits 446 and 452 (the remaining 14 detection circuits are not shown) and the number corresponding to 16 types of reference half macroblocks. It is provided with third and fourth subtractors 448 and 450 (the remaining 14 subtractors are not shown), a separation circuit 444, a variance value comparison circuit 454 and a selection circuit 436.

【0141】(1)16×16フィールド間予測におけ
る分散値の算出 第1算出回路438は、現マクロブロックSMB2の圧
縮効率を示す分散値を算出する。第2算出回路440
は、第1引算器442が算出した現マクロブロックSM
B2と、前方向動きベクトルMV(Fe)に対応した1
6×16画素の参照マクロブロックとの差分の分散値を
算出する。第3算出回路440は、第2引算器442が
算出したSMB2と前方向動きベクトルMV(Fo)に
対応した参照マクロブロックとの差分の分散値を算出す
る。
(1) Calculation of variance value in 16 × 16 inter-field prediction The first calculation circuit 438 calculates a variance value indicating the compression efficiency of the current macroblock SMB2. Second calculation circuit 440
Is the current macroblock SM calculated by the first subtractor 442.
B2 and 1 corresponding to the forward motion vector MV (Fe)
The variance value of the difference from the reference macroblock of 6 × 16 pixels is calculated. The third calculation circuit 440 calculates the variance value of the difference between the SMB2 calculated by the second subtractor 442 and the reference macroblock corresponding to the forward motion vector MV (Fo).

【0142】同様にして図示しない6個の算出回路は、
後方向動きベクトルMV(Be,Bo),双方向予測ベ
クトルMV(Fe+Be,Fe+Bo,Fo+Be,F
o+Bo)について、図示しない6個の減算器からの差
分の分散値をそれぞれ算出する。
Similarly, six calculation circuits (not shown)
Backward motion vector MV (Be, Bo), bidirectional prediction vector MV (Fe + Be, Fe + Bo, Fo + Be, F
With respect to (o + Bo), variance values of differences from six subtractors (not shown) are calculated.

【0143】(2)16×8フィールド間予測における
分散値の算出 分離回路444は、図35に示すように、現マクロブロ
ックSMB2を、アッパーマクロブロックU2Bと、ロ
ウアーマクロブロックS2Bに分離し、U2Bを第3減
算器448を含む8個の減算器に出力し、S2Bを第4
減算器452を含む8個の減算器に出力する。
(2) Calculation of variance value in 16 × 8 inter-field prediction The separation circuit 444 separates the current macroblock SMB2 into an upper macroblock U2B and a lower macroblock S2B, as shown in FIG. Are output to eight subtractors including the third subtractor 448, and S2B is output to the fourth subtractor.
It outputs to eight subtractors including the subtractor 452.

【0144】第4算出回路446は、第3減算器446
が算出したアッパーマクロブロックU2Bと、前方向動
きベクトルMVU(Fe)に対応した16×8画素の参
照半マクロブロックとの差分の分散値を算出する。同様
にして図示しない7個の算出回路は、後方向動きベクト
ルMVU(Fo,Be,Bo),双方向予測ベクトルM
VU(Fe+Be,Fe+Bo,Fo+Be,Fo+B
o)について、図示しない7個の減算器からの差分の分
散値をそれぞれ算出する。
The fourth calculation circuit 446 includes a third subtractor 446.
Then, the variance value of the difference between the upper macroblock U2B calculated by the above step and the reference half macroblock of 16 × 8 pixels corresponding to the forward motion vector MVU (Fe) is calculated. Similarly, seven calculation circuits (not shown) are used for the backward motion vector MVU (Fo, Be, Bo) and the bidirectional prediction vector M.
VU (Fe + Be, Fe + Bo, Fo + Be, Fo + B
For o), the variance value of the difference from each of the seven subtracters (not shown) is calculated.

【0145】第5算出回路452は、第4減算器450
が算出したロウアーマクロブロックS2Bと、前方向動
きベクトルMVS(Fe)に対応した16×8画素の参
照半マクロブロックとの差分の分散値を算出する。同様
にして図示しない7個の算出回路は、後方向動きベクト
ルMVS(Fo,Be,Bo),双方向動きベクトルM
VS(Fe+Be,Fe+Bo,Fo+Be,Fo+B
o)について、図示しない7個の減算器からの差分の分
散値をそれぞれ算出する。
The fifth calculation circuit 452 includes a fourth subtractor 450.
Then, the variance value of the difference between the lower macroblock S2B calculated by the above step and the reference half macroblock of 16 × 8 pixels corresponding to the forward motion vector MVS (Fe) is calculated. Similarly, seven calculation circuits (not shown) are used for the backward motion vector MVS (Fo, Be, Bo) and the bidirectional motion vector M.
VS (Fe + Be, Fe + Bo, Fo + Be, Fo + B
For o), the variance value of the difference from each of the seven subtracters (not shown) is calculated.

【0146】(3)最適な符号化モードの判定 分散値比較回路454は、各第1〜第5算出回路43
8,440,445,446,452及び図示しない2
0個の算出回路から出力された各分散値を相互に比較し
て、最も小さな値をもつマクロブロックを特定し、その
特定されたマクロブロックを示すタイプ情報MBTを選
択回路436及び挿入器121に出力する。この情報M
BTは、イントラモード,6種類のインターモードのい
ずれかの符号化を示す。6種類のインターモードは表2
に示すように、
(3) Judgment of Optimal Coding Mode The variance value comparison circuit 454 has the first to fifth calculation circuits 43.
8,440,445,446,452 and 2 not shown
The variance values output from the 0 calculation circuits are compared with each other to identify the macroblock having the smallest value, and the type information MBT indicating the identified macroblock is provided to the selection circuit 436 and the inserter 121. Output. This information M
BT indicates encoding of either the intra mode or the six types of inter modes. Table 2 shows the six types of inter modes
As shown in

【0147】[0147]

【表2】 i)いずれかの前方向動きベクトルMV(Fe,Fo)
を用いたフィールド間予測符号化、 ii)いずれかの後方向動きベクトルMV(Be,Bo)
を用いたフィールド間予測による符号化、 iii)いずれかの双方向動きベクトルMV(Fe+B
e,Fe+Bo,Fo+Be,Fo+Bo)のを用いた
フィールド間予測符号化、 iv)グループ1に含まれるペアの前方向動きベクトルM
VU,MVSを用いたフィールド間予測符号化、 v)グループ2に含まれるペアの後方向動きベクトルM
VU,MVSを用いたフィールド間予測符号化、 vi)グループ3に含まれるペアの双方向動きベクトルM
VU,MVSを用いたフィールド間予測符号化として設
定される。
[Table 2] i) Any forward motion vector MV (Fe, Fo)
Inter-field predictive coding using ii) any backward motion vector MV (Be, Bo)
Encoding by inter-field prediction using iii) any bidirectional motion vector MV (Fe + B
e, Fe + Bo, Fo + Be, Fo + Bo) inter-field predictive coding, iv) Forward motion vector M of the pair included in group 1
Inter-field predictive coding using VU and MVS, v) backward motion vector M of a pair included in group 2
Inter-field predictive coding using VU and MVS, vi) Paired bidirectional motion vector M included in group 3
It is set as inter-field predictive coding using VU and MVS.

【0148】選択回路436は、動き検出回路156か
ら出力された24種類のフィールド間予測動きベクトル
の入力、及びインターモードを示す情報MBTの入力に
応答して、対応する動きベクトルを読出し制御回路15
8及び挿入器121に選択的に出力する。
The selection circuit 436 responds to the input of the 24 types of inter-field prediction motion vectors output from the motion detection circuit 156 and the input of the information MBT indicating the inter mode, and reads out the corresponding motion vector from the control circuit 15.
8 and the inserter 121 are selectively output.

【0149】上記したように第4の例では、左右合成画
像の予測符号化において3つのタイプの動き補償を選択
的に得ることができる。1つ目のタイプは、例えば、2
つの右画像R1,R3と、16×16画素の右マクロブ
ロックSMB2(又は16×8画素のアッパー及びロウ
アーマクロブロックU2B,S2B)とを用いたフィー
ルド間予測による動き補償である。2つ目は、2つの左
画像L1,L3と16×16画素の右マクロブロックS
MB2(16×8画素のアッパー及びロウアーマクロブ
ロックU2B及びS2B)とを用いたフィールド間予測
による動き補償すなわち、視差補償である。3つ目は、
1つ目の動き補償と2つ目の視差補償の中間的(又は、
内挿的)な動き補償である。
As described above, in the fourth example, three types of motion compensation can be selectively obtained in predictive coding of left and right composite images. The first type is, for example, 2
This is motion compensation by inter-field prediction using one right image R1 and R3 and a 16 × 16 pixel right macroblock SMB2 (or 16 × 8 pixel upper and lower macroblocks U2B and S2B). The second is two left images L1 and L3 and a right macroblock S of 16 × 16 pixels.
This is motion compensation by inter-field prediction using MB2 (16 × 8 pixel upper and lower macroblocks U2B and S2B), that is, parallax compensation. The third is
Intermediate between the first motion compensation and the second parallax compensation (or
Interpolative) motion compensation.

【0150】従って、これらの補償によって、左右画像
の相関性に応じて圧縮効率の最も高いマクロブロックタ
イプを選択することができる。更に、16×8画素のア
ッパー及びロウアーマクロブロックU2B,S2Bを用
いることにより、16×16画素の現マクロブロックS
MB2を用いる場合と比較して、より高密度の予測符号
化を行うことができる。
Therefore, by these compensations, the macroblock type having the highest compression efficiency can be selected according to the correlation between the left and right images. Further, by using the upper and lower macro blocks U2B and S2B of 16 × 8 pixels, the current macro block S of 16 × 16 pixels is
Higher-density predictive coding can be performed as compared with the case of using MB2.

【0151】尚、本発明は上記実施例に限定されるもの
ではなく、以下のように実施してもよい。 (1)図36に示すように、左画像1のラインL1と右画
像2のラインL2とを一定数のライン(この場合、4ライ
ン)毎に交互にマージしてもよい。
The present invention is not limited to the above embodiment, but may be carried out as follows. (1) As shown in FIG. 36, the line L1 of the left image 1 and the line L2 of the right image 2 may be alternately merged every fixed number of lines (four lines in this case).

【0152】(2)図37に示すように、左画像1と右
画像2とを垂直方向あるいは水平方向に所定数のブロッ
クB1,B2 毎に交互にマージしてもよい。この場合、左
画像1及び右画像2がノンインタレース画像であること
がブロック化が容易であるとい点から好ましい。
(2) As shown in FIG. 37, the left image 1 and the right image 2 may be alternately merged in a predetermined number of blocks B1 and B2 vertically or horizontally. In this case, it is preferable that the left image 1 and the right image 2 are non-interlaced images from the viewpoint of easy blocking.

【0153】(3)上記第4の例において、左目用の動
画像信号と右目用の動画像信号とを1画面(フレーム)
毎に交互に合成する代わりに、フィールド単位で形成さ
れる右目用の動画像信号と、フィールド単位で形成され
る左目用の動画像信号とを1フィールド毎に合成して、
この合成動画像信号をフィールド構造のMPEG−2エ
ンコーダ50により符号化するようにしてもよい。
(3) In the fourth example, the moving image signal for the left eye and the moving image signal for the right eye are displayed on one screen (frame).
Instead of alternately synthesizing for each field, a moving image signal for the right eye formed for each field and a moving image signal for the left eye formed for each field are synthesized for each field,
This composite moving image signal may be encoded by the MPEG-2 encoder 50 having a field structure.

【0154】(4)符号化データを記録する媒体として
の光磁気ディスクを、光ディスク、相変化型ディスク、
ハードディスク等の記憶媒体に置換してもよい。 上記実施例から把握できる請求項以外の発明について、
以下にその効果とともに記載する。
(4) A magneto-optical disk as a medium for recording encoded data is an optical disk, a phase change disk,
It may be replaced with a storage medium such as a hard disk. Regarding the inventions other than the claims that can be understood from the above embodiment,
The effect will be described below.

【0155】(1)右目用の動画像と左目用の動画像と
をそれぞれ所定数の画素をもつ2次元ブロック毎に合成
して合成動画像を形成し、その合成動画像をMPEG−
1方式又はMPEG−2方式に従って符号化する立体動
画像の符号化方法。このようにすると、左右動画像の合
成を効率良く行うことができる。
(1) A moving image for the right eye and a moving image for the left eye are combined for each two-dimensional block having a predetermined number of pixels to form a combined moving image, and the combined moving image is MPEG-
A method for encoding a stereoscopic moving image, which is encoded according to the 1 system or the MPEG-2 system. By doing so, the left and right moving images can be efficiently combined.

【0156】(2)右目用の動画像と左目用の動画像と
をそれぞれ水平方向に所定数の画素をもつ複数の2次元
ブロックに分割し、その分割された各ブロックを合成し
て合成動画像を形成し、その合成画像をMPEG−1方
式又はMPEG−2方式に従って符号化する立体動画像
の符号化方法。このようにしても左右動画像の合成を効
率良く行うことができる。
(2) The moving image for the right eye and the moving image for the left eye are divided into a plurality of two-dimensional blocks each having a predetermined number of pixels in the horizontal direction, and the divided blocks are combined to form a composite moving image. A three-dimensional moving image encoding method for forming an image and encoding a composite image thereof according to the MPEG-1 system or the MPEG-2 system. Even in this case, the left and right moving images can be efficiently combined.

【0157】(3)右目用の動画像と左目用の動画像と
をそれぞれ垂直方向に所定数の画素をもつ複数の2次元
ブロックに分割し、その分割された各ブロックを合成し
て合成動画像を形成し、その合成画像をMPEG−1方
式又はMPEG−2方式に従って符号化する立体動画像
の符号化方法。このようにしても左右動画像の合成を効
率良く行うことができる。
(3) A moving image for the right eye and a moving image for the left eye are divided into a plurality of two-dimensional blocks each having a predetermined number of pixels in the vertical direction, and the divided blocks are combined to form a composite moving image. A three-dimensional moving image encoding method for forming an image and encoding a composite image thereof according to the MPEG-1 system or the MPEG-2 system. Even in this case, the left and right moving images can be efficiently combined.

【0158】(4)上記(1)に記載の方法により符号
化された合成動画像をMPEG−1方式又はMPEG−
2方式に従って復号化し、その復号化された合成動画像
を22次元ブロック毎に分離して、左右動画像を別々に
形成する立体動画像の復号化方法。このようにすると、
復号化された合成動画像の分離効率が良くなる。
(4) The composite moving image encoded by the method described in (1) above is converted into the MPEG-1 system or MPEG-system.
A method of decoding a stereoscopic moving image in which the decoded combined moving image is decoded according to two methods, and the decoded combined moving image is separated into 22-dimensional blocks to form left and right moving images separately. This way,
The efficiency of separating the decoded combined moving image is improved.

【0159】(5)上記(2)に記載の方法により符号
化された合成動画像をMPEG−1方式又はMPEG−
2方式に従って復号化し、その復号化された合成動画像
を水平方向にブロック毎に分離して、左右動画像を別々
に形成する立体動画像の復号化方法。このようにする
と、復号化された合成動画像の分離効率が良くなる。
(5) The composite moving image encoded by the method described in (2) above is converted into the MPEG-1 system or MPEG-
A method for decoding a stereoscopic moving image in which the decoded moving image is decoded according to two methods, and the decoded combined moving image is horizontally separated into blocks to form left and right moving images separately. By doing this, the separation efficiency of the decoded combined moving image is improved.

【0160】(6)上記(3)に記載の方法により符号
化された合成動画像をMPEG−1方式又はMPEG−
2方式に従って復号化し、その復号化された合成動画像
を垂直方向にブロック毎に分離して、左右動画像を別々
に形成する立体動画像の復号化方法。このようにする
と、復号化された合成動画像の分離効率が良くなる。
(6) The composite moving image encoded by the method described in (3) above is converted into the MPEG-1 system or the MPEG-system.
A method of decoding a stereoscopic moving image in which decoding is performed according to two methods, the decoded combined moving image is vertically separated into blocks, and left and right moving images are separately formed. By doing this, the separation efficiency of the decoded combined moving image is improved.

【0161】[0161]

【発明の効果】以上詳述したように本発明によれば、左
右動画像を合成して合成動画像を形成し、その合成動画
像をMPEG−1又はMPEG−2方式のエンコーダに
より符号化するので、立体動画像の符号化効率を向上す
ることができる。
As described above in detail, according to the present invention, left and right moving images are combined to form a combined moving image, and the combined moving image is encoded by an MPEG-1 or MPEG-2 type encoder. Therefore, the coding efficiency of the stereoscopic moving image can be improved.

【0162】又、本発明によれば、符号化の際に左右動
画像の相関性、すなわち立体感(平面感)に応じて左右
動画像を一体にした合成動画像の符号化と、左右動画像
をそれぞれ別体にした符号化とを選択的に行うので、立
体動画像の符号化効率を向上することができる。
Further, according to the present invention, the left and right moving images are integrally coded according to the correlation between the left and right moving images at the time of encoding, that is, the left and right moving images are integrated and the left and right moving images are encoded. Since the encoding with the separate images is selectively performed, the encoding efficiency of the stereoscopic moving image can be improved.

【0163】更に、上記のようにして符号化された合成
動画像をMPEG−1又はMPEG−2方式のデコーダ
により効率良く復号化し、その復号化された合成動画像
を分離して、左右動画像を別々に形成することができ
る。
Further, the composite moving image coded as described above is efficiently decoded by an MPEG-1 or MPEG-2 system decoder, and the decoded composite moving image is separated into left and right moving images. Can be formed separately.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施例の立体動画像の符号化及び復号化を
示す図。
FIG. 1 is a diagram showing encoding and decoding of a stereoscopic moving image according to a first embodiment.

【図2】第2実施例の立体動画像の符号化及び復号化を
示す図。
FIG. 2 is a diagram showing encoding and decoding of a stereoscopic moving image according to a second embodiment.

【図3】第3実施例の立体動画像の符号化及び復号化を
示す図。
FIG. 3 is a diagram showing encoding and decoding of a stereoscopic moving image according to a third embodiment.

【図4】第1実施例に対応する第1の例の符号化装置を
示すブロック図。
FIG. 4 is a block diagram showing an encoding device of a first example corresponding to the first embodiment.

【図5】左右動画像の合成を説明するための図。FIG. 5 is a diagram for explaining composition of left and right moving images.

【図6】合成器を示すブロック図。FIG. 6 is a block diagram showing a synthesizer.

【図7】合成画像の形成を説明するためのタイムチャー
ト。
FIG. 7 is a time chart for explaining formation of a composite image.

【図8】MPEG−1エンコーダを示すブロック図。FIG. 8 is a block diagram showing an MPEG-1 encoder.

【図9】画面並び変え回路の動作を説明するための図。FIG. 9 is a diagram for explaining the operation of the screen rearrangement circuit.

【図10】マクロブロックからブロックへの変換を示す
図。
FIG. 10 is a diagram showing conversion from macroblocks to blocks.

【図11】ブロックの符号化手順を示す図。FIG. 11 is a diagram showing a block encoding procedure.

【図12】動き検出回路及びモード判定回路を示すブロ
ック図。
FIG. 12 is a block diagram showing a motion detection circuit and a mode determination circuit.

【図13】予測符号化に用いる画面を説明するための
図。
FIG. 13 is a diagram for explaining a screen used for predictive coding.

【図14】(A)は前方向予測を説明するための図、
(B)は双方向予測を説明するための図、(C)は後方
向予測を説明するための図。
FIG. 14A is a diagram for explaining forward prediction;
(B) is a figure for demonstrating bidirectional prediction, (C) is a figure for demonstrating backward prediction.

【図15】第1実施例に対応する第2の例の符号化装置
を示すブロック図。
FIG. 15 is a block diagram showing an encoding device of a second example corresponding to the first embodiment.

【図16】第1実施例に対応する第3の例の符号化装置
を示すブロック図。
FIG. 16 is a block diagram showing an encoding device of a third example corresponding to the first embodiment.

【図17】フレーム構造MPEG−2エンコーダを示す
ブロック図。
FIG. 17 is a block diagram showing a frame structure MPEG-2 encoder.

【図18】マクロブロックからフレームブロックへの変
換を示す図。
FIG. 18 is a diagram showing conversion from macroblocks to frame blocks.

【図19】マクロブロックからフィールドブロックへの
変換を示す図。
FIG. 19 is a diagram showing conversion from a macro block to a field block.

【図20】予測符号化に用いる画面を説明するための
図。
FIG. 20 is a diagram for explaining a screen used for predictive coding.

【図21】動き検出回路及びモード判定回路を示すブロ
ック図。
FIG. 21 is a block diagram showing a motion detection circuit and a mode determination circuit.

【図22】フレーム間予測符号化を説明するための図。FIG. 22 is a diagram for explaining interframe predictive coding.

【図23】マクロブロックから左右半マクロブロックへ
の分離を示す図。
FIG. 23 is a diagram showing separation of macroblocks into left and right half macroblocks.

【図24】(A)〜(H)は、右半マクロブロックを用
いたフィールド予測を説明するための図。
24A to 24H are views for explaining field prediction using the right half macroblock.

【図25】(A)〜(H)は、左半マクロブロックを用
いたフィールド予測を説明するための図。
25A to 25H are views for explaining field prediction using a left half macroblock.

【図26】第1実施例に対応する第4の例の符号化装置
を示すブロック図。
FIG. 26 is a block diagram showing an encoding device of a fourth example corresponding to the first embodiment.

【図27】合成器を示すブロック図。FIG. 27 is a block diagram showing a synthesizer.

【図28】左右動画像の合成を説明するための図。FIG. 28 is a diagram for explaining composition of left and right moving images.

【図29】フィールド構造MPEG−2エンコーダを示
すブロック図。
FIG. 29 is a block diagram showing a field structure MPEG-2 encoder.

【図30】予測符号化に用いる画面を説明するための
図。
FIG. 30 is a diagram for explaining a screen used for predictive coding.

【図31】動き検出回路及びモード判定回路を示すブロ
ック図。
FIG. 31 is a block diagram showing a motion detection circuit and a mode determination circuit.

【図32】(A)〜(H)は、16×16画素のマクロ
ブロックを用いたフィールド予測を説明するための図。
32A to 32H are views for explaining field prediction using a macro block of 16 × 16 pixels.

【図33】(A)〜(H)は、16×8画素のアッパ−
マクロブロックを用いたフィールド予測を説明するため
の図。
33 (A) to (H) are 16 × 8 pixel upper parts.
The figure for demonstrating the field prediction using a macroblock.

【図34】(A)〜(H)は、16×8画素のロウアー
マクロブロックを用いたフィールド予測を説明するため
の図。
34A to 34H are views for explaining field prediction using a lower macroblock of 16 × 8 pixels.

【図35】マクロブロックからアッパ−及びロウアーマ
クロブロックへの変換を示す図。
FIG. 35 is a diagram showing conversion from macroblocks to upper and lower macroblocks.

【図36】別の実施例の立体動画像の符号化及び復号化
を示す図。
FIG. 36 is a diagram showing encoding and decoding of a stereoscopic moving image according to another embodiment.

【図37】更に別の実施例の立体動画像の符号化及び復
号化を示す図。
FIG. 37 is a diagram showing encoding and decoding of a stereoscopic moving image according to yet another embodiment.

【符号の説明】[Explanation of symbols]

1…左画像、2…右画像、3…フレーム画像、4…エン
コーダ、6…デコーダ、13…垂直フィルタ、40…合
成器,46…フレーム構造エンコーダ、50…フィール
ド構造エンコーダ、114…減算器、116…DCT回
路、121…挿入器、158…動き補償読出し制御回
路、160…選択手段としてのモード判定回路、400
…第1回路(114,116,158,400は第1予
測符号化手段を構成する)、402…第2回路、414
…分離回路(114,116,158,402,414
は第2予測符号化手段を構成する)、L1,L2 …ライン、
OF1,OF2 …奇数フィールド画像、EF1,EF2 …偶数フィー
ルド画像、M…合成器、S…分離器、SMB2…マクロ
ブロック,U2B…アッパーマクロブロック、S2B…
ロウアーマクロブロック。
1 ... Left image, 2 ... Right image, 3 ... Frame image, 4 ... Encoder, 6 ... Decoder, 13 ... Vertical filter, 40 ... Combiner, 46 ... Frame structure encoder, 50 ... Field structure encoder, 114 ... Subtractor, 116 ... DCT circuit, 121 ... Inserter, 158 ... Motion compensation read control circuit, 160 ... Mode determination circuit as selection means, 400
... first circuit (114, 116, 158, and 400 constitute first predictive coding means), 402 ... second circuit, 414
... Separation circuit (114, 116, 158, 402, 414
Constitutes a second predictive coding means), L1, L2 ... Lines,
OF1, OF2 ... Odd field image, EF1, EF2 ... Even field image, M ... Combiner, S ... Separator, SMB2 ... Macro block, U2B ... Upper macro block, S2B ...
Lower macroblock.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 杉本 悦子 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 小林 智子 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Etsuko Sugimoto 2-5-5 Keihanhondori, Moriguchi-shi, Osaka Sanyo Electric Co., Ltd. (72) Inventor Tomoko Kobayashi 2-chome, Keihanhondori, Moriguchi-shi, Osaka No. 5 Sanyo Electric Co., Ltd.

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 合成器(M)により、フレーム単位の右
目用の動画像信号とフレーム単位の左目用の動画像信号
とを、1水平走査線毎にマージし、このマージした動画
像信号をMPEG2方式のエンコーダ(4)によりフレ
ーム構造で符号化する立体動画像の符号化方法。
1. A synthesizer (M) merges a moving image signal for the right eye in frame units and a moving image signal for the left eye in frame units for each horizontal scanning line, and the merged moving image signal is merged. A three-dimensional moving image encoding method in which an MPEG2 encoder (4) encodes a frame structure.
【請求項2】 前記フレーム単位の動画像信号とは、ノ
ンインタレース走査の動画像信号である請求項1に記載
の立体動画像の符号化方法。
2. The three-dimensional moving image encoding method according to claim 1, wherein the moving image signal in frame units is a non-interlaced scanning moving image signal.
【請求項3】 前記フレーム単位の動画像信号とは、イ
ンタレース走査のフィールド画像の2フィールドを合成
したノンインタレース動画像信号である請求項1に記載
の立体動画像の符号化方法。
3. The stereoscopic moving image encoding method according to claim 1, wherein the frame-based moving image signal is a non-interlaced moving image signal obtained by combining two fields of interlaced scanning field images.
【請求項4】 前記ノンインタレース動画像信号は、垂
直フィルタ(13)を用いて垂直方向のフィルタ処理が
なされる請求項3に記載の立体動画像の符号化方法。
4. The method for encoding a stereoscopic moving image according to claim 3, wherein the non-interlaced moving image signal is filtered in a vertical direction by using a vertical filter (13).
【請求項5】 前記ノンインタレース動画像信号は、垂
直方向の差成分が大きい場合に、垂直フィルタ(13)
で垂直方向のフィルタ処理がなされる請求項3に記載の
立体動画像の符号化方法。
5. The non-interlaced video signal has a vertical filter (13) when a vertical difference component is large.
The method for encoding a stereoscopic moving image according to claim 3, wherein the vertical filtering process is performed by.
【請求項6】 合成器(M)により、フィールド単位の
右目用の動画像信号とフィールド単位の左目用の動画像
信号とを、1水平走査線毎にマージし、このマージした
動画像信号をMPEG2方式のエンコーダ(4)により
フレーム構造で符号化する立体動画像の符号化方法。
6. A combiner (M) merges a moving image signal for the right eye in a field unit and a moving image signal for the left eye in a field unit for each horizontal scanning line, and the merged moving image signal is merged. A three-dimensional moving image encoding method in which an MPEG2 encoder (4) encodes a frame structure.
【請求項7】 左目用の動画像信号と右目用の動画像信
号とを1画面毎に交互にマージし、このマージした動画
像信号をMPEG2方式のエンコーダ(50)によりフ
ィールド構造で符号化する立体動画像の符号化方法。
7. A moving image signal for the left eye and a moving image signal for the right eye are alternately merged for each screen, and the merged moving image signal is encoded in a field structure by an MPEG2 encoder (50). Encoding method of stereoscopic moving image.
【請求項8】 フィールド単位の右目用の動画像信号と
フィールド単位の左目用の動画像信号とを1フィールド
毎に合成して合成動画像信号を形成し、その合成動画像
信号をフィールド構造のMPEG2方式のエンコーダ
(50)により符号化する立体動画像の符号化方法。
8. A right-eye moving image signal in field units and a left-eye moving image signal in field units are combined for each field to form a combined moving image signal, and the combined moving image signal is of a field structure. An encoding method of a stereoscopic moving image encoded by an encoder (50) of MPEG2 system.
【請求項9】 左動画像と右動画像とを用いた立体動画
像信号の符号化方法であって、前記左右動画像の各々は
ピクチャであり、左動画像におけるピクチャは、インタ
レース走査された奇数ライン画像から形成された第1フ
ィールド(OF1) と、インタレース走査された偶数ライン
画像から形成された第2フィールド(EF1)とを備えてお
り、前記右動画像におけるピクチャは、インタレース走
査された奇数ライン画像から形成された第3フィールド
(OF2)と、インタレース走査された偶数ライン画像から
形成された第4フィールド(EF2)とを備えており、 前記第1及び第3フィールドにおけるライン画像を合成
して、該第1及び第3フィールドの奇数ラインが交互に
配列された第1合成フィールド(8)を生成するステッ
プと、 前記第2及び第4フィールドにおけるライン画像を合成
して、該第2及び第4フィールドの偶数ラインが交互に
配列された第2合成フィールド(9)を生成するステッ
プと、 MPEG−2に適合するエンコーダ(10)を用いて、
前記第1及び第2合成フィールドを符号化するステップ
とを備えている立体動画像の符号化方法。
9. A method for encoding a stereoscopic moving image signal using a left moving image and a right moving image, wherein each of the left and right moving images is a picture, and the picture in the left moving image is interlaced scanned. And a second field (EF1) formed from an interlaced even-numbered line image, and a picture in the right moving image is an interlaced image. Third field formed from scanned odd line image
(OF2) and a fourth field (EF2) formed from an even line image subjected to interlaced scanning. The line images in the first and third fields are combined to generate the first and third lines. Generating a first composite field (8) in which odd lines of fields are arranged alternately, and combining the line images in the second and fourth fields so that the even lines of the second and fourth fields alternate. Generating a second composite field (9) arranged in, and using an MPEG-2 compatible encoder (10),
A method for encoding a stereoscopic moving image, comprising: encoding the first and second combined fields.
【請求項10】 請求項9に記載の方法において、前記
符号化ステップにおいて用いられるエンコーダ(10)
は、MPEG2のフレーム構造に適合するエンコーダで
ある立体動画像の符号化方法。
10. A method according to claim 9, wherein the encoder (10) used in the encoding step.
Is a stereoscopic moving image encoding method that is an encoder conforming to the frame structure of MPEG2.
【請求項11】 請求項1〜10に記載の方法におい
て、符号化された立体動画像情報に立体動画像の符号化
に関連する情報を付加することを特徴とする立体動画像
の符号化方法。
11. The method for encoding a stereoscopic moving image according to claim 1, wherein information related to the encoding of the stereoscopic moving image is added to the encoded stereoscopic moving image information. .
【請求項12】 前記関連情報は、符号化された情報が
立体画像情報か否かを表す情報、前記左右動画像を合成
する際の所定単位の仕様を表す情報、元の画像信号がイ
ンタレース走査か否かを表す情報のうち少なくとも1つ
を含むことを特徴とする請求項11に記載の立体動画像
の符号化方法。
12. The related information is information indicating whether or not the encoded information is stereoscopic image information, information indicating a specification of a predetermined unit when the left and right moving images are combined, and an original image signal is an interlace. The stereoscopic moving image encoding method according to claim 11, comprising at least one of information indicating whether or not scanning is performed.
【請求項13】 右目用の動画像信号と左目用の動画像
信号とを、1画面毎に合成する合成器(48)と、 この合成した画像信号を16×16画素のマクロブロッ
ク単位で画像圧縮符号化するエンコーダ(50)と、 前記エンコーダ(50)内に設けられ、合成された動画
像信号を16×16画素のマクロブロック単位で動き補
償フィ−ルド間予測符号化により圧縮符号化する第1予
測符号化手段(114,116,158,400)と、 前記エンコーダ(50)内に設けられ、前記16×16
画素のマクロブロックを、その上部16×8画素のアッ
パ−ブロック(U2B)と、下部16×8画素のロウア
ーブロック(S2B)の単位で個別に動き補償フィール
ド間予測符号化により圧縮符号化する第2予測符号化手
段(114,116,158,402,414)と、 この第1予測符号化手段による符号化画像データと、こ
の第2予測符号化手段よる符号化画像データとの内、符
号量が少ないと判定された画像データを選択的に出力す
る選択手段(160)とを備える立体動画像の符号化装
置。
13. A synthesizer (48) for synthesizing a moving image signal for the right eye and a moving image signal for the left eye for each screen, and an image of the synthesized image signal in macro block units of 16 × 16 pixels. An encoder (50) for compression encoding, and a moving image signal provided in the encoder (50) and combined is compression encoded by motion compensation inter-field prediction encoding in macroblock units of 16 × 16 pixels. First predictive coding means (114, 116, 158, 400) and the encoder (50), the 16 × 16
A macroblock of pixels is individually compression-coded by motion compensation inter-field prediction coding in units of an upper block (U2B) of 16 × 8 pixels in the upper portion and a lower block (S2B) of 16 × 8 pixels in the lower portion. 2 predictive coding means (114, 116, 158, 402, 414), coded image data by the first predictive coding means, and coded image data by the second predictive coding means A stereoscopic moving image encoding apparatus, comprising: a selecting unit (160) that selectively outputs image data determined to have a small amount.
【請求項14】 右目用の動画像信号と左目用の動画像
信号とを1画面毎に合成する合成器(48)と、 合成された動画像信号を16×16画素のマクロブロッ
ク単位で動き補償フィ−ルド間予測符号化により圧縮符
号化する第1予測符号化手段(114,116,15
8,400)と、 前記16×16画素のマクロブロックを、その上部16
×8画素のアッパ−ブロック(U2B)と、下部16×
8画素のロウアーブロック(S2B)の単位で個別に動
き補償フィールド間予測符号化により圧縮符号化する第
2予測符号化手段(114,116,158,402,
414)と、 この第1予測符号化手段による符号化画像データと、こ
の第2予測符号化手段よる符号化画像データとの内、符
号量が少ないと判定された画像データを選択的に出力す
る選択手段(160)とを備える立体動画像の符号化装
置。
14. A synthesizer (48) for synthesizing a moving image signal for the right eye and a moving image signal for the left eye for each screen, and moving the synthesized moving image signal in macroblock units of 16 × 16 pixels. First predictive coding means (114, 116, 15) for compression coding by inter-compensation field predictive coding.
8400) and the macro block of 16 × 16 pixels,
× 8 pixel upper block (U2B) and lower 16 ×
Second predictive encoding means (114, 116, 158, 402,) that individually perform compression encoding by motion compensation inter-field predictive encoding in units of lower blocks (S2B) of 8 pixels.
414), the image data encoded by the first predictive encoding means, and the image data encoded by the second predictive encoding means, the image data determined to have a small code amount is selectively output. An apparatus for encoding a stereoscopic moving image, comprising: selecting means (160).
【請求項15】 請求項13及び14に記載の装置は、
符号化された立体動画像情報に立体動画像の符号化に関
連する情報を付加するための挿入器(121)を備えて
いる立体動画像の符号化装置。
15. The device according to claim 13 and 14,
A three-dimensional moving image encoding apparatus comprising an inserter (121) for adding information related to encoding of a three-dimensional moving image to encoded three-dimensional moving image information.
【請求項16】 請求項15に記載の符号化装置におい
て、前記挿入器は符号化された情報が立体画像情報か否
かを表す情報、前記左右動画像を合成する際の所定単位
の仕様を表す情報、元の画像信号がインタレース走査か
否かを表す情報のうち少なくとも1つを含む前記関連情
報を前記符号化された立体動画像情報に付加する立体動
画像の符号化装置。
16. The encoding device according to claim 15, wherein the inserter specifies information indicating whether or not the encoded information is stereoscopic image information, and a specification of a predetermined unit when synthesizing the left and right moving images. A stereoscopic moving image encoding apparatus for adding the related information including at least one of information indicating whether the original image signal is interlaced scanning or not to the encoded stereoscopic moving image information.
【請求項17】 請求項1に記載の符号化方法によって
符号化された合成動画像をフレーム構造のMPEG2方
式のデコーダ(6)により復号化し、その復号化された
合成画像を1水平走査線毎に交互に分離して、フレーム
単位の右目用の動画像信号と、フレーム単位の左目用の
動画像信号とを別々に形成する立体動画像の復号化方
法。
17. A composite moving image encoded by the encoding method according to claim 1 is decoded by a frame structure MPEG2 system decoder (6), and the decoded composite image is set for each horizontal scanning line. A method for decoding a stereoscopic moving image, in which the moving image signal for the right eye in frame units and the moving image signal for the left eye in frame units are separately formed by alternately separating them.
【請求項18】 請求項8に記載の符号化方法によって
符号化された合成動画像をフィールド構造のMPEG2
方式のデコーダにより復号化し、その復号化された合成
動画像を1フィールド毎に交互に分離して、フィールド
単位の右目用の動画像信号とフィールド単位の左目用の
動画像信号とを別々に形成する立体動画像の復号化方
法。
18. A composite moving image encoded by the encoding method according to claim 8 is a field structure MPEG2.
Decoding by a system decoder, and the decoded combined moving image is alternately separated for each field to separately form a moving image signal for the right eye in field units and a moving image signal for the left eye in field units. Method for decoding stereoscopic video.
【請求項19】 請求項17に記載の復号化方法に使用
する復号化装置であって、符号化された合成動画像を復
号化するためのフレーム構造のMPEG2方式のデコー
ダ(6)と、該デコーダ(6)により復号化された合成
画像を1水平走査線毎に交互に分離して、フレーム単位
の右目用の動画像信号と、フレーム単位の左目用の動画
像信号とを別々に形成するための分離器(S)とを備え
た立体動画像の復号化装置。
19. A decoding device for use in the decoding method according to claim 17, comprising a frame structure MPEG2 system decoder (6) for decoding an encoded composite moving image, The composite image decoded by the decoder (6) is alternately separated for each horizontal scanning line to separately form a moving image signal for the right eye in frame units and a moving image signal for the left eye in frame units. And a separator (S) for decoding a stereoscopic moving image.
【請求項20】 請求項18に記載の復号化方法に使用
する復号化装置であって、符号化された合成動画像を復
号化するためのフィールド構造のMPEG−2方式のデ
コーダと、該デコーダにより復号化された合成動画像を
1フィールド毎に交互に分離して、フィールド単位の右
目用の動画像信号とフィールド単位の左目用の動画像信
号とを別々に形成するための分離器とを備えた立体動画
像の復号化装置。
20. A decoding device for use in the decoding method according to claim 18, wherein a field structure MPEG-2 system decoder for decoding an encoded composite moving image and the decoder are provided. The composite moving image decoded by is alternately separated for each field, and a separator for separately forming a moving image signal for the right eye in field units and a moving image signal for the left eye in field units is provided. A stereoscopic moving image decoding device provided.
JP7156489A 1994-06-23 1995-06-22 Method and device for encoding and decoding stereoscopic animation Pending JPH0870475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7156489A JPH0870475A (en) 1994-06-23 1995-06-22 Method and device for encoding and decoding stereoscopic animation

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP14202094 1994-06-23
JP6-142020 1994-06-23
JP7156489A JPH0870475A (en) 1994-06-23 1995-06-22 Method and device for encoding and decoding stereoscopic animation

Publications (1)

Publication Number Publication Date
JPH0870475A true JPH0870475A (en) 1996-03-12

Family

ID=26474164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7156489A Pending JPH0870475A (en) 1994-06-23 1995-06-22 Method and device for encoding and decoding stereoscopic animation

Country Status (1)

Country Link
JP (1) JPH0870475A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997043863A1 (en) * 1996-05-15 1997-11-20 Deutsche Telekom Ag Process for storage or transmission of stereoscopic video signals
JPH10165394A (en) * 1996-12-11 1998-06-23 Anima Kk Dynamic configuration analyzer
US6784917B1 (en) 1996-12-06 2004-08-31 Sanyo Electric Co., Ltd. Digital broadcasting system
JP2005522958A (en) * 2002-04-09 2005-07-28 テッグ センソリアル テクノロジーズ インコーポレイティド Stereo video sequence coding system and method
JP2007028439A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Image processing apparatus and image processing method
JP2007260471A (en) * 2007-07-24 2007-10-11 Sophia Co Ltd Game machine
JP2007260472A (en) * 2007-07-24 2007-10-11 Sophia Co Ltd Game machine
JP2008029888A (en) * 2007-10-23 2008-02-14 Sophia Co Ltd Game machine
WO2008153861A1 (en) * 2007-06-07 2008-12-18 Real D Stereoplexing for film and video applications
US7746931B2 (en) 2004-05-13 2010-06-29 Ntt Docomo, Inc. Moving picture encoding apparatus and method, moving picture decoding apparatus and method
EP2278819A2 (en) 2009-07-16 2011-01-26 FUJIFILM Corporation Moving image recording method and apparatus, and moving image coding method and moving image coder
JP2011030184A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing apparatus, and image processing method
JP2011077599A (en) * 2009-09-29 2011-04-14 Sony Corp Transmitting device, receiving device, communication system, and program
JP2011172293A (en) * 2011-06-07 2011-09-01 Toshiba Corp Video processing apparatus, video processing method and program
WO2011102699A3 (en) * 2010-02-22 2011-12-29 엘지전자 주식회사 Electronic device and method for reproducing three-dimensional images
JP2012019547A (en) * 2011-09-22 2012-01-26 Ntt Docomo Inc Moving image coding device and method, and moving image decoding device and method
JP2012105283A (en) * 2008-09-02 2012-05-31 Panasonic Corp Video transmission system, video input device and video output device
JP2012199976A (en) * 1996-12-04 2012-10-18 Panasonic Corp Optical disk for recording high-resolution and three-dimensional video, optical disk reproduction device, and optical disk recording device
US8373744B2 (en) 2007-06-07 2013-02-12 Reald Inc. Stereoplexing for video and film applications
JP2013515389A (en) * 2009-12-21 2013-05-02 シズベル テクノロジー エス.アール.エル. Method for generating, transmitting and receiving stereoscopic images, and related apparatus
US8619123B2 (en) 2010-01-20 2013-12-31 Kabushiki Kaisha Toshiba Video processing apparatus and method for scaling three-dimensional video
JP5454569B2 (en) * 2009-11-18 2014-03-26 株式会社Jvcケンウッド 3D image data processing apparatus and 3D image data processing method
JP2014143488A (en) * 2013-01-22 2014-08-07 Nikon Corp Image compression apparatus, image decoder and program
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
US9709723B2 (en) 2012-05-18 2017-07-18 Reald Spark, Llc Directional backlight
JP2017135756A (en) * 2007-04-12 2017-08-03 ドルビー・インターナショナル・アーベー Tiling in video encoding and decoding
US9740034B2 (en) 2013-10-14 2017-08-22 Reald Spark, Llc Control of directional display
US9739928B2 (en) 2013-10-14 2017-08-22 Reald Spark, Llc Light input for directional backlight
US9835792B2 (en) 2014-10-08 2017-12-05 Reald Spark, Llc Directional backlight
US10054732B2 (en) 2013-02-22 2018-08-21 Reald Spark, Llc Directional backlight having a rear reflector
US10228505B2 (en) 2015-05-27 2019-03-12 Reald Spark, Llc Wide angle imaging directional backlights
US10321123B2 (en) 2016-01-05 2019-06-11 Reald Spark, Llc Gaze correction of multi-view images
US10330843B2 (en) 2015-11-13 2019-06-25 Reald Spark, Llc Wide angle imaging directional backlights
US10359561B2 (en) 2015-11-13 2019-07-23 Reald Spark, Llc Waveguide comprising surface relief feature and directional backlight, directional display device, and directional display apparatus comprising said waveguide
US10359560B2 (en) 2015-04-13 2019-07-23 Reald Spark, Llc Wide angle imaging directional backlights
US10365426B2 (en) 2012-05-18 2019-07-30 Reald Spark, Llc Directional backlight
US10459321B2 (en) 2015-11-10 2019-10-29 Reald Inc. Distortion matching polarization conversion systems and methods thereof
US10475418B2 (en) 2015-10-26 2019-11-12 Reald Spark, Llc Intelligent privacy system, apparatus, and method thereof
US11067736B2 (en) 2014-06-26 2021-07-20 Reald Spark, Llc Directional privacy display
US11287878B2 (en) 2012-05-18 2022-03-29 ReaID Spark, LLC Controlling light sources of a directional backlight
US11821602B2 (en) 2020-09-16 2023-11-21 Reald Spark, Llc Vehicle external illumination device
US11966049B2 (en) 2022-08-02 2024-04-23 Reald Spark, Llc Pupil tracking near-eye display

Cited By (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997043863A1 (en) * 1996-05-15 1997-11-20 Deutsche Telekom Ag Process for storage or transmission of stereoscopic video signals
JP2013069403A (en) * 1996-12-04 2013-04-18 Panasonic Corp Optical disk for recording high-resolution and three-dimensional video, optical disk reproduction device, and optical disk recording device
JP2012199976A (en) * 1996-12-04 2012-10-18 Panasonic Corp Optical disk for recording high-resolution and three-dimensional video, optical disk reproduction device, and optical disk recording device
JP2012199972A (en) * 1996-12-04 2012-10-18 Panasonic Corp Optical disk for recording high-resolution and three-dimensional video, optical disk reproduction device, and optical disk recording device
US6784917B1 (en) 1996-12-06 2004-08-31 Sanyo Electric Co., Ltd. Digital broadcasting system
JPH10165394A (en) * 1996-12-11 1998-06-23 Anima Kk Dynamic configuration analyzer
JP2005522958A (en) * 2002-04-09 2005-07-28 テッグ センソリアル テクノロジーズ インコーポレイティド Stereo video sequence coding system and method
US8384766B2 (en) 2002-04-09 2013-02-26 Sensio Technologies Inc. Apparatus for processing a stereoscopic image stream
US10341643B2 (en) 2002-04-09 2019-07-02 3Dn, Llc Process and system for encoding and playback of stereoscopic video sequences
JP2010161794A (en) * 2002-04-09 2010-07-22 Sensio Technologies Inc Stereoscopic video sequences coding system and method
US11012680B2 (en) 2002-04-09 2021-05-18 3Dn, Llc Process and system for encoding and playback of stereoscopic video sequences
US7746931B2 (en) 2004-05-13 2010-06-29 Ntt Docomo, Inc. Moving picture encoding apparatus and method, moving picture decoding apparatus and method
US8254458B2 (en) 2004-05-13 2012-08-28 Ntt Docomo, Inc. Moving picture encoding apparatus and method, moving picture decoding apparatus and method
JP2007028439A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Image processing apparatus and image processing method
US10764596B2 (en) 2007-04-12 2020-09-01 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
JP2017135756A (en) * 2007-04-12 2017-08-03 ドルビー・インターナショナル・アーベー Tiling in video encoding and decoding
US10432958B2 (en) 2007-04-12 2019-10-01 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
US10298948B2 (en) 2007-04-12 2019-05-21 Dolby Laboratories Licensing Corporation Tiling in video encoding and decoding
US8487982B2 (en) 2007-06-07 2013-07-16 Reald Inc. Stereoplexing for film and video applications
US9030531B2 (en) 2007-06-07 2015-05-12 Reald Inc. Stereoplexing for film and video applications
WO2008153861A1 (en) * 2007-06-07 2008-12-18 Real D Stereoplexing for film and video applications
US8373744B2 (en) 2007-06-07 2013-02-12 Reald Inc. Stereoplexing for video and film applications
JP2007260471A (en) * 2007-07-24 2007-10-11 Sophia Co Ltd Game machine
JP2007260472A (en) * 2007-07-24 2007-10-11 Sophia Co Ltd Game machine
JP4589372B2 (en) * 2007-10-23 2010-12-01 株式会社ソフイア Game machine
JP2008029888A (en) * 2007-10-23 2008-02-14 Sophia Co Ltd Game machine
JP2012105283A (en) * 2008-09-02 2012-05-31 Panasonic Corp Video transmission system, video input device and video output device
US8787691B2 (en) 2009-07-01 2014-07-22 Sony Corporation Image processing device and image processing method of images with pixels arrayed in a checkerboard fashion
JP2011030184A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing apparatus, and image processing method
EP2278819A2 (en) 2009-07-16 2011-01-26 FUJIFILM Corporation Moving image recording method and apparatus, and moving image coding method and moving image coder
JP2011077599A (en) * 2009-09-29 2011-04-14 Sony Corp Transmitting device, receiving device, communication system, and program
US8896663B2 (en) 2009-09-29 2014-11-25 Sony Corporation Transmitting device, receiving device, communication system and program
JP5454569B2 (en) * 2009-11-18 2014-03-26 株式会社Jvcケンウッド 3D image data processing apparatus and 3D image data processing method
JP2013515389A (en) * 2009-12-21 2013-05-02 シズベル テクノロジー エス.アール.エル. Method for generating, transmitting and receiving stereoscopic images, and related apparatus
US8619123B2 (en) 2010-01-20 2013-12-31 Kabushiki Kaisha Toshiba Video processing apparatus and method for scaling three-dimensional video
CN102844696B (en) * 2010-02-22 2015-11-25 Lg电子株式会社 The method of electronic installation and reproducing three-dimensional images
CN102844696A (en) * 2010-02-22 2012-12-26 Lg电子株式会社 Electronic device and method for reproducing three-dimensional images
US9392253B2 (en) 2010-02-22 2016-07-12 Lg Electronics Inc. Electronic device and method for displaying stereo-view or multiview sequence image
WO2011102699A3 (en) * 2010-02-22 2011-12-29 엘지전자 주식회사 Electronic device and method for reproducing three-dimensional images
JP2011172293A (en) * 2011-06-07 2011-09-01 Toshiba Corp Video processing apparatus, video processing method and program
JP2012019547A (en) * 2011-09-22 2012-01-26 Ntt Docomo Inc Moving image coding device and method, and moving image decoding device and method
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
US10175418B2 (en) 2012-05-18 2019-01-08 Reald Spark, Llc Wide angle imaging directional backlights
US9709723B2 (en) 2012-05-18 2017-07-18 Reald Spark, Llc Directional backlight
US11681359B2 (en) 2012-05-18 2023-06-20 Reald Spark, Llc Controlling light sources of a directional backlight
US11287878B2 (en) 2012-05-18 2022-03-29 ReaID Spark, LLC Controlling light sources of a directional backlight
US10365426B2 (en) 2012-05-18 2019-07-30 Reald Spark, Llc Directional backlight
JP2014143488A (en) * 2013-01-22 2014-08-07 Nikon Corp Image compression apparatus, image decoder and program
US10054732B2 (en) 2013-02-22 2018-08-21 Reald Spark, Llc Directional backlight having a rear reflector
US9739928B2 (en) 2013-10-14 2017-08-22 Reald Spark, Llc Light input for directional backlight
US9740034B2 (en) 2013-10-14 2017-08-22 Reald Spark, Llc Control of directional display
US10488578B2 (en) 2013-10-14 2019-11-26 Reald Spark, Llc Light input for directional backlight
US11067736B2 (en) 2014-06-26 2021-07-20 Reald Spark, Llc Directional privacy display
US9835792B2 (en) 2014-10-08 2017-12-05 Reald Spark, Llc Directional backlight
US11061181B2 (en) 2015-04-13 2021-07-13 Reald Spark, Llc Wide angle imaging directional backlights
US10459152B2 (en) 2015-04-13 2019-10-29 Reald Spark, Llc Wide angle imaging directional backlights
US10359560B2 (en) 2015-04-13 2019-07-23 Reald Spark, Llc Wide angle imaging directional backlights
US10634840B2 (en) 2015-04-13 2020-04-28 Reald Spark, Llc Wide angle imaging directional backlights
US10228505B2 (en) 2015-05-27 2019-03-12 Reald Spark, Llc Wide angle imaging directional backlights
US10475418B2 (en) 2015-10-26 2019-11-12 Reald Spark, Llc Intelligent privacy system, apparatus, and method thereof
US11030981B2 (en) 2015-10-26 2021-06-08 Reald Spark, Llc Intelligent privacy system, apparatus, and method thereof
US10459321B2 (en) 2015-11-10 2019-10-29 Reald Inc. Distortion matching polarization conversion systems and methods thereof
US10712490B2 (en) 2015-11-13 2020-07-14 Reald Spark, Llc Backlight having a waveguide with a plurality of extraction facets, array of light sources, a rear reflector having reflective facets and a transmissive sheet disposed between the waveguide and reflector
US11067738B2 (en) 2015-11-13 2021-07-20 Reald Spark, Llc Surface features for imaging directional backlights
US10359561B2 (en) 2015-11-13 2019-07-23 Reald Spark, Llc Waveguide comprising surface relief feature and directional backlight, directional display device, and directional display apparatus comprising said waveguide
US10330843B2 (en) 2015-11-13 2019-06-25 Reald Spark, Llc Wide angle imaging directional backlights
US10750160B2 (en) 2016-01-05 2020-08-18 Reald Spark, Llc Gaze correction of multi-view images
US10321123B2 (en) 2016-01-05 2019-06-11 Reald Spark, Llc Gaze correction of multi-view images
US11821602B2 (en) 2020-09-16 2023-11-21 Reald Spark, Llc Vehicle external illumination device
US11966049B2 (en) 2022-08-02 2024-04-23 Reald Spark, Llc Pupil tracking near-eye display

Similar Documents

Publication Publication Date Title
JPH0870475A (en) Method and device for encoding and decoding stereoscopic animation
US5767898A (en) Three-dimensional image coding by merger of left and right images
US5864368A (en) Picture signal editing and encoding method and apparatus, signal recording medium and picture signal decoding method and apparatus
JP3381855B2 (en) Image signal encoding method and image signal encoding device, image signal decoding method and image signal decoding device
JP4014263B2 (en) Video signal conversion apparatus and video signal conversion method
US5347308A (en) Adaptive coding method for interlaced scan digital video sequences
KR100283343B1 (en) Image signal encoding method and decoding method, image signal encoding apparatus and decoding apparatus
JPH07123447A (en) Method and device for recording image signal, method and device for reproducing image signal, method and device for encoding image signal, method and device for decoding image signal and image signal recording medium
JP3092280B2 (en) Highly efficient encoding and decoding apparatus for image signals
JP3331351B2 (en) Image data encoding method and apparatus
AU670288B2 (en) Device for high efficiency encoding and decoding of picture signals and recording medium
JPH05268594A (en) Motion detector for moving picture
JP3168922B2 (en) Digital image information recording and playback device
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
JPH07327242A (en) Compressing and encoding device and decoding and reproducing device for stereoscopical animation picture
JP3257052B2 (en) Highly efficient image signal encoding apparatus and method
Aramvith et al. MPEG-1 and MPEG-2 video standards
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2868445B2 (en) Moving image compression method and apparatus
JP3240737B2 (en) Image signal encoding method and apparatus, decoding method and apparatus
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JPH08307902A (en) Picture signal recording method/device, picture signal reproducing method/device and picture signal recording medium
JPH0630332A (en) Coding and decoding device for moving image
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2003219420A (en) Image reproducing device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20070912

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20080912

LAPS Cancellation because of no payment of annual fees