JPH09275578A - Multi-viewpoint encoding and decoding device - Google Patents

Multi-viewpoint encoding and decoding device

Info

Publication number
JPH09275578A
JPH09275578A JP8221596A JP8221596A JPH09275578A JP H09275578 A JPH09275578 A JP H09275578A JP 8221596 A JP8221596 A JP 8221596A JP 8221596 A JP8221596 A JP 8221596A JP H09275578 A JPH09275578 A JP H09275578A
Authority
JP
Japan
Prior art keywords
parallax
image
vector
global
parallax vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8221596A
Other languages
Japanese (ja)
Other versions
JP3693407B2 (en
Inventor
Ryuji Kitaura
竜二 北浦
Toshio Nomura
敏男 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP8221596A priority Critical patent/JP3693407B2/en
Publication of JPH09275578A publication Critical patent/JPH09275578A/en
Application granted granted Critical
Publication of JP3693407B2 publication Critical patent/JP3693407B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the encoding efficiency of a parallax vector and also to reduce the computational complexity of the parallax vector by estimating the compensation of both movement and parallax when a multi-viewpoint image is encoded. SOLUTION: An image input part 5 inputs a multi-viewpoint stereoscopic image after dividing it into parts images having parallax and a background image having no parallax. Then a movement compensation part 6 estimates the movement compensation based on the moved variable between the frames or fields of the parts images. A parallax compensation part 16 estimates the parallax compensation based on the parallax amount caused between the frames or fields of the parts images. A parallax divider 17 is provided for every parts image to define one of parallax vectors obtained at the part 16 as a global parallax vector and to output a local parallax vector that is defined by subtracting the global parallax vector from other parallax vectors excluding the global one.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像高能率符号化及
び復号において、特に動き補償あるいは視差補償予測を
用いた多視点画像の高能率符号化及び復号装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-efficiency encoding and decoding apparatus for multi-view images, which uses motion compensation or parallax compensation prediction in high-efficiency image encoding and decoding.

【0002】[0002]

【従来の技術】多視点画像の符号化において、動画像符
号化の際に一般的に用いられている動き補償と、視点の
異る画像間に対し視差補償を組み合わせて符号化するこ
とにより、符号化効率を向上させる方式がよく知られて
いる。例えば文献(W.A.シュップ,安田,“視差補
償および動き補償を用いたステレオ動画像のデータ圧
縮”,PCSJ88(1988),pp.63-64)によれば、図11に示
すように、右画像に対しては動き補償のみを行なう。左
画像に対しては視差補償と動き補償のうち、予測誤差が
より少ない方の補償方法を選択し、符号化するという方
式である。
2. Description of the Related Art In multi-viewpoint image coding, motion compensation, which is generally used in moving image coding, and parallax compensation between images with different viewpoints are combined and coded. A method for improving the coding efficiency is well known. For example, according to a document (WA Shupp, Yasuda, “Data compression of stereo video using parallax compensation and motion compensation”, PCSJ88 (1988), pp.63-64), as shown in FIG. Only motion compensation is performed on the right image. For the left image, one of parallax compensation and motion compensation, whichever has a smaller prediction error, is selected and encoded.

【0003】また、動画像の符号化においてブロックマ
ッチングによる動き補償を行なう際に、ブロックの大き
さを変えて動きベクトルを求める例が、特開平6−11
3283号公報に開示されている。この方式では、図1
2に示すようにまず小ブロック71を用いて動き補償を
行ない、小ブロック71に対する動きベクトル(以降、
小ブロックベクトルと略す)を求める。それらの小ブロ
ック71を複数個集めて大ブロックとし、動き補償を行
ない、大ブロックに対する動きベクトル(以降、大ブロ
ックベクトルと略す)を求める。
An example of obtaining a motion vector by changing the size of a block when performing motion compensation by block matching in coding a moving image is disclosed in Japanese Patent Laid-Open No. 6-11.
It is disclosed in Japanese Patent No. 3283. In this method,
As shown in FIG. 2, motion compensation is first performed using the small block 71, and a motion vector for the small block 71 (hereinafter,
Abbreviated as small block vector). A plurality of these small blocks 71 are collected to form a large block, motion compensation is performed, and a motion vector for the large block (hereinafter abbreviated as large block vector) is obtained.

【0004】大ブロック70を4つの小ブロックにより
構成したとすると、小ブロックベクトルが大ブロックベ
クトルに対して予め決められた範囲内に存在し、そこに
存在する小ブロックベクトルの数が所定の閾値を越えた
場合、大ブロックベクトルと、小ブロックベクトルと大
ブロックベクトルの差分を伝送することにより動きベク
トルの情報量を低減する。
If the large block 70 is composed of four small blocks, the small block vector exists within a predetermined range with respect to the large block vector, and the number of small block vectors existing therein is a predetermined threshold value. When it exceeds, the amount of information of the motion vector is reduced by transmitting the large block vector and the difference between the small block vector and the large block vector.

【0005】[0005]

【発明が解決しようとする課題】しかしながら従来の方
法では、視差補償を行う際に視差のある部分と視差のな
い部分全てに対して視差補償を行なうので、効率がよく
ない。しかも求まった視差ベクトルの大きさは通常、動
き補償において求まる動きベクトルの大きさよりも大き
くなることが多く、それをそのままの大きさで符号化す
るため、視差ベクトルの符号化効率がよくないという問
題点がある。
However, the conventional method is not efficient because the parallax compensation is performed for all the portions having parallax and the portions having no parallax when performing parallax compensation. In addition, the size of the disparity vector obtained is usually larger than the size of the motion vector obtained in motion compensation, and since the size of the disparity vector is encoded as it is, the efficiency of encoding the disparity vector is not good. There is a point.

【0006】またこの方式では、動き補償を用いるか視
差補償を用いるかが選択的に決定されるので視差ベクト
ルが必ず伝送されるわけではない。従って、複数の物体
が立体表示されるときに、一部の物体の奥行きだけを変
える等の編集を行うことができない。
Further, in this method, since the motion compensation or the parallax compensation is selectively determined, the parallax vector is not always transmitted. Therefore, when a plurality of objects are three-dimensionally displayed, editing such as changing only the depth of some objects cannot be performed.

【0007】一方、動画像の符号化を大ブロックと小ブ
ロックの2種類の動きベクトルにより符号化する方法で
は、画面全体にわたって2段階の探索をする必要がある
ため計算量が莫大になる。また、大ブロックは複数の小
ブロックにより構成されているため、信頼度の異なる2
種類のベクトル及びその差分を求めているに過ぎず、そ
れらのベクトル間に物理的な意味の相違はない。さら
に、この2種類の動きベクトルに異なる作用をもたせる
ことができないため、部品画像編集に利用することは難
しい。
On the other hand, in the method of encoding a moving image by using two types of motion vectors, a large block and a small block, the amount of calculation becomes enormous because it is necessary to perform a two-step search over the entire screen. In addition, since the large block is composed of a plurality of small blocks, the two blocks with different reliability are
There is no difference in physical meaning between these vectors, only the types of vectors and their differences are obtained. Furthermore, since these two types of motion vectors cannot have different effects, it is difficult to use for component image editing.

【0008】本発明の目的は、多視点画像の符号化にお
いて動き補償及び視差補償予測を用いることにより高効
率の符号化を実現しながら、視差ベクトルを2段階に分
けることにより視差ベクトルの符号化効率を向上させる
とともに、視差ベクトルを求める際の計算量を低減さ
せ、2段階に分けた視差ベクトルを利用して立体部品画
像の編集を簡単に行うことができる視差補償符号化及び
復号装置を提供することにある。
An object of the present invention is to encode a disparity vector by dividing the disparity vector into two stages while realizing highly efficient encoding by using motion compensation and disparity compensation prediction in encoding a multi-view image. Provided is a parallax compensation encoding / decoding device capable of improving efficiency, reducing the amount of calculation when obtaining a parallax vector, and easily editing a three-dimensional component image by using a parallax vector divided into two stages. To do.

【0009】[0009]

【課題を解決するための手段】本発明の符号化装置は上
記目的を達成するために、多視点立体画像を少なくとも
1つの視差のある部品画像と、少なくとも1つの視差の
ない背景画像に分けて入力する入力手段と、部品画像の
フレームあるいはフィールド間の動き量を用いて動き補
償予測を行う動き補償手段と、部品画像のフレームある
いはフィールド間の視差量を用いて視差補償予測を行う
視差補償手段と、視差ベクトル分割手段とを各部品画像
毎に備える多視点符号化装置であって、前記視差ベクト
ル分割手段は、前記視差補償手段で求められた視差ベク
トルのうちの1つをグローバル視差ベクトルとし、残り
の視差ベクトルからグローバル視差ベクトルを引いたも
のをローカル視差ベクトルとして出力することを特徴と
する。
In order to achieve the above-mentioned object, an encoding apparatus of the present invention divides a multi-view stereoscopic image into at least one parallax component image and at least one parallax-free background image. Input means for inputting, motion compensation means for performing motion compensation prediction using a motion amount between frames or fields of a component image, and parallax compensation means for performing parallax compensation prediction using a parallax amount between frames or fields of a component image. And a parallax vector dividing unit for each component image, wherein the parallax vector dividing unit sets one of the parallax vectors obtained by the parallax compensating unit as a global parallax vector. , The remaining parallax vector minus the global parallax vector is output as a local parallax vector.

【0010】また本発明の符号化装置では、3視点以上
の多視点立体画像を少なくとも1つの視差のある部品画
像と、少なくとも1つの視差のない背景画像に分けて入
力する入力手段と、部品画像のフレームあるいはフィー
ルド間の動き量を用いて動き補償予測を行う動き補償手
段と、部品画像のフレームあるいはフィールド間の視差
量を用いて視差補償予測を行う視差補償手段とを各部品
画像毎に備えるとともに、各部品画像毎に1つの視差ベ
クトル分割手段と少なくとも1つの差分器を備える多視
点符号化装置であって、前記視差ベクトル分割手段は、
特定の視点間において求められた視差ベクトルのうちの
1つをグローバル視差ベクトルとし、残りの視差ベクト
ルからグローバル視差ベクトルを引いたものをローカル
視差ベクトルとして出力するとともに、前記差分器は、
他の視点間において求められたすべての視差ベクトルと
前記グローバル視差ベクトルとの差分を出力することを
特徴とする。
Further, in the encoding apparatus of the present invention, a multi-view stereoscopic image of three or more viewpoints is divided into at least one component image having parallax and at least one background image having no parallax, and inputting means, and the component image. For each component image, a motion compensation unit that performs motion compensation prediction using the amount of motion between frames or fields and a parallax compensation unit that performs parallax compensation prediction using the amount of parallax between frames or fields of component images are provided. At the same time, the multi-viewpoint encoding device is provided with one disparity vector division unit and at least one difference unit for each component image, wherein the disparity vector division unit is
One of the parallax vectors obtained between the specific viewpoints is a global parallax vector, and a difference obtained by subtracting the global parallax vector from the remaining parallax vectors is output as a local parallax vector, and the differencer is
The difference between all the parallax vectors obtained between other viewpoints and the global parallax vector is output.

【0011】また本発明では、グローバル視差ベクトル
として立体部品画像内の全ての視差ベクトルの平均を用
いてもよい。
Further, in the present invention, the average of all parallax vectors in the three-dimensional component image may be used as the global parallax vector.

【0012】また本発明では、グローバル視差ベクトル
として立体部品画像内で最初に求めた視差ベクトルを用
いてもよい。
In the present invention, the parallax vector first obtained in the three-dimensional component image may be used as the global parallax vector.

【0013】また本発明では、グローバル視差ベクトル
として立体部品画像内の視差ベクトルの大きさをヒスト
グラムにして、最も発生頻度の多い視差ベクトルを用い
てもよい。
In the present invention, the magnitude of the parallax vector in the three-dimensional component image may be made into a histogram as the global parallax vector, and the parallax vector with the highest frequency of occurrence may be used.

【0014】また本発明では、現フレームあるいはフィ
ールドのグローバル視差ベクトルとして、現フレームあ
るいはフィールドのグローバル視差ベクトルと直前のフ
レームあるいはフィールドのグローバル視差ベクトルの
差分を用いてもよい。
In the present invention, the difference between the global parallax vector of the current frame or field and the global parallax vector of the immediately preceding frame or field may be used as the global parallax vector of the current frame or field.

【0015】また本発明では、ローカル視差ベクトルと
して、直前に求めたローカル視差ベクトルとの差分を用
いてもよい。
Further, in the present invention, a difference from the local parallax vector obtained immediately before may be used as the local parallax vector.

【0016】また本発明の復号装置では、多視点立体画
像のフレームあるいはフィールド間の動き量及び視差量
を用いて、動き補償を行う動き補償手段及び視差補償を
行う視差補償手段とを備える多視点画像復号装置におい
て、入力されたグローバル視差ベクトルと前記ローカル
視差ベクトルを用いて前記視差ベクトルを視差補償手段
に出力する視差ベクトル合成手段と、奥行き方向の移動
パラメータを画像編集手段に出力するパラメータ入力手
段と、入力されたパラメータを用いて立体部品画像の奥
行きを変化させて画像合成手段に出力する画像編集手段
と、入力された背景画像と立体部品画像を合成する画像
合成手段を備えることを特徴とする。
In the decoding device of the present invention, the multi-viewpoint includes a motion compensating means for performing motion compensation and a parallax compensating means for performing parallax compensation by using the motion amount and the parallax amount between frames or fields of the multi-view stereoscopic image. In the image decoding device, a parallax vector synthesizing unit that outputs the parallax vector to the parallax compensating unit using the input global parallax vector and the local parallax vector, and a parameter input unit that outputs the movement parameter in the depth direction to the image editing unit. And an image synthesizing unit for synthesizing the input background image and the three-dimensional component image by changing the depth of the three-dimensional component image using the input parameters and outputting the image to the image synthesizing unit. To do.

【0017】また本発明では、前記画像編集手段は、前
記グローバル視差ベクトルが小さい立体部品画像から順
に出力し、前記画像合成手段は、背景画像が入力された
後に順次入力される立体部品画像を背景画像上に上書き
することにより画像を合成するようにしてもよい。
Further, in the present invention, the image editing means outputs the three-dimensional component images in order from the smallest global parallax vector, and the image synthesizing means outputs the three-dimensional component images sequentially input after the background image is input. The images may be combined by overwriting the images.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態につい
て詳細に説明する。
Embodiments of the present invention will be described below in detail.

【0019】図1に本発明の画像符号化装置の第1の実
施の形態を示す。本実施の形態は2眼式の例であり、こ
の画像符号化装置に入力する画像は、視差のない背景画
像と視差のある立体部品画像とする。背景画像と立体部
品画像はどちらも静止画像と動画像のいずれであっても
よいが、ここでは両者とも動画像であるものとする。
FIG. 1 shows a first embodiment of the image coding apparatus of the present invention. The present embodiment is an example of a two-lens system, and an image input to this image encoding device is a background image having no parallax and a three-dimensional component image having parallax. Both the background image and the three-dimensional part image may be either a still image or a moving image, but both are assumed to be moving images here.

【0020】ここで立体部品画像とは、例えば図2に示
すように、2台のカメラを平行に配置して撮影したステ
レオ画像2を切り出し装置3に入力し、注視物体だけを
切り出したものを示す。また、図2の画像入力部5にお
けるVOP(Video Object Plane)とは、複数の部品画像
によって合成画像を形成する場合の1つ1つの構成要素
を意味し、通常、形状データとテクスチャデータにより
構成されるが、ここでは説明を簡単にするために任意形
状の領域に分割された部品画像としてとり扱う。立体部
品画像objn(n=1,2,…によって異なる部品を
区別する)は視点数と同じ数のVOPmn(m=1,2,
…によって異なる視点を区別し、2眼式の場合はm=
1,2となる)に分離されており、VOP0を背景画像
1とする。このとき2台のカメラ間隔は人の目と同じと
してもよい。また2台のカメラは平行に配置されてお
り、かつ上下方向のズレや歪みがないように調整されて
いるので、切り出し装置から切り出された画像の視差は
垂直成分はなく、水平成分のみをもつものとする。
Here, the three-dimensional component image is, for example, as shown in FIG. 2, a stereo image 2 obtained by arranging two cameras in parallel and inputting it to a clipping device 3 and clipping only a gaze object. Show. A VOP (Video Object Plane) in the image input unit 5 in FIG. 2 means each of the constituent elements when a composite image is formed by a plurality of component images, and is usually composed of shape data and texture data. However, in order to simplify the description, it is treated as a component image divided into regions of arbitrary shape. The three-dimensional part images obj n (different parts are distinguished by n = 1, 2, ...) Have the same number of VOP mn (m = 1, 2,
Different viewpoints are distinguished by ..., and m =
1 and 2), and VOP 0 is set as the background image 1. At this time, the distance between the two cameras may be the same as human eyes. Further, since the two cameras are arranged in parallel and adjusted so that there is no vertical displacement or distortion, the parallax of the image clipped by the clipping device does not have a vertical component but only a horizontal component. I shall.

【0021】まず、図1を用いて背景画像の符号化方法
を説明する。動画像の符号化において、符号化の単位を
ブロック(例えば16×16画素で構成される)として
符号化するブロックマッチングを用いた動き補償予測符
号化という方法が一般的によく知られている。本実施の
形態において、背景画像の符号化方法はこのブロックマ
ッチングを用いた動き補償予測符号化の方法と同じであ
る。例えば背景画像VOP0は、動き補償部6により前
フレームあるいはフィールドの復号画像を用いて動き補
償され、検出された動きベクトルが可変長符号化部10
に伝送される。
First, a background image coding method will be described with reference to FIG. In the coding of moving images, a method called motion compensation predictive coding using block matching in which a coding unit is coded as a block (for example, composed of 16 × 16 pixels) is well known. In this embodiment, the background image coding method is the same as the motion compensation predictive coding method using this block matching. For example, the background image VOP 0 is motion-compensated by the motion compensating unit 6 using the decoded image of the previous frame or field, and the detected motion vector is the variable length coding unit 10.
Is transmitted to

【0022】その後減算器7で背景画像VOP0と動き
補償された画像の差分がとられ、その差分データが変換
部8と量子化部9を通って、可変長符号化部10に伝送
される。またこの差分データは、可変長符号化部10に
入力されるとともに、逆量子化部11と逆変換部12を
通り、加算器13で動き補償された画像が加算され、背
景画像VOP0の復号画像がフレームメモリ14に蓄え
られる。これ以降は、次の入力に対して、この繰り返し
で符号化される。
Thereafter, the subtracter 7 calculates the difference between the background image VOP 0 and the motion-compensated image, and the difference data is transmitted to the variable length coding unit 10 through the conversion unit 8 and the quantization unit 9. . Further, this difference data is input to the variable length coding unit 10, passes through the dequantization unit 11 and the detransformation unit 12, the motion-compensated images are added by the adder 13, and the background image VOP 0 is decoded. The image is stored in the frame memory 14. After that, the next input is encoded by this repetition.

【0023】次に立体部品画像の符号化について説明す
る。立体部品画像obj1を符号化する順序を図3を用
いて説明する。符号化は以下の(a)〜(d)の手順で
行なわれる。
Next, the encoding of the three-dimensional part image will be described. The sequence of encoding the three-dimensional component image obj 1 will be described with reference to FIG. Encoding is performed according to the following procedures (a) to (d).

【0024】(a)立体部品画像obj1の左目用の部
品画像43はフレームあるいはフィールド内で符号化を
行なう。
(A) The left-eye component image 43 of the three-dimensional component image obj 1 is encoded within a frame or field.

【0025】(b)部品画像43の復号画像を用いた視
差補償により、右目用の部品画像44に対してフレーム
あるいはフィールド間符号化を行なう。
(B) By performing parallax compensation using the decoded image of the component image 43, frame or inter-field coding is performed on the component image 44 for the right eye.

【0026】(c)部品画像45は部品画像43の復号
画像を用いた動き補償によりフレームあるいはフィール
ド間符号化を行なう。
(C) The component image 45 is subjected to frame or inter-field coding by motion compensation using the decoded image of the component image 43.

【0027】(d)部品画像45の復号画像を用いた視
差補償により、右目用の部品画像46はフレームあるい
はフィールド間符号化を行なう。
(D) By performing parallax compensation using the decoded image of the component image 45, the component image 46 for the right eye is subjected to frame or inter-field coding.

【0028】すなわち左目用画像は動き補償で符号化さ
れ、右目用画像は同時刻の左目用画像を用いた視差補償
で符号化される。以降(c)、(d)の手順を繰り返し
て符号化は行なわれる。ただし(c)、(d)の手順を
繰り返して符号化するとき、予測誤差の伝搬を防ぐため
に(c)、(d)の手順の代わりに(a)、(b)の手
順による符号化を、一定の周期で行なってもよい。
That is, the image for the left eye is coded by motion compensation, and the image for the right eye is coded by parallax compensation using the image for the left eye at the same time. After that, encoding is performed by repeating the procedure of (c) and (d). However, when coding by repeating the procedures (c) and (d), instead of the procedures (c) and (d), the coding according to the procedures (a) and (b) is performed in order to prevent the propagation of prediction errors. May be performed at regular intervals.

【0029】図1において、立体部品画像obj1を構
成する左目用画像VOP11は、背景画像の符号化のとき
と同様の方式で符号化を行なう。同じく立体部品画像o
bj1を構成する右目用画像VOP21は、左目用画像V
OP11の復号画像を用いてブロックマッチングによる視
差補償を行ない、符号化する。このとき、視差補償部1
6に右目用画像VOP21と、加算器15からの左目用画
像VOP11の復号画像が入力され、視差ベクトルが求ま
る。
In FIG. 1, the left-eye image VOP 11 forming the three-dimensional component image obj 1 is encoded by the same method as that used for encoding the background image. Similarly, three-dimensional parts image o
The right-eye image VOP 21 forming bj 1 is the left-eye image VOP 21.
Parallax compensation is performed by block matching using the decoded image of OP 11 , and encoding is performed. At this time, the parallax compensation unit 1
The right-eye image VOP 21 and the decoded image of the left-eye image VOP 11 from the adder 15 are input to 6 and the parallax vector is obtained.

【0030】視差ベクトルの求め方は、図4に示すよう
に左目用の部品画像31と右目用の部品画像32を画像
33のように同一平面上に重ねて、注目ブロックに対し
てマッチングを行なうことにより行う。従って1つのブ
ロックに対して1つの視差ベクトルが求まる。求まった
視差ベクトルは視差ベクトル分割器17に入力され、1
つのグローバル視差ベクトルと、それぞれの視差ベクト
ルからグローバル視差ベクトルを引いた、ローカル視差
ベクトルに分けられる。
To obtain the parallax vector, as shown in FIG. 4, a left-eye component image 31 and a right-eye component image 32 are superposed on the same plane as an image 33, and matching is performed on the target block. By doing. Therefore, one disparity vector is obtained for one block. The calculated disparity vector is input to the disparity vector divider 17, and 1
It is divided into one global parallax vector and a local parallax vector obtained by subtracting the global parallax vector from each parallax vector.

【0031】つまり立体部品画像内において、グローバ
ル視差ベクトルは1個の所定のブロックの視差を表し、
ローカル視差ベクトルはそれ以外のブロックの視差から
グローバル視差ベクトルを引いたものとなる。例えば、
図5のように視差ベクトルv1をグローバル視差ベクト
ルGVとすると、視差ベクトルv2からグローバル視差
ベクトルGV引いたものがローカル視差ベクトルLV2
となり、視差ベクトルv2はGV+LV2として表すこと
ができる。
That is, in the three-dimensional part image, the global parallax vector represents the parallax of one predetermined block,
The local parallax vector is the parallax of the other blocks minus the global parallax vector. For example,
The disparity vector v 1 when the global disparity vector GV as shown in FIG. 5, a disparity vector v 2 global disparity vector GV minus ones local disparity vector LV 2 from
Therefore, the parallax vector v 2 can be expressed as GV + LV 2 .

【0032】よって、k(k=1,2,…)本の視差ベ
クトルは1本のグローバル視差ベクトルとk−1本のロ
ーカル視差ベクトルで表すことができる。このときグロ
ーバル視差ベクトルは3次元空間における立体部品画像
の奥行き(存在位置)に対応し、ローカル視差ベクトル
は立体部品画像内での局所的な奥行き分布(立体形状)
に対応する。
Therefore, k (k = 1, 2, ...) Parallax vectors can be represented by one global parallax vector and k−1 local parallax vectors. At this time, the global parallax vector corresponds to the depth (location) of the three-dimensional component image in the three-dimensional space, and the local parallax vector is the local depth distribution (three-dimensional shape) in the three-dimensional component image.
Corresponding to

【0033】このとき、全ての視差ベクトルの平均をグ
ローバル視差ベクトルとすることによって、ローカル視
差ベクトルの情報量を低減することができる。また最初
に求めた視差ベクトルをグローバル視差ベクトルとして
もよく、これによりグローバル視差ベクトルを選択する
際の計算量が低減される。さらに視差ベクトルの大きさ
をヒストグラムにして、最も発生頻度の多い視差ベクト
ルをグローバル視差ベクトルとすることによって、3次
元空間における立体部品画像の存在位置を適切に表現す
ることができる。
At this time, the amount of information of the local parallax vector can be reduced by setting the average of all parallax vectors as the global parallax vector. Also, the parallax vector obtained first may be the global parallax vector, and this reduces the amount of calculation when selecting the global parallax vector. Further, the magnitude of the parallax vector is set to a histogram, and the parallax vector that is most frequently generated is set to the global parallax vector, so that the existing position of the three-dimensional component image in the three-dimensional space can be appropriately expressed.

【0034】一般的に視差ベクトルをk本もつことに比
べ、グローバル視差ベクトルを1本と、値の小さなk−
1本のローカル視差ベクトルをもつ方が視差ベクトルの
情報量を低減することができる。
Generally, in comparison with having k disparity vectors, one global disparity vector and k- having a small value are used.
Having one local parallax vector can reduce the amount of information of the parallax vector.

【0035】また立体画像において、立体画像内の隣接
ブロック間における視差量の変化は少ないが、立体画像
内に複数の物体が存在し、それらの物体が部品化されて
いない場合、異なる物体が重なり合う部分における視差
は急激に変化することがある。本発明では立体部品画像
を用いて部品毎に符号化を行うため、1つの立体部品画
像内においてはこのような視差の急激な変化は起こらな
い。よって隣合うブロックのローカル視差ベクトルで差
分をとることにより、ローカル視差ベクトルの情報量を
さらに削減することができる。
In the stereoscopic image, the change in parallax amount between adjacent blocks in the stereoscopic image is small, but when there are a plurality of objects in the stereoscopic image and these objects are not made into parts, different objects overlap each other. The parallax in a part may change rapidly. In the present invention, since each component is encoded using the three-dimensional component image, such a rapid change in parallax does not occur within one three-dimensional component image. Therefore, the information amount of the local parallax vector can be further reduced by taking the difference between the local parallax vectors of the adjacent blocks.

【0036】これらのベクトルは図1の可変長符号化部
10に伝送される。減算器18で、右目用画像VOP21
と視差補償された画像との差分がとられ、変換部19と
量子化部20を通り、可変長符号化部10に伝送され
る。以下、次の入力に対して、この繰り返しで符号化さ
れる。他の立体部品画像についても同様の方式で符号化
される。可変長符号化部10に伝送されたデータはそこ
で可変長符号化され、多重化部21で多重化される。
These vectors are transmitted to the variable length coding unit 10 in FIG. In the subtractor 18, the right-eye image VOP 21
The difference between the image and the parallax-compensated image is obtained, and is transmitted to the variable length encoding unit 10 through the conversion unit 19 and the quantization unit 20. Hereinafter, the following input is repeatedly encoded. Other stereoscopic component images are also encoded in the same manner. The data transmitted to the variable length coding unit 10 is variable length coded there, and multiplexed by the multiplexing unit 21.

【0037】ここでは1つの背景画像とn個の立体部品
画像を符号化したが、背景画像は1つに限らず複数でも
構わない。また図3において、時間方向にはグローバル
視差ベクトルはそれほど急激に変わらないので、現在の
グローバル視差ベクトル(例えば左目用画像45と右目
用画像46で求められたグローバル視差ベクトル)と1
フレームあるいはフィールド前のグローバル視差ベクト
ル(例えば左目用画像43と右目用画像44で求められ
たグローバル視差ベクトル)の差分をとることによりグ
ローバル視差ベクトルの情報量を削減することができ
る。
Although one background image and n three-dimensional component images are encoded here, the number of background images is not limited to one and may be plural. Further, in FIG. 3, since the global parallax vector does not change so drastically in the time direction, the global parallax vector (for example, the global parallax vector obtained by the left-eye image 45 and the right-eye image 46) is set to 1
The information amount of the global parallax vector can be reduced by taking the difference between the global parallax vectors before the frame or field (for example, the global parallax vector obtained by the left-eye image 43 and the right-eye image 44).

【0038】本実施の形態では2眼式の立体部品画像の
符号化について述べたが、多視点立体部品画像において
も同様に符号化できる。
In the present embodiment, the encoding of the two-lens type three-dimensional component image has been described, but the same can be applied to the multi-view three-dimensional component image.

【0039】次に本発明における第2の実施の形態につ
いて説明する。本実施の形態は第1の実施の形態の符号
化装置を、多視点立体画像にも対応できるようにしたも
のである。このとき背景画像は、第1の実施の形態と同
じ方法で符号化する。
Next, a second embodiment of the present invention will be described. In the present embodiment, the encoding device of the first embodiment can be applied to multi-view stereoscopic images. At this time, the background image is encoded by the same method as in the first embodiment.

【0040】図6に本発明の画像符号化装置の第2の実
施の形態を示す。図6における入力画像は、多視点画像
VOPmn(m=1,2,…、n=1,2,…)である。
画像VOP11と画像VOP21は、図1の画像VOP11
画像VOP12のときと同じようにそれぞれ符号化する。
復号された画像VOP21は加算器51から出力されて、
視差補償部53に入力される。さらに画像VOP11と画
像VOP21を用いて求めたグローバル視差ベクトルが、
視差補償部53に入力される。
FIG. 6 shows a second embodiment of the image coding apparatus according to the present invention. The input image in FIG. 6 is a multi-viewpoint image VOP mn (m = 1, 2, ..., N = 1, 2, ...).
The image VOP 11 and the image VOP 21 are coded in the same manner as the image VOP 11 and the image VOP 12 of FIG. 1, respectively.
The decoded image VOP 21 is output from the adder 51,
It is input to the parallax compensation unit 53. Furthermore, the global parallax vector obtained using the image VOP 11 and the image VOP 21 is
It is input to the parallax compensation unit 53.

【0041】視差補償部53では、VOP21の復号画像
を用いて入力画像VOP31の視差補償を行ない、視差ベ
クトルを求める。求めた視差ベクトルと画像VOP11
画像VOP21を用いて求めたグローバル視差ベクトルが
差分器54に入力され、それらの差分がローカル視差ベ
クトルとして出力される。すなわち、ここでは新たにグ
ローバル視差ベクトルを求める必要がない。
The parallax compensating unit 53 performs parallax compensation on the input image VOP 31 using the decoded image of VOP 21 to obtain a parallax vector. The calculated parallax vector and the global parallax vector calculated using the image VOP 11 and the image VOP 21 are input to the differentiator 54, and the difference between them is output as the local parallax vector. That is, here, it is not necessary to obtain a new global parallax vector.

【0042】ここで多視点画像であってもグローバル視
差を共通にできることについて説明する。説明を簡略化
するために3視点をもつ立体部品画像について説明す
る。
The fact that global parallax can be shared even with multi-view images will be described. To simplify the description, a three-dimensional part image having three viewpoints will be described.

【0043】例えば図7に示すように、原点をO1、x
軸を水平方向、z軸を奥行き方向とした座標系をとる。
この座標上にカメラ群Cm(m=1,2,3)をそれぞ
れaの間隔で光軸がz軸と平行になるように、点O
m(m=1,2,3)の位置に配置する。第1の実施の
形態と同様に、カメラは上下方向のズレや歪みがないよ
うに調整されているものとする。
For example, as shown in FIG. 7, the origin is O 1 , x
A coordinate system is used in which the axis is the horizontal direction and the z axis is the depth direction.
On this coordinate, the camera group C m (m = 1, 2, 3) is arranged at a point O so that the optical axis is parallel to the z axis at intervals of a.
It is placed at the position of m (m = 1, 2, 3). Similar to the first embodiment, it is assumed that the camera is adjusted so that there is no vertical displacement or distortion.

【0044】また点A0を立体部品画像obj1の代表点
とし、点A0と点Omを結び、カメラの仮想画像面(カメ
ラにより撮影された画像面を示す)と交差する点をそれ
ぞれAm(m=1,2,3)とする。点Omを通り、z軸
に平行に伸ばした直線がカメラの仮想画像面と交わる点
をそれぞれQm(m=1,2,3)とする。これらの点
m は各カメラによる画像の中心点を表す。
Further, the point A 0 is used as a representative point of the three-dimensional part image obj 1 , and the points A 0 and O m are connected to each other to intersect with the virtual image plane of the camera (indicating the image plane taken by the camera). Let A m (m = 1, 2, 3). Let Q m (m = 1, 2, 3) be the points where straight lines passing through the point O m and extending parallel to the z-axis intersect the virtual image plane of the camera. These points Q m represent the center points of the images by each camera.

【0045】ここでA1、A2、A3のx座標をそれぞれ
1、x2、x3とする。カメラの仮想画像面とx軸は平
行ゆえ、|A12|と|A23|は等しくなる。これと
1<x2<x3より、 x1−x2 = x2−x3 (1) となる。
Here, the x-coordinates of A 1 , A 2 and A 3 are respectively defined as x 1 , x 2 and x 3 . Since the virtual image plane of the camera and the x-axis are parallel, | A 1 A 2 | and | A 2 A 3 | are equal. From this and x 1 <x 2 <x 3 , it becomes x 1 −x 2 = x 2 −x 3 (1).

【0046】また、カメラC1とC2における視差ベクト
ルd1は水平成分しかもたないことから、1次元ベクト
ルであり、ベクトルQ11からベクトルQ22を引いた
ものとなるので、 d1 = x1 − (x2−a1) (2) となる。
Since the parallax vector d 1 in the cameras C 1 and C 2 has only a horizontal component, it is a one-dimensional vector, and is the vector Q 1 A 1 minus the vector Q 2 A 2 . d 1 = x 1 - (x 2 -a 1) becomes (2).

【0047】次にカメラC2とC3における視差ベクトル
2は、ベクトルQ33からベクトルQ12を引いたも
のとなり、 d2 = x2 − (x3−a) (3) となる。
Next, the parallax vector d 2 in the cameras C 2 and C 3 is the vector Q 3 A 3 minus the vector Q 1 A 2 , and d 2 = x 2 − (x 3 −a) (3) Becomes

【0048】よって式(1)〜式(3)より、 d1 = d2 (4) となる。このように隣合うカメラ間の代表点における視
差ベクトルは全て等しくなる。このことは3視点の立体
画像に限らず、3以外の視点数の場合も同様である。
Therefore, from equations (1) to (3), d 1 = d 2 (4) In this way, the parallax vectors at the representative points between adjacent cameras are all equal. This is not limited to the three-viewpoint stereoscopic image, and the same applies to the case of the number of viewpoints other than three.

【0049】従って本方式では、グローバル視差ベクト
ルは代表点における視差ベクトルとみなすことができる
ので、視点数がいくつであってもグローバル視差ベクト
ルは1つもてばよく、多視点画像において視差ベクトル
を求める際の計算量及び、視差ベクトル自体の情報量が
削減できる。
Therefore, in this method, since the global parallax vector can be regarded as the parallax vector at the representative point, it is sufficient to have one global parallax vector regardless of the number of viewpoints, and the parallax vector is obtained in a multi-viewpoint image. The amount of calculation at the time and the amount of information of the disparity vector itself can be reduced.

【0050】ゆえに、図6において、差分器54から出
力される値は、視差補償部53から出力された視差ベク
トルからVOP11とVOP21の間で求めたグローバル視
差ベクトルを引いたローカル視差ベクトルとすることが
できる。図6における他のVOPについても同様に符号
化される。
Therefore, in FIG. 6, the value output from the differentiator 54 is the local parallax vector obtained by subtracting the global parallax vector obtained between VOP 11 and VOP 21 from the parallax vector output from the parallax compensator 53. can do. The other VOPs in FIG. 6 are similarly coded.

【0051】次に本発明における第3の実施の形態につ
いて説明する。
Next, a third embodiment of the present invention will be described.

【0052】図8に本実施の形態の画像復号装置を示
す。本実施の形態の復号装置は図1の符号化装置を用い
て符号化されたデータを復号するためのものである。背
景画像と立体部品画像obj1を構成する左目用画像V
OP11の復号方法は、一般的なブロックマッチングを用
いた動き補償予測復号と同じ方法である。立体部品画像
obj1を構成する右目用画像VOP21に対しては、左
目用画像VOP11の復号画像を用いて視差補償を行な
い、復号する。
FIG. 8 shows an image decoding apparatus according to this embodiment. The decoding device of the present embodiment is for decoding data encoded using the encoding device of FIG. Image V for the left eye that constitutes the background image and the three-dimensional component image obj 1.
The decoding method of OP 11 is the same as the motion compensation prediction decoding using general block matching. For the right-eye image VOP 21 that forms the three-dimensional component image obj 1 , parallax compensation is performed using the decoded image of the left-eye image VOP 11 to perform decoding.

【0053】グローバル視差ベクトルとローカル視差ベ
クトルは視差ベクトル合成器81に入力され、通常の視
差ベクトルが合成される。画像編集部80には、パラメ
ータ入力部82より部品画像を画像面に対して平行に動
かすときに用いる移動量と、部品画像を画像面に対して
垂直に動かすときに用いるグローバル視差ベクトルの変
化量が編集用の値として入力される。画像編集部80に
は、復号された立体部品画像とグローバル視差ベクト
ル、及びグローバル視差ベクトルをもつ代表ブロックの
位置情報も入力される。画像編集部80は、これらの入
力値を用いて立体部品画像の編集を行う。復号された背
景画像と編集後の部品画像は画像合成部83で1つの画
像に合成される。
The global parallax vector and the local parallax vector are input to the parallax vector combiner 81, and normal parallax vectors are combined. The image editing unit 80 uses the parameter input unit 82 to move the component image in parallel to the image plane and the amount of change in the global parallax vector used to move the component image vertically to the image plane. Is entered as a value for editing. The position information of the decoded three-dimensional component image, the global parallax vector, and the representative block having the global parallax vector is also input to the image editing unit 80. The image editing unit 80 edits the three-dimensional part image using these input values. The decoded background image and the edited component image are combined by the image combining unit 83 into one image.

【0054】グローバル視差ベクトルは3次元空間にお
ける立体部品画像の奥行き(存在位置)に対応するた
め、より大きいグローバル視差ベクトルをもつ部品画像
は奥行き方向に関してカメラにより近い位置に存在す
る。画像編集部80では、そのグローバル視差ベクトル
が、小さい立体部品画像から順に出力される。また、画
像合成部83には、まず背景画像が入力され、順次入力
された立体部品画像を背景画像上に上書きする。これに
より、最初に入力した左右の各画像の上に、複数の部品
画像が重なる場合は、奥行き方向のより手前の部品画像
が上に書かれることになる。このようにグローバル視差
ベクトルを用いることにより、立体部品画像を合成する
際に部品画像の重なりを正しく表現することができる。
Since the global parallax vector corresponds to the depth (position of existence) of the three-dimensional part image in the three-dimensional space, the part image having a larger global parallax vector exists at a position closer to the camera in the depth direction. In the image editing unit 80, the global parallax vector is output in order from the smallest stereoscopic component image. A background image is first input to the image compositing unit 83, and the sequentially input three-dimensional component images are overwritten on the background image. As a result, when a plurality of component images are overlaid on the left and right images that are initially input, the component image that is closer to the front in the depth direction is written above. By using the global parallax vector in this way, it is possible to correctly represent the overlapping of the component images when synthesizing the three-dimensional component images.

【0055】まず、x方向の移動パラメータを入力する
ことにより、立体部品画像を水平方向に平行移動する場
合について説明する。
First, the case where the three-dimensional component image is moved in parallel in the horizontal direction by inputting the movement parameter in the x direction will be described.

【0056】図9において、原点をO1、水平方向をx
軸、奥行き方向をz軸とする座標系をとる。この座標上
にカメラLとRをそれぞれaの間隔で光軸がz軸と平行
になるように、点Om(m=1,2)の位置に配置す
る。また点A0(xA,zA)を立体部品画像obj1の代
表点とし、点A0と点Omを結び、カメラの仮想画像面と
交差する点をそれぞれAm(m=1,2)とする。
In FIG. 9, the origin is O 1 , and the horizontal direction is x.
Take a coordinate system with the axis and the depth direction as the z-axis. On this coordinate, the cameras L and R are arranged at the position of the point O m (m = 1, 2) so that the optical axis is parallel to the z axis at intervals of a. Further, the point A 0 (x A , z A ) is used as a representative point of the three-dimensional component image obj 1 , the point A 0 and the point O m are connected, and the points intersecting the virtual image plane of the camera are respectively Am (m = 1, m = 1, 2).

【0057】点Omを通り、z軸に平行に伸ばした直線
がカメラの仮想画像面と交わる点をそれぞれQm(m=
1,2)とする。これらの点Qmは各カメラによる画像
の中心点を表す。さらにカメラの仮想画像面からx軸ま
での距離をwとし、z=zA平面がカメラLの光軸と交
わる点をS1、カメラRの光軸と交わる点をS2(a,z
a)とする。ここでA1、A2の座標をそれぞれ(xa1
w)、(xa2,w)とすると、1次元ベクトルQ11
22はそれぞれxa1、xa2−aとなる。ここで、△O
101∽△O111かつ△O202∽△O222
り、 zA/w = xA/xa1 = (xA−a)/(xa2−a) (5) という関係があることから、点A0のx座標xAは、 xA = a×xa1/(xa1−xa2+a) = a×xa1/dA (6) と表される。dAは物体100のもつグローバル視差ベ
クトルを表し、 dA = xa1 −(xa2−a) (7) である。
A point where a straight line passing through the point O m and extending parallel to the z axis intersects with the virtual image plane of the camera is Q m (m = m).
1, 2). These points Q m represent the center points of the images by each camera. Further, the distance from the virtual image plane of the camera to the x-axis is w, the point where the z = z A plane intersects the optical axis of the camera L is S 1 , and the point where the plane intersecting the optical axis of the camera R is S 2 (a, z
a ). Here, the coordinates of A 1 and A 2 are (x a1 ,
w), (x a2 , w), the one-dimensional vector Q 1 A 1 ,
Q 2 A 2 becomes x a1 and x a2- a, respectively. Where △ O
From 1 A 0 S 1 ∽ΔO 1 A 1 Q 1 and ΔO 2 A 0 S 2 ∽ΔO 2 A 2 Q 2 , z A / w = x A / x a1 = (x A −a) / ( x a2 −a) (5), the x coordinate x A of the point A 0 is x A = a × x a1 / (x a1 −x a2 + a) = a × x a1 / d A ( 6) is represented. d A represents the global disparity vector of the object 100, and d A = x a1 − (x a2 −a) (7).

【0058】ここで、左画像面上の立体部品画像のx方
向移動量を、平行方向の移動パラメータPxで表したと
する。パラメータPxを入力とすることにより、物体1
00は物体101の位置に平行移動したとすると、物体
100の代表点A0(xA,zA)は点B0(xB,zA
に、点A1は点B1(xa1+Px,w)に平行移動する。
ここで物体101の代表点B0と点O2を結んだ線分がカ
メラの仮想画像面と交わる点を点B2(xb2,w)とす
ると、△O120∽△A120かつ△O120∽△
120より、 zA/(zA−w) = a/(xa2−xa1) = a/(xb2−xa1−Px) (8) という関係があることから、物体100の代表点A0
物体101の代表点B0に移動したときの右画像面上に
おける移動量xb2−xa2は、 xb2−xa2=Px (9) となる。
Here, it is assumed that the moving amount in the x direction of the three-dimensional component image on the left image surface is represented by the moving parameter P x in the parallel direction. By inputting the parameter P x , the object 1
If 00 is translated to the position of the object 101, the representative point A 0 (x A , z A ) of the object 100 is the point B 0 (x B , z A ).
Then, the point A 1 is translated to the point B 1 (x a1 + P x , w).
Assuming that the point where the line segment connecting the representative point B 0 and the point O 2 of the object 101 intersects the virtual image plane of the camera is point B 2 (x b2 , w), ΔO 1 O 2 A 0 ∽ΔA 1 A 2 A 0 and △ O 1 O 2 B 0 ∽ △
From B 1 B 2 B 0 , since there is a relation of z A / (z A −w) = a / (x a2 −x a1 ) = a / (x b2 −x a1 −P x ) (8), movement amount x b2 -x a2 in the right image plane when the representative point a 0 of the object 100 has moved to the representative points B 0 of the object 101 is a x b2 -x a2 = P x ( 9).

【0059】よって、物体100の代表点A0 が物体1
01の代表点B0に移動したときの左右の両画像面上に
おける移動量はPxに等しい。このとき、式(6)、式
(7)と同様にして、点B0のx座標xBは、 xB = a×(xa1+Px)/dB (10) となる。
Therefore, the representative point A 0 of the object 100 is the object 1
The amount of movement on the left and right image planes when moving to the representative point B 0 of 01 is equal to P x . At this time, similarly to the equations (6) and (7), the x coordinate x B of the point B 0 is x B = a × (x a1 + P x ) / d B (10).

【0060】dBは物体101のもつグローバル視差ベ
クトルを表し、 dB = (xa1+Px)−(xb2−a) (11) である。
[0060] d B represents a global disparity vector with the object 101, d B = (x a1 + P x) - a (x b2 -a) (11) .

【0061】式(7)、式(9)、式(11)より、 dA = dB (12) となり、グローバル視差ベクトルdAとdBは等しくな
る。
From the equations (7), (9) and (11), d A = d B (12) and the global parallax vectors d A and d B are equal.

【0062】このとき式(6)、式(10)、式(1
2)より、 xB−xA = Px/xa1×xA (13) となる。よって物体を水平方向に移動する際は、以下の
1)、2)の手順で行なえばよい。
At this time, equations (6), (10), and (1
Than 2), and x B -x A = P x / x a1 × x A (13). Therefore, when moving the object in the horizontal direction, the following steps 1) and 2) may be performed.

【0063】1)x方向の移動パラメータPxを入力
し、左画像上で物体100の代表点A0のx座標x
a1を、左画像上の代表点B0のx座標xa1+Pxの位置に
平行に動かす。
1) Input the movement parameter P x in the x direction, and the x coordinate x of the representative point A 0 of the object 100 on the left image.
a1 is moved in parallel to the position of the x coordinate x a1 + P x of the representative point B 0 on the left image.

【0064】2)右画像上で、物体100の代表点A0
のx座標xa2を、左画像上の代表点B0のx座標xa2
xの位置に平行に動かす。
2) Representative point A 0 of the object 100 on the right image
X coordinate x a2 of the representative point B 0 on the left image x a2 +
Move parallel to P x position.

【0065】この結果、物体100は物体101の位置
に移動し、このときの3次元空間内での移動量は式(1
3)よりPx/xa1×xAとなる。
As a result, the object 100 moves to the position of the object 101, and the moving amount in the three-dimensional space at this time is calculated by the equation (1
From 3), P x / x a1 × x A.

【0066】次に、z方向の移動パラメータを入力する
ことにより、立体部品画像を奥行き方向(画像面に対し
て垂直方向)に移動する場合について図10を用いて説
明する。ただし、図10で用いる座標系及び物体100
の配置は図9と同じである。z方向の移動パラメータP
zによって、移動後のカメラと物体の距離が移動前の距
離のPz倍になるとする。図10において、パラメータ
zを入力し、物体100が点O1と点A0を通る直線上
にある物体102の位置に移動したとすると、物体10
0の代表点A0(xA,zA)は点C0(xC,zC)に移動
するが、点A1は動かない。このとき、 zC = Pz×zA (14) となる。点O2と点C0を結んだ線分がカメラの仮想画像
面と交わる点をC2、z=zCの平面とz軸が交わる点を
1とする。C2の座標をそれぞれ(xc2,w)とし、物
体100の点A0を点O1と点A0を通る直線上で移動し
た後の点C0のグローバル視差ベクトルをdCとする。
Next, a case where the three-dimensional component image is moved in the depth direction (direction perpendicular to the image plane) by inputting the movement parameter in the z direction will be described with reference to FIG. However, the coordinate system and the object 100 used in FIG.
Is the same as in FIG. Movement parameter P in z direction
It is assumed that the distance between the camera and the object after the movement is P z times the distance before the movement due to z . In FIG. 10, when the parameter P z is input and the object 100 moves to the position of the object 102 on the straight line passing through the points O 1 and A 0 , the object 10
The representative point A 0 (x A , z A ) of 0 moves to the point C 0 (x C , z C ) but the point A 1 does not move. At this time, z C = P z × z A (14) The point where the line segment connecting the points O 2 and C 0 intersects the virtual image plane of the camera is C 2 , and the point where the z = z C plane intersects the z axis is T 1 . The coordinates of C 2 are respectively (x c2 , w), and the global parallax vector of the point C 0 after moving the point A 0 of the object 100 on a straight line passing through the points O 1 and A 0 is d C.

【0067】またxCは、式(6)を求めるときと同様
にして、 xC = a×xa1/dC (15) となる。ここに dC = (xa1 − xc2 + a) (16) である。△O101∽△O101より、 xC/xA = zC/zA (17) という関係があることから、式(17)に式(6)と式
(15)を代入してzCを求めると、 zC = (dA/dC)×zA (18) となる。
Further, x C becomes x C = a × x a1 / d C (15) in the same manner as in the case of obtaining the equation (6). Here, d C = (x a1 −x c2 + a) (16). From ΔO 1 A 0 S 1 ∽ ΔO 1 C 0 T 1 , there is a relation of x C / x A = z C / z A (17). Therefore, in equation (17), equation (6) and equation (6) 15) is substituted to obtain z C , z C = (d A / d C ) × z A (18)

【0068】よって式(14)と式(17)よりグロー
バル視差ベクトルdC、点C0のx座標xC及び点C2の座
標xc2は、 dC = dA/Pz (19) xC = Pz×a×xa1/dA (20) xc2 = xa1+a − dA/Pz (21) となる。よって物体100を物体102に動かす場合、
左画像上の物体100の代表点A1は動かさず、右画像
上の点A2はxc2−xa2だけ動かせばよい。
Therefore, from the equations (14) and (17), the global parallax vector d C , the x coordinate x C of the point C 0 and the coordinate x c2 of the point C 2 are: d C = d A / P z (19) x C = P z × a × x a1 / d A (20) x c2 = x a1 + a − d A / P z (21). Therefore, when moving the object 100 to the object 102,
The representative point A 1 of the object 100 on the left image is not moved, and the point A 2 on the right image is moved by x c2 −x a2 .

【0069】ここで物体102を−(xC−xA)移動さ
せ、それを物体103とする。物体102の代表点C0
の移動した点を物体103の代表点D0とする。さらに
点D0とO1を結んだ直線がカメラの仮想画像面と交わる
点をD1(xd1,w)とする。点D1のx座標xd1は、式
(6)、式(19)より xd1 = xa1/Pz (22) となる。よって物体102を物体103に動かす場合、
左画像上では点B1を、右画像上では点B2をそれぞれx
a1−xd1だけ動かせばよい。従って、物体100を奥行
き方向(物体103の位置)に移動する場合、以下の
3)、4)の手順で行なう。
Here, the object 102 is moved by − (x C −x A ) to be an object 103. Representative point C 0 of the object 102
The moved point is defined as the representative point D 0 of the object 103. Further, the point where the straight line connecting the points D 0 and O 1 intersects the virtual image plane of the camera is D 1 (x d1 , w). The x-coordinate x d1 of the point D 1 is expressed by the formula (6) and the formula (19) as follows: x d1 = x a1 / P z (22) Therefore, when moving the object 102 to the object 103,
Point B 1 on the left image and point B 2 on the right image x
Only move a1- x d1 . Therefore, when the object 100 is moved in the depth direction (the position of the object 103), the following steps 3) and 4) are performed.

【0070】3)z方向の移動パラメータPzを入力
し、式(19)によりグローバル視差dCを求め、立体
部品画像の左画像上の点A1を水平方向に(xd1
a1)動かす。
3) The movement parameter P z in the z direction is input, the global parallax d C is calculated by the equation (19), and the point A1 on the left image of the three-dimensional component image is horizontally (x d1
x a1 ) Move.

【0071】4)式(21)及び式(22)より、xc2
とxd1の値を求め、立体部品画像の右画像上の点A2
(xc2−xa2+xa1−xd1)動かす。
4) From the equations (21) and (22), x c2
And the values of x d1 are obtained, and the point A 2 on the right image of the three-dimensional part image is moved (x c2 −x a2 + x a1 −x d1 ).

【0072】ゆえに視差ベクトルをグローバル視差ベク
トルとローカル視差ベクトルの2段階にしてもつことに
より、z方向の移動パラメータPzを入力し、グローバ
ル視差ベクトルを変化させて、個々の部品画像の奥行き
方向の位置を簡単に変えることができる。また、水平方
向の移動(手順1),2))と奥行き方向の移動(手順
3),4))を組み合わせることにより、3次元空間内
の任意の位置に物体を移動させることができる。
Therefore, by changing the parallax vector to two levels, that is, the global parallax vector and the local parallax vector, the movement parameter P z in the z direction is input, the global parallax vector is changed, and the parallax vector in the depth direction of each component image is changed. The position can be changed easily. Further, by combining the movement in the horizontal direction (procedures 1 and 2)) and the movement in the depth direction (procedures 3) and 4)), the object can be moved to an arbitrary position in the three-dimensional space.

【0073】なお上下方向の移動に関しては視差は関係
がないので、単に画面上で平行移動すればよい。
Since parallax is not related to the movement in the vertical direction, it may be simply moved in parallel on the screen.

【0074】また本実施の形態では2眼式の立体部品画
像を用いたが、多視点立体部品画像においても同様であ
る。
Further, in the present embodiment, the two-lens type three-dimensional component image is used, but the same applies to the multi-view three-dimensional component image.

【0075】[0075]

【発明の効果】以上説明したように本発明の符号化装置
によれば、立体部品画像を符号化するときに用いるすべ
ての視差ベクトルに対して、そのうちの1本の視差ベク
トルをグローバル視差ベクトル(3次元空間における立
体部品画像の奥行きに対応)とし、このグローバル視差
ベクトルと他の視差ベクトルとの差分をとったものをロ
ーカル視差ベクトル(立体部品画像内での局所的な奥行
き分布に対応)として、視差ベクトルを2つに分けても
つことによって、視差ベクトルの情報量を低減すること
ができ、符号化効率を向上することができる。本発明に
おいては、グローバル視差ベクトルとローカル視差ベク
トルの2種類のベクトルを用いるが、これらを求める際
の検索は1回でよいので、2回検索する場合と比べて計
算量を削減することができる。
As described above, according to the coding apparatus of the present invention, for all parallax vectors used when coding a three-dimensional component image, one of the parallax vectors is the global parallax vector ( (Corresponding to the depth of the stereoscopic component image in the three-dimensional space), and the difference between this global parallax vector and another parallax vector is taken as the local parallax vector (corresponding to the local depth distribution in the stereoscopic component image). Since the disparity vector is divided into two, the information amount of the disparity vector can be reduced and the coding efficiency can be improved. In the present invention, two types of vectors, a global parallax vector and a local parallax vector, are used. However, since the search for obtaining these can be performed only once, the calculation amount can be reduced as compared with the case of performing the search twice. .

【0076】本発明の符号化装置によれば、立体画像を
背景画像と立体部品画像に分けて符号化するとき、全て
の視点の画像に対して視差のない部分を1つの背景画像
として符号化することによって、背景画像の情報量が低
減でき、符号化の効率を向上することができる。
According to the encoding device of the present invention, when a stereoscopic image is divided into a background image and a stereoscopic component image and encoded, a portion having no parallax with respect to images of all viewpoints is encoded as one background image. By doing so, the amount of information of the background image can be reduced, and the coding efficiency can be improved.

【0077】本発明の符号化装置によれば、立体画像か
ら切り出した立体部品画像と背景画像に分けて符号化を
行なうことによって、立体画像内において急激な視差の
変化が生じることがなく、マッチングするときの信頼度
が向上し、また隣合う位置のローカル視差ベクトルの差
分をとることによりローカル視差ベクトルの情報量を低
減する場合でも、絶対量の大きいものが発生しない。
According to the encoding apparatus of the present invention, by performing the encoding separately for the three-dimensional component image cut out from the three-dimensional image and the background image, a sudden change in parallax does not occur in the three-dimensional image, and matching is performed. Reliability is improved, and even when the information amount of the local parallax vector is reduced by taking the difference between the local parallax vectors at the adjacent positions, a large absolute amount does not occur.

【0078】本発明の符号化装置によれば、立体部品画
像内の全ての視差ベクトルの平均をグローバル視差ベク
トルとすることによって、ローカル視差ベクトルの情報
量を低減することができる。
According to the encoding apparatus of the present invention, the information amount of the local parallax vector can be reduced by setting the average of all parallax vectors in the three-dimensional component image as the global parallax vector.

【0079】本発明の符号化装置によれば、立体部品画
像内において最初に求めた視差ベクトルをグローバル視
差ベクトルとすることによって、グローバル視差ベクト
ルを選択する際の計算量が低減される。
According to the encoding apparatus of the present invention, the amount of calculation for selecting a global parallax vector is reduced by using the parallax vector first obtained in the three-dimensional component image as the global parallax vector.

【0080】本発明の符号化装置によれば、立体部品画
像内における視差ベクトルの大きさをヒストグラムにし
て、最も発生頻度の多い視差ベクトルをグローバル視差
ベクトルとすることによって、3次元空間における立体
部品画像の奥行きを適切に表現することができる。
According to the encoding apparatus of the present invention, the size of the disparity vector in the three-dimensional part image is set as a histogram, and the disparity vector with the highest frequency of occurrence is set as the global disparity vector. The depth of the image can be appropriately expressed.

【0081】本発明の符号化装置によれば、現フレーム
あるいはフィールドのグローバル視差ベクトルと1つ前
のフレームあるいはフィールドのグローバル視差ベクト
ルの差分をとることによって、グローバル視差ベクトル
の情報量を減らすことができる。
According to the encoding apparatus of the present invention, the information amount of the global parallax vector can be reduced by taking the difference between the global parallax vector of the current frame or field and the global parallax vector of the immediately preceding frame or field. it can.

【0082】本発明の符号化装置によれば、空間方向に
関して、1つの多視点立体部品画像に対してグローバル
視差ベクトルは1つもてばよいので、グローバル視差ベ
クトルの計算量及び情報量が低減でき、符号化の効率を
向上することができる。
According to the encoding device of the present invention, since one global parallax vector is required for one multi-view stereoscopic component image in the spatial direction, the calculation amount and information amount of the global parallax vector can be reduced. , The encoding efficiency can be improved.

【0083】本発明の復号装置において、多視点の各画
像を合成する際に複数の部品画像が重なる部分では、よ
り大きいグローバル視差をもつ部品画像を上書きするこ
とによって、重なりが正しく表現された多視点立体画像
を復号することができる。
In the decoding apparatus of the present invention, when a plurality of component images overlap each other when synthesizing images of multiple viewpoints, a component image having a larger global parallax is overwritten so that the overlap is correctly represented. A viewpoint stereoscopic image can be decoded.

【0084】本発明の復号装置において、奥行き方向の
移動パラメータを入力し、立体部品画像のグローバル視
差ベクトルの値を変えることによって、簡単に任意の奥
行きをもつ立体部品画像を復号することができる。
In the decoding apparatus of the present invention, a movement parameter in the depth direction is input and the value of the global parallax vector of the three-dimensional component image is changed, so that the three-dimensional component image having an arbitrary depth can be easily decoded.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施の形態であり、背景画像と複数
の立体部品画像を符号化する符号化装置の構成図であ
る。
FIG. 1 is a block diagram of an encoding device that encodes a background image and a plurality of three-dimensional component images, which is an embodiment of the present invention.

【図2】カメラによる入力画像から立体部品画像を切り
出すことを説明する図である。
FIG. 2 is a diagram illustrating cutting out a three-dimensional component image from an image input by a camera.

【図3】立体部品画像の符号化を行なう順序を説明する
図である。
FIG. 3 is a diagram illustrating an order in which a three-dimensional component image is encoded.

【図4】視差ベクトルの算出例を説明する図である。FIG. 4 is a diagram illustrating an example of calculating a disparity vector.

【図5】視差ベクトルをグローバル視差ベクトルとロー
カル視差ベクトルで表すことを説明する図である。
[Fig. 5] Fig. 5 is a diagram illustrating that a parallax vector is represented by a global parallax vector and a local parallax vector.

【図6】本発明の別の一実施の形態であり、多視点立体
部品画像を符号化するときの符号化装置の構成図であ
る。
[Fig. 6] Fig. 6 is a configuration diagram of an encoding device when encoding a multi-view stereoscopic component image, which is another embodiment of the present invention.

【図7】多視点立体部品画像を符号化する際に、空間方
向に対しグローバル視差ベクトルを共通にもつことを説
明する図である。
[Fig. 7] Fig. 7 is a diagram for describing that a global parallax vector is commonly used in a spatial direction when encoding a multi-view stereoscopic component image.

【図8】本発明の一実施の形態であり、背景画像と複数
の立体部品画像を復号する復号装置の構成図である。
FIG. 8 is a configuration diagram of a decoding device that decodes a background image and a plurality of three-dimensional component images, which is an embodiment of the present invention.

【図9】立体部品画像の平行移動を説明する図である。FIG. 9 is a diagram illustrating parallel movement of a three-dimensional component image.

【図10】立体部品画像の奥行き方向の移動を説明する
図である。
FIG. 10 is a diagram illustrating movement of a three-dimensional component image in the depth direction.

【図11】多視点画像の圧縮に関する従来例の説明図で
ある。
FIG. 11 is an explanatory diagram of a conventional example regarding compression of a multi-viewpoint image.

【図12】2段階の動きベクトルを求める従来例の説明
図である。
FIG. 12 is an explanatory diagram of a conventional example for obtaining a two-step motion vector.

【符号の説明】[Explanation of symbols]

1 背景画像 2 原画像 3 切り出し装置 43,44,45,46 立体部品画像 5 画像入力部 6 動き補償部 7,18 減算器 8,19 変換部 9,20 量子化部 10 可変長符号化部 11 逆量子化部 12 逆変換部 13,15,51 加算器 14 フレームメモリ 16,53 視差補償部 17,52 視差ベクトル分割器 21 多重化部 31 左目用立体部品画像 32 右目用立体部品画像 33 合成画像 54 差分器 60 比較器 70 大ブロック 71 小ブロック 80 編集部 81 視差ベクトル合成器 82 外部入力部 83 画像合成部 100,101,102,103 物体 1 Background Image 2 Original Image 3 Clipping Device 43, 44, 45, 46 Three-dimensional Component Image 5 Image Input Unit 6 Motion Compensation Unit 7, 18 Subtractor 8, 19 Transforming Unit 9, 20 Quantizing Unit 10 Variable Length Encoding Unit 11 Inverse quantizer 12 Inverse transformer 13, 15, 51 Adder 14 Frame memory 16, 53 Parallax compensator 17, 52 Parallax vector divider 21 Multiplexer 31 Left-eye stereoscopic component image 32 Right-eye stereoscopic component image 33 Composite image 54 difference device 60 comparator 70 large block 71 small block 80 editing unit 81 disparity vector combiner 82 external input unit 83 image combining unit 100, 101, 102, 103 object

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 多視点立体画像を少なくとも1つの視差
のある部品画像と、少なくとも1つの視差のない背景画
像に分けて入力する入力手段と、部品画像のフレームあ
るいはフィールド間の動き量を用いて動き補償予測を行
う動き補償手段と、部品画像のフレームあるいはフィー
ルド間の視差量を用いて視差補償予測を行う視差補償手
段と、視差ベクトル分割手段とを各部品画像毎に備える
多視点符号化装置であって、前記視差ベクトル分割手段
は、前記視差補償手段で求められた視差ベクトルのうち
の1つをグローバル視差ベクトルとし、残りの視差ベク
トルからグローバル視差ベクトルを引いたものをローカ
ル視差ベクトルとして出力することを特徴とする多視点
画像符号化装置。
1. A multi-view stereoscopic image is divided into at least one parallax image having parallax and at least one background image having no parallax, input means is used, and a motion amount between frames or fields of the component image is used. A multi-view coding apparatus including, for each component image, a motion compensation unit that performs motion compensation prediction, a parallax compensation unit that performs parallax compensation prediction using a parallax amount between frames or fields of component images, and a parallax vector division unit. The parallax vector dividing means outputs one of the parallax vectors obtained by the parallax compensating means as a global parallax vector, and subtracts the global parallax vector from the remaining parallax vectors as a local parallax vector. A multi-view image encoding device characterized by:
【請求項2】 3視点以上の多視点立体画像を少なくと
も1つの視差のある部品画像と、少なくとも1つの視差
のない背景画像に分けて入力する入力手段と、部品画像
のフレームあるいはフィールド間の動き量を用いて動き
補償予測を行う動き補償手段と、部品画像のフレームあ
るいはフィールド間の視差量を用いて視差補償予測を行
う視差補償手段とを各部品画像毎に備えるとともに、各
部品画像毎に1つの視差ベクトル分割手段と少なくとも
1つの差分器を備える多視点符号化装置であって、前記
視差ベクトル分割手段は、特定の視点間において求めら
れた視差ベクトルのうちの1つをグローバル視差ベクト
ルとし、残りの視差ベクトルからグローバル視差ベクト
ルを引いたものをローカル視差ベクトルとして出力する
とともに、前記差分器は、他の視点間において求められ
たすべての視差ベクトルと前記グローバル視差ベクトル
との差分を出力することを特徴とする多視点画像符号化
装置。
2. A multi-view stereoscopic image of three or more viewpoints, which is divided into at least one component image having parallax and at least one background image having no parallax, and inputting means, and movement between frames or fields of component images. For each component image, a motion compensation unit that performs motion compensation prediction using the amount and a parallax compensation unit that performs parallax compensation prediction using the parallax amount between the frames or fields of the component images are provided for each component image. A multi-viewpoint encoding device including one disparity vector division unit and at least one difference unit, wherein the disparity vector division unit sets one of the disparity vectors obtained between specific viewpoints as a global disparity vector. , The remaining disparity vector minus the global disparity vector is output as the local disparity vector, and the difference A multi-view image coding device, wherein the device outputs the differences between all the parallax vectors obtained between other viewpoints and the global parallax vector.
【請求項3】 請求項1または2記載の視差ベクトル分
割手段は、グローバル視差ベクトルとして立体部品画像
内の全ての視差ベクトルの平均を出力することを特徴と
した多視点画像符号化装置。
3. The multi-view image encoding device according to claim 1, wherein the parallax vector dividing unit outputs the average of all parallax vectors in the stereoscopic component image as a global parallax vector.
【請求項4】 請求項1または2記載の視差ベクトル分
割手段は、グローバル視差ベクトルとして立体部品画像
内で最初に求めた視差ベクトルを出力することを特徴と
した多視点画像符号化装置。
4. The multi-viewpoint image coding device according to claim 1, wherein the parallax vector dividing unit outputs the parallax vector first obtained in the three-dimensional component image as a global parallax vector.
【請求項5】 請求項1または2記載の視差ベクトル分
割手段は、グローバル視差ベクトルとして立体部品画像
内の視差ベクトルの大きさをヒストグラムにして、最も
発生頻度の多い視差ベクトルを出力することを特徴とし
た多視点画像符号化装置。
5. The parallax vector dividing means according to claim 1 or 2, wherein the magnitude of the parallax vector in the three-dimensional component image is made into a histogram as a global parallax vector, and the parallax vector having the highest frequency of occurrence is output. Multi-view image coding device.
【請求項6】 請求項1または2記載の視差ベクトル分
割手段は、現フレームあるいはフィールドのグローバル
視差ベクトルとして、現フレームあるいはフィールドの
グローバル視差ベクトルと直前のフレームあるいはフィ
ールドのグローバル視差ベクトルの差分を出力すること
を特徴とした多視点画像符号化装置。
6. The parallax vector dividing means according to claim 1 or 2 outputs the difference between the global parallax vector of the current frame or field and the global parallax vector of the immediately preceding frame or field as the global parallax vector of the current frame or field. A multi-view image encoding device characterized by:
【請求項7】 請求項1または2記載の視差ベクトル分
割手段は、ローカル視差ベクトルとして、直前に求めた
ローカル視差ベクトルとの差分を出力することを特徴と
した多視点画像符号化装置。
7. The multi-view image encoding device according to claim 1 or 2, wherein the parallax vector division means outputs a difference between the local parallax vector and the local parallax vector obtained immediately before as the local parallax vector.
【請求項8】 多視点立体画像のフレームあるいはフィ
ールド間の動き量及び視差量を用いて、動き補償を行う
動き補償手段及び視差補償を行う視差補償手段とを備え
る多視点画像復号装置において、入力されたグローバル
視差ベクトルと前記ローカル視差ベクトルを用いて前記
視差ベクトルを視差補償手段に出力する視差ベクトル合
成手段と、奥行き方向の移動パラメータを画像編集手段
に出力するパラメータ入力手段と、入力されたパラメー
タを用いて立体部品画像の奥行きを変化させて画像合成
手段に出力する画像編集手段と、入力された背景画像と
立体部品画像を合成する画像合成手段を備えることを特
徴とした多視点画像復号装置。
8. A multi-view image decoding apparatus comprising: a motion compensating means for performing motion compensation and a parallax compensating means for performing parallax compensation by using a motion amount and a parallax amount between frames or fields of a multi-view stereoscopic image. Parallax vector synthesizing means for outputting the parallax vector to the parallax compensating means by using the global parallax vector and the local parallax vector, parameter input means for outputting the movement parameter in the depth direction to the image editing means, and the input parameter A multi-viewpoint image decoding apparatus characterized by including an image editing means for changing the depth of a three-dimensional component image using .
【請求項9】 請求項8の多視点画像復号装置におい
て、前記画像編集手段は、前記グローバル視差ベクトル
が小さい立体部品画像から順に出力し、前記画像合成手
段は、背景画像が入力された後に順次入力される立体部
品画像を背景画像上に上書きすることにより画像を合成
することを特徴とした多視点画像復号装置。
9. The multi-view image decoding device according to claim 8, wherein the image editing means outputs the three-dimensional component images in order from the smallest global parallax vector, and the image synthesizing means sequentially inputs the background image. A multi-view image decoding device characterized by synthesizing images by overwriting an input three-dimensional component image on a background image.
JP8221596A 1996-04-04 1996-04-04 Multi-view image encoding apparatus and decoding apparatus Expired - Fee Related JP3693407B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8221596A JP3693407B2 (en) 1996-04-04 1996-04-04 Multi-view image encoding apparatus and decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8221596A JP3693407B2 (en) 1996-04-04 1996-04-04 Multi-view image encoding apparatus and decoding apparatus

Publications (2)

Publication Number Publication Date
JPH09275578A true JPH09275578A (en) 1997-10-21
JP3693407B2 JP3693407B2 (en) 2005-09-07

Family

ID=13768205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8221596A Expired - Fee Related JP3693407B2 (en) 1996-04-04 1996-04-04 Multi-view image encoding apparatus and decoding apparatus

Country Status (1)

Country Link
JP (1) JP3693407B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165708A (en) * 2002-09-27 2004-06-10 Sharp Corp Stereoscopic image display apparatus, stereoscopic image encoder, stereoscopic image decoder, stereoscopic image recording method and stereoscopic image transmission method
WO2006073116A1 (en) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the program
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
WO2007110000A1 (en) * 2006-03-29 2007-10-04 Huawei Technologies Co., Ltd. A method and device of obtaining disparity vector and its multi-view encoding-decoding
WO2008035654A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding and decoding methods, their devices, image decoding device, their programs, and storage medium in which programs are recorded
WO2008035665A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program
WO2008081810A1 (en) * 2006-12-28 2008-07-10 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
JP2008167267A (en) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
JP2009502084A (en) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Predictive encoding / decoding apparatus and method using temporal and inter-view reference video buffer
JP2009071388A (en) * 2007-09-10 2009-04-02 Fujifilm Corp Image processor, method for processing image, and program
JP2009207183A (en) * 2009-06-15 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium for recording the programs
JP2009213161A (en) * 2009-06-15 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium with the programs recorded thereon
JP2010515400A (en) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus using global difference vector
JP2010516158A (en) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus
US7720308B2 (en) 2002-09-27 2010-05-18 Sharp Kabushiki Kaisha 3-D image display unit, 3-D image recording device and 3-D image recording method
JP2012070103A (en) * 2010-09-21 2012-04-05 Olympus Imaging Corp Imaging device and image communication system
JP2012186544A (en) * 2011-03-03 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Stereo video encoding method, device and program
JP2013013079A (en) * 2011-06-27 2013-01-17 Samsung Electronics Co Ltd Method and device for restoring resolution of multi-viewpoint video
TWI400959B (en) * 2006-10-30 2013-07-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US8532412B2 (en) 2007-04-11 2013-09-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
JP2015046920A (en) * 2014-10-15 2015-03-12 富士通株式会社 Dynamic image decoding method, dynamic image coding method, dynamic image decoder, and dynamic image decoding method
JP2015514340A (en) * 2012-03-14 2015-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Disparity vector prediction in video coding
JPWO2013153778A1 (en) * 2012-04-09 2015-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image encoding method and image decoding method
JP2016513919A (en) * 2013-03-06 2016-05-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Derived disparity vectors in 3D video coding

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165708A (en) * 2002-09-27 2004-06-10 Sharp Corp Stereoscopic image display apparatus, stereoscopic image encoder, stereoscopic image decoder, stereoscopic image recording method and stereoscopic image transmission method
US7720308B2 (en) 2002-09-27 2010-05-18 Sharp Kabushiki Kaisha 3-D image display unit, 3-D image recording device and 3-D image recording method
KR100946790B1 (en) * 2005-01-07 2010-03-11 니폰덴신뎅와 가부시키가이샤 Video encoding method and apparatus, video decoding method and apparatus, and storage media for storing the programs
WO2006073116A1 (en) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the program
JP4937741B2 (en) * 2005-01-07 2012-05-23 日本電信電話株式会社 VIDEO ENCODING METHOD AND DEVICE, VIDEO DECODING METHOD AND DEVICE, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JPWO2006073116A1 (en) * 2005-01-07 2008-06-12 日本電信電話株式会社 VIDEO ENCODING METHOD AND DEVICE, VIDEO DECODING METHOD AND DEVICE, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US9088802B2 (en) 2005-01-07 2015-07-21 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
US8369406B2 (en) 2005-07-18 2013-02-05 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
US9154786B2 (en) 2005-07-18 2015-10-06 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
JP2009502084A (en) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Predictive encoding / decoding apparatus and method using temporal and inter-view reference video buffer
JP5234587B2 (en) * 2006-01-05 2013-07-10 日本電信電話株式会社 Video encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
KR100977255B1 (en) * 2006-01-05 2010-08-23 니폰덴신뎅와 가부시키가이샤 Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
US8451894B2 (en) 2006-01-05 2013-05-28 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs by using parallax compensation
US8594193B2 (en) 2006-03-29 2013-11-26 Huawei Technologies Co., Ltd. Method and device for multi-view encoding/decoding using disparity vector
WO2007110000A1 (en) * 2006-03-29 2007-10-04 Huawei Technologies Co., Ltd. A method and device of obtaining disparity vector and its multi-view encoding-decoding
WO2008035654A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding and decoding methods, their devices, image decoding device, their programs, and storage medium in which programs are recorded
WO2008035665A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program
US8385628B2 (en) 2006-09-20 2013-02-26 Nippon Telegraph And Telephone Corporation Image encoding and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
KR101031624B1 (en) * 2006-09-20 2011-04-27 니폰덴신뎅와 가부시키가이샤 Image encoding and decoding methods, their devices, and storage medium containing programs thereof
US8290289B2 (en) 2006-09-20 2012-10-16 Nippon Telegraph And Telephone Corporation Image encoding and decoding for multi-viewpoint images
JP4999854B2 (en) * 2006-09-20 2012-08-15 日本電信電話株式会社 Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
JP4999853B2 (en) * 2006-09-20 2012-08-15 日本電信電話株式会社 Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
TWI400959B (en) * 2006-10-30 2013-07-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
JP4999864B2 (en) * 2006-12-28 2012-08-15 日本電信電話株式会社 Video encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
US9066096B2 (en) 2006-12-28 2015-06-23 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
WO2008081810A1 (en) * 2006-12-28 2008-07-10 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
JP2008167267A (en) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
JP4660463B2 (en) * 2006-12-28 2011-03-30 三菱電機株式会社 Stereo image encoding device
JP2010515400A (en) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus using global difference vector
JP2010516158A (en) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus
US8611688B2 (en) 2007-04-11 2013-12-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8532412B2 (en) 2007-04-11 2013-09-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8670626B2 (en) 2007-04-11 2014-03-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US9088779B2 (en) 2007-04-11 2015-07-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
JP2009071388A (en) * 2007-09-10 2009-04-02 Fujifilm Corp Image processor, method for processing image, and program
JP2009213161A (en) * 2009-06-15 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium with the programs recorded thereon
JP2009207183A (en) * 2009-06-15 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium for recording the programs
JP2012070103A (en) * 2010-09-21 2012-04-05 Olympus Imaging Corp Imaging device and image communication system
JP2012186544A (en) * 2011-03-03 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Stereo video encoding method, device and program
JP2013013079A (en) * 2011-06-27 2013-01-17 Samsung Electronics Co Ltd Method and device for restoring resolution of multi-viewpoint video
JP2015514340A (en) * 2012-03-14 2015-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Disparity vector prediction in video coding
JPWO2013153778A1 (en) * 2012-04-09 2015-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image encoding method and image decoding method
US10075708B2 (en) 2012-04-09 2018-09-11 Sun Patent Trust Image encoding method and image decoding method
JP2016513919A (en) * 2013-03-06 2016-05-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Derived disparity vectors in 3D video coding
JP2015046920A (en) * 2014-10-15 2015-03-12 富士通株式会社 Dynamic image decoding method, dynamic image coding method, dynamic image decoder, and dynamic image decoding method

Also Published As

Publication number Publication date
JP3693407B2 (en) 2005-09-07

Similar Documents

Publication Publication Date Title
JPH09275578A (en) Multi-viewpoint encoding and decoding device
JP6633694B2 (en) Multi-view signal codec
JP5934375B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP4414379B2 (en) Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded
JP5970609B2 (en) Method and apparatus for unified disparity vector derivation in 3D video coding
JP5303754B2 (en) Multi-view video encoding method, multi-view video decoding method, multi-view video encoding device, multi-view video decoding device, and program
EP2923491B1 (en) Method and apparatus for bi-prediction of illumination compensation
JP2000078611A (en) Stereoscopic video image receiver and stereoscopic video image system
CN116527898A (en) Error suppression in video coding based on sub-image code stream view correlation
JP3776595B2 (en) Multi-viewpoint image compression encoding apparatus and decompression decoding apparatus
CN104885450B (en) Method for encoding images, picture decoding method, picture coding device, picture decoding apparatus, image encoding program and image decoding program
JPH10191394A (en) Multi-view-point image coder
EP2161937A1 (en) Video encoding method, decoding method, device thereof, program thereof, and recording medium containing the program
US9031338B2 (en) Image encoding method and apparatus, image decoding method and apparatus, and programs therefor
US11889115B2 (en) Method and device for multi-view video decoding and method and device for image processing
US7706621B2 (en) Method and an apparatus to divide image blocks
KR20150079905A (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JPWO2011021240A1 (en) Stereo image encoding method, stereo image encoding device, and stereo image encoding program
JPH10191393A (en) Multi-view-point image coder
Aydinoglu et al. Compression of multi-view images
US20230328282A1 (en) Decoding method, inter-view prediction method, decoder, and encoder
Ideses et al. 3D from compressed 2D video
KR20150112008A (en) Method of inter-view residual prediction with reduced complexity in three-dimensional video coding
KR100737808B1 (en) Method for efficiently compressing 2d multi-view images
WO2011129164A1 (en) Multi-viewpoint image coding device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050421

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050621

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090701

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100701

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130701

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees