JPH09261653A - Multi-view-point picture encoder - Google Patents

Multi-view-point picture encoder

Info

Publication number
JPH09261653A
JPH09261653A JP6126496A JP6126496A JPH09261653A JP H09261653 A JPH09261653 A JP H09261653A JP 6126496 A JP6126496 A JP 6126496A JP 6126496 A JP6126496 A JP 6126496A JP H09261653 A JPH09261653 A JP H09261653A
Authority
JP
Japan
Prior art keywords
screen
viewpoint
parallax
frame
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6126496A
Other languages
Japanese (ja)
Inventor
Toshio Nomura
敏男 野村
Ryuji Kitaura
竜二 北浦
Hiroyuki Katada
裕之 堅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP6126496A priority Critical patent/JPH09261653A/en
Publication of JPH09261653A publication Critical patent/JPH09261653A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide view point number scalability while keeping high encoding efficiency by limiting a reference screen to the same view point picture in the encoding of a reference view point picture and limiting the reference screen to the same view point picture and an adjacent view point picture in the picture encoding of a view point other than a reference view point. SOLUTION: At the time of encoding the picture of the reference view point V2, only motion compensation is performed and the pictures of the other view points are not referred to. On the other hand, at the time of encoding the view point V1 on a left side, an already encoded screen at the view point V1 or V2 is turned to the reference screen and the encoding is performed. It is similar for the view point V3 on a right side as well. In such a manner, by using only the picture strings of the view points V1 and V2 or the view points V2 and V3, reproduction for only the two view points can be performed. That is, no matter which of 1, 2 and 3 the view point number of the pictures to be reproduced is, by using the picture strings for the same number as the view point number, the reproduction is made possible and the view point number scalability is realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像高能率符号化に
おいて、特に動き補償あるいは視差補償予測を用いた多
視点画像の高能率符号化装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-efficiency encoding apparatus for multi-view images, which uses motion compensation or parallax compensation prediction in high-efficiency image encoding.

【0002】[0002]

【従来の技術】従来の2眼式立体映像の動き補償及び視
差補償(以後、補償と呼ぶ)方法として、図20に示す
ような方法がある。図20においてV1は左眼用の動画
像系列(以後、視点V1と呼ぶ)、V2は右眼用の動画
像系列(以後、視点V2と呼ぶ)を表し、図中の矢印は
予測の方向を示す。この場合、視点V2を符号化する場
合の参照画面が視点V1の画像に固定されている。
2. Description of the Related Art As a conventional method of motion compensation and parallax compensation (hereinafter referred to as compensation) of a binocular stereoscopic image, there is a method shown in FIG. In FIG. 20, V1 represents a moving image sequence for the left eye (hereinafter referred to as viewpoint V1), V2 represents a moving image sequence for the right eye (hereinafter referred to as viewpoint V2), and the arrow in the drawing indicates the direction of prediction. Show. In this case, the reference screen when encoding the viewpoint V2 is fixed to the image of the viewpoint V1.

【0003】これを多視点画像符号化にそのまま適用す
ると、他の画面(例えば符号化画面の1フレーム前の画
面)を参照画面とした方が予測誤差が少なくなる場合に
対応できないため、これを解決するための従来例が特開
平6−98312号公報に開示されている。本従来例に
おける補償方法を図21に示すが、複数の参照画面のう
ち予測誤差が最も少なくなるものを選択することによ
り、符号化効率を向上させるものである。
If this is directly applied to the multi-view image coding, it cannot handle the case where the prediction error becomes smaller when another screen (for example, the screen one frame before the coded screen) is used. A conventional example for solving the problem is disclosed in JP-A-6-98312. FIG. 21 shows a compensating method in the conventional example, and the coding efficiency is improved by selecting the one having the smallest prediction error from the plurality of reference screens.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、図21
に示したような補償方法では、参照画面としてどの画像
を用いるかは予測誤差の大小のみによって決定されるた
め、視点数スケーラビリティを実現できない。ここで視
点数スケーラビリティとは、多視点画像から任意の視点
数のみを再生できることを意味する。図21は3眼式立
体映像の例だが、視点V2の画像だけを再生したい場合
でも、視点V1から視点V3までの全ての画像列を復号
しなければならない。
However, FIG.
With the compensation method as shown in (4), since which image is used as the reference screen is determined only by the magnitude of the prediction error, the number-of-views scalability cannot be realized. Here, the viewpoint number scalability means that it is possible to reproduce only an arbitrary number of viewpoints from a multi-viewpoint image. Although FIG. 21 is an example of a three-view stereoscopic image, even if it is desired to reproduce only the image of the viewpoint V2, all the image sequences from the viewpoint V1 to the viewpoint V3 must be decoded.

【0005】また、視差補償においては、カメラと被写
体の位置関係によって視差が大幅に変化するため、視差
ベクトルの探索範囲(特に水平方向)は一般的な動きベ
クトルの探索範囲よりも広く取る必要がある。
Further, in the parallax compensation, the parallax vector search range (especially in the horizontal direction) needs to be wider than the general motion vector search range because the parallax changes greatly depending on the positional relationship between the camera and the subject. is there.

【0006】従って、本発明は多視点画像符号化におい
て高い符号化効率でありながら、視点数スケーラビリテ
ィを実現する符号化装置を提供することを目的とする。
また、補償予測において、効率的な補償ベクトルの探索
を行なうことができる符号化装置を提供することを目的
とする。
Therefore, it is an object of the present invention to provide a coding apparatus which realizes the number-of-views scalability while having high coding efficiency in multi-view image coding.
Another object of the present invention is to provide an encoding device capable of efficiently searching for a compensation vector in compensation prediction.

【0007】[0007]

【課題を解決するための手段】本発明は上記目的を達成
するために、符号化画面と参照画面とのパターンマッチ
ングを行なって予測誤差及び補償ベクトルを求める3つ
のパターンマッチング部と、前記予測誤差が最小となる
参照画面の補償ベクトルを選択する最小値選択部と、参
照画面からの予測値と符号化画面との予測誤差を符号化
する符号器と、参照画面を保持しておくための複数のフ
レームメモリとを備えるとともに、基準視点画像を定
め、基準視点画像の符号化においては、参照画面を同一
視点画像に限定し、基準視点以外の視点の画像符号化に
おいては、参照画面を同一視点画像及び基準視点寄りの
隣接視点画像に限定することを特徴とする。
In order to achieve the above object, the present invention provides three pattern matching units for performing pattern matching between an encoded screen and a reference screen to obtain a prediction error and a compensation vector, and the prediction error. , A minimum value selection unit that selects the compensation vector of the reference screen that minimizes, an encoder that encodes the prediction error between the prediction value from the reference screen and the encoded screen, and a plurality of units for holding the reference screen. And a standard viewpoint image is defined, the reference screen is limited to the same viewpoint image when encoding the standard viewpoint image, and the reference screen is the same viewpoint when encoding the viewpoint other than the standard viewpoint. It is characterized in that it is limited to the image and the adjacent viewpoint image close to the reference viewpoint.

【0008】また本発明では、前記基準視点画像の符号
化において、参照画面を符号化画面の1フレーム前の画
面のみとし、前記基準視点以外の視点の画像符号化にお
いては、参照画面を符号化画面の1フレーム前の画面
と、符号化画面の基準視点寄り隣接視点の同フレーム画
面と、符号化画面の基準視点寄り隣接視点の1フレーム
前の画面の3つとしてもよい。
Further, according to the present invention, in the encoding of the standard viewpoint image, the reference screen is only the frame one frame before the encoded screen, and in the image encoding of the viewpoint other than the standard viewpoint, the reference screen is encoded. There may be three screens one frame before the screen, the same frame screen adjacent to the reference viewpoint of the encoded screen, and the screen one frame before the adjacent viewpoint closer to the reference viewpoint of the encoded screen.

【0009】また本発明では、符号化画面を複数のブロ
ックに分割し、前記パターンマッチング部は、ブロック
単位でパターンマッチングを行なうとともに、前記最小
値選択部は、ブロック単位で参照画面を選択してもよ
い。
Further, in the present invention, the coded screen is divided into a plurality of blocks, the pattern matching unit performs pattern matching in block units, and the minimum value selecting unit selects a reference screen in block units. Good.

【0010】また本発明では、前記最小値選択部は、フ
レーム単位で参照画面を選択してもよい。
In the present invention, the minimum value selection unit may select the reference screen in frame units.

【0011】また本発明では、前記フレームメモリの数
Mは、視点数n(n:自然数)の場合に、 M=n+2(n=2、3、4) M=n+3(n≧5) とすることができる。
In the present invention, the number M of the frame memories is M = n + 2 (n = 2, 3, 4) M = n + 3 (n ≧ 5) when the number of viewpoints is n (n: natural number). be able to.

【0012】また本発明では、前記基準視点は、視点数
2n+1(n:自然数)の場合にはn番目の視点、視点
数2n(n:自然数)の場合にはn番目もしくはn+1
番目の視点としてもよい。
In the present invention, the reference viewpoint is the nth viewpoint when the number of viewpoints is 2n + 1 (n: natural number), and the nth or n + 1 when the number of viewpoints is 2n (n: natural number).
It may be the second viewpoint.

【0013】また本発明では、補償予測を行なう順序
を、符号化画面と同一視点の1フレーム前の画面(動き
補償予測)、符号化画面と隣接視点の同フレームの画面
(視差補償予測)、符号化画面と隣接視点の1フレーム
前の画面(動視差補償予測)の順とし、視差補償予測及
び動視差補償予測を行なう際には、動き補償予測で得ら
れた動きベクトルと視差ベクトルバッファ内の視差ベク
トルを用いてパターンマッチングの探索範囲を移動する
ようにしてもよい。
Further, according to the present invention, the order of performing compensation prediction is as follows: a screen one frame before the same viewpoint as the coded screen (motion compensation prediction), a screen of the same frame between the coded screen and an adjacent viewpoint (parallax compensation prediction), When the parallax compensation prediction and the motion parallax compensation prediction are performed in the order of the coding screen and the screen one frame before the adjacent viewpoint (motion parallax compensation prediction), the motion vector obtained in the motion compensation prediction and the parallax vector buffer are stored. You may make it move the search range of pattern matching using the parallax vector of.

【0014】また本発明では、視差補償予測を行なう際
には、動き補償予測で得られた動きベクトルと視差ベク
トルバッファ内の視差ベクトルを用いてパターンマッチ
ングの探索範囲を移動し、動視差補償予測を行なう際に
は動き補償予測で得られた動きベクトルと視差補償予測
で得られた視差ベクトルを用いてパターンマッチングの
探索範囲を移動してもよい。
Further, in the present invention, when performing the parallax compensation prediction, the motion vector obtained in the motion compensation prediction and the parallax vector in the parallax vector buffer are used to move the search range of the pattern matching to perform the motion parallax compensation prediction. When performing, the search range for pattern matching may be moved using the motion vector obtained by motion compensation prediction and the disparity vector obtained by disparity compensation prediction.

【0015】また本発明では、前記視差補償予測及び動
視差補償予測を行なう際に、パターンマッチングの探索
範囲を動き補償予測の際の探索範囲よりも狭い領域とし
てもよい。
In the present invention, when performing the parallax compensation prediction and the motion parallax compensation prediction, the search range of pattern matching may be narrower than the search range of the motion compensation prediction.

【0016】[0016]

【発明の実施の形態】本発明の第1の実施の形態につい
て説明する。図1は本実施の形態における補償方法の一
例であり、3眼式の場合を示してある。V1、V2、V
3は異なる視点の動画像系列を表し、V2が基準となる
中央の視点(以後、視点V2と呼ぶ)、V1は左側の視
点(以後、視点V1と呼ぶ)、V3は右側の視点(以
後、視点V3と呼ぶ)である。矢印は予測の方向を示し
ている。本発明では基準視点(図1の場合は視点V2)
の画像を符号化する際には動き補償のみを行ない、他の
視点の画像は参照しないことを特徴とする。従って、基
準視点画像のみを再生する際に他視点の画像を必要とし
ない。一方、視点V1を符号化する際には、視点V1あ
るいはV2で既に符号化済の画面を参照画面として符号
化を行なう。視点V3についても同様である。このよう
にすることにより、視点V1とV2もしくは視点V2と
V3の画像列のみを用いることにより、2視点分だけの
再生を行なうことが可能となる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described. FIG. 1 shows an example of a compensation method according to the present embodiment, and shows a case of a three-lens system. V1, V2, V
3 represents moving image sequences of different viewpoints, V2 is a central viewpoint (hereinafter referred to as viewpoint V2), V1 is a left viewpoint (hereinafter referred to as viewpoint V1), and V3 is a right viewpoint (hereinafter referred to as viewpoint V1). It is called viewpoint V3). The arrow indicates the direction of prediction. In the present invention, the reference viewpoint (viewpoint V2 in the case of FIG. 1)
It is characterized in that only the motion compensation is performed when the image is encoded, and images from other viewpoints are not referred to. Therefore, when reproducing only the reference viewpoint image, an image of another viewpoint is not required. On the other hand, when the viewpoint V1 is encoded, the screen already encoded at the viewpoint V1 or V2 is encoded as the reference screen. The same applies to the viewpoint V3. By doing so, it becomes possible to reproduce only two viewpoints by using only the image sequences of the viewpoints V1 and V2 or the viewpoints V2 and V3.

【0017】すなわち、再生しようとする画像の視点数
が1、2、3いずれの場合でも、視点数と同じ数の画像
列のみを用いることにより再生が可能であり、視点数ス
ケーラビリティが実現される。
That is, regardless of whether the number of viewpoints of the image to be reproduced is 1, 2, or 3, reproduction can be performed by using only the same number of image sequences as the number of viewpoints, and the viewpoint number scalability is realized. .

【0018】本実施の形態における符号化装置のブロッ
ク図を図2に示す。図2は3眼式の場合の例である。符
号化画面P0と参照画面P1、P2、P3を、3つのパ
ターンマッチング部101〜103に入力する。本実施
の形態では、符号化画面を複数のブロック(1つのブロ
ックは8×8画素あるいは16×16画素で構成され
る)に分割し、パターンマッチング部101〜103に
おいてブロック単位でマッチングを行ない、マッチング
結果であるところの予測誤差を最小値検出部104に出
力する。最小値検出部104は3つのパターンマッチン
グ部からの出力のうち、最小のものを選択し、どの参照
画面を選択したかを示す選択フラグを出力する。選択部
105は最小値検出部104からの選択フラグに対応す
る補償ベクトルを出力する。
FIG. 2 shows a block diagram of the coding apparatus according to the present embodiment. FIG. 2 shows an example in the case of the trinocular type. The coded screen P0 and the reference screens P1, P2, and P3 are input to the three pattern matching units 101 to 103. In the present embodiment, the encoded screen is divided into a plurality of blocks (one block is composed of 8 × 8 pixels or 16 × 16 pixels), and pattern matching units 101 to 103 perform matching in block units. The prediction error that is the matching result is output to the minimum value detection unit 104. The minimum value detection unit 104 selects the minimum output from the three pattern matching units and outputs a selection flag indicating which reference screen is selected. The selection unit 105 outputs the compensation vector corresponding to the selection flag from the minimum value detection unit 104.

【0019】符号器は、従来から広く知られているもの
を用いることができ、直交変換部106、量子化部10
7、逆量子化部108、逆直交変換部109、選択部1
15、116、フレームメモリ110〜114、可変長
符号化部117、補償部118により構成される。通常
の動画像符号化に用いる符号器では、順方向予測のみの
場合、必要となるフレームメモリは参照画面用と復号画
像書き込み用の2フレーム分であるが、3眼式立体映像
用の符号器である本実施の形態では、5フレーム分のフ
レームメモリが必要となる。この点については後述す
る。
As the encoder, a widely known one can be used, and the orthogonal transformation unit 106 and the quantization unit 10 can be used.
7, inverse quantizer 108, inverse orthogonal transformer 109, selector 1
15, 116, frame memories 110 to 114, a variable length coding unit 117, and a compensation unit 118. In an encoder used for normal moving image encoding, in the case of only forward prediction, the required frame memories are two frames for a reference screen and for writing a decoded image, but an encoder for a three-eye stereoscopic image. In this embodiment, a frame memory for 5 frames is required. This will be described later.

【0020】選択部115は参照画面P1、P2、P3
として用いるべき画像が格納されているフレームメモリ
を選択するとともに、最小値検出部104からの選択フ
ラグに基づき、補償予測に用いる画面をブロック単位で
補償部118に渡す。この選択部115における参照画
面の選択方法が本発明の主要部であり、符号化手順とと
もに後で詳しく説明する。補償部118では選択部10
5から出力された補償ベクトルに基づき、補償予測を行
なう。また、選択部116は、逆量子化部108及び逆
直交変換部109によって生成される局部復号画像を書
き込むフレームメモリをフレーム単位で選択する。な
お、可変長符号化部117では量子化部107からの出
力である予測誤差とともに、最小値検出部104からの
出力である選択フラグと選択部105からの出力である
補償ベクトルも併せて符号化される。
The selection unit 115 displays the reference screens P1, P2, P3.
The frame memory in which the image to be used as is stored is selected, and the screen used for compensation prediction is passed to the compensation unit 118 in block units based on the selection flag from the minimum value detection unit 104. The method of selecting the reference screen in the selection unit 115 is the main part of the present invention, and will be described later in detail together with the encoding procedure. In the compensation unit 118, the selection unit 10
Compensation prediction is performed based on the compensation vector output from 5. The selection unit 116 also selects, for each frame, a frame memory into which the locally decoded image generated by the inverse quantization unit 108 and the inverse orthogonal transform unit 109 is written. The variable length coding unit 117 also codes the prediction error output from the quantization unit 107, the selection flag output from the minimum value detection unit 104, and the compensation vector output from the selection unit 105. To be done.

【0021】次に、符号化の手順について図3を用いて
詳しく説明する。図3は図1のような3眼式立体映像を
符号化する場合の、符号化順序と参照画面の関係の一例
を示したものである。まず、基準視点V2の最初の画面
21をフレーム内符号化する(ステップ1)。画面21
は符号化されると同時に、符号化装置内で復号化されて
フレームメモリに蓄えられる。次に画面21の復号画像
を参照画面として画面11、画面31、画面22を符号
化する(ステップ2、3、4)。本発明ではこのよう
に、参照画面として用いられるのは参照される時点より
も以前に符号化された画面の復号画像であり、これ以
降、参照画面は復号画像(原画像ではない)であること
を特に断らない。
Next, the encoding procedure will be described in detail with reference to FIG. FIG. 3 shows an example of the relationship between the encoding order and the reference screen when encoding the three-eye stereoscopic image as shown in FIG. First, the first screen 21 of the reference viewpoint V2 is intra-frame coded (step 1). Screen 21
At the same time as being encoded, it is decoded in the encoding device and stored in the frame memory. Next, the screen 11, the screen 31, and the screen 22 are encoded using the decoded image of the screen 21 as a reference screen (steps 2, 3, 4). As described above, according to the present invention, what is used as a reference screen is a decoded image of a screen encoded before the time of reference, and thereafter, the reference screen is a decoded image (not an original image). I do not particularly refuse.

【0022】次に画面11、21、22を参照して画面
12を符号化する(ステップ5)。このとき、画面12
と画面11、21、22との間でブロック単位でパター
ンマッチングを行ない、最も予測誤差が小さくなるもの
を参照画面とする。すなわち、ブロック単位で参照画面
の選択が行なわれる。これ以降は同様の処理を行なえば
よく、視点V2の符号化の際には参照画面が1つであ
り、視点V1及びV3の符号化の際には参照画面が3つ
となる。また、視点V2だけを考えると通常の動き補償
予測符号化と同じであり、適当な周期でフレーム内符号
化画面が現れるので、その度に図2の最初に戻って処理
を繰り返せばよい。なお、参照画面の選択はブロック単
位に限らず、フレーム単位で行なってもよい。フレーム
単位の選択を行なう場合は、全てのブロック単位でのパ
ターンマッチングにより得られる予測誤差の2乗和(画
面全体の予測誤差)が最も小さくなるものを参照画面と
する。
Next, the screen 12 is encoded with reference to the screens 11, 21 and 22 (step 5). At this time, screen 12
Pattern matching is performed on a block-by-block basis between the screens 11, 21 and 22 and the screen with the smallest prediction error is set as the reference screen. That is, the reference screen is selected in block units. After that, the same processing may be performed. When the viewpoint V2 is encoded, there is one reference screen, and when the viewpoints V1 and V3 are encoded, there are three reference screens. Also, considering only the viewpoint V2, the motion compensation predictive coding is the same as the normal motion compensation predictive coding, and since the intra-frame coded screen appears at an appropriate cycle, the processing may be repeated by returning to the beginning of FIG. 2 each time. The selection of the reference screen is not limited to the block unit, and may be performed in the frame unit. When selecting in frame units, the reference screen is the one in which the sum of squares of prediction errors (prediction error in the entire screen) obtained by pattern matching in all block units is the smallest.

【0023】ここで、必要となるフレームメモリの数に
ついて説明する。図3におけるステップ5の場合を例に
とると、ステップ4が終了した時点でフレームメモリ内
に蓄えられている画像は、画面11、21、22、31
の4フレームである。ステップ5では画面12を符号化
するので、ステップ5の処理中は上記4フレーム以外に
画面12の復号画像を書き込むフレームメモリが1フレ
ーム分必要となり、合計5フレーム分のフレームメモリ
が必要となる。
Here, the number of required frame memories will be described. Taking the case of step 5 in FIG. 3 as an example, the images stored in the frame memory at the time when step 4 ends are the screens 11, 21, 22, 31.
4 frames. Since the screen 12 is encoded in step 5, one frame memory for writing the decoded image of the screen 12 is required in addition to the above four frames during the process of step 5, and a total of five frame memory is required.

【0024】ステップ5終了後には画面11は不要とな
るため、ステップ5終了後のフレームメモリの内容は画
面12、21、22、31となる。なお、ステップ5で
は画面31は不要であるが、ステップ6で必要となるた
めこれを保持しておく必要がある。符号化自体には参照
画面用3フレームと復号画像書き込み用1フレームの合
計4フレーム分のフレームメモリがあればよいのだが、
上述したようにその時点では使用しないが後のステップ
で使用する画面を保持しておくためのフレームメモリが
別途必要となるため、この点を考慮すると、視点数nと
必要となるフレームメモリの数Mとの関係は、 M=n+2 (n=2、3、4) M=n+3 (n≧5;nは自然数) となる。
Since the screen 11 is no longer necessary after the end of step 5, the contents of the frame memory after the end of step 5 are the screens 12, 21, 22, 31. The screen 31 is unnecessary in step 5, but it is necessary to retain it because it is necessary in step 6. The encoding itself should have a frame memory for 4 frames in total, 3 frames for reference screen and 1 frame for writing decoded image.
As described above, a frame memory that is not used at that time but is required to hold a screen used in a later step is separately required. Therefore, considering this point, the number of viewpoints n and the number of frame memories required. The relationship with M is: M = n + 2 (n = 2, 3, 4) M = n + 3 (n ≧ 5; n is a natural number)

【0025】次に、5眼式の場合の補償方法の例を図4
に示す。この場合、V3が基準視点となる。
Next, an example of the compensation method in the case of the five-lens type is shown in FIG.
Shown in In this case, V3 is the reference viewpoint.

【0026】また、符号化装置のブロック図は図2に示
したものとほとんど同じであり、必要となるフレームメ
モリの数が8フレーム分となることだけが異なってい
る。なお、本発明では視点数がいくつであっても参照画
面は3つ以下であることから、視点数に関わらずパター
ンマッチング部は3つでよい。
The block diagram of the encoder is almost the same as that shown in FIG. 2, except that the number of required frame memories is eight frames. In the present invention, since the number of reference screens is three or less regardless of the number of viewpoints, the number of pattern matching units may be three regardless of the number of viewpoints.

【0027】図4においてV2、V3、V4の部分は図
1と同じであり、その外側にV1とV5が付け加わった
と考えることができる。視点V1はV1自身かV2から
のみ参照画面を選択し、視点V5はV5自身かV4から
のみ参照画面を選択する。すなわち、本発明では基準視
点以外の視点の画像列Vxを符号化する際には、参照画
面としてVx自身もしくはVxよりも1つ基準視点寄り
の画像列を選択することが特徴である。一般に、本発明
における視点Vxのy番目の画像Pxyを符号化する際
の参照画面は、基準視点をVx0とすると図5のように
なる。図4のような参照画面選択により符号化された多
視点画像は、図6に示すような復号画像列の選択により
任意の視点数の再生が可能となる。すなわち、視点数ス
ケーラビリティが実現できる。
In FIG. 4, the portions of V2, V3 and V4 are the same as in FIG. 1, and it can be considered that V1 and V5 are added to the outside thereof. The viewpoint V1 selects the reference screen only from V1 itself or V2, and the viewpoint V5 selects the reference screen only from V5 itself or V4. That is, the present invention is characterized in that, when encoding the image sequence Vx of the viewpoint other than the standard viewpoint, Vx itself or an image sequence closer to the standard viewpoint than Vx is selected as the reference screen. In general, the reference screen for encoding the y-th image Pxy of the viewpoint Vx in the present invention is as shown in FIG. 5 when the standard viewpoint is Vx0. The multi-viewpoint image encoded by selecting the reference screen as shown in FIG. 4 can be reproduced with an arbitrary number of viewpoints by selecting the decoded image sequence as shown in FIG. That is, the number-of-views scalability can be realized.

【0028】5眼式の場合の符号化手順を図7に示す。
ステップ1の画面31はフレーム内符号化である。基準
視点V3と各視点1番目の画面は参照画面が1つ、それ
以外の画面は参照画面が3つである。図7において、例
えばステップ4で生成された局部復号画像11はステッ
プ5〜8では参照されず、ステップ9の段階で初めて参
照されるため、この間ずっと保持しておく必要がある。
図7からわかるように、このようにフレームメモリに保
持しておく必要のある画像数は最大7であり、これに書
き込み用の1フレーム分を加えた合計8フレーム分が、
5眼式の場合に必要となるフレームメモリ数となる。
FIG. 7 shows the coding procedure in the case of the 5-lens system.
The screen 31 of step 1 is intraframe coding. The reference viewpoint V3 and the first screen of each viewpoint have one reference screen, and the other screens have three reference screens. In FIG. 7, for example, the locally decoded image 11 generated in step 4 is not referred to in steps 5 to 8 but is referred to for the first time in step 9, so it is necessary to hold it during this period.
As can be seen from FIG. 7, the maximum number of images that need to be held in the frame memory is 7, and a total of 8 frames, which is one frame for writing, is
This is the number of frame memories required in the case of the 5-lens system.

【0029】同様に、2眼式の場合の補償方法と符号化
手順の例を図8、図9に、4眼式の場合の補償方法と符
号化手順の例を図10、図11に示す。また、基準視点
の選び方は、視点数が2i+1の場合は視点Vi、視点
数が2iの場合は視点ViまたはVi+1とする。ここ
にiは自然数である。図8〜図11の例では、基準視点
をViとしている。
Similarly, an example of the compensating method and the coding procedure in the case of the two-lens type is shown in FIGS. 8 and 9, and an example of the compensating method and the coding procedure in the case of the four-lens type is shown in FIGS. . The reference viewpoint is selected as viewpoint Vi when the number of viewpoints is 2i + 1 and as viewpoint Vi or Vi + 1 when the number of viewpoints is 2i. Here, i is a natural number. In the examples of FIGS. 8 to 11, the reference viewpoint is Vi.

【0030】なお、これまでは順方向予測のみを用いる
場合について説明してきたが、双方向予測を用いる場合
でも同様の考え方で符号化装置を構成することができ
る。
Although the case where only the forward prediction is used has been described so far, the coding apparatus can be configured in the same way even when the bidirectional prediction is used.

【0031】次に、本発明の第2の実施の形態について
説明する。図12は図1に示した3眼式立体映像を符号
化する場合の、画面32の符号化を説明する図である。
画面32を符号化する際には、画面21、22、31と
の間でパターンマッチングを行ない、予測誤差が最小と
なるものを参照画面とする。このパターンマッチングで
は、補償ベクトルを求めているのだが、参照する画面に
よって探索範囲を変化させる必要がある。この点につい
て詳しく説明する。
Next, a second embodiment of the present invention will be described. FIG. 12 is a diagram for explaining the coding of the screen 32 when the three-eye stereoscopic image shown in FIG. 1 is coded.
When the screen 32 is encoded, pattern matching is performed between the screens 21, 22 and 31, and the screen having the smallest prediction error is used as the reference screen. In this pattern matching, the compensation vector is obtained, but it is necessary to change the search range depending on the screen to be referenced. This will be described in detail.

【0032】なお、本発明では符号化画面と参照画面の
関係によって3種類の補償予測方法が存在するが、図1
2において符号化画面が画面32である場合に、画面3
1(符号化画面と同視点の1フレーム前の画面)からの
予測を動き補償予測、画面22(符号化画面の隣の視点
で同フレームの画面)からの予測を視差補償予測、画面
21(符号化画面の隣の視点で1フレーム前の画面)か
らの予測を動視差補償予測と呼ぶことにする。また、各
補償予測において求まる補償ベクトルを、それぞれ動き
ベクトル、視差ベクトル、動視差ベクトルと呼ぶ。ま
た、パターンマッチングは、画面32と画面31(動き
補償予測)、画面32と画面22(視差補償予測)、画
面32と画面21(動視差補償予測)の順に行なうもの
とする(ブロック単位もしくはフレーム単位)。
In the present invention, there are three types of compensation prediction methods depending on the relationship between the coding screen and the reference screen.
If the encoded screen in 2 is screen 32, screen 3
1 (motion-compensated prediction) from 1 (a screen one frame before the same viewpoint as the encoded screen), parallax-compensated prediction from screen 22 (a screen of the same frame from the viewpoint next to the encoded screen), screen 21 ( Prediction from the screen one frame before the viewpoint next to the encoded screen will be referred to as motion parallax compensation prediction. Also, the compensation vector obtained in each compensation prediction is referred to as a motion vector, a parallax vector, and a moving parallax vector, respectively. The pattern matching is performed in the order of screen 32 and screen 31 (motion compensation prediction), screen 32 and screen 22 (parallax compensation prediction), and screen 32 and screen 21 (moving parallax compensation prediction) (block unit or frame). unit).

【0033】動きベクトル探索(例えば画面32と画面
31のパターンマッチングを行なう)の場合には、フレ
ーム間での動き量がそれほど大きくないことから、例え
ば水平方向、垂直方向ともに±15画素というように比
較的狭い正方形領域を探索すればよい。図12におい
て、画面32において位置dにあるブロックのマッチン
グを行なうには、画面31上で位置dを中心とする適当
な大きさの正方形領域を探索する。ところが、視差ベク
トル探索(例えば画面32と画面22のパターンマッチ
ング)の場合には、一般的に視差ベクトルの水平方向成
分が動きベクトルに比べて大きいことから、動きベクト
ルの場合と同様な探索範囲としても正しいパターンマッ
チングが行なえない。
In the case of motion vector search (for example, pattern matching between the screen 32 and the screen 31 is performed), since the amount of motion between frames is not so large, for example, ± 15 pixels in both the horizontal and vertical directions. It suffices to search a relatively narrow square area. In FIG. 12, in order to perform matching of the block located at the position d on the screen 32, a square area having an appropriate size centered on the position d is searched on the screen 31. However, in the case of parallax vector search (for example, pattern matching between the screen 32 and the screen 22), since the horizontal component of the parallax vector is generally larger than the motion vector, a search range similar to that of the motion vector is set. However, correct pattern matching cannot be performed.

【0034】図12で言うと、画面32における位置d
にあるブロックのマッチングでは、位置c(画面22
上)が最適解となるべきだが、位置cは動きベクトル探
索で設定した探索範囲外となってしまう。これに対応す
るために、視差ベクトルの探索範囲を水平方向に拡大す
ることが考えられる。本実施の形態においても、画像列
の先頭画面(図12でいうところの画面31)の符号化
を行なう場合には、水平方向に拡大した長方形の探索範
囲を用いて視差ベクトルを求める。先頭画面では全ての
ブロックについて視差ベクトルが求められるが、本実施
の形態ではこの1画面分の視差ベクトルを視差ベクトル
バッファに記憶する。なお、視差ベクトルは一般的に垂
直成分が小さい(理想的には0)ため、垂直方向の探索
範囲は例えば±5画素というように、動きベクトルの垂
直方向探索範囲よりも小さくてよい。
In FIG. 12, the position d on the screen 32 is
In the matching of the blocks in the position c (screen 22
Although the upper) should be the optimum solution, the position c is outside the search range set by the motion vector search. In order to deal with this, it is conceivable to expand the search range of the parallax vector in the horizontal direction. Also in the present embodiment, when the top screen of the image sequence (screen 31 in FIG. 12) is encoded, the parallax vector is obtained using the rectangular search range expanded in the horizontal direction. Although parallax vectors are obtained for all blocks on the first screen, the parallax vectors for one screen are stored in the parallax vector buffer in this embodiment. Since the parallax vector generally has a small vertical component (ideally 0), the vertical search range may be smaller than the vertical search range of the motion vector, for example, ± 5 pixels.

【0035】さて、画面32と画面22のパターンマッ
チング(視差補償予測)を行なう場合に、マッチングを
行なおうとするブロックを中心とする正方形領域を探索
してもうまくいかないことは前述した通りだが、ここで
視差ベクトルバッファに記憶されている視差ベクトルを
用いる。画面32のあるブロックdを考えた場合に、先
に行なった動き補償予測(画面32と画面31のパター
ンマッチング)においてこれと最もマッチングするブロ
ックが求められている(この対応を表すものが動きベク
トルである)。求まった動きベクトルによって、ブロッ
クdは画面31上のブロックbと対応することがわかっ
たとすると、画面31のブロックbに対応する視差ベク
トルは視差ベクトルバッファに記憶されているので、画
面32内のマッチング対象ブロックの探索中心を画面3
1上でその視差ベクトルが指す位置に移動し、そこを中
心とする正方形領域を探索する。このようにすると、探
索中心を視差ベクトル分だけ移動した後は通常の動きベ
クトル探索と同様に取り扱うことができる。画面32と
画面21のパターンマッチング(動視差補償予測)を行
なう場合も、これと同様に、探索中心を視差ベクトル分
だけ移動し、そこを中心とする正方形領域を探索する。
As described above, when pattern matching (parallax compensation prediction) between the screen 32 and the screen 22 is performed, searching for a square area centered on a block to be matched does not work, as described above. The parallax vector stored in the parallax vector buffer is used in. Considering a certain block d on the screen 32, the block most matching with this is required in the motion compensation prediction (pattern matching between the screen 32 and the screen 31) performed previously (the one showing this correspondence is the motion vector). Is). If it is found from the obtained motion vector that the block d corresponds to the block b on the screen 31, the parallax vector corresponding to the block b on the screen 31 is stored in the parallax vector buffer. Screen 3 for the search center of the target block
Move to the position indicated by the parallax vector on 1 and search for a square region centered there. In this way, after moving the search center by the disparity vector, it can be handled in the same manner as a normal motion vector search. In the case of performing pattern matching (motion disparity compensation prediction) between the screen 32 and the screen 21, similarly, the search center is moved by the disparity vector, and a square area centered there is searched.

【0036】このようにして求めた3種類の補償ベクト
ル(動きベクトル、視差ベクトル、動視差ベクトル)の
うち、最も予測誤差が小さくなるものをそのブロックの
最終的な補償ベクトルとして出力する。また、画面32
と画面22のパターンマッチングにより全てのマクロブ
ロックについて新たな視差ベクトルが求まるので、これ
を用いて視差ベクトルバッファの内容を更新する。
Of the three types of compensation vectors (motion vector, parallax vector, and motion parallax vector) thus obtained, the one with the smallest prediction error is output as the final compensation vector for the block. Also, the screen 32
Since a new disparity vector is obtained for all macroblocks by pattern matching on the screen 22 and the contents of the disparity vector buffer is updated using this.

【0037】本実施の形態における符号化装置のブロッ
ク図を図13に示す。図13の符号化装置は、図2に示
した符号化装置に2つの視差ベクトルバッファ120、
121と選択部122、123を加えたものである。
FIG. 13 shows a block diagram of the coding apparatus according to the present embodiment. The coding apparatus of FIG. 13 has two parallax vector buffers 120 in addition to the coding apparatus of FIG.
121 and selectors 122 and 123 are added.

【0038】また、図2におけるパターンマッチング部
101〜103は、図13では動き補償パターンマッチ
ング部131、動視差補償パターンマッチング部13
2、視差補償パターンマッチング部133に置き換えて
ある。図13の符号化装置は3眼式なので視差ベクトル
バッファは2つ必要になるが、一般に視点数がiの場
合、必要な視差ベクトルバッファの数はi−1となる。
選択部122は新たに求まる視差ベクトルを書き込むべ
き視差ベクトルバッファを選択する。本実施の形態にお
ける符号化順序と視差ベクトルバッファの内容の一例を
図14に示す。図14ではバッファAが視点V1用、バ
ッファBが視点V3用となっており、それぞれの視点に
属する画像が符号化されるたびにバッファの内容が更新
されていく。なお、図14中で11−21という表記
は、画面11から画面21への視差ベクトルを意味す
る。
The pattern matching units 101 to 103 in FIG. 2 are the motion compensation pattern matching unit 131 and the motion parallax compensation pattern matching unit 13 in FIG.
2. It is replaced by the parallax compensation pattern matching unit 133. Since the encoding apparatus of FIG. 13 is a trinocular system, two parallax vector buffers are required. Generally, when the number of viewpoints is i, the required number of parallax vector buffers is i−1.
The selection unit 122 selects the parallax vector buffer in which the newly obtained parallax vector should be written. FIG. 14 shows an example of the coding order and the contents of the disparity vector buffer according to the present embodiment. In FIG. 14, the buffer A is for the viewpoint V1, and the buffer B is for the viewpoint V3, and the contents of the buffer are updated each time an image belonging to each viewpoint is encoded. Note that the notation 11-21 in FIG. 14 means a disparity vector from the screen 11 to the screen 21.

【0039】1画面を符号化する場合、まず動き補償パ
ターンマッチング部131において動き補償を行ない、
選択部123はその結果に基づいて視差ベクトルバッフ
ァから対応する視差ベクトルを視差補償パターンマッチ
ング部133と動視差補償パターンマッチング部132
に出力する。視差補償パターンマッチング部133と動
視差補償パターンマッチング部132では、送られた視
差ベクトル分だけ探索中心を移動してパターンマッチン
グを行なう。
When encoding one screen, first, the motion compensation pattern matching unit 131 performs motion compensation,
Based on the result, the selection unit 123 obtains the corresponding parallax vector from the parallax vector buffer by the parallax compensation pattern matching unit 133 and the moving parallax compensation pattern matching unit 132.
Output to In the parallax compensation pattern matching unit 133 and the moving parallax compensation pattern matching unit 132, the search center is moved by the transmitted parallax vector to perform pattern matching.

【0040】なお、本実施の形態では視差補償予測と動
視差補償予測における探索中心は同一であるが、探索範
囲の大きさは同じである必要がない。図15に両補償予
測において探索範囲の大きさを変える例を示す。図15
は図12における画面32の部分に相当する。視差補償
予測では視差ベクトルの垂直成分が小さいことから、垂
直方向探索範囲を狭めることができ、さらに前フレーム
の視差ベクトルを用いることにより概略の位置の見当が
ついていることから、水平方向についてもそれほど広い
範囲を探索する必要がない。これは探索時間の短縮もし
くは探索結果の高精度化が可能であることを意味する。
もちろん、探索領域が正方形である必要もない。なお、
この場合の動視差補償予測では、前フレームの視差ベク
トルを用いても通常の動き補償と同程度の探索範囲を必
要とする。
In the present embodiment, the search centers in the parallax compensation prediction and the motion parallax compensation prediction are the same, but the sizes of the search ranges do not have to be the same. FIG. 15 shows an example in which the size of the search range is changed in both compensation predictions. FIG.
Corresponds to the portion of the screen 32 in FIG. In the parallax compensation prediction, the vertical component of the parallax vector is small, so the vertical search range can be narrowed, and since the approximate position can be estimated by using the parallax vector of the previous frame, the horizontal direction is not so much. There is no need to search a wide range. This means that the search time can be shortened or the search results can be highly accurate.
Of course, the search area need not be square. In addition,
In the motion parallax compensation prediction in this case, even if the parallax vector of the previous frame is used, a search range similar to that of normal motion compensation is required.

【0041】次に、本発明の第3の実施の形態について
説明する。図16は図1に示した3眼式立体映像を符号
化する場合の、画面32の符号化を説明する図である。
図16は図12における画面32の部分に相当し、図1
2に示したのと同様に3種類の補償方法と補償ベクトル
が存在するとともに、パターンマッチングの順序も動き
補償予測、視差補償予測、動視差補償予測の順に行なう
ものとする(ブロック単位もしくはフレーム単位)。
Next, a third embodiment of the present invention will be described. FIG. 16 is a diagram for explaining the coding of the screen 32 when the three-eye stereoscopic image shown in FIG. 1 is coded.
16 corresponds to the part of the screen 32 in FIG.
There are three types of compensation methods and compensation vectors as shown in FIG. 2, and the pattern matching is performed in the order of motion compensation prediction, parallax compensation prediction, and motion parallax compensation prediction (block unit or frame unit). ).

【0042】図16においてもまず動き補償予測を行な
い、その後の視差補償予測では前フレームの視差ベクト
ルを用いて探索中心を視差ベクトル分だけ移動してパタ
ーンマッチングを行なう点は図15で説明したのと同様
である。しかしながら、本実施の形態では動視差補償予
測における探索範囲の設定方法が図12あるいは図15
で説明した方法と異なる。図16において動視差補償予
測を行なう際には、前フレームの視差ベクトル分だけ移
動した視差補償予測の際の探索中心を、既に求めた動き
ベクトル分だけさらに移動した点を探索中心としてパタ
ーンマッチングを行なう。このような探索中心の移動に
より、動視差補償予測においても最適解の概略の位置の
見当がつくことになるため、動視差補償予測における探
索範囲を通常の動き補償で用いられる探索範囲よりも小
さくすることができる。すなわち、探索時間の短縮もし
くは探索結果の高精度化を図ることができる。
Also in FIG. 16, motion compensation prediction is first performed, and in the subsequent parallax compensation prediction, pattern matching is performed by moving the search center by the parallax vector using the parallax vector of the previous frame, as described with reference to FIG. Is the same as. However, in the present embodiment, the method of setting the search range in the motion disparity compensation prediction is as shown in FIG.
Different from the method explained in. In performing the motion parallax compensation prediction in FIG. 16, pattern matching is performed with the search center in the parallax compensation prediction moved by the parallax vector of the previous frame as the search center and the point further moved by the motion vector already obtained. To do. By moving the search center in this way, the approximate position of the optimum solution can be estimated even in the motion parallax compensation prediction, so the search range in the motion parallax compensation prediction is smaller than the search range used in normal motion compensation. can do. That is, it is possible to shorten the search time or improve the accuracy of the search result.

【0043】図16のような補償方法を実現するための
符号化装置のブロック図を図17に示す。図13に示し
た符号化装置との相違は、選択部123からの出力(選
択された視差ベクトル)を動視差補償パターンマッチン
グ部132に入力する前に、動き補償パターンマッチン
グ部31からの出力(動きベクトル)を加えている点で
ある。
FIG. 17 shows a block diagram of an encoding apparatus for realizing the compensation method as shown in FIG. The difference from the encoding device shown in FIG. 13 is that the output from the motion compensation pattern matching unit 31 (before the output from the selection unit 123 (selected parallax vector) is input to the motion parallax compensation pattern matching unit 132 ( Motion vector) is added.

【0044】また、図16においては、動視差補償予測
における探索中心を「前フレームの視差ベクトル+動き
ベクトル」だけ移動した点としたが、前フレームの視差
ベクトルの代わりに現フレームの視差補償予測において
新たに求めた視差ベクトルを用いることもできる。図1
8はこの方法を説明する図であり、動視差補償予測にお
ける探索中心を、「新たに求めた視差ベクトル+動きベ
クトル」だけ移動した点とするものである。このように
することにより、動視差補償予測における探索中心をよ
り最適解に近い位置にもっていくことができ、探索範囲
をさらに小さくすることができる。すなわち、より効果
的に探索時間の短縮もしくは探索結果の高精度化を図る
ことができる。
Further, in FIG. 16, the search center in the motion parallax compensation prediction is a point moved by "the parallax vector of the previous frame + the motion vector", but the parallax compensation prediction of the current frame is used instead of the parallax vector of the previous frame. It is also possible to use the parallax vector newly obtained in. FIG.
FIG. 8 is a diagram for explaining this method, in which the search center in the motion parallax compensation prediction is set as a point moved by the “newly obtained parallax vector + motion vector”. By doing so, the search center in the motion parallax compensation prediction can be brought to a position closer to the optimal solution, and the search range can be further reduced. That is, it is possible to more effectively reduce the search time or improve the accuracy of the search result.

【0045】図18のような補償方法を実現するための
符号化装置のブロック図を図19に示す。図17に示し
た符号化装置との相違は、動視差補償パターンマッチン
グ部132への入力として、視差補償パターンマッチン
グ部133の出力(視差ベクトル)に動き補償パターン
マッチング部131の出力(動きベクトル)を加えたも
のを与えている点である。図18の補償方法では、視差
ベクトルバッファに記憶された前フレームの視差ベクト
ルは視差補償予測の際の探索中心を決定するためだけに
用いられ、動視差補償予測では用いない。
FIG. 19 shows a block diagram of an encoding apparatus for realizing the compensation method as shown in FIG. The difference from the encoding device shown in FIG. 17 is that the output of the parallax compensation pattern matching unit 133 (parallax vector) is the output of the motion compensation pattern matching unit 131 (motion vector) as an input to the motion parallax compensation pattern matching unit 132. Is added. In the compensation method of FIG. 18, the parallax vector of the previous frame stored in the parallax vector buffer is used only for determining the search center in the parallax compensation prediction, and is not used in the moving parallax compensation prediction.

【0046】[0046]

【発明の効果】本発明の多視点画像符号化装置によれ
ば、符号化画面と参照画面とのパターンマッチングを行
なって予測誤差及び補償ベクトルを求める3つのパター
ンマッチング部と、前記予測誤差が最小となる参照画面
の補償ベクトルを選択する最小値選択部と、参照画面か
らの予測値と符号化画面との予測誤差を符号化する符号
器と、参照画面を保持しておくための複数のフレームメ
モリとを備えるとともに、基準視点画像を定め、基準視
点画像の符号化においては、参照画面を同一視点画像に
限定し、基準視点以外の視点の画像符号化においては、
参照画面を同一視点画像及び基準視点寄りの隣接視点画
像に限定するようにしたので、高い符号化効率を保ちな
がら視点数スケーラビリティを実現できる。
According to the multi-view image coding device of the present invention, three pattern matching units for performing pattern matching between a coded screen and a reference screen to obtain a prediction error and a compensation vector, and the prediction error are minimized. A minimum value selection unit that selects a compensation vector of the reference screen, an encoder that encodes a prediction error between the prediction value from the reference screen and the encoded screen, and a plurality of frames for holding the reference screen In addition to the memory, the standard viewpoint image is defined, in the standard viewpoint image encoding, the reference screen is limited to the same viewpoint image, and in the viewpoint image encoding other than the standard viewpoint,
Since the reference screen is limited to the same-viewpoint image and the adjacent-viewpoint image close to the standard viewpoint, the number-of-views scalability can be realized while maintaining high coding efficiency.

【0047】また、ブロック単位で3つの参照画面を選
択するようにしたので、予測誤差をより小さくでき、高
い符号化効率を実現できる。
Further, since three reference screens are selected in block units, the prediction error can be further reduced and high coding efficiency can be realized.

【0048】さらに、視差ベクトルバッファを設けると
ともに、補償予測を行なう順序を、動き補償予測、視差
補償予測、動視差補償予測の順とし、視差補償予測及び
動視差補償予測を行なう際には、動き補償予測で得られ
た動きベクトルと視差ベクトルバッファ内の視差ベクト
ルを用いてパターンマッチングの探索範囲を移動するよ
うにしたので、視差ベクトル及び動視差ベクトルを効率
的に探索することができる。
Further, a parallax vector buffer is provided, and the order of performing compensation prediction is motion compensation prediction, parallax compensation prediction, and motion parallax compensation prediction. When performing parallax compensation prediction and motion parallax compensation prediction, motion compensation prediction is performed. Since the search range of the pattern matching is moved using the motion vector obtained by the compensation prediction and the disparity vector in the disparity vector buffer, the disparity vector and the moving disparity vector can be efficiently searched.

【0049】さらに、動視差補償予測を行なう際に、動
き補償予測で得られた動きベクトルと視差補償予測で得
られた視差ベクトルを用いてパターンマッチングの探索
範囲を移動したので、動視差ベクトルをより効率的に探
索することができる。
Further, since the motion vector obtained by the motion compensation prediction and the parallax vector obtained by the parallax compensation prediction are used to move the search range of the pattern matching when the motion parallax compensation prediction is performed, You can search more efficiently.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明における3眼式立体映像の補償予測方法
を示す図である。
FIG. 1 is a diagram showing a method of compensating and predicting a three-eye stereoscopic image according to the present invention.

【図2】図1の補償予測方法を実現する符号化装置のブ
ロック図である。
FIG. 2 is a block diagram of an encoding device that implements the compensation prediction method of FIG.

【図3】図1の補償予測方法の符号化手順と参照画面を
説明する図である。
FIG. 3 is a diagram illustrating an encoding procedure and a reference screen of the compensation prediction method of FIG.

【図4】本発明における5眼式立体映像の補償予測方法
を示す図である。
FIG. 4 is a diagram showing a method of compensating and predicting a five-eye stereoscopic image according to the present invention.

【図5】本発明における視点と参照画面の関係を示す図
である。
FIG. 5 is a diagram showing a relationship between a viewpoint and a reference screen according to the present invention.

【図6】本発明における再生視点数と復号画像の関係を
示す図である。
FIG. 6 is a diagram showing a relationship between the number of reproduction viewpoints and a decoded image according to the present invention.

【図7】図4の補償予測方法の符号化手順と参照画面を
説明する図である。
7 is a diagram illustrating an encoding procedure and a reference screen of the compensation prediction method of FIG.

【図8】本発明における2眼式立体映像の補償予測方法
を示す図である。
FIG. 8 is a diagram illustrating a method of compensating and predicting a twin-lens stereoscopic image according to the present invention.

【図9】図8の補償予測方法の符号化手順と参照画面を
説明する図である。
9 is a diagram illustrating an encoding procedure and a reference screen of the compensation prediction method of FIG.

【図10】本発明における4眼式立体映像の補償予測方
法を示す図である。
FIG. 10 is a diagram showing a compensation prediction method for a four-eye stereoscopic image according to the present invention.

【図11】図10の補償予測方法の符号化手順と参照画
面を説明する図である。
11 is a diagram illustrating an encoding procedure and a reference screen of the compensation prediction method of FIG.

【図12】本発明における3種類の補償予測方法を説明
する図である。
FIG. 12 is a diagram illustrating three types of compensation prediction methods according to the present invention.

【図13】図12の補償予測方法を実現する符号化装置
のブロック図である。
13 is a block diagram of an encoding device that implements the compensation prediction method of FIG.

【図14】図12の補償予測方法の符号化手順と視差ベ
クトルバッファ内容を説明する図である。
[Fig. 14] Fig. 14 is a diagram for describing the encoding procedure and disparity vector buffer contents of the compensation prediction method in Fig. 12.

【図15】図12の補償予測方法における探索範囲を説
明する図である。
15 is a diagram illustrating a search range in the compensation prediction method of FIG.

【図16】動視差補償予測における探索範囲の設定方法
を説明する図である。
[Fig. 16] Fig. 16 is a diagram for describing a method of setting a search range in motion parallax compensation prediction.

【図17】図16の補償予測方法を実現する符号化装置
のブロック図である。
17 is a block diagram of an encoding device that realizes the compensation prediction method of FIG.

【図18】動視差補償予測における探索範囲の別の設定
方法を説明する図である。
[Fig. 18] Fig. 18 is a diagram for describing another method of setting a search range in motion parallax compensation prediction.

【図19】図18の補償予測方法を実現する符号化装置
のブロック図である。
19 is a block diagram of an encoding device that implements the compensation prediction method of FIG.

【図20】従来の2眼式立体映像の補償予測方法を示す
図である。
[Fig. 20] Fig. 20 is a diagram illustrating a conventional method for compensating and predicting a two-eye stereoscopic image.

【図21】従来の多視点立体映像の補償予測方法を示す
図である。
FIG. 21 is a diagram illustrating a conventional multi-view stereoscopic image compensation prediction method.

【符号の説明】[Explanation of symbols]

P0 符号化画面 P1、P2、P3 参照画面 V1、V2、V3、V4、V5 視点 11〜53 フレーム画面 104 最小値検出部 101、102、103 パターンマッチング部 105、115、116、122、123 選択部 106 直交変換部 107 量子化部 108 逆量子化部 109 逆直交変換部 110〜114 フレームメモリ 117 可変長符号化部 118 補償部 120、121 視差ベクトルバッファ 131 動き補償パターンマッチング部 132 動視差補償パターンマッチング部 133 視差補償パターンマッチング部 P0 coded screen P1, P2, P3 reference screen V1, V2, V3, V4, V5 viewpoint 11 to 53 frame screen 104 minimum value detection unit 101, 102, 103 pattern matching unit 105, 115, 116, 122, 123 selection unit 106 Orthogonal Transform Unit 107 Quantizer 108 Inverse Quantizer 109 Inverse Orthogonal Transform Unit 110-114 Frame Memory 117 Variable Length Encoder 118 Compensator 120, 121 Parallax Vector Buffer 131 Motion Compensation Pattern Matching Unit 132 Motion Parallax Compensation Pattern Matching Part 133 Parallax compensation pattern matching unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 符号化画面と参照画面とのパターンマッ
チングを行なって予測誤差及び補償ベクトルを求める3
つのパターンマッチング部と、前記予測誤差が最小とな
る参照画面の補償ベクトルを選択する最小値選択部と、
参照画面からの予測値と符号化画面との予測誤差を符号
化する符号器と、参照画面を保持しておくための複数の
フレームメモリとを備えるとともに、 基準視点画像を定め、基準視点画像の符号化において
は、参照画面を同一視点画像に限定し、基準視点以外の
視点の画像符号化においては、参照画面を同一視点画像
及び基準視点寄りの隣接視点画像に限定することを特徴
とする多視点画像符号化装置。
1. A prediction error and a compensation vector are obtained by performing pattern matching between an encoded screen and a reference screen.
One pattern matching unit, and a minimum value selection unit that selects a compensation vector of the reference screen that minimizes the prediction error,
An encoder that encodes the prediction error between the predicted value from the reference screen and the encoded screen, and a plurality of frame memories for holding the reference screen are provided. In the encoding, the reference screen is limited to the same viewpoint image, and in the image encoding of the viewpoints other than the standard viewpoint, the reference screen is limited to the same viewpoint image and the adjacent viewpoint image close to the standard viewpoint. View image encoding device.
【請求項2】 前記基準視点画像の符号化においては、
参照画面を符号化画面の1フレーム前の画面のみとし、
前記基準視点以外の視点の画像符号化においては、参照
画面を符号化画面の1フレーム前の画面と、符号化画面
の基準視点寄り隣接視点の同フレーム画面と、符号化画
面の基準視点寄り隣接視点の1フレーム前の画面の3つ
とすることを特徴とする請求項1に記載の多視点画像符
号化装置。
2. In the encoding of the reference viewpoint image,
The reference screen is only the screen one frame before the encoded screen,
In image encoding of a viewpoint other than the standard viewpoint, the reference screen is a frame one frame before the encoded screen, the same frame screen is adjacent to the standard viewpoint of the encoded screen, and the adjacent frame is closer to the standard viewpoint of the encoded screen. The multi-view image encoding device according to claim 1, wherein there are three screens one frame before the viewpoint.
【請求項3】 前記パターンマッチング部は符号化画面
を複数のブロックに分割し、ブロック単位でパターンマ
ッチングを行なうとともに、前記最小値選択部は、ブロ
ック単位で参照画面を選択することを特徴とする請求項
1に記載の多視点画像符号化装置。
3. The pattern matching unit divides an encoded screen into a plurality of blocks and performs pattern matching in block units, and the minimum value selection unit selects a reference screen in block units. The multi-view image encoding device according to claim 1.
【請求項4】 前記パターンマッチング部は符号化画面
を複数のブロックに分割し、ブロック単位でパターンマ
ッチングを行なうとともに、前記最小値選択部は、フレ
ーム単位で参照画面を選択することを特徴とする請求項
1に記載の多視点画像符号化装置。
4. The pattern matching unit divides an encoded screen into a plurality of blocks and performs pattern matching in block units, and the minimum value selecting unit selects a reference screen in frame units. The multi-view image encoding device according to claim 1.
【請求項5】 前記フレームメモリの数Mは、視点数n
(n:自然数)の場合に、 M=n+2(n=2、3、4) M=n+3(n≧5) であることを特徴とする請求項1に記載の多視点画像符
号化装置。
5. The number M of the frame memories is the number of viewpoints n
The multi-view image encoding device according to claim 1, wherein, in the case of (n: natural number), M = n + 2 (n = 2, 3, 4) M = n + 3 (n ≧ 5).
【請求項6】 前記基準視点は、視点数2n+1(n:
自然数)の場合にはn番目の視点、視点数2n(n:自
然数)の場合にはn番目もしくはn+1番目の視点とす
ることを特徴とする請求項1に記載の多視点画像符号化
装置。
6. The number of viewpoints is 2n + 1 (n:
The multi-view image encoding device according to claim 1, wherein the viewpoint is the n-th viewpoint in the case of a natural number) and the n-th or n + 1-th viewpoint in the case of the viewpoint number 2n (n: natural number).
【請求項7】 符号化画面と参照画面とのパターンマッ
チングを行なって予測誤差及び補償ベクトルを求める3
つのパターンマッチング部と、前記予測誤差が最小とな
る参照画面の補償ベクトルを選択する最小値選択部と、
参照画面からの予測値と符号化画面との予測誤差を符号
化する符号器と、参照画面を保持しておくための複数の
フレームメモリと、符号化画面の前フレームで求めた視
差ベクトルを記憶するための視差ベクトルバッファとを
備えるとともに、 基準視点画像を定め、基準視点画像の符号化において
は、参照画面を符号化画面の1フレーム前の画面のみと
し、前記基準視点以外の視点の画像符号化においては、
参照画面を符号化画面の1フレーム前の画面と、符号化
画面の基準視点寄り隣接視点の同フレーム画面と、符号
化画面の基準視点寄り隣接視点の1フレーム前の画面の
3つとし、補償予測を行なう順序を、符号化画面と同一
視点の1フレーム前の画面(動き補償予測)、符号化画
面と隣接視点の同フレームの画面(視差補償予測)、符
号化画面と隣接視点の1フレーム前の画面(動視差補償
予測)の順とし、視差補償予測及び動視差補償予測を行
なう際には、動き補償予測で得られた動きベクトルと視
差ベクトルバッファ内の視差ベクトルを用いてパターン
マッチングの探索範囲を移動することを特徴とする多視
点画像符号化装置。
7. A prediction error and a compensation vector are obtained by performing pattern matching between an encoded screen and a reference screen.
One pattern matching unit, and a minimum value selection unit that selects a compensation vector of the reference screen that minimizes the prediction error,
An encoder that encodes the prediction error between the predicted value from the reference screen and the encoded screen, a plurality of frame memories for holding the reference screen, and a disparity vector obtained in the previous frame of the encoded screen are stored And a parallax vector buffer for defining a standard viewpoint image, and in encoding the standard viewpoint image, the reference screen is only the screen one frame before the encoded screen, and the image code of the viewpoint other than the standard viewpoint is used. In conversion,
There are three reference screens, a screen one frame before the encoded screen, a same frame screen adjacent to the reference viewpoint of the encoded screen, and a frame one frame before the adjacent viewpoint closer to the reference viewpoint of the encoded screen. The order in which the prediction is performed is one frame before the encoded screen and one frame before the same viewpoint (motion compensation prediction), the same frame between the encoded screen and the adjacent viewpoint (parallax compensation prediction), and one frame between the encoded screen and the adjacent viewpoint. When performing the parallax compensation prediction and the motion parallax compensation prediction in the order of the previous screen (motion parallax compensation prediction), the motion vector obtained by the motion compensation prediction and the parallax vector in the parallax vector buffer are used to perform pattern matching. A multi-view image coding device characterized by moving a search range.
【請求項8】 前記視差補償予測を行なう際には、パタ
ーンマッチングの探索範囲を動き補償予測の際の探索範
囲よりも狭い領域とすることを特徴とする請求項7に記
載の多視点画像符号化装置。
8. The multi-view image code according to claim 7, wherein, when performing the parallax compensation prediction, a search range for pattern matching is set to an area narrower than a search range for motion compensation prediction. Device.
【請求項9】 符号化画面と参照画面とのパターンマッ
チングを行なって予測誤差及び補償ベクトルを求める3
つのパターンマッチング部と、前記予測誤差が最小とな
る参照画面の補償ベクトルを選択する最小値選択部と、
参照画面からの予測値と符号化画面との予測誤差を符号
化する符号器と、参照画面を保持しておくための複数の
フレームメモリと、符号化画面の前フレームで求めた視
差ベクトルを記憶するための視差ベクトルバッファとを
備えるとともに、 基準視点画像を定め、基準視点画像の符号化において
は、参照画面を符号化画面の1フレーム前の画面のみと
し、前記基準視点以外の視点の画像符号化においては、
参照画面を符号化画面の1フレーム前の画面と、符号化
画面の基準視点寄り隣接視点の同フレーム画面と、符号
化画面の基準視点寄り隣接視点の1フレーム前の画面の
3つとし、補償予測を行なう順序を、符号化画面と同一
視点の1フレーム前の画面(動き補償予測)、符号化画
面と隣接視点の同フレームの画面(視差補償予測)、符
号化画面と隣接視点の1フレーム前の画面(動視差補償
予測)の順とし、視差補償予測を行なう際には、動き補
償予測で得られた動きベクトルと視差ベクトルバッファ
内の視差ベクトルを用いてパターンマッチングの探索範
囲を移動し、動視差補償予測を行なう際には動き補償予
測で得られた動きベクトルと視差補償予測で得られた視
差ベクトルを用いてパターンマッチングの探索範囲を移
動することを特徴とする多視点画像符号化装置。
9. A prediction error and a compensation vector are obtained by performing pattern matching between an encoded screen and a reference screen.
One pattern matching unit, and a minimum value selection unit that selects a compensation vector of the reference screen that minimizes the prediction error,
An encoder that encodes the prediction error between the predicted value from the reference screen and the encoded screen, a plurality of frame memories for holding the reference screen, and a disparity vector obtained in the previous frame of the encoded screen are stored And a parallax vector buffer for defining a standard viewpoint image, and in encoding the standard viewpoint image, the reference screen is only the screen one frame before the encoded screen, and the image code of the viewpoint other than the standard viewpoint is used. In conversion,
There are three reference screens, a screen one frame before the encoded screen, a same frame screen adjacent to the reference viewpoint of the encoded screen, and a frame one frame before the adjacent viewpoint closer to the reference viewpoint of the encoded screen. The order in which the prediction is performed is one frame before the encoded screen and one frame before the same viewpoint (motion compensation prediction), the same frame between the encoded screen and the adjacent viewpoint (parallax compensation prediction), and one frame between the encoded screen and the adjacent viewpoint. In the order of the previous screen (moving parallax compensation prediction), when performing parallax compensation prediction, the search range for pattern matching is moved using the motion vector obtained by motion compensation prediction and the parallax vector in the parallax vector buffer. When moving-parallax-compensated prediction is performed, the search range for pattern matching is moved using the motion vector obtained by motion-compensated prediction and the parallax vector obtained by parallax-compensated prediction. Multi-view image encoding apparatus.
【請求項10】 前記視差補償予測及び動視差補償予測
を行なう際には、パターンマッチングの探索範囲を動き
補償予測の際の探索範囲よりも狭い領域とすることを特
徴とする請求項9に記載の多視点画像符号化装置。
10. The pattern matching search range is set to an area narrower than the search range used in the motion compensation prediction when performing the parallax compensation prediction and the motion parallax compensation prediction. Multi-view image coding device.
JP6126496A 1996-03-18 1996-03-18 Multi-view-point picture encoder Pending JPH09261653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6126496A JPH09261653A (en) 1996-03-18 1996-03-18 Multi-view-point picture encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6126496A JPH09261653A (en) 1996-03-18 1996-03-18 Multi-view-point picture encoder

Publications (1)

Publication Number Publication Date
JPH09261653A true JPH09261653A (en) 1997-10-03

Family

ID=13166207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6126496A Pending JPH09261653A (en) 1996-03-18 1996-03-18 Multi-view-point picture encoder

Country Status (1)

Country Link
JP (1) JPH09261653A (en)

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303773A (en) * 2004-04-14 2005-10-27 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video coder, and video coding program and computer-readable recording medium with the program recorded, and video decoding method, video decoder, and video decoding program and computer-readable recording medium with the program recorded
JP2006042360A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for on-line multi-view video compression
JP2006074743A (en) * 2004-07-27 2006-03-16 Microsoft Corp Multi-view video format
WO2006038568A1 (en) * 2004-10-07 2006-04-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the programs
WO2006072993A1 (en) 2005-01-07 2006-07-13 Fujitsu Limited Compression/encoding device, decompression/decoding device
WO2006072992A1 (en) * 2005-01-07 2006-07-13 Fujitsu Limited Compression/encoding device, decompression/decoding device
WO2006073116A1 (en) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the program
WO2006080739A1 (en) * 2004-10-12 2006-08-03 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
WO2007013194A1 (en) * 2005-07-26 2007-02-01 National University Corporation Nagoya University Image information compression method and free viewpoint television system
WO2007069487A1 (en) * 2005-12-15 2007-06-21 The University Of Tokyo Compression-encoding method of multi-viewpoint images, and decoding method
JP2007159113A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for randomly accessing multiview video
JP2007159112A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for synthesizing multiview video
JP2007159111A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system of managing multiview video
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
WO2007077942A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium contains the program
JP2007184741A (en) * 2006-01-06 2007-07-19 Kddi Corp Multi-viewpoint video encoding method, device, and program
JP2007215178A (en) * 2006-02-07 2007-08-23 Samsung Electronics Co Ltd Multi-view moving image encoding apparatus and method
KR100762783B1 (en) * 2005-07-11 2007-10-05 (주)블루비스 Apparatus for encoding and decoding multi-view image
WO2008035665A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program
WO2008035654A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding and decoding methods, their devices, image decoding device, their programs, and storage medium in which programs are recorded
KR100823287B1 (en) * 2007-01-03 2008-04-21 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image based on global disparity vector
JP2008211417A (en) * 2007-02-26 2008-09-11 Fujitsu Ltd Multi-viewpoint moving image transmission system
JP2009502084A (en) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Predictive encoding / decoding apparatus and method using temporal and inter-view reference video buffer
JP2009505604A (en) * 2005-08-22 2009-02-05 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for encoding multi-view video
EP2080382A2 (en) * 2006-10-20 2009-07-22 Nokia Corporation System and method for implementing low-complexity multi-view video coding
JP2009207183A (en) * 2009-06-15 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium for recording the programs
JP2009213161A (en) * 2009-06-15 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium with the programs recorded thereon
KR100926608B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
KR100926607B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
JP2010516158A (en) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus
KR100987775B1 (en) * 2004-01-20 2010-10-13 삼성전자주식회사 3 Dimensional coding method of video
JP2011083038A (en) * 2011-01-24 2011-04-21 Fujitsu Ltd Extension decoding apparatus, extension decoding method, and, program
WO2011061973A1 (en) * 2009-11-18 2011-05-26 日本ビクター株式会社 Three-dimensional image display device and method of deriving motion vector
JP2011519226A (en) * 2008-04-25 2011-06-30 トムソン ライセンシング Inter-view skip mode using depth
JP2011130499A (en) * 2011-02-23 2011-06-30 Fujitsu Ltd Expansion decoding device, and expansion decoding method
JP2011130500A (en) * 2011-02-23 2011-06-30 Fujitsu Ltd Expansion decoding device, and expansion decoding method
JP2011155683A (en) * 2006-03-21 2011-08-11 Mitsubishi Electric Research Laboratories Inc Method for decoding multiview videos
WO2011114755A1 (en) * 2010-03-16 2011-09-22 シャープ株式会社 Multi-view image encoding device
US8270482B2 (en) 2006-03-09 2012-09-18 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video to provide uniform picture quality
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
JP2012533925A (en) * 2009-07-17 2012-12-27 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for multi-view video encoding and decoding
JP2013017215A (en) * 2006-03-29 2013-01-24 Thomson Licensing Methods and apparatus for multi-view video coding
WO2013035457A1 (en) * 2011-09-07 2013-03-14 シャープ株式会社 Stereoscopic image processing apparatus, stereoscopic image processing method, and program
WO2013038679A1 (en) * 2011-09-13 2013-03-21 パナソニック株式会社 Encoding device, decoding device, playback device, encoding method, and decoding method
TWI400959B (en) * 2006-10-30 2013-07-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
WO2013115023A1 (en) * 2012-01-31 2013-08-08 ソニー株式会社 Image processing apparatus and image processing method
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US8532412B2 (en) 2007-04-11 2013-09-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
JP2013258501A (en) * 2012-06-11 2013-12-26 Canon Inc Image processing device and image processing method
JP2014011731A (en) * 2012-07-02 2014-01-20 Toshiba Corp Method for decoding moving image and method for encoding moving image
US20140133567A1 (en) * 2012-04-16 2014-05-15 Nokia Corporation Apparatus, a method and a computer program for video coding and decoding
JP2015008387A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, method and program for image processing and imaging apparatus
JP5894338B2 (en) * 2013-04-12 2016-03-30 日本電信電話株式会社 Video encoding apparatus and method, video decoding apparatus and method, and programs thereof
US9509997B2 (en) 2012-06-13 2016-11-29 Canon Kabushiki Kaisha Imaging apparatus, imaging method and storage medium, image coding apparatus, image coding method and storage medium

Cited By (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100987775B1 (en) * 2004-01-20 2010-10-13 삼성전자주식회사 3 Dimensional coding method of video
JP2005303773A (en) * 2004-04-14 2005-10-27 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video coder, and video coding program and computer-readable recording medium with the program recorded, and video decoding method, video decoder, and video decoding program and computer-readable recording medium with the program recorded
JP2006042360A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for on-line multi-view video compression
JP2006074743A (en) * 2004-07-27 2006-03-16 Microsoft Corp Multi-view video format
US8275048B2 (en) 2004-10-07 2012-09-25 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
KR100972222B1 (en) * 2004-10-07 2010-07-23 니폰덴신뎅와 가부시키가이샤 Video encoding method and device, video decoding method and device, and recording medium containing the programs thereof
WO2006038568A1 (en) * 2004-10-07 2006-04-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the programs
WO2006080739A1 (en) * 2004-10-12 2006-08-03 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
US8204133B2 (en) 2004-10-12 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
US8855210B2 (en) 2004-10-12 2014-10-07 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
KR100926608B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
WO2006073116A1 (en) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the program
US8606024B2 (en) 2005-01-07 2013-12-10 Fujitsu Limited Compression-coding device and decompression-decoding device
EP1843598A4 (en) * 2005-01-07 2010-03-10 Fujitsu Ltd Compression/encoding device, decompression/decoding device
KR100926607B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
JP4825137B2 (en) * 2005-01-07 2011-11-30 富士通株式会社 Compression encoding device, decompression decoding device
WO2006072993A1 (en) 2005-01-07 2006-07-13 Fujitsu Limited Compression/encoding device, decompression/decoding device
JP4893311B2 (en) * 2005-01-07 2012-03-07 富士通株式会社 Compression encoding device, decompression decoding device
EP1843597A1 (en) * 2005-01-07 2007-10-10 Fujitsu Ltd. Compression/encoding device, decompression/decoding device
EP1843598A1 (en) * 2005-01-07 2007-10-10 Fujitsu Ltd. Compression/encoding device, decompression/decoding device
EP1843597A4 (en) * 2005-01-07 2010-07-14 Fujitsu Ltd Compression/encoding device, decompression/decoding device
US9088802B2 (en) 2005-01-07 2015-07-21 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
WO2006072992A1 (en) * 2005-01-07 2006-07-13 Fujitsu Limited Compression/encoding device, decompression/decoding device
JPWO2006072993A1 (en) * 2005-01-07 2008-06-12 富士通株式会社 Compression encoding device, decompression decoding device
JPWO2006072992A1 (en) * 2005-01-07 2008-06-12 富士通株式会社 Compression encoding device, decompression decoding device
KR100762783B1 (en) * 2005-07-11 2007-10-05 (주)블루비스 Apparatus for encoding and decoding multi-view image
US9154786B2 (en) 2005-07-18 2015-10-06 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
JP2009502084A (en) * 2005-07-18 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Predictive encoding / decoding apparatus and method using temporal and inter-view reference video buffer
US8369406B2 (en) 2005-07-18 2013-02-05 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
WO2007013194A1 (en) * 2005-07-26 2007-02-01 National University Corporation Nagoya University Image information compression method and free viewpoint television system
JP2009505604A (en) * 2005-08-22 2009-02-05 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for encoding multi-view video
JP2007159112A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for synthesizing multiview video
JP2012114942A (en) * 2005-11-30 2012-06-14 Mitsubishi Electric Research Laboratories Inc Method and system for predicting multiview videos
JP2007159113A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for randomly accessing multiview video
JP2007159111A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system of managing multiview video
WO2007069487A1 (en) * 2005-12-15 2007-06-21 The University Of Tokyo Compression-encoding method of multi-viewpoint images, and decoding method
US8451894B2 (en) 2006-01-05 2013-05-28 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs by using parallax compensation
US8548064B2 (en) 2006-01-05 2013-10-01 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method by using selected parallax for parallax compensation, apparatuses therefor, programs therefor, and storage media for storing the programs
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
WO2007077942A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium contains the program
JP2007184741A (en) * 2006-01-06 2007-07-19 Kddi Corp Multi-viewpoint video encoding method, device, and program
JP4570159B2 (en) * 2006-01-06 2010-10-27 Kddi株式会社 Multi-view video encoding method, apparatus, and program
JP2007215178A (en) * 2006-02-07 2007-08-23 Samsung Electronics Co Ltd Multi-view moving image encoding apparatus and method
US8270482B2 (en) 2006-03-09 2012-09-18 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video to provide uniform picture quality
JP2011155683A (en) * 2006-03-21 2011-08-11 Mitsubishi Electric Research Laboratories Inc Method for decoding multiview videos
US9100659B2 (en) 2006-03-29 2015-08-04 Thomson Licensing Multi-view video coding method and device using a base view
JP2013017215A (en) * 2006-03-29 2013-01-24 Thomson Licensing Methods and apparatus for multi-view video coding
WO2008035665A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program
JP4999854B2 (en) * 2006-09-20 2012-08-15 日本電信電話株式会社 Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
US8385628B2 (en) 2006-09-20 2013-02-26 Nippon Telegraph And Telephone Corporation Image encoding and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US8290289B2 (en) 2006-09-20 2012-10-16 Nippon Telegraph And Telephone Corporation Image encoding and decoding for multi-viewpoint images
JP4999853B2 (en) * 2006-09-20 2012-08-15 日本電信電話株式会社 Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
WO2008035654A1 (en) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation Image encoding and decoding methods, their devices, image decoding device, their programs, and storage medium in which programs are recorded
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
EP2080382A4 (en) * 2006-10-20 2011-07-06 Nokia Corp System and method for implementing low-complexity multi-view video coding
US8929462B2 (en) 2006-10-20 2015-01-06 Nokia Corporation System and method for implementing low-complexity multi-view video coding
EP2080382A2 (en) * 2006-10-20 2009-07-22 Nokia Corporation System and method for implementing low-complexity multi-view video coding
TWI400959B (en) * 2006-10-30 2013-07-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
KR100823287B1 (en) * 2007-01-03 2008-04-21 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image based on global disparity vector
JP2010515400A (en) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus using global difference vector
US8175396B2 (en) 2007-01-03 2012-05-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view images based on global disparity vector
JP2010516158A (en) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus
JP2008211417A (en) * 2007-02-26 2008-09-11 Fujitsu Ltd Multi-viewpoint moving image transmission system
US8532412B2 (en) 2007-04-11 2013-09-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US9088779B2 (en) 2007-04-11 2015-07-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8670626B2 (en) 2007-04-11 2014-03-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8611688B2 (en) 2007-04-11 2013-12-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8532410B2 (en) 2008-04-25 2013-09-10 Thomson Licensing Multi-view video coding with disparity estimation based on depth information
CN103297771B (en) * 2008-04-25 2017-03-01 汤姆森许可贸易公司 Multiple view video coding using the disparity estimation based on depth information
JP2011519226A (en) * 2008-04-25 2011-06-30 トムソン ライセンシング Inter-view skip mode using depth
CN103297771A (en) * 2008-04-25 2013-09-11 汤姆森许可贸易公司 Multi-view video encoding based on disparity estimation of depth information
CN103297770A (en) * 2008-04-25 2013-09-11 汤姆森许可贸易公司 Multi-view video encoding based on disparity estimation of depth information
JP2009213161A (en) * 2009-06-15 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium with the programs recorded thereon
JP2009207183A (en) * 2009-06-15 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding program, video decoding program, and computer-readable recording medium for recording the programs
JP2012533925A (en) * 2009-07-17 2012-12-27 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for multi-view video encoding and decoding
WO2011061973A1 (en) * 2009-11-18 2011-05-26 日本ビクター株式会社 Three-dimensional image display device and method of deriving motion vector
KR101253495B1 (en) * 2009-11-18 2013-04-11 닛뽕빅터 가부시키가이샤 Three-dimensional image display device and method of deriving motion vector
JP2011193352A (en) * 2010-03-16 2011-09-29 Sharp Corp Multi-view image encoding apparatus
WO2011114755A1 (en) * 2010-03-16 2011-09-22 シャープ株式会社 Multi-view image encoding device
JP2011083038A (en) * 2011-01-24 2011-04-21 Fujitsu Ltd Extension decoding apparatus, extension decoding method, and, program
JP2011130500A (en) * 2011-02-23 2011-06-30 Fujitsu Ltd Expansion decoding device, and expansion decoding method
JP2011130499A (en) * 2011-02-23 2011-06-30 Fujitsu Ltd Expansion decoding device, and expansion decoding method
US8983217B2 (en) 2011-05-17 2015-03-17 Canon Kabushiki Kaisha Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
JP2013058848A (en) * 2011-09-07 2013-03-28 Sharp Corp Stereoscopic image processing device, stereoscopic image processing method and program
WO2013035457A1 (en) * 2011-09-07 2013-03-14 シャープ株式会社 Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JPWO2013038679A1 (en) * 2011-09-13 2015-03-23 パナソニックIpマネジメント株式会社 Encoding device, decoding device, playback device, encoding method, and decoding method
JP2016220236A (en) * 2011-09-13 2016-12-22 パナソニックIpマネジメント株式会社 Encoding device, decoding device, reproducing device, encoding method and decoding method
WO2013038679A1 (en) * 2011-09-13 2013-03-21 パナソニック株式会社 Encoding device, decoding device, playback device, encoding method, and decoding method
US9661320B2 (en) 2011-09-13 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Encoding device, decoding device, playback device, encoding method, and decoding method
CN104094606A (en) * 2012-01-31 2014-10-08 索尼公司 Image processing apparatus and image processing method
WO2013115023A1 (en) * 2012-01-31 2013-08-08 ソニー株式会社 Image processing apparatus and image processing method
US20140133567A1 (en) * 2012-04-16 2014-05-15 Nokia Corporation Apparatus, a method and a computer program for video coding and decoding
EP2839660B1 (en) * 2012-04-16 2020-10-07 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
JP2013258501A (en) * 2012-06-11 2013-12-26 Canon Inc Image processing device and image processing method
US9509997B2 (en) 2012-06-13 2016-11-29 Canon Kabushiki Kaisha Imaging apparatus, imaging method and storage medium, image coding apparatus, image coding method and storage medium
JP2014011731A (en) * 2012-07-02 2014-01-20 Toshiba Corp Method for decoding moving image and method for encoding moving image
JP5894338B2 (en) * 2013-04-12 2016-03-30 日本電信電話株式会社 Video encoding apparatus and method, video decoding apparatus and method, and programs thereof
JP2015008387A (en) * 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, method and program for image processing and imaging apparatus

Similar Documents

Publication Publication Date Title
JPH09261653A (en) Multi-view-point picture encoder
US10728571B2 (en) Inter prediction method and device in video coding system
US8098733B2 (en) Multi-directional motion estimation using parallel processors and pre-computed search-strategy offset tables
RU2251820C2 (en) Extrapolation of movement vector for video sequence code conversion
JP5268645B2 (en) Method for predicting disparity vector using camera parameter, device for encoding and decoding multi-view video using the method, and recording medium on which program for performing the method is recorded
US8179969B2 (en) Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity
CN101569202B (en) Dynamic image encoding method, decoding method, device thereof
JP4663792B2 (en) Apparatus and method for encoding and decoding multi-view video
RU2444856C2 (en) Method of encoding video signal and method of decoding, apparatus for realising said methods and data media storing programmes for realising said methods
JP7279154B2 (en) Motion vector prediction method and apparatus based on affine motion model
JP2004096757A (en) Interpolation method and its apparatus for move compensation
US8184707B2 (en) Method and apparatus for encoding multiview video using hierarchical B frames in view direction, and a storage medium using the same
EP2923491A1 (en) Method and apparatus for bi-prediction of illumination compensation
JPH10191394A (en) Multi-view-point image coder
CN113196748B (en) Intra-frame prediction method and related device
CN111698515A (en) Method and related device for inter-frame prediction
KR20120095611A (en) Method and apparatus for encoding/decoding multi view video
JPH06225292A (en) Module memory for image decoding system
CN112740663B (en) Image prediction method, device and corresponding encoder and decoder
JP7384908B2 (en) Inter prediction method and device
CN116980621A (en) Encoder, decoder and corresponding inter prediction method
US11729424B2 (en) Visual quality assessment-based affine transformation
US8331704B2 (en) Coding method and coding apparatus
WO2013069933A1 (en) Image encoding/decoding method and device therefor
JP2008236096A (en) Movement search method, movement search apparatus, movement search program, and computer readable record medium recording its program