JP3194258B2 - Image coding method - Google Patents

Image coding method

Info

Publication number
JP3194258B2
JP3194258B2 JP32728892A JP32728892A JP3194258B2 JP 3194258 B2 JP3194258 B2 JP 3194258B2 JP 32728892 A JP32728892 A JP 32728892A JP 32728892 A JP32728892 A JP 32728892A JP 3194258 B2 JP3194258 B2 JP 3194258B2
Authority
JP
Japan
Prior art keywords
image
parallax
parameter
input
disparity vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP32728892A
Other languages
Japanese (ja)
Other versions
JPH06153239A (en
Inventor
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP32728892A priority Critical patent/JP3194258B2/en
Publication of JPH06153239A publication Critical patent/JPH06153239A/en
Application granted granted Critical
Publication of JP3194258B2 publication Critical patent/JP3194258B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、視点が少しずつ異なる
複数台のカメラで撮影して得られた複数の画像の符号化
方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for encoding a plurality of images obtained by photographing with a plurality of cameras having slightly different viewpoints.

【0002】[0002]

【従来の技術】従来の技術では、1台のカメラで撮影さ
れた画像を符号化するか、あるいは複数台のカメラで撮
影して得られた複数の画像のうち何れか1つを選択して
符号化することが一般的であった。1台カメラのみ用い
ている場合に符号化する被写体を変えたり画像の一部分
を拡大する為にはパンニングやズーミングなどのカメラ
操作を送信側でおこなっていた。また複数台のカメラを
用いている場合には、送信側あるいは受信側の意図に応
じて符合化装置に供給する画像を切り替えていた。さら
に複数の画像を同時に符号化する場合には、各画像を別
々に独立した符号化装置で処理していた。
2. Description of the Related Art In the prior art, an image photographed by one camera is encoded, or one of a plurality of images photographed by a plurality of cameras is selected. It was common to encode. When only one camera is used, camera operations such as panning and zooming are performed on the transmission side in order to change the subject to be encoded or to enlarge a part of the image. When a plurality of cameras are used, the image supplied to the encoding device is switched according to the intention of the transmission side or the reception side. Further, when encoding a plurality of images at the same time, each image is separately processed by an independent encoding device.

【0003】[0003]

【発明が解決しようとする課題】テレビ会議システムな
どで画像を符号化して伝送する場合に、1台のカメラで
はカバーしきれない広い被写体範囲を同時に符号化した
い場合がある。この場合は図4(a)に示すように送信
側で視点位置あるいは視線方向の少しずつ異なる複数台
のカメラで撮影して複数の画像を得て、これらを全て符
号化すればよい。受信側では必要に応じてこれら複数の
画像を同時あるいは選択して復号し表示することができ
る。この様にすることで伝送する画像を切り替えるため
に従来行ってきたカメラの切り替えやズーミング・パン
ニング等のカメラ操作に伴う煩わしさを回避することが
できる。また図4(b)に示すように同一被写体を異な
る視点から同時に撮影して得た複数の画像を符号化すれ
ば、受信側では各観察者が自分専用のモニタに自分の視
線方向に近い画像を選択して表示することが可能とな
る。これにより送信側の被写体位置と受信側での観察者
の視線方向を考慮した、より自然で臨場感のある画像通
信を実現することがてきる。
When an image is encoded and transmitted in a video conference system or the like, there is a case where it is desired to simultaneously encode a wide subject range that cannot be covered by one camera. In this case, as shown in FIG. 4 (a), a plurality of cameras may be used on the transmitting side to obtain a plurality of images by slightly different viewpoint positions or line-of-sight directions to obtain a plurality of images, all of which may be encoded. The receiving side can decode and display the plurality of images simultaneously or selectively as necessary. By doing so, it is possible to avoid the inconvenience associated with camera operations such as camera switching and zooming / panning that have conventionally been performed for switching images to be transmitted. Also, as shown in FIG. 4B, if a plurality of images obtained by simultaneously photographing the same subject from different viewpoints are encoded, on the receiving side, each observer can view an image closer to his own monitor on his own monitor. Can be selected and displayed. This makes it possible to realize more natural and realistic image communication in consideration of the position of the subject on the transmitting side and the direction of the line of sight of the observer on the receiving side.

【0004】以上のような視点の異なる複数台のカメラ
で撮影して得られた複数の画像を符号化する場合に、従
来の符号化方式では各画像を別々に独立して処理し、画
像間に存在する相関を利用していないため、符号化する
画像の数が増加するのに比例して全体での符号量が増大
していた。従って通信コストが増大したり、あるいは通
信回線容量の制約から同時に伝送できる画像の数を制限
しなければならない等の問題があった。
When encoding a plurality of images obtained by photographing with a plurality of cameras having different viewpoints as described above, the conventional encoding method processes each image separately and independently, Since the correlation existing in the above is not used, the total code amount increases in proportion to the increase in the number of images to be coded. Therefore, there have been problems such as an increase in communication cost and a limitation in the number of images that can be transmitted simultaneously due to restrictions on the communication line capacity.

【0005】本発明の目的は、視点が少しずつ異なる複
数台のカメラで撮影して得られた複数の画像を符号化す
るに際して、これら画像間に存在する相関を利用するこ
とで全体としての符号量を削減した画像の符号化方式を
提供することにある。
An object of the present invention is to encode a plurality of images obtained by photographing with a plurality of cameras each having a slightly different viewpoint, and to use the correlation existing between the images to code the entire image. It is an object of the present invention to provide an image encoding method with a reduced amount.

【0006】[0006]

【課題を解決するための手段】本発明の第1の画像の符
号化方式は、視点の少しずつ異なる複数台のカメラで撮
影して得られた複数の入力画像を符号化するにおいて、
前記複数の入力画像から1つ選択された代表画像に対し
ては該画像の符号化信号と局所再生画像とを生成する手
段と、その他の複数の入力画像に対しては各入力画像毎
に前記代表画像を参照画像としたときに視差により生じ
た入力画像の変位を記述する視差パラメータを検出し、
前記視差パラメータを用いて前記局所再生画像から予測
画像を生成し、入力画像と前記予測画像との差分信号を
検出して、前記差分信号と前記視差パラメータとを符号
化する手段とを備えることを特徴とする。
According to a first image encoding method of the present invention, in encoding a plurality of input images obtained by photographing with a plurality of cameras having slightly different viewpoints,
Means for generating an encoded signal of the selected image and a locally reproduced image for one representative image selected from the plurality of input images, and for each of the other plurality of input images, Detecting a parallax parameter describing a displacement of the input image caused by parallax when the representative image is used as a reference image,
Generating a predicted image from the local reproduction image using the disparity parameter, detecting a difference signal between the input image and the predicted image, and encoding the difference signal and the disparity parameter. Features.

【0007】本発明の第2の画像の符号化方式は、前記
視差パラメータの検出において、入力画像の画素毎ある
いは複数画素からなる小ブロック毎に参照画像上での対
応する位置を検出してその座標位置の差分を視差ベクト
ルとし、前記視差ベクトルから最小2乗誤差法を用いて
視差パラメータを推定することを特徴とする。
According to a second image encoding method of the present invention, in the detection of the parallax parameter, a corresponding position on a reference image is detected for each pixel of an input image or for each small block including a plurality of pixels. A difference between coordinate positions is set as a disparity vector, and a disparity parameter is estimated from the disparity vector using a least squares error method.

【0008】本発明の第3の画像の符号化方式は、前記
視差パラメータの検出および前記視差パラメータを用い
た予測画像の生成において、入力画像がカメラとの距離
が異なる複数の被写体領域で構成される場合に、画素毎
または複数画素からなる小ブロック毎に視差ベクトルを
検出する手段と、前記視差ベクトルを用いて画像領域全
体を複数の領域に分割する手段と、前記分割された領域
毎に前記視差ベクトルから視差パラメータを推定する手
段と、前記分割された領域毎に前記検出された視差パラ
メータを用いて前記局所再生画像から予測画像を生成す
る手段とを備えることを特徴とする。
According to a third image encoding method of the present invention, in detecting the parallax parameters and generating a predicted image using the parallax parameters, an input image is constituted by a plurality of object regions having different distances from a camera. Means for detecting a disparity vector for each pixel or for each small block composed of a plurality of pixels; means for dividing the entire image area into a plurality of areas using the disparity vector; and for each of the divided areas, The apparatus further comprises means for estimating a disparity parameter from a disparity vector, and means for generating a predicted image from the locally reproduced image using the detected disparity parameter for each of the divided areas.

【0009】[0009]

【作用】本発明の第1の画像の符号化方式を図1を用い
て説明する。図1のブロック図では入力画像が101,
102,103の3つである場合を示したが、入力画像
が更に増えた場合には入力画像102または103に対
してと同様な処理を行うブロックを増設するだけでよ
い。まず複数の入力画像の中から代表画像として101
を選択したとする。入力画像101は動き補償フレーム
間予測符号化方式などの方法により符号化回路11で符
号化され、受信側では復号化回路16で再生画像110
に復号化される。同時に符号化回路11は再生画像11
0と同じ画像である局所再生画像105を生成して出力
する。
The first image coding method of the present invention will be described with reference to FIG. In the block diagram of FIG.
Although the case where there are three of the input images 102 and 103 has been described, when the number of input images further increases, it is only necessary to add blocks for performing the same processing as for the input images 102 or 103. First, 101 is set as a representative image from a plurality of input images.
It is assumed that is selected. The input image 101 is encoded by the encoding circuit 11 by a method such as a motion-compensated inter-frame prediction encoding method, and the reproduced image 110 is encoded by the decoding circuit 16 on the receiving side.
Is decrypted. At the same time, the encoding circuit 11
A local reproduction image 105, which is the same image as 0, is generated and output.

【0010】一方、その他の入力画像102、103は
各入力画像毎に前記代表画像101を参照画像とした場
合の画像間の相関を利用した符号化を行う。まず入力画
像102の符号化に際しては、視差パラメータ検出回路
12で入力画像102と参照画像101とから2つの画
像間の変位量を記述する視差パラメータ106を検出す
る。この視差パラメータ検出回路12の作用を以下に説
明する。入力画像102と視点のわずかに異なるカメラ
で撮影された参照画像101との間では被写体とカメラ
との位置関係が異なるため、2つの画像間で対応する画
素の座標位置が異なる。この座標位置の変位量は入力画
像102上の位置の関数として記述することが可能であ
る。この関数の一例として、被写体全体を2次元平面で
近似できる場合には、前記2つの画像間で対応する画素
の座標位置の変位量を示すベクトル(vx ,vy )は式
(1)(2)の形で記述できる。 vx =ax+by+(gx+hy)x+e (1) vy =cx+dy+(gx+hy)y+f (2)
On the other hand, for the other input images 102 and 103, encoding is performed for each input image using the correlation between the images when the representative image 101 is used as a reference image. First, when encoding the input image 102, the parallax parameter detection circuit 12 detects a parallax parameter 106 describing the displacement between the two images from the input image 102 and the reference image 101. The operation of the parallax parameter detection circuit 12 will be described below. Since the positional relationship between the subject and the camera is different between the input image 102 and the reference image 101 captured by a camera having a slightly different viewpoint, the coordinate positions of the corresponding pixels are different between the two images. The displacement of the coordinate position can be described as a function of the position on the input image 102. As an example of this function, when the entire subject can be approximated by a two-dimensional plane, the vector (v x , v y ) indicating the displacement of the coordinate position of the corresponding pixel between the two images is expressed by the equation (1) ( It can be described in the form of 2). v x = ax + by + (gx + hy) x + e (1) v y = cx + dy + (gx + hy) y + f (2)

【0011】式(1)(2)で(vx ,vy )は入力画
像102上の位置(x,y)におけるx軸(水平)方向
とy軸(垂直)方向の各々の変位量を示す。これを視差
ベクトルとよぶことにする。また式(1)(2)を特徴
付ける8つの係数(a,b,c,d,e,f,g,h)
を視差パラメータとよぶことにする。図5は式(1)
(2)で記述される視差ベクトルと視差パラメータとの
関係を具体的な例により説明するものであり、被写体2
次元平面のy(垂直)軸がカメラの光軸に直角である場
合について示している。図5(a)は入力画像102で
の視点位置が参照画像101のものより左に平行移動し
た場合で、視差ベクトルは全て右向きで同じ大きさにな
ることを示しているる。ただし、斜線部は視点位置の変
化により入力画像102上に新たに現れた画像部分で、
参照画像101との間に相関が無いため視差ベクトルは
検出できない。図5(a)の様な視差ベクトルに対して
は、式(1)(2)で有効な視差パラメータはeのみで
ある。図5(b)は入力画像102の視線方向が参照画
像101の場合より被写体に対して斜めになった場合
で、視差ベクトルから画像が扇状変位していることがわ
かる。この場合には視差パラメータgが有効である。さ
らに図5(c)は入力画像102の視点位置が参照画像
101の場合より被写体へ近づいた場合かあるいはズー
ミング操作をおこなった場合で、視差ベクトルは放射状
に検出される。この場合に有効な視差パラメータはa,
dである。その他にもカメラが光軸周りに回転した場合
にはパラメータb,cが有効であり、カメラのチルトや
上下動がある場合にはパラメータh,fが有効となる。
すなわち式(1)(2)はさまざまな視点位置の変化に
伴う画像上の座標位置の変位量を記述できることがわか
る。なお式(1)(2)は被写体全体を2次元平面で近
似した場合の関数であるが被写体全体が曲面に近似され
る場合には座標位置(x,y)に関するより高次な関数
を用いればよい。また図1の視差パラメータ検出回路1
2では正確な視差検出のために入力画像101を参照画
像として用いたが、前記局所再生画像105を参照画像
として用いることも可能である。
In equations (1) and (2), (v x , v y ) is the displacement amount in the x-axis (horizontal) direction and the y-axis (vertical) direction at the position (x, y) on the input image 102. Show. This is called a disparity vector. Eight coefficients (a, b, c, d, e, f, g, h) characterizing equations (1) and (2)
Is referred to as a parallax parameter. FIG. 5 shows equation (1).
The relationship between the disparity vector described in (2) and the disparity parameter will be described using a specific example.
The case where the y (vertical) axis of the dimensional plane is perpendicular to the optical axis of the camera is shown. FIG. 5A shows a case in which the viewpoint position in the input image 102 is shifted to the left from that of the reference image 101, and the disparity vectors are all rightward and have the same size. However, the hatched portion is an image portion newly appearing on the input image 102 due to a change in the viewpoint position.
Since there is no correlation with the reference image 101, a disparity vector cannot be detected. For the disparity vector as shown in FIG. 5A, the only effective disparity parameter in equations (1) and (2) is e. FIG. 5B shows a case where the line of sight of the input image 102 is more oblique to the subject than in the case of the reference image 101, and it can be seen from the disparity vector that the image is displaced in a fan shape. In this case, the parallax parameter g is effective. Further, FIG. 5C shows a case where the viewpoint position of the input image 102 is closer to the subject than when the reference image 101 is, or a case where a zooming operation is performed, and the disparity vector is radially detected. The effective parallax parameters in this case are a,
d. In addition, when the camera rotates around the optical axis, the parameters b and c are valid, and when the camera tilts and moves up and down, the parameters h and f are valid.
That is, it can be seen that the equations (1) and (2) can describe the displacement amount of the coordinate position on the image due to various changes in the viewpoint position. Equations (1) and (2) are functions when the entire subject is approximated by a two-dimensional plane. When the entire subject is approximated by a curved surface, a higher-order function related to the coordinate position (x, y) is used. I just need. Also, the parallax parameter detection circuit 1 of FIG.
In 2, the input image 101 is used as a reference image for accurate parallax detection, but the local reproduction image 105 can be used as a reference image.

【0012】次に図1において予測画像生成回路13で
は前記検出された視差パラメータ106を用いて局所再
生画像105から入力画像102に対する予測画像10
7を生成する。検出された視差パラメータを式(1)
(2)に代入すれば画像間で対応する画素の位置の変位
量を計算で求めることが可能である。そこで入力画像1
02の画素毎に前記変位量の補償をおこなった座標位置
を求め、局所再生画像105の該当座標位置から画素の
値を読み出して予測値とすることで予測画像107を生
成する。さらに減算器14でこの予測画像107と入力
画像102との差分をとって予測差分画像108として
出力する。
Next, in FIG. 1, a predicted image generation circuit 13 uses the detected parallax parameters 106 to convert a locally reproduced image 105 into a predicted image 10
7 is generated. The detected parallax parameter is expressed by equation (1).
By substituting into (2), the displacement amount of the position of the corresponding pixel between the images can be obtained by calculation. So input image 1
A coordinate position where the displacement amount is compensated is obtained for each pixel of 02, and a pixel value is read from the corresponding coordinate position of the local reproduced image 105 to be used as a predicted value to generate a predicted image 107. Further, the subtracter 14 calculates a difference between the predicted image 107 and the input image 102 and outputs the result as a predicted difference image 108.

【0013】符号化回路15では予測差分画像108と
視差パラメータ106とを符号化して伝送し、受信側の
復号化回路17では再生差分画像111と視差パラメー
タ112に復号化する。予測画像生成回路18では視差
パラメータ112を用いて再生画像110から予測画像
113を生成し、加算器19で予測画像113に再生差
分画像111を加算することで再生画像114を出力す
る。
The encoding circuit 15 encodes and transmits the predicted difference image 108 and the disparity parameter 106, and the decoding circuit 17 on the receiving side decodes the reproduced difference image 111 and the disparity parameter 112. The predicted image generation circuit 18 generates a predicted image 113 from the reproduced image 110 using the parallax parameters 112, and outputs a reproduced image 114 by adding the reproduced difference image 111 to the predicted image 113 by the adder 19.

【0014】以上に説明した画像の符号化方式では、代
表画像として選択した入力画像101は従来方式と同様
に符号化されるが、第2の入力画像102は入力画像1
01との間に存在する相関を差し引いた成分のみ符号化
されるため、全体としての伝送符号量を削減することが
可能となる。また第3番目の入力画像103に対しても
入力画像102と同様な方法を用いることで、入力画像
101との相関を差し引いた効率的な符号化を実現する
ことが可能である。
In the image coding method described above, the input image 101 selected as the representative image is coded in the same manner as in the conventional method, but the second input image 102 is input image 1
Since only the component that is obtained by subtracting the correlation existing with 01 is encoded, it is possible to reduce the transmission code amount as a whole. In addition, by using the same method as the input image 102 for the third input image 103, it is possible to realize efficient encoding by subtracting the correlation with the input image 101.

【0015】本発明の第2の方式は、入力画像の画素毎
あるいは小ブロック毎に参照画像との座標位置の変位量
を示す視差ベクトルを検出して、前記視差ベクトルの最
小2乗誤差法を用いて画像全体における前記変位量を記
述する関数を特徴付ける視差パラメータを推定する方式
である。本発明では被写体全体が2次元平面で近似でき
るとし、前記関数が式(1)(2)で記述できる場合を
対象とする。この視差パラメータ推定方式の原理を図2
を用いて説明する。まず視差ベクトル検出回路21に参
照画像201と入力画像202が供給される。ここで参
照画像201としては図1に示したように代表画像に選
択された入力画像101を用いてもよいし、あるいは入
力画像101を符号復号化した局所再生画像105を用
いてもよい。視差ベクトル検出回路21では入力画像2
02の画素毎あるいは小ブロック毎に、参照画像201
上での対応座標位置を検出してその座標位置の変位量を
該画素あるいは該小ブロックの視差ベクトルと定義す
る。前記変位量の検出はブロックマッチング法や輝度勾
配法などにより実現できる。画素あるいは小ブロック毎
に検出された視差ベクトル(vx ,vy )の値203は
該画素あるいは該小ブロックの座標位置(x,y)の値
204とともに視差パラメータ推定回路22に供給され
る。
According to a second method of the present invention, a parallax vector indicating a displacement of a coordinate position with respect to a reference image is detected for each pixel or small block of an input image, and the least square error method of the parallax vector is used. This is a method of estimating a parallax parameter that characterizes a function that describes the amount of displacement in the entire image. In the present invention, it is assumed that the entire subject can be approximated by a two-dimensional plane, and the case where the function can be described by equations (1) and (2) is targeted. The principle of this parallax parameter estimation method is shown in FIG.
This will be described with reference to FIG. First, the reference image 201 and the input image 202 are supplied to the disparity vector detection circuit 21. Here, as the reference image 201, the input image 101 selected as the representative image as shown in FIG. 1 may be used, or the local reproduction image 105 obtained by encoding and decoding the input image 101 may be used. In the disparity vector detection circuit 21, the input image 2
02 for each pixel or each small block.
The corresponding coordinate position above is detected, and the displacement amount of the coordinate position is defined as the disparity vector of the pixel or the small block. The displacement amount can be detected by a block matching method, a luminance gradient method, or the like. The value 203 of the disparity vector (v x , v y ) detected for each pixel or small block is supplied to the disparity parameter estimation circuit 22 together with the value 204 of the coordinate position (x, y) of the pixel or small block.

【0016】次に視差パラメータ推定回路22では入力
画像202内で多数検出された視差ベクトル(vi x
i y )の値203とその座標位置(xi ,yi )の値
204とを用いた式(1)(2)に関する最小2乗誤差
法をおこなって、視差パラメータ(a,b,c,d,
e,f,g,h)の値205を推定する。いまN個の実
測値vi x ,vi y ,xi ,yi に対して式(1)
(2)の視差パラメータ(a,b,c,d,e,f,
g,h)を仮定した場合に、vx ,vy の実測値との平
均2乗誤差MSEは式(3)(4)で与えられる。
[0016] Next a number in the parallax parameter estimation circuit 22 in within an input image 202 detected disparity vector (v i x,
v i y ) and the value 204 of the coordinate position (x i , y i ) are subjected to the least squares error method for equations (1) and (2), and the parallax parameters (a, b, c) , D,
e, f, g, h) are estimated. Now the N Found v i x, v i y, x i, wherein with respect to y i (1)
The parallax parameters (a, b, c, d, e, f,
g, h), the mean square error MSE of the measured values of v x and v y with the actually measured values is given by equations (3) and (4).

【数1】 (Equation 1)

【0017】ここで式(3)(4)をパラメータa,
b,c,d,e,f,g,hそれぞれで微分してその結
果を0に等しいとおけば平均2乗誤差MSEを最小にす
るパラメータの値が求められる。以上に説明した方法を
用いれば、入力画像と参照画像のみから簡単な方法で画
像間の変位を記述する視差パラメータを知ることが可能
となる。また視点位置や視線方向の変動などがある程度
わかっていれば、検出される視差パラメータも限定され
るので検出のための計算を省略することが可能である。
図5に示したように被写体2次元平面のy(垂直)軸が
カメラ光軸に直角な場合で、かつカメラ光軸周りの回転
が無視できるならば式(3)(4)におけるパラメータ
b,c,hを全て0として簡略化することがてきる。な
お図5に示すような視差ベクトルから視差パラメータを
推定する場合に、図5(a)(b)の斜線部は画像間に
相関が無い部分なのでパラメータ推定の計算には用いな
い。前記斜線部分はブロックマッチングにより視差ベク
トルを検出した際に、画像間の相関が無いためにマッチ
ング誤差が大きくなることから容易に判別できる。
Here, the equations (3) and (4) are replaced by parameters a,
By differentiating each of b, c, d, e, f, g, and h and setting the result equal to 0, the value of the parameter that minimizes the mean square error MSE can be obtained. By using the above-described method, it is possible to know the parallax parameter describing the displacement between images from only the input image and the reference image by a simple method. Also, if the fluctuation of the viewpoint position and the line-of-sight direction is known to some extent, the parallax parameters to be detected are also limited, so that the calculation for the detection can be omitted.
As shown in FIG. 5, if the y (vertical) axis of the two-dimensional plane of the subject is perpendicular to the camera optical axis and the rotation about the camera optical axis can be ignored, the parameters b, Simplification can be achieved by setting c and h to all 0. When estimating the disparity parameter from the disparity vector as shown in FIG. 5, the hatched portions in FIGS. 5A and 5B are not used for calculating the parameter estimation since there is no correlation between the images. When the parallax vector is detected by block matching, the hatched portion can be easily determined because there is no correlation between images and a matching error increases.

【0018】本発明の第3の画像の符号化方式において
は、画像内の複数の被写体領域毎に視差パラメータの検
出と予測画像の生成を行う。この被写体領域毎の処理の
原理を図3と図6とを用いて説明する。カメラからの距
離が大きく異なる複数の被写体からなる画像では、被写
体毎に異なる視差パラメータが検出されることがある。
図6はカメラとの距離が大きく異なる2つの被写体を視
点の異なる2台のカメラで撮影した画像において、検出
される視差ベクトルが被写体間で異なることを説明する
図である。視点Aから撮影した画像(a)に対して視点
Bから撮影した画像(b)を参照画像とする。このとき
両方の画像でカメラにより近い被写体Cは画像のほぼ中
央に来ている。このため被写体C上での視差ベクトルは
ほとんど零となる。一方、カメラから遠い被写体Dに対
しては視点Bからの方がより左側を撮影しているため、
被写体D上での視差ベクトルは右向きのものが検出され
る。つまりカメラとの距離が大きく異なる被写体間では
視差ベクトルが異なるため、対応する視差パラメータも
異なることがわかる。そこで視差ベクトルが不連続に変
化する部分を被写体の境界とみなして画像を複数の領域
に分割する。次に分割された領域毎に該領域内で検出さ
れた視差ベクトルを用いて視差パラメータを推定すれば
よい。
In the third image encoding method of the present invention, detection of a parallax parameter and generation of a predicted image are performed for each of a plurality of subject regions in the image. The principle of the processing for each subject area will be described with reference to FIGS. In an image composed of a plurality of subjects at greatly different distances from the camera, different parallax parameters may be detected for each subject.
FIG. 6 is a diagram for explaining that, in an image obtained by photographing two subjects having greatly different distances from the camera with two cameras having different viewpoints, a detected disparity vector differs between subjects. The image (b) photographed from the viewpoint B with respect to the image (a) photographed from the viewpoint A is set as a reference image. At this time, the subject C closer to the camera in both images is almost at the center of the images. Therefore, the disparity vector on the subject C becomes almost zero. On the other hand, for the subject D far from the camera, the viewpoint B shoots the left side more.
A rightward disparity vector on the subject D is detected. That is, since the disparity vectors are different between subjects whose distances to the camera are significantly different, it can be seen that the corresponding disparity parameters are also different. Therefore, the image is divided into a plurality of regions by regarding the portion where the disparity vector changes discontinuously as the boundary of the subject. Next, a parallax parameter may be estimated for each of the divided regions using a parallax vector detected in the region.

【0019】図3は被写体領域毎に視差パラメータの検
出と予測画像生成を行う予測画像生成方式を実現する一
実施例を示すブロック図である。まず視差ベクトル検出
回路31に参照画像301と入力画像302が供給さ
れ、画素毎あるいは小ブロック毎に視差ベクトル303
を検出して、その検出座標位置304とともに出力す
る。次に領域分割回路32では供給された視差ベクトル
303から入力画像302を複数領域に分割するための
領域分割情報305を生成する。ここでは入力画像30
2が複数の被写体で構成される場合に被写体間の境界部
では検出される視差ベクトルが不連続になることを利用
する。すなわち隣接する視差ベクトル間での値の差分が
あらかじめ定めたしきい値より大きければ該視差ベクト
ルの検出座標位置を領域境界点とする。この処理を画像
全体で検出された視差ベクトルに対して行い、前記検出
された領域境界点を連続的に接続して境界線を引くこと
で画像全体を複数領域に分割した結果を得る。この結果
に基づき入力画像302を構成する各画素あるいは各小
ブロックが前記分割された複数領域の何れに属するかを
示す領域分割情報305を出力する。
FIG. 3 is a block diagram showing an embodiment for realizing a predicted image generation method for detecting a parallax parameter and generating a predicted image for each subject area. First, the reference image 301 and the input image 302 are supplied to the disparity vector detection circuit 31, and the disparity vector 303 is provided for each pixel or each small block.
Is detected and output together with the detected coordinate position 304. Next, the area division circuit 32 generates area division information 305 for dividing the input image 302 into a plurality of areas from the supplied disparity vector 303. Here, the input image 30
When 2 is composed of a plurality of subjects, the fact that the detected parallax vector is discontinuous at the boundary between the subjects is used. That is, if the difference between the values between adjacent disparity vectors is larger than a predetermined threshold, the detected coordinate position of the disparity vector is set as the region boundary point. This processing is performed on the disparity vector detected in the entire image, and the detected area boundary points are continuously connected to draw a boundary line, thereby obtaining a result of dividing the entire image into a plurality of areas. Based on this result, area division information 305 indicating to which of the divided areas each pixel or each small block constituting the input image 302 belongs is output.

【0020】次に視差パラメータ推定回路33では前記
領域分割情報305を参照しながら前記検出された視差
ベクトル303から領域毎に視差パラメータ306を推
定する。視差パラメータの推定は本発明の第2の方式に
示した最小2乗誤差法を用いて実現することが可能であ
る。予測画像生成回路34では前記領域分割情報305
を参照することで入力画像302の画素毎あるいは小ブ
ロック毎に何れの領域に属するかを判別して視差パラメ
ータを選択し、参照画像301上での対応座標位置を前
記選択されたパラメータから計算する。そして参照画像
301を符号復号化した局所再生画像307上の前記対
応座標位置から画素の値を読み出して、該画素あるいは
該小ブロックの予測値とすることで予測画像308を生
成する。減算器35では入力画像302からこの予測画
像308を差し引いて予測差分画像309を出力する。
また複数の視差パラメータ306と領域分割情報305
も符号化すべき情報として出力される。
Next, the parallax parameter estimation circuit 33 estimates a parallax parameter 306 for each region from the detected parallax vector 303 with reference to the region division information 305. The estimation of the parallax parameter can be realized by using the least square error method shown in the second method of the present invention. In the predicted image generation circuit 34, the area division information 305
To determine which region belongs to each pixel or each small block of the input image 302, select a parallax parameter, and calculate a corresponding coordinate position on the reference image 301 from the selected parameter. . Then, a predicted image 308 is generated by reading the value of a pixel from the corresponding coordinate position on the local reproduction image 307 obtained by code-decoding the reference image 301 and using the pixel value as the predicted value of the pixel or the small block. The subtracter 35 subtracts the predicted image 308 from the input image 302 and outputs a predicted difference image 309.
Also, a plurality of parallax parameters 306 and area division information 305
Is also output as information to be encoded.

【0021】[0021]

【実施例】本願発明について図面を参照して説明する。
図1は本発明の第1の画像の符号化方式を実現する一実
施例のブロック図である。図1において、符号化回路1
1は入力画像101を符号化した符号化信号104と、
これを復号再生した局所再生画像105を出力する。ま
た視差パラメータ検出回路12では入力画像101,1
02から視差パラメータ106を検出する。予測画像生
成回路13ではこの視差パラメータ106を用いて局所
再生画像105から予測画像107を生成し、減算器1
4で入力画像102と予測画像107との差分を求めて
予測差分画像108を出力する。符号化回路15では予
測差分画像108と視差パラメータ106とを符号化し
た符号化信号109を出力する。復号化回路17では符
号化信号109を復号して、予測差分画像111と視差
パラメータ112を出力する。予測画像生成回路18で
は視差パラメータ112を用いて再生画像110から予
測画像113を生成し、加算器19で予測画像113に
予測差分画像111を加算して再生画像114を出力す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an embodiment for realizing a first image encoding method according to the present invention. In FIG. 1, an encoding circuit 1
1 is an encoded signal 104 obtained by encoding the input image 101;
A local reproduction image 105 obtained by decoding and reproducing this is output. In the parallax parameter detection circuit 12, the input images 101, 1
02, a parallax parameter 106 is detected. The predicted image generation circuit 13 generates a predicted image 107 from the locally reproduced image 105 using the parallax parameter 106, and
In step 4, a difference between the input image 102 and the predicted image 107 is obtained, and a predicted difference image 108 is output. The encoding circuit 15 outputs an encoded signal 109 obtained by encoding the prediction difference image 108 and the disparity parameter 106. The decoding circuit 17 decodes the encoded signal 109 and outputs a prediction difference image 111 and a disparity parameter 112. The predicted image generation circuit 18 generates a predicted image 113 from the reproduced image 110 using the parallax parameters 112, and the adder 19 adds the predicted difference image 111 to the predicted image 113 to output a reproduced image 114.

【0022】図2は本発明の第2の方式における、最小
2乗誤差法を用いたパラメータ検出方式を実現する一実
施例のブロック図である。図2では視差ベクトル検出回
路21において参照画像201と入力画像202から画
素毎あるいは小ブロック毎に視差ベクトル203を検出
して、該画素あるいは該小ブロックの座標位置204と
共に出力する。視差パラメータ推定回路22では視差ベ
クトル203とその検出座標位置204から最小2乗誤
差法を用いて視差パラメータ205を推定して出力す
る。
FIG. 2 is a block diagram of an embodiment for realizing a parameter detection system using the least square error method in the second system of the present invention. In FIG. 2, the disparity vector detection circuit 21 detects a disparity vector 203 for each pixel or each small block from the reference image 201 and the input image 202, and outputs the detected disparity vector 203 together with the coordinate position 204 of the pixel or the small block. The parallax parameter estimation circuit 22 estimates and outputs a parallax parameter 205 from the parallax vector 203 and its detected coordinate position 204 using the least squares error method.

【0023】図3は本発明の第3の画像の符号化方式に
おける、被写体領域毎に視差パラメータの検出と予測画
像生成を行う予測画像生成方式を実現する一実施例のブ
ロック図である。図3では視差ベクトル検出回路31に
おいて参照画像301と入力画像302から画素毎ある
いは小ブロック毎に視差ベクトル303を検出して、該
画素あるいは該小ブロックの座標位置304と共に出力
する。次に領域分割回路32では視差ベクトル303の
不連続性を検出して、入力画像302を複数の領域に分
割するための領域分割情報305を出力する。視差パラ
メータ推定回路33では領域分割情報305を参照しな
がら分割領域毎に視差ベクトル303から視差パラメー
タ306を推定して出力する。予測画像生成回路34領
域分割情報305を参照しながら画素毎あるいは小ブロ
ック毎に視差パラメータ306を選択して、この選択さ
れた視差パラメータ306を用いて局所再生画像307
から予測画像308を生成して出力する。減算器35で
は入力画像302から予測画像308を差し引いて予測
差分画像309を出力する。
FIG. 3 is a block diagram of an embodiment for realizing a predicted image generation method for detecting a parallax parameter and generating a predicted image for each subject region in the third image coding method according to the present invention. In FIG. 3, the disparity vector detection circuit 31 detects a disparity vector 303 for each pixel or each small block from the reference image 301 and the input image 302, and outputs the detected disparity vector together with the coordinate position 304 of the pixel or the small block. Next, the region division circuit 32 detects discontinuity of the disparity vector 303 and outputs region division information 305 for dividing the input image 302 into a plurality of regions. The parallax parameter estimating circuit 33 estimates and outputs a parallax parameter 306 from the parallax vector 303 for each divided region with reference to the region division information 305. The parallax parameter 306 is selected for each pixel or each small block with reference to the predicted image generation circuit 34 area division information 305, and the local reproduction image 307 is selected using the selected parallax parameter 306.
To generate and output a prediction image 308. The subtracter 35 subtracts the predicted image 308 from the input image 302 and outputs a predicted difference image 309.

【0024】[0024]

【発明の効果】以上に説明したように本発明では、視点
の少しずつ異なる複数台のカメラで撮影した複数の画像
を符号化するにおいて、1つの画像を代表画像として選
択して符号化すると共に、残りの画像を符号化するに際
しては前記選択された代表画像から予測画像を生成して
これとの差分画像のみ符号化するので、複数の画像全体
としての符号量を削減するのに効果がある。また参照画
像から予測画像を生成するに際して視差パラメータを用
いた画像の変換を行っているので高い予測効率を実現し
ている。
As described above, according to the present invention, in encoding a plurality of images taken by a plurality of cameras having slightly different viewpoints, one image is selected and encoded as a representative image. When encoding the remaining images, a predicted image is generated from the selected representative image, and only the difference image from the predicted image is encoded, which is effective in reducing the code amount of the plurality of images as a whole. . In addition, when generating a predicted image from a reference image, image conversion using a parallax parameter is performed, thereby achieving high prediction efficiency.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係わる第1の実施例の基本ブロック図
である。
FIG. 1 is a basic block diagram of a first embodiment according to the present invention.

【図2】本発明に係わる第2の実施例の基本ブロック図
である。
FIG. 2 is a basic block diagram of a second embodiment according to the present invention.

【図3】本発明に係わる第3の実施例の基本ブロック図
である。
FIG. 3 is a basic block diagram of a third embodiment according to the present invention.

【図4】視点の少しずつ異なる複数台のカメラで撮影し
て得られた複数の画像の関係を説明する図である。
FIG. 4 is a diagram illustrating a relationship between a plurality of images obtained by photographing with a plurality of cameras each having a slightly different viewpoint.

【図5】視点の異なるカメラで撮影して得られた2つの
画像間において検出される視差ベクトルの例を説明する
図である。
FIG. 5 is a diagram illustrating an example of a disparity vector detected between two images captured by cameras having different viewpoints.

【図6】カメラからの距離が異なる複数の被写体を異な
る視点から撮影した場合に被写体毎に検出される視差ベ
クトルが異なることを説明する図である。
FIG. 6 is a diagram illustrating that different parallax vectors are detected for each subject when a plurality of subjects at different distances from the camera are photographed from different viewpoints.

【符号の説明】[Explanation of symbols]

11,15 符号化回路 12 視差パラメータ検出回路 13,18,34 予測画像生成回路 14,35 減算器 16,17 復号化回路 19 加算器 21,31 視差ベクトル検出回路 22,33 視差パラメータ推定回路 32 領域分割回路 101,102,103,202,302 入力画像 110,109 符号化信号 105,307 局所再生画像 106,112,205,306 視差パラメータ 107,113,308 予測画像 108,111,309 予測差分画像 104,114 再生画像 201,301 参照画像 203,303 視差べクトル 204,304 視差ベクトル検出座標位置 305 領域分割情報 11, 15 Encoding circuit 12 Parallax parameter detection circuit 13, 18, 34 Predictive image generation circuit 14, 35 Subtractor 16, 17 Decoding circuit 19 Adder 21, 31, Disparity vector detection circuit 22, 33 Disparity parameter estimation circuit 32 Area Dividing circuits 101, 102, 103, 202, 302 Input images 110, 109 Coded signals 105, 307 Locally reproduced images 106, 112, 205, 306 Parallax parameters 107, 113, 308 Predicted images 108, 111, 309 Predicted difference images 104 , 114 Reconstructed image 201, 301 Reference image 203, 303 Parallax vector 204, 304 Parallax vector detection coordinate position 305 Area division information

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】視点の少しずつ異なる複数台のカメラで撮
影して得られた複数の入力画像を符号化する画像の符号
化方式であり、 前記複数の入力画像から1つ選択された代表画像に対し
ては該画像の符号化信号と局所再生画像とを生成する手
段と、 その他の複数の入力画像に対しては各入力画像毎に前記
代表画像を参照画像としたときに視差により生じた入力
画像の変位を記述する8つの係数からなる視差パラメー
タを検出し、前記視差パラメータを用いて前記局所再生
画像から予測画像を生成し、入力画像と前記予測信号と
の差分信号を検出して、前記差分信号と前記視差パラメ
ータとの符号化信号を生成する手段とを備えることを特
徴とした画像の符号化方式。
1. An image pickup method using a plurality of cameras each having a slightly different viewpoint.
Encode multiple input images obtained by shadingImage sign
It is a conversion method,  For a representative image selected from the plurality of input images,
Means for generating an encoded signal of the image and a locally reproduced image.
And for each of the plurality of other input images,
Input caused by parallax when the representative image is used as the reference image
Describe the displacement of the imageConsists of eight coefficientsParallax parameters
The local reproduction using the parallax parameters.
Generating a prediction image from the image, and calculating the input image and the prediction signal;
And the difference signal and the parallax parameter are detected.
Means for generating an encoded signal with the data.
The encoding method of the image.
【請求項2】前記視差パラメータの検出および前記視差
パラメータを用いた予測画像の生成を、 入力画像がカメラとの距離が異なる複数の被写体領域で
構成される場合に、画素毎または複数画素からなる小ブ
ロック毎に視差ベクトルを検出する手段と、 前記視差ベクトルを用いて画像領域全体を複数の領域に
分割する手段と、 前記分割された領域毎に前記視差ベクトルから視差パラ
メータを推定する手段と、 前記分割された領域毎に前記検出された視差パラメータ
を用いて前記局所再生画像から予測画像を生成する手段
とを用いて行うことを特徴とした請求項1に記載の画像
の符号化方式。
2. The method of claim 1, further comprising detecting the parallax parameter and detecting the parallax.
Of prediction image using parametersGeneration  If the input image is in multiple subject areas with different distances from the camera
When configured, small pixels consisting of pixels or multiple pixels
Means for detecting a disparity vector for each lock, and using the disparity vector to convert the entire image area into a plurality of areas
Means for dividing, a disparity parameter from the disparity vector for each of the divided areas.
Means for estimating a meter; and the detected parallax parameter for each of the divided areas.
Means for generating a predicted image from the locally reproduced image using
To do with2. The image according to claim 1, wherein the image is characterized by:
Encoding scheme.
JP32728892A 1992-11-12 1992-11-12 Image coding method Expired - Lifetime JP3194258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32728892A JP3194258B2 (en) 1992-11-12 1992-11-12 Image coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32728892A JP3194258B2 (en) 1992-11-12 1992-11-12 Image coding method

Publications (2)

Publication Number Publication Date
JPH06153239A JPH06153239A (en) 1994-05-31
JP3194258B2 true JP3194258B2 (en) 2001-07-30

Family

ID=18197455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32728892A Expired - Lifetime JP3194258B2 (en) 1992-11-12 1992-11-12 Image coding method

Country Status (1)

Country Link
JP (1) JP3194258B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
JP3055438B2 (en) * 1995-09-27 2000-06-26 日本電気株式会社 3D image encoding device
EP2259587B1 (en) 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3231618B2 (en) * 1996-04-23 2001-11-26 日本電気株式会社 3D image encoding / decoding system
JP3931392B2 (en) * 1997-08-25 2007-06-13 ソニー株式会社 Stereo image video signal generating device, stereo image video signal transmitting device, and stereo image video signal receiving device
WO2000027132A1 (en) * 1998-11-02 2000-05-11 Sukuld Enterprise Yuugen Kaisha Encoding/decoding of video signal
JP4103848B2 (en) 2004-03-19 2008-06-18 ソニー株式会社 Information processing apparatus and method, recording medium, program, and display apparatus
US7444664B2 (en) * 2004-07-27 2008-10-28 Microsoft Corp. Multi-view video format
JP4570159B2 (en) * 2006-01-06 2010-10-27 Kddi株式会社 Multi-view video encoding method, apparatus, and program
JP4786585B2 (en) * 2007-04-20 2011-10-05 Kddi株式会社 Multi-view video encoder
WO2010013382A1 (en) 2008-07-31 2010-02-04 三菱電機株式会社 Video encoding device, video encoding method, video reproduction device, video recording medium, and video data stream
JP4851564B2 (en) * 2009-06-15 2012-01-11 日本電信電話株式会社 Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded
JP4851563B2 (en) * 2009-06-15 2012-01-11 日本電信電話株式会社 Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded
JP5204350B2 (en) * 2010-08-31 2013-06-05 パナソニック株式会社 Imaging apparatus, playback apparatus, and image processing method
JP5204349B2 (en) 2010-08-31 2013-06-05 パナソニック株式会社 Imaging apparatus, playback apparatus, and image processing method

Also Published As

Publication number Publication date
JPH06153239A (en) 1994-05-31

Similar Documents

Publication Publication Date Title
CN101010960B (en) Method and device for motion estimation and compensation for panorama image
JP3194258B2 (en) Image coding method
CN110115037B (en) Spherical projection motion estimation/compensation and mode decision
EP1779662B1 (en) Method and device for motion estimation and compensation for panorama image
Grammalidis et al. Disparity and occlusion estimation in multiocular systems and their coding for the communication of multiview image sequences
US8351685B2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
KR100902353B1 (en) Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same
EP1639829B1 (en) Optical flow estimation method
TW201739252A (en) Method and apparatus of video coding with affine motion compensation
JP4573366B2 (en) Motion vector coding method and coding apparatus
KR101641606B1 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
KR20100008677A (en) Device and method for estimating death map, method for making intermediate view and encoding multi-view using the same
US7224733B1 (en) Interpolation filtering method for accurate sub-pixel motion assessment
JPS63198498A (en) Method and apparatus for transmitting three-dimensional video signal
EP2061005A2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JPH1056643A (en) Device for encoding and decoding moving image recording arbitrary object
KR19990015907A (en) Motion vector coding method and device therefor
KR101360279B1 (en) Method and apparatus for sharing motion information using global disparity estimation by macroblock unit, and method and apparatus for encoding/decoding multi-view video image using it
Meuel et al. Analysis of affine motion-compensated prediction in video coding
WO2007037645A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
KR100238893B1 (en) Motion vector coding method and apparatus
JP4944046B2 (en) Video encoding method, decoding method, encoding device, decoding device, program thereof, and computer-readable recording medium
US5731851A (en) Method for determining feature points based on hierarchical block searching technique
EP0731612B1 (en) Apparatus for encoding a video signal using search grids for motion estimation and compensation
KR100243865B1 (en) Motion Vector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090601

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 12