JP2007228371A - Image encoding apparatus - Google Patents

Image encoding apparatus Download PDF

Info

Publication number
JP2007228371A
JP2007228371A JP2006048456A JP2006048456A JP2007228371A JP 2007228371 A JP2007228371 A JP 2007228371A JP 2006048456 A JP2006048456 A JP 2006048456A JP 2006048456 A JP2006048456 A JP 2006048456A JP 2007228371 A JP2007228371 A JP 2007228371A
Authority
JP
Japan
Prior art keywords
motion
unit
pixel value
motion search
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006048456A
Other languages
Japanese (ja)
Other versions
JP5004150B2 (en
Inventor
Haruhisa Kato
晴久 加藤
Yasuhiro Takishima
康弘 滝嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2006048456A priority Critical patent/JP5004150B2/en
Publication of JP2007228371A publication Critical patent/JP2007228371A/en
Application granted granted Critical
Publication of JP5004150B2 publication Critical patent/JP5004150B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image encoding apparatus which achieves an excellent encoding in aspects of an compression efficiency and an image quality in a bidirectional prediction or a double prediction. <P>SOLUTION: An image signal and a prediction signal of an encoded subject are input in a subtractor 11, and a difference of both of the signals is calculated. The difference is processed by an orthogonal converter 12, a quantizer 13, and a variable length encoder 14; and is transmitted as an encoding output. A plurality of reference frames obtained by being locally decoded are stored in a frame memory 18. A repetitive motion searching apparatus 19 uses the image signal of the encoded subject and the plural reference frames, and decides a combination of optimum motion vectors for the plural reference frames by means of a repetitive processing. A motion compensator 20 outputs the prediction signal using the decided motion vector and the plural reference frames. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像符号化装置に関し、特に、複数の符号化パラメータを混在させることで高い圧縮効率を得ることができる画像符号化装置に関する。   The present invention relates to an image encoding device, and more particularly to an image encoding device capable of obtaining high compression efficiency by mixing a plurality of encoding parameters.

画像情報の伝送や蓄積に際し、その情報量を削減するために符号化による圧縮が行われる。画像情報の符号化の一種として予測符号化があり、これではフレーム間相関を利用した動き補償により冗長な画像情報を削減する。   When transmitting and storing image information, compression by encoding is performed to reduce the amount of information. One type of image information encoding is predictive encoding, which reduces redundant image information by motion compensation using inter-frame correlation.

予測符号化では、複数の符号化パラメータを混在させることで高い圧縮効率を得ることができる。例えば、MPEGのマクロブロックにおける双方向予測やH.264のマクロブロックにおける双予測では、符号化対象フレームが参照する各参照フレームに対してそれぞれ符号化パラメータが存在する。   In predictive coding, high compression efficiency can be obtained by mixing a plurality of coding parameters. For example, in bi-prediction in an MPEG macroblock and bi-prediction in an H.264 macroblock, there are encoding parameters for each reference frame to which an encoding target frame refers.

双方向予測では、符号化対象フレームに対し時間的に前後するフレームを参照フレームとし、符号化対象フレームと各参照フレームとの間において、マクロブロック単位でそれぞれ動きベクトルを符号化パラメータとして算出する。符号化対象フレームが参照する予測画像は、それらの動きベクトルが示す位置のマクロブロックにおいて対応する画素を値をそれぞれ平均化することにより得られる。   In bidirectional prediction, a frame that is temporally before and after the encoding target frame is used as a reference frame, and a motion vector is calculated as an encoding parameter for each macroblock between the encoding target frame and each reference frame. The predicted image referred to by the encoding target frame is obtained by averaging the values of the corresponding pixels in the macroblock at the position indicated by the motion vector.

双予測では、双方向予測における時間的制約を外すことで、時間的に同一方向の複数フレームを参照フレームとして用いることができる。   In bi-prediction, multiple frames in the same direction in time can be used as reference frames by removing the temporal restriction in bidirectional prediction.

特許文献1には、順方向動き補償フレーム間予測および逆方向動き補償フレーム間予測において導出された順方向動きベクトルおよび逆方向動きベクトルをフレーム間隔の比に応じた大きさでそれぞれ配分することにより、フレーム間予測における参照フレームとはならないフレーム(中間フレーム)に対する順方向動きベクトルおよび逆方向動きベクトルを導出する動画像符号化方法が記載されている。   In Patent Document 1, the forward motion vector and the backward motion vector derived in the forward motion compensation inter-frame prediction and the backward motion compensation inter-frame prediction are respectively distributed in a size corresponding to the ratio of the frame intervals. In addition, a moving picture coding method for deriving a forward motion vector and a backward motion vector for a frame (intermediate frame) that is not a reference frame in inter-frame prediction is described.

特許文献2には、まず、現画像ブロックの逆方向参照画像への逆方向動きベクトルを求め、次に、該逆方向動きベクトルと、該逆方向動きベクトルが指す順方向参照画像内ブロックの順方向参照画像への動きベクトルの2つのベクトルから、新たなベクトルを算出し、これにより算出されたベクトルを順方向動きベクトルとすることにより、少ない演算量で順方向動き動きベクトルおよび逆方向動きベクトルを求めることができる動きベクトル探索方法が記載されている。   In Patent Document 2, first, a backward motion vector to the backward reference image of the current image block is obtained, and then the backward motion vector and the forward reference image block indicated by the backward motion vector are forwarded. By calculating a new vector from the two motion vectors for the direction reference image and using the calculated vector as the forward motion vector, the forward motion vector and the backward motion vector are reduced with a small amount of calculation. A motion vector search method capable of obtaining the above is described.

特許文献3には、時間的に先行および後続するフレームを用いて双方向から予測して符号化するに際し、Bブロックを最適に予測するためのデルタ動きベクトルを探索し、順方向動きベクトルにデルタ動きベクトルを加算して最終順方向動きベクトルを得、逆方向動きベクトルからデルタ動きベクトルを減算して最終順方向動きベクトルを得ることにより、動きが線形でないシーンでも有効に圧縮できるビデオ画像符号化方法が記載されている。   In Patent Document 3, a delta motion vector for optimally predicting a B block is searched for when encoding is predicted from both directions using temporally preceding and succeeding frames, and the delta motion vector is converted into a forward motion vector. Video image coding that can effectively compress even non-linear motion scenes by adding motion vectors to obtain final forward motion vectors and subtracting delta motion vectors from backward motion vectors to obtain final forward motion vectors A method is described.

特許文献4には、双方向予測符号化に際し、まず、最適な順方向動きベクトルを求め、逆方向動きベクトルについては逆方向動きベクトル候補の中から、両方向の予測データの平均値が符号化ブロックと最も高い相関度を示すものを選択するようにした動画像処理方法が記載されている(第3実施形態)。
特開2002−335529号公報 特開2000−295625号公報 特開平9−182083号公報 特開2000−308062号公報
In Patent Document 4, when bi-directional predictive coding is performed, first, an optimal forward motion vector is obtained, and for the reverse motion vector, an average value of prediction data in both directions is selected from the backward motion vector candidates. And a moving image processing method in which the one showing the highest correlation is selected (third embodiment).
JP 2002-335529 A JP 2000-295625 A Japanese Patent Laid-Open No. 9-182083 JP 2000-308062 A

MPEGやH.264などの画像圧縮方式では、移動する物体やシーンの圧縮効率を動き補償で高めるため、動きベクトルを探索するに当たり、予測誤差の最小化を評価基準とする。一般的には、動きベクトルの探索は動きベクトルに対応する参照フレームの位置との二乗誤差が最小となる動きベクトルを選択する。これは、参照フレームを複数用いることができる双方向予測や双予測でも同様である。   In image compression schemes such as MPEG and H.264, in order to increase the compression efficiency of moving objects and scenes by motion compensation, minimizing prediction errors is used as an evaluation criterion when searching for motion vectors. In general, a motion vector search selects a motion vector that minimizes a square error with the position of a reference frame corresponding to the motion vector. The same applies to bidirectional prediction and bi-prediction in which a plurality of reference frames can be used.

上記の画像圧縮方式には、Iピクチャ、PピクチャおよびBピクチャの3つのタイプが存在する。I(Intra)ピクチャでは、他のフレームは参照されない。Pピクチャでは、時間的に過去のフレームが参照され、Bピクチャでは、複数のフレームを参照できる。   There are three types of image compression methods: I picture, P picture, and B picture. In the I (Intra) picture, other frames are not referred to. In the P picture, a past frame in time can be referred to, and in the B picture, a plurality of frames can be referred to.

Bピクチャでは、動きの基準として複数の参照フレームを用いることができるが、動き補償単位であるマクロブロックごとに参照フレームの時間的位置や枚数を変更することができるため、マクロブロックによっては参照フレームを2枚ではなく1枚だけを参照することもできる。   In a B picture, a plurality of reference frames can be used as a reference for motion. However, since the temporal position and number of reference frames can be changed for each macro block which is a motion compensation unit, depending on the macro block, You can refer to only one sheet instead of two.

従来の動きベクトル探索では、1枚だけの参照フレームを参照する単方向予測が選択される可能性を考慮し、個々の参照フレームに対する誤差がそれぞれ最小となる動きベクトルの組み合わせを双方向予測の動きベクトルとして採用している。   In the conventional motion vector search, considering the possibility of selecting unidirectional prediction referring to only one reference frame, the motion vector combination that minimizes the error for each reference frame is selected as the motion of bidirectional prediction. Adopted as a vector.

しかし、過去の参照フレームに対する誤差を最小にする動きベクトルと、未来の参照フレームに対する誤差を最小にする動きベクトルを個別に求めても、この2つの動きベクトルを組み合わせることが最適な双方向予測の動きベクトルを求めることにはならない。   However, even if the motion vector that minimizes the error with respect to the past reference frame and the motion vector that minimizes the error with respect to the future reference frame are obtained separately, the combination of these two motion vectors is the optimal bi-directional prediction. It does not determine the motion vector.

双方向予測では2つの動きベクトルで導かれた領域の画素平均を用いるため、最適な動きベクトルは他に存在すると考えられる。複数の参照フレームの領域での画素平均を考えた場合、個々の参照フレームに対する誤差が最小であっても全体としての誤差が最小になるとは限らないので、従来の方法では圧縮効率や画質の面で問題がある。   Since bi-directional prediction uses the pixel average of the region derived by two motion vectors, there are other optimal motion vectors. Considering pixel averaging in multiple reference frame areas, even if the error for each reference frame is minimal, the overall error is not necessarily minimized. There is a problem.

特許文献1の動画像符号化方法は、参照フレームとなるフレーム間での動きベクトルを時間的に内分することによって双方向予測の動きベクトルを生成するものであり、誤差を最小とする順方向動きベクトルおよび逆方向動きベクトルを個別に算出し、それらを組み合わせていることに変わりはない。   The moving picture coding method of Patent Document 1 generates a motion vector for bidirectional prediction by temporally dividing a motion vector between frames serving as reference frames, and a forward direction that minimizes an error. The motion vector and the backward motion vector are calculated separately, and they are still combined.

特許文献2の動きベクトル探索方法は、演算量は少なくなるが、逆方向動きベクトルを求め、これを利用してベクトルを順方向動きベクトルを求めており、順方向動きベクトルと逆方向動きベクトルの組み合わせについての誤差は考慮されないので、誤差を最小とする順方向動きベクトルおよび逆方向動きベクトルの組み合わせを求めることができない。   Although the motion vector search method of Patent Document 2 requires a small amount of computation, it obtains a backward motion vector and uses this to find a forward motion vector. The forward motion vector and the backward motion vector Since an error regarding the combination is not taken into consideration, a combination of a forward motion vector and a backward motion vector that minimizes the error cannot be obtained.

特許文献3のビデオ画像符号化方法は、順方向動きベクトルを時間的に内分することによってBフレームに対する順方向動きベクトルおよび逆方向動きベクトルを得るものであり、これでも誤差を最小とする順方向動きベクトルと逆方向動きベクトルの組み合わせを求めることはできない。   The video image encoding method of Patent Document 3 obtains a forward motion vector and a backward motion vector for a B frame by internally dividing a forward motion vector in time, and this is the order that minimizes the error. A combination of a directional motion vector and a backward motion vector cannot be obtained.

特許文献4に記載されている動画像処理方法では、逆方向動きベクトルに種々の調整値を加えて逆方向動きベクトル候補を算出し、その中から両方向の予測データの平均値が符号化ブロックと最も高い相関度を示すものを選択して逆方向動きベクトルとしている。しかし、順方向動きベクトルについては一旦得られたものが固定され、その条件下で逆方向動きベクトルが選択されるので、他の順方向動きベクトルと逆方向動きベクトルの種々の組み合わせについて検証されることはなく、符号化ブロックと両方向の予測データの平均値との誤差がより小さくなる他の順方向動きベクトルと逆方向動きベクトルの組み合わせがあったとしても、その組み合わせは選択されない。   In the moving image processing method described in Patent Literature 4, various adjustment values are added to the backward motion vector to calculate backward motion vector candidates, and the average value of the prediction data in both directions is the coding block. The one showing the highest degree of correlation is selected as the backward motion vector. However, what is once obtained for the forward motion vector is fixed, and the backward motion vector is selected under that condition, so that various combinations of other forward motion vectors and backward motion vectors are verified. Even if there are other combinations of forward motion vectors and backward motion vectors in which the error between the encoded block and the average value of the prediction data in both directions becomes smaller, the combination is not selected.

本発明の目的は、上記課題を解決し、双方向予測あるいは双予測において、圧縮効率や画質の面で優れた符号化を行うことができる画像符号化装置を提供することにある。   An object of the present invention is to solve the above-described problems and provide an image encoding apparatus capable of performing encoding excellent in terms of compression efficiency and image quality in bidirectional prediction or bi-prediction.

上記課題を解決するため、本発明は、符号化情報から画像信号を再構成し、再構成された複数の画像信号を元に予測信号を生成し、該予測信号により符号化対象の画像信号を予測符号化して符号化情報を出力する画像符号化装置であって、符号化対象の画像信号と予測信号との差分を求める差分手段と、前記差分手段の出力を直交変換する変換手段と、前記変換手段の出力を量子化する量子化手段と、前記量子化手段の出力を可変長符号化する可変長符号化手段と、前記量子化手段の出力を逆量子化する逆量子化手段と、前記逆量子化手段の出力を逆変換する逆変換手段と、前記予測信号と前記逆変換手段の出力を加算して再構成された画像信号を出力する加算手段と、前記加算手段の出力を参照フレームとして一時的に蓄えるフレームメモリと、符号化対象の画像信号と前記フレームメモリに蓄えられた複数の参照フレームを用い、反復処理による動き情報の探索で前記複数の参照フレームについての動き情報を決定する反復動き探索手段と、前記反復動き探索手段で決定された動き情報を用いて動き補償を施した前記複数の参照フレームを元に予測信号を出力する動き補償手段を備えたことを特徴としている。   In order to solve the above problems, the present invention reconstructs an image signal from encoded information, generates a prediction signal based on the reconstructed image signals, and uses the prediction signal to generate an image signal to be encoded. An image encoding apparatus that predictively encodes and outputs encoded information, a difference unit that obtains a difference between an image signal to be encoded and a prediction signal, a transform unit that orthogonally transforms an output of the difference unit, A quantizing means for quantizing the output of the converting means; a variable length encoding means for variable length encoding the output of the quantizing means; an inverse quantization means for dequantizing the output of the quantizing means; Inverse transform means for inverse transforming the output of the inverse quantization means; Adder means for adding the output of the prediction signal and the output of the inverse transform means to output a reconstructed image signal; and the output of the adder means as a reference frame Frame memo temporarily stored as And an iterative motion search means for determining motion information for the plurality of reference frames by searching for motion information by an iterative process using an image signal to be encoded and a plurality of reference frames stored in the frame memory, It is characterized by comprising motion compensation means for outputting a prediction signal based on the plurality of reference frames subjected to motion compensation using motion information determined by the iterative motion search means.

また、本発明は、前記反復動き探索手段が、反復処理で複数の参照フレームを順次用いて漸次的に動き情報を導くことを特徴としている。   Also, the present invention is characterized in that the repetitive motion search means gradually derives motion information by sequentially using a plurality of reference frames in repetitive processing.

また、本発明は、前記反復動き探索手段が、動き探索する参照フレーム以外の参照フレームについての動き情報をその時点における最適な動き情報として固定しながら動き探索を行うことにより、複数の参照フレームについての一組の動き情報を最適化することを特徴としている。   In the present invention, the repetitive motion search means performs motion search while fixing motion information about reference frames other than the reference frame for motion search as the optimal motion information at that time, so that a plurality of reference frames can be obtained. It is characterized by optimizing a set of motion information.

また、本発明は、前記反復動き探索手段が、第1の参照フレームの画素値をa倍(aは正の整数)にする画素値a倍部と、第2の参照フレームの画素値をb倍(bは正の整数)にする画素値b倍部と、初回の動き探索では符号化対象の画像信号の画素値をa倍にした画像信号に対して動き探索を行い、反復処理による二回目以降の動き探索では前回の動き補償が反映された画像信号に対して動き探索を行う動き探索部と、前記動き探索部で探索された動き情報を用いて参照フレームを動き補償する動き補償部と、反復処理による二回目以降の動き探索に際して予め符号化対象の画像信号の画素値を(a+b)倍にするバイアス付与部と、前記バイアス付与部で画素値が(a+b)倍にされた符号化対象の画像信号と前記動き補償部で動き補償された参照フレームの差を求める減算部を備え、前記減算部の出力を前回の動き補償が反映された画像信号として動き探索部に入力することにより、第1の参照フレームと第2の参照フレームにそれぞれ重みa、bが付された重み付き予測での動き情報を決定することを特徴としている。   Further, according to the present invention, the repetitive motion search means includes a pixel value a multiplication unit for multiplying a pixel value of the first reference frame by a (a is a positive integer), and a pixel value of the second reference frame is b. In the first motion search, a motion search is performed on the image signal obtained by multiplying the pixel value of the image signal to be encoded by a times in the first motion search. In the motion search after the first time, a motion search unit that performs motion search on the image signal reflecting the previous motion compensation, and a motion compensation unit that performs motion compensation on the reference frame using the motion information searched by the motion search unit And a bias applying unit that preliminarily increases the pixel value of the image signal to be encoded by (a + b) times in the second and subsequent motion search by the iterative processing, and a code in which the pixel value is increased by (a + b) times by the bias applying unit. Image signal to be processed and reference compensated by the motion compensation unit A subtractor for obtaining a frame difference, and inputting the output of the subtractor to the motion search unit as an image signal reflecting the previous motion compensation, thereby weighting each of the first reference frame and the second reference frame. It is characterized by determining motion information in weighted prediction with a and b.

また、本発明は、前記反復動き探索手段が、初回の動き探索では符号化対象の画像信号そのものに対して動き探索を行い、反復処理による二回目以降の動き探索では前回の動き補償が反映された画像信号に対して動き探索を行う動き探索部と、前記動き探索部で探索された動き情報を用いて参照フレームを動き補償する動き補償部と、反復処理による二回目以降の動き探索に際して予め符号化対象の画像信号の画素値をn倍(nは2以上の整数)にするバイアス付与部と、前記バイアス付与部で画素値がn倍にされた符号化対象の画像信号と前記動き補償部で動き補償され、画素値が(n−1)倍にされた参照フレームの差を求める減算部を備え、前記減算部の出力を前回の動き補償が反映された画像信号として動き探索部に入力することにより、n枚の参照フレームについての動き情報を決定することを特徴としている。   Further, according to the present invention, the repetitive motion search means performs a motion search on the image signal itself to be encoded in the first motion search, and the previous motion compensation is reflected in the second and subsequent motion search by the iterative process. A motion search unit that performs motion search on the received image signal, a motion compensation unit that performs motion compensation on the reference frame using the motion information searched by the motion search unit, and a second or subsequent motion search by iterative processing. A bias applying unit that increases the pixel value of the image signal to be encoded by n times (n is an integer of 2 or more), the image signal to be encoded whose pixel value is increased by n times by the bias applying unit, and the motion compensation A subtraction unit that obtains a difference between reference frames that have been subjected to motion compensation and whose pixel value has been multiplied by (n−1) times, and outputs the output of the subtraction unit to the motion search unit as an image signal that reflects the previous motion compensation. By typing It is characterized by determining motion information for n reference frames.

また、本発明は、前記反復動き探手段が、前記動き探索部で探索された動き情報の変化の有無あるいは所定反復回数を元に反復処理を終了させる手段を備えたことを特徴としている。   Further, the present invention is characterized in that the iterative motion search means includes means for terminating the iterative process based on the presence or absence of a change in motion information searched by the motion search unit or a predetermined number of iterations.

さらに、本発明は、前記動き探索部が、任意の探索手法を採用可能であることを特徴としている。   Furthermore, the present invention is characterized in that the motion search unit can employ any search method.

本発明によれば、双方向予測や双予測に対して動き探索と動き補償を反復してそれぞれの参照フレームについての動きベクトルを求めるので、全体的に見て最適な動きベクトルを決定することができる。これにより、複数の動きベクトルを用いる画像符号化における圧縮効率を向上させることが可能となる。   According to the present invention, motion search and motion compensation are repeated for bi-directional prediction and bi-prediction to obtain a motion vector for each reference frame, so that an optimal motion vector can be determined as a whole. it can. Thereby, it is possible to improve the compression efficiency in image encoding using a plurality of motion vectors.

以下、図面を参照して本発明を説明する。図1は、本発明に係る画像符号化装置の一実施形態を示すブロック図である。本実施形態の画像符号化装置は、減算器11、直交変換器(DCT)12、量子化器(Q)13、可変長符号化器(VLC)14、逆量子化器(IQ)15、逆直交変換器(IDCT)16、加算器17、フレームメモリ(memory)18、反復動き探索器(反復ME)19、および動き補償器(MC)20を備える。   The present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an image encoding device according to the present invention. The image coding apparatus of the present embodiment includes a subtractor 11, an orthogonal transformer (DCT) 12, a quantizer (Q) 13, a variable length coder (VLC) 14, an inverse quantizer (IQ) 15, and an inverse An orthogonal transformer (IDCT) 16, an adder 17, a frame memory (memory) 18, an iterative motion searcher (iterative ME) 19, and a motion compensator (MC) 20 are provided.

符号化対象の画像信号(フレーム)は、減算器11と反復動き探索器19に入力される。減算器11は、符号化対象の画像信号と動き補償器20から送出される予測信号との誤差を求める。減算器11から出力される誤差信号は、直交変換器12で直交変換され、直交変換係数となる。この直交変換係数は、量子化器13で量子化され、さらに可変長符号化器14で可変長符号化され、ビットストリームとして符号化出力される。   The image signal (frame) to be encoded is input to the subtractor 11 and the iterative motion searcher 19. The subtracter 11 obtains an error between the image signal to be encoded and the prediction signal transmitted from the motion compensator 20. The error signal output from the subtractor 11 is orthogonally transformed by the orthogonal transformer 12 and becomes an orthogonal transformation coefficient. This orthogonal transform coefficient is quantized by the quantizer 13, further variable-length encoded by the variable-length encoder 14, and encoded and output as a bit stream.

量子化器13の出力は、逆量子化器15で逆量子化され、さらに逆直交変換器16で逆直交変換されて加算器17に入力される。加算器17は、逆直交変換処理された出力と動き補償器20から送出される予測信号を加算して再構成(局部復号)された画像信号を出力する。フレームメモリ18は、加算器17で再構成された画像信号を参照フレームとして一時的に蓄える。   The output of the quantizer 13 is inversely quantized by the inverse quantizer 15, further inversely orthogonally transformed by the inverse orthogonal transformer 16, and input to the adder 17. The adder 17 adds the output obtained by the inverse orthogonal transform process and the prediction signal transmitted from the motion compensator 20, and outputs a reconstructed (locally decoded) image signal. The frame memory 18 temporarily stores the image signal reconstructed by the adder 17 as a reference frame.

反復動き探索器19は、符号化対象フレームとフレームメモリ18に蓄えられた複数の参照フレームを用い、反復処理による動き情報の探索で動き情報を決定する。これにより、複数の参照フレーム全体が考慮された最適な動き情報の組み合わせが決定される。ここでの処理の詳細は後述する。   The iterative motion searcher 19 uses the encoding target frame and a plurality of reference frames stored in the frame memory 18 to determine motion information by searching for motion information by iterative processing. Thereby, the optimal combination of motion information in consideration of the entire plurality of reference frames is determined. Details of the processing here will be described later.

動き補償器20は、動き探索器19で決定された動き情報を用いて複数の参照フレームに動き補償を施し、予測信号を出力する。   The motion compensator 20 performs motion compensation on a plurality of reference frames using the motion information determined by the motion searcher 19, and outputs a prediction signal.

図2は、反復動き探索器(反復ME)19の第1構成例を示す機能ブロック図である。この反復動き探索器19は、符号化対象フレームと2枚の参照フレーム(参照フレーム1,2)を入力とし、双予測動きベクトルMVを出力するものであり、双予測動きベクトルMVを探索するに当たり、単方向の動きベクトル探索を反復して繰り返すことにより漸次精度を向上させることを特徴としている。   FIG. 2 is a functional block diagram showing a first configuration example of the iterative motion searcher (iterative ME) 19. This iterative motion searcher 19 inputs a frame to be encoded and two reference frames (reference frames 1 and 2) and outputs a bi-predicted motion vector MV. Further, it is characterized in that the accuracy is gradually improved by repeating the unidirectional motion vector search repeatedly.

反復動き探索器19は、動き探索部21、動き補償部22、バイアス付与部23、減算部24、判定部25、および切替部26,27を備える。   The iterative motion searcher 19 includes a motion search unit 21, a motion compensation unit 22, a bias applying unit 23, a subtraction unit 24, a determination unit 25, and switching units 26 and 27.

切替部26は、最初の1回目の動き探索で、符号化対象フレームを動き探索部21に入力し、2回目以降の動き探索では減算部24の出力を動き探索部21に入力する。   The switching unit 26 inputs the encoding target frame to the motion search unit 21 in the first first motion search, and inputs the output of the subtraction unit 24 to the motion search unit 21 in the second and subsequent motion searches.

したがって、動き探索部21は、符号化対象フレームについての初回の動き探索では符号化対象の画像信号そのものに対して動き探索を行い、反復処理による2回目以降の動き探索では前回の動き補償が反映された画像信号に対して動き探索を行う。   Therefore, the motion search unit 21 performs a motion search on the image signal itself to be encoded in the first motion search for the encoding target frame, and the previous motion compensation is reflected in the second and subsequent motion searches by iterative processing. A motion search is performed on the image signal.

また、切替部27は、1回の動き探索ごとに1枚目の参照フレーム1と2枚目の参照フレーム2を交互に動き探索部21に入力する。動き補償部22は、動き探索部21で探索された動き情報を用いて参照フレームを動き補償する。   Further, the switching unit 27 alternately inputs the first reference frame 1 and the second reference frame 2 to the motion search unit 21 for each motion search. The motion compensation unit 22 performs motion compensation on the reference frame using the motion information searched by the motion search unit 21.

バイアス付与部23は、反復処理による2回目以降の動き探索に際し予め符号化対象フレームにバイアスをかける。これにより、動き探索する参照フレーム以外の参照フレームの影響を除去する。   The bias applying unit 23 biases the encoding target frame in advance for the second and subsequent motion search by the iterative process. This eliminates the influence of reference frames other than the reference frame for motion search.

減算部24は、バイアス付与部23でバイアスがかけられた符号化対象フレームと動き補償部22で動き補償された参照フレームの差を求める。判定部25は、動き探索部21で探索された動き情報の変化の有無あるいは所定反復回数を元に反復処理を終了させる。   The subtracting unit 24 obtains a difference between the encoding target frame biased by the bias applying unit 23 and the reference frame motion-compensated by the motion compensating unit 22. The determination unit 25 ends the iterative process based on the presence or absence of a change in the motion information searched by the motion search unit 21 or a predetermined number of iterations.

以下、反復動き探索器19の動作を説明する。初回の動き探索では、切替部26,27は、符号化対象フレームと1枚目の参照フレーム1を動き探索部21に入力するように切り替えられる。動き探索部21は、1回目では符号化対象フレームそのものに対して動き探索を行う。すなわち、符号化対象フレームと参照フレーム1を用いて動きベクトルMVを探索する。   Hereinafter, the operation of the iterative motion searcher 19 will be described. In the first motion search, the switching units 26 and 27 are switched to input the encoding target frame and the first reference frame 1 to the motion search unit 21. The motion search unit 21 performs motion search on the encoding target frame itself at the first time. That is, the motion vector MV is searched using the encoding target frame and the reference frame 1.

判定部25は、動きベクトルMVに変化があり、かつ動き探索が指定回数内であるか否かを判定する。初回の動き探索の結果、動きベクトルMVは変化し、かつ指定回数内と判定されるので、探索された動きベクトルMVは、動き補償部22に与えられる。動き補償部22は、動き探索部21で探索された動きベクトルMVと参照フレーム1を用いて予測フレームを生成する。   The determination unit 25 determines whether or not there is a change in the motion vector MV and the motion search is within the specified number of times. As a result of the first motion search, the motion vector MV changes and is determined to be within the specified number of times, so that the searched motion vector MV is given to the motion compensation unit 22. The motion compensation unit 22 generates a prediction frame using the motion vector MV searched by the motion search unit 21 and the reference frame 1.

判定部25で、指定回数内であるか否かを条件としたのは、動き探索を何回反復しても動きベクトルMVが収束しない場合を考慮したものであり、指定回数は、例えば参照フレーム数の2倍を超える所定数に設定される。なお、動きベクトルMVに変化があるか否かの判定は、動きベクトルMVの変化が完全に0であるか否かということでなくてもよく、予め設定した閾値以下であるか否かというものでもよい。   The determination unit 25 is based on whether or not it is within the specified number of times in consideration of the case where the motion vector MV does not converge no matter how many times the motion search is repeated. It is set to a predetermined number that exceeds twice the number. Note that the determination of whether or not there is a change in the motion vector MV does not have to be whether or not the change in the motion vector MV is completely 0, but whether or not it is equal to or less than a preset threshold value. But you can.

一方で、符号化対象フレームをバイアス付与部23に入力し、その画素値を2倍にする処理を施しておく。これにより画素値が2倍された符号化対象フレームと動き補償部22で作成された予測フレームの差が減算部24で求められる。   On the other hand, the encoding target frame is input to the bias applying unit 23, and the pixel value is doubled. As a result, the subtraction unit 24 obtains the difference between the encoding target frame whose pixel value has been doubled and the prediction frame created by the motion compensation unit 22.

2回目の動き探索では、1回目の動き補償が反映された画像信号に対して動き探索を行う。すなわち、符号化対象フレームに代えて減算器24から出力される差分を用いて動き探索を行う。また、参照フレームとしては2枚目の参照フレーム2を用いる。そのため、減算部24からの差分と参照フレーム2を動き探索部21に入力するように切替部26,27を切り替える。   In the second motion search, a motion search is performed on the image signal reflecting the first motion compensation. That is, motion search is performed using the difference output from the subtractor 24 instead of the encoding target frame. The second reference frame 2 is used as the reference frame. Therefore, the switching units 26 and 27 are switched so that the difference from the subtraction unit 24 and the reference frame 2 are input to the motion search unit 21.

バイアス付与手段23で符号化対象フレームの画素値が2倍にされ、減算部24からは先の動き補償での残渣信号が残った形の符号化対象フレームが差分として出力されるので、2枚目の参照フレーム2を用いる動き探索でも同じ動き探索部21を用いることができる。   The pixel value of the encoding target frame is doubled by the bias applying means 23, and the subtraction unit 24 outputs the encoding target frame in a form in which the residual signal from the previous motion compensation remains, so two frames are output. The same motion search unit 21 can be used in the motion search using the eye reference frame 2.

2回目の動き探索では、動き探索部21は、減算部24からの差分と参照フレーム2を用いて動きベクトルMVを探索する。参照フレーム2についての動きベクトルMVは今回初めて探索されたので、判定部25は、今回も動きベクトルMVが変化し、かつ指定回数内と判定する。したがって、探索された動きベクトルMVは、動き補償部22に与えられる。   In the second motion search, the motion search unit 21 searches for the motion vector MV using the difference from the subtraction unit 24 and the reference frame 2. Since the motion vector MV for the reference frame 2 has been searched for the first time this time, the determination unit 25 determines that the motion vector MV also changes this time and is within the specified number of times. Therefore, the searched motion vector MV is given to the motion compensation unit 22.

動き補償部22は、動き探索部21で探索された動きベクトルMVと参照フレーム2を用いて予測フレームを生成し、減算部24は、バイアス付与部23で画素値が2倍された符号化対象フレームと動き補償部22で作成された予測フレームの差を出力する。   The motion compensation unit 22 generates a prediction frame using the motion vector MV searched by the motion search unit 21 and the reference frame 2, and the subtraction unit 24 encodes the pixel value whose pixel value is doubled by the bias applying unit 23 The difference between the frame and the predicted frame created by the motion compensation unit 22 is output.

3回目の動き探索では、減算部24から2回目に出力された差分を用いる。また、参照フレームとしては1枚目の参照フレーム1を用いる。すなわち、切替部26は、2回目と同じ状態であり、切替部27は、参照フレーム1を動き探索部21に入力するように切り替えられる。   In the third motion search, the difference output from the subtraction unit 24 for the second time is used. The first reference frame 1 is used as the reference frame. That is, the switching unit 26 is in the same state as the second time, and the switching unit 27 is switched to input the reference frame 1 to the motion search unit 21.

以下、同様に、動き探索および動き補償の一連の処理を反復して繰り返す。上述したように、反復動き探索器19は、1回目では、符号化対象フレームそのものと参照フレーム1を用いて動き探索を行い、2回目以降では、前回の動き補償が反映された画像信号、つまり減算部24からの差分を用い、また、参照フレーム1,2を交互に用いて動き探索を反復して行う。動き探索部21で用いる参照フレームを切り替えて反復処理することで全体的に最適な動きベクトルMVを漸次的に求めることができる。   Thereafter, similarly, a series of processes of motion search and motion compensation are repeated repeatedly. As described above, the iterative motion searcher 19 performs a motion search by using the encoding target frame itself and the reference frame 1 at the first time, and after the second time, the image signal that reflects the previous motion compensation, that is, The motion search is repeated by using the difference from the subtracting unit 24 and alternately using the reference frames 1 and 2. By switching the reference frame used in the motion search unit 21 and performing iterative processing, the overall optimal motion vector MV can be obtained gradually.

動き探索の反復過程で、求められた動きベクトルMVが変化しなくなった場合、あるいは一連の処理の反復回数が予め定められた回数を超えた場合は、参照フレーム1,2について最後の反復処理で求められた動きベクトルMVを出力して動き探索処理を終了する。   If the calculated motion vector MV no longer changes during the motion search iteration process, or if the number of iterations of a series of processes exceeds a predetermined number of times, the last iteration process is performed for reference frames 1 and 2. The obtained motion vector MV is output and the motion search process is terminated.

動き補償器20(図1)は、探索の結果として求められた参照フレーム1,2に対する動きベクトルMVと参照フレーム1,2の画像信号を用いて符号化対象フレームに対する予測フレームを生成する。この予測フレームの生成は、従来の双方向予測や双予測と同様であるので説明は省略する。   The motion compensator 20 (FIG. 1) generates a prediction frame for the encoding target frame using the motion vector MV for the reference frames 1 and 2 obtained as a result of the search and the image signals of the reference frames 1 and 2. The generation of the prediction frame is the same as the conventional bi-prediction and bi-prediction, and thus description thereof is omitted.

図3は、具体的サンプルによる第1構成例での動き探索の説明図である。ここでは、反復動き探索器19の動作の理解を容易にするため、単純化して、フレームが2x1画素からなり、動き探索を1x1画素単位で行うものとする。しかし、実際にはフレームの画素数や動き探索の単位は、それぞれ352x288画素、16x16画素などである。   FIG. 3 is an explanatory diagram of motion search in the first configuration example using specific samples. Here, in order to facilitate the understanding of the operation of the iterative motion searcher 19, it is simplified and the frame is composed of 2 × 1 pixels, and the motion search is performed in units of 1 × 1 pixels. However, in practice, the number of pixels in the frame and the unit of motion search are 352 × 288 pixels, 16 × 16 pixels, and the like, respectively.

符号化を行おうとする符号化対象の画素値が「6」、参照フレーム1,2の画素値がそれぞれ「4,5」,「5,8」であるとすると、参照フレーム1,2について誤差を最小にする動きベクトルを個別に求めた場合、符号化対象の画素値「6」に対して、参照フレーム1からは誤差が最小となる画素値「5」の位置が動きベクトルとして決定され、参照フレーム2からは画素値「5」の位置が動きベクトルとして決定される。この場合、双方向予測で平均して求められる画素値は「5」となり、符号化対象の画素値「6」に対する誤差は「1」となる。    Assuming that the pixel value to be encoded is “6” and the pixel values of reference frames 1 and 2 are “4, 5” and “5, 8” respectively, an error will occur for reference frames 1 and 2. , The position of the pixel value “5” at which the error is minimized from the reference frame 1 is determined as the motion vector with respect to the pixel value “6” to be encoded. From the reference frame 2, the position of the pixel value “5” is determined as a motion vector. In this case, the pixel value obtained by averaging in bidirectional prediction is “5”, and the error with respect to the pixel value “6” to be encoded is “1”.

一方、反復動き探索器19の処理に照らし合わせて動作を確認すると、まず、動き探索部21で、符号化対象の画素値「6」に対する誤差が最小になる参照フレーム1の画素値「5」の位置が動きベクトルとして求められる。ここまでは上記と同じである。   On the other hand, when confirming the operation against the processing of the iterative motion searcher 19, first, the motion search unit 21 uses the pixel value “5” of the reference frame 1 that minimizes the error with respect to the pixel value “6” to be encoded. Is obtained as a motion vector. Up to this point, the same as above.

ここで、参照フレーム1に対する動きベクトルは初めて求められたので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム1の画素値「5」が予測画素の画素値として符号化対象の画素値「6」と対応付けられる。   Here, since the motion vector for the reference frame 1 is obtained for the first time, the determination unit 25 gives the motion vector to the motion compensation unit 22 on the assumption that the condition is satisfied. Next, the pixel value “5” of the reference frame 1 is associated with the pixel value “6” to be encoded as the pixel value of the prediction pixel by the motion compensation in the motion compensation unit 22.

他方で、符号化対象の画素値「6」はバイアス付与部(画素値2倍手段)23で予め2倍の「12」にされる。減算部24では、この値「12」と動き補償部22で動き補償された画素値「5」との差「7」が求められる。   On the other hand, the pixel value “6” to be encoded is preliminarily doubled to “12” by the bias applying unit (pixel value doubling means) 23. In the subtraction unit 24, a difference “7” between the value “12” and the pixel value “5” subjected to motion compensation by the motion compensation unit 22 is obtained.

2回目の動き探索で、動き探索部21は、差「7」との誤差が最小になる参照フレーム2の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム2の画素値「8」の位置が動きベクトルとして求められる。参照フレーム2に対する動きベクトルは初めて求められたので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム2の画素値「8」が予測画素の画素値として符号化対象の画素値「6」と対応付けられる。   In the second motion search, the motion search unit 21 searches for the position of the pixel value of the reference frame 2 that minimizes the difference from the difference “7” as a motion vector. In this case, the position of the pixel value “8” of the reference frame 2 is obtained as a motion vector. Since the motion vector for the reference frame 2 is obtained for the first time, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, by the motion compensation in the motion compensation unit 22, the pixel value “8” of the reference frame 2 is associated with the pixel value “6” to be encoded as the pixel value of the prediction pixel.

減算部24では、バイアス付与部23で予めバイアスが付与された符号化対象の画素値「12」と動き補償部22で動き補償された画素値「8」との差「4」が求められる。   The subtracting unit 24 obtains a difference “4” between the pixel value “12” to be encoded that has been previously biased by the bias applying unit 23 and the pixel value “8” that has been motion compensated by the motion compensating unit 22.

3回目の動き探索では、動き探索部21は、差「4」との誤差が最小になる参照フレーム1の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム1の画素値「4」の位置が動きベクトルとして求められる。ここで、参照フレーム1に対する動きベクトルは変化したので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム1の画素値「4」が予測画素の画素値として符号化対象の画素値「6」と対応付けられる。   In the third motion search, the motion search unit 21 searches for the position of the pixel value of the reference frame 1 that minimizes the difference from the difference “4” as a motion vector. In this case, the position of the pixel value “4” of the reference frame 1 is obtained as a motion vector. Here, since the motion vector for the reference frame 1 has changed, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, the pixel value “4” of the reference frame 1 is associated with the pixel value “6” to be encoded as the pixel value of the prediction pixel by motion compensation in the motion compensation unit 22.

次に、減算部24は、バイアス付与部23から得られる値「12」と動き補償部22で動き補償された画素値「4」との差「8」を求める。   Next, the subtraction unit 24 obtains a difference “8” between the value “12” obtained from the bias applying unit 23 and the pixel value “4” motion-compensated by the motion compensation unit 22.

4回目の動き探索では、動き探索部21は、差「8」との誤差が最小になる参照フレーム2の画素値の位置を動きベクトルとして探索する。ここでは、参照フレーム2の画素値「8」の位置が動きベクトルとして求められ、参照フレーム2に対する動きベクトルは画素値「8」の位置のままで変化しない。判定部25は、条件が成立しない判定し、上記一連の反復処理を終了して、参照フレーム1では画素値「4」の位置、参照フレーム2では画素値「8」の位置を最終的に決定された動きベクトルとして出力する。   In the fourth motion search, the motion search unit 21 searches for the position of the pixel value of the reference frame 2 that minimizes the difference from the difference “8” as a motion vector. Here, the position of the pixel value “8” in the reference frame 2 is obtained as a motion vector, and the motion vector for the reference frame 2 remains at the position of the pixel value “8” and does not change. The determination unit 25 determines that the condition is not satisfied, finishes the series of iterative processes, and finally determines the position of the pixel value “4” in the reference frame 1 and the position of the pixel value “8” in the reference frame 2 Output as a motion vector.

この場合、双方向予測で平均して求められる画素値は「6」となり、符号化対象の画素値「6」に対する誤差は「0」となるので、双方向予測において個別の最適化よりも全体的に最適な動きベクトルが選択されたことが分かる。   In this case, the average pixel value obtained by bi-directional prediction is “6”, and the error for the encoding target pixel value “6” is “0”. It can be seen that the optimal motion vector is selected.

図4は、反復動き探索器(反復ME)19の第2構成例を示す機能ブロック図である。本構成例は、複数の参照フレームを用いる単方向あるいは双方向の重み付き予測にも対応可能なように汎用化したものである。図4において図2と同一あるいは同等部分には同じ符号を付している。   FIG. 4 is a functional block diagram showing a second configuration example of the iterative motion searcher (iterative ME) 19. This configuration example is generalized so as to be compatible with unidirectional or bidirectional weighted prediction using a plurality of reference frames. In FIG. 4, the same or equivalent parts as in FIG.

第2構成例が第1構成例と異なるのは、バイアス付与部23を画素値(a+b)倍手段とし、符号化対象フレームを画素値a倍部29を通して切替部27に与え、参照フレーム1,2をそれぞれ、画素値a倍部30,画素値b倍部31を通して切替部27に与える点である。ここで、a,bはそれぞれ、参照フレーム1,2に対する重みを示し、a=b=1の場合は第1構成例に相当する。   The second configuration example is different from the first configuration example in that the bias applying unit 23 is a pixel value (a + b) multiplication unit, the encoding target frame is provided to the switching unit 27 through the pixel value a multiplication unit 29, and the reference frame 1 and 2 are given to the switching unit 27 through the pixel value a multiplication unit 30 and the pixel value b multiplication unit 31, respectively. Here, a and b indicate weights for the reference frames 1 and 2, respectively, and a = b = 1 corresponds to the first configuration example.

図5は、具体的サンプルによる第2構成例での動き探索の説明図である。ここでは、a=2,b=1とし、符号化対象の画素値が「5」、参照フレーム1,2の画素値がそれぞれ「1,3」,「12,13」であるとしている。   FIG. 5 is an explanatory diagram of motion search in the second configuration example using specific samples. Here, it is assumed that a = 2, b = 1, the pixel value to be encoded is “5”, and the pixel values of the reference frames 1 and 2 are “1, 3” and “12, 13”, respectively.

参照フレーム1,2について誤差を最小にする動きベクトルを個別に求めた場合、参照フレーム1,2からそれぞれ、符号化対象の画素値「5」に対して、重みa,bを考慮した誤差が最小となる画素値「3」,「12」の位置が動きベクトルとして決定されれる。この場合、双方向予測で重み付き平均して求められる画素値は「6」となり、符号化対象の画素値「5」に対する誤差は「1」となる。   When the motion vector that minimizes the error for each of the reference frames 1 and 2 is obtained individually, the error taking into account the weights a and b is different from the reference frame 1 and 2 for the pixel value “5” to be encoded. The positions of the minimum pixel values “3” and “12” are determined as motion vectors. In this case, the pixel value obtained by weighted averaging in bidirectional prediction is “6”, and the error with respect to the pixel value “5” to be encoded is “1”.

一方、反復動き探索器19の処理に照らし合わせて動作を確認すると、まず、動き探索部21は、符号化対象の画素値を画素値a倍部29で2倍にした値「10」と参照フレーム1の画素値を画素値a倍部29で2倍にした値「2,6」との誤差を求め、この誤差が最小になる参照フレーム1の画素値の位置を動きベクトルとして探索する。ここでは、参照フレーム1の画素値「3」の位置が動きベクトルとして求められる。これは上記と同じである。   On the other hand, when the operation is confirmed in light of the process of the iterative motion searcher 19, first, the motion search unit 21 refers to the value “10” obtained by doubling the pixel value to be encoded by the pixel value a multiplication unit 29. An error from the value “2, 6” obtained by doubling the pixel value of frame 1 by the pixel value a multiplication unit 29 is obtained, and the position of the pixel value of reference frame 1 at which this error is minimized is searched for as a motion vector. Here, the position of the pixel value “3” of the reference frame 1 is obtained as a motion vector. This is the same as above.

参照フレーム1に対する動きベクトルは初めて求められたので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム1の画素値の2倍の値「6」が予測画素の画素値として符号化対象の画素値「5」と対応付けられる。   Since the motion vector for the reference frame 1 is obtained for the first time, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, by motion compensation in the motion compensation unit 22, a value “6” that is twice the pixel value of the reference frame 1 is associated with the pixel value “5” to be encoded as the pixel value of the prediction pixel.

他方で、符号化対象の画素値はバイアス付与部(画素値(a+b)倍手段)23で予め3倍の「15」にされる。減算部24では、この値「15」と動き補償部22で動き補償された画素値「6」との差「9」が求められる。   On the other hand, the pixel value to be encoded is preliminarily tripled to “15” by the bias applying unit (pixel value (a + b) multiplication means) 23. The subtractor 24 obtains a difference “9” between the value “15” and the pixel value “6” motion-compensated by the motion compensator 22.

2回目の動き探索で、動き探索部21は、差「9」と参照フレーム2の画素値を画素値b倍部30で1倍にした値「12,13」との誤差を求め、この誤差が最小になる参照フレーム2の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム2の画素値「12」の位置が動きベクトルとして求められる。参照フレーム2に対する動きベクトルは初めて求められたので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム2の画素値の1倍の値「12」が予測画素の画素値として符号化対象の画素値「5」と対応付けられる。   In the second motion search, the motion search unit 21 obtains an error between the difference “9” and the value “12, 13” obtained by multiplying the pixel value of the reference frame 2 by the pixel value b multiplication unit 30. The position of the pixel value of the reference frame 2 that minimizes is searched as a motion vector. In this case, the position of the pixel value “12” of the reference frame 2 is obtained as a motion vector. Since the motion vector for the reference frame 2 is obtained for the first time, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, by motion compensation in the motion compensation unit 22, a value “12” that is one time the pixel value of the reference frame 2 is associated with the pixel value “5” to be encoded as the pixel value of the prediction pixel.

減算部24では、バイアス付与部23で予めバイアスが付与された符号化対象の画素値「15」と動き補償部22で動き補償された画素値「12」との差「3」が求められる。   The subtracting unit 24 obtains a difference “3” between the pixel value “15” to be encoded that has been previously biased by the bias applying unit 23 and the pixel value “12” that has been motion compensated by the motion compensating unit 22.

3回目の動き探索では、動き探索部21は、差「3」と参照フレーム1の画素値を画素値a倍部29で2倍にした値「2,6」との誤差が最小になる参照フレーム1の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム1の画素値「1」の位置が動きベクトルとして求められる。ここで、参照フレーム1に対する動きベクトルは変化したので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム1の画素値の2倍の値「2」が予測画素の画素値として符号化対象の画素値「5」と対応付けられる。   In the third motion search, the motion search unit 21 refers to a reference that minimizes an error between the difference “3” and the value “2, 6” obtained by doubling the pixel value of the reference frame 1 by the pixel value a multiplication unit 29. The position of the pixel value of frame 1 is searched as a motion vector. In this case, the position of the pixel value “1” of the reference frame 1 is obtained as a motion vector. Here, since the motion vector for the reference frame 1 has changed, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, by motion compensation in the motion compensation unit 22, a value “2” that is twice the pixel value of the reference frame 1 is associated with the pixel value “5” to be encoded as the pixel value of the prediction pixel.

次に、減算部24は、バイアス付与部23から得られる値「15」と動き補償部22で動き補償された画素値「2」との差「13」を求める。   Next, the subtraction unit 24 obtains a difference “13” between the value “15” obtained from the bias applying unit 23 and the pixel value “2” motion-compensated by the motion compensation unit 22.

4回目の動き探索では、動き探索部21は、差「13」と参照フレーム2の画素値を画素値b倍部30で1倍にした値「12,13」との誤差を求め、この誤差が最小になる参照フレーム2の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム2の画素値「13」の位置が動きベクトルとして求められる。ここで、参照フレーム2に対する動きベクトルは変化したので、判定部25は、条件が成立したとして動きベクトルを動き補償部22に与える。次に、動き補償部22での動き補償によって、参照フレーム2の画素値の1倍の値「13」が予測画素の画素値として符号化対象の画素値「5」と対応付けられる。   In the fourth motion search, the motion search unit 21 obtains an error between the difference “13” and the value “12,13” obtained by multiplying the pixel value of the reference frame 2 by the pixel value b multiplication unit 30. The position of the pixel value of the reference frame 2 that minimizes is searched as a motion vector. In this case, the position of the pixel value “13” of the reference frame 2 is obtained as a motion vector. Here, since the motion vector for the reference frame 2 has changed, the determination unit 25 gives the motion vector to the motion compensation unit 22 assuming that the condition is satisfied. Next, by motion compensation in the motion compensation unit 22, a value “13” that is one time the pixel value of the reference frame 2 is associated with the pixel value “5” to be encoded as the pixel value of the prediction pixel.

次に、減算部24は、バイアス付与部23から得られる値「15」と動き補償部22で動き補償された画素値「13」との差「2」を求める。   Next, the subtraction unit 24 obtains a difference “2” between the value “15” obtained from the bias applying unit 23 and the pixel value “13” motion-compensated by the motion compensation unit 22.

5回目の動き探索では、動き探索部21は、差「2」と参照フレーム1の画素値を画素値a倍部29で2倍にした値「2,6」との誤差を求め、この誤差が最小になる参照フレーム1の画素値の位置を動きベクトルとして探索する。この場合、参照フレーム1の画素値「1」の位置が動きベクトルとして求められる。ここで、参照フレーム1に対する動きベクトルは画素値「1」の位置のままで変化しない。判定部25は、条件が成立しない判定し、上記一連の反復処理を終了して、参照フレーム1では画素値「1」の位置、参照フレーム2では画素値「13」の位置を最終的に決定された動きベクトルとして出力する。   In the fifth motion search, the motion search unit 21 calculates an error between the difference “2” and the value “2, 6” obtained by doubling the pixel value of the reference frame 1 by the pixel value a multiplication unit 29. The position of the pixel value of the reference frame 1 that minimizes is searched as a motion vector. In this case, the position of the pixel value “1” of the reference frame 1 is obtained as a motion vector. Here, the motion vector for the reference frame 1 remains at the position of the pixel value “1” and does not change. The determination unit 25 determines that the condition is not satisfied, ends the above series of iterative processes, and finally determines the position of the pixel value “1” in the reference frame 1 and the position of the pixel value “13” in the reference frame 2 Output as a motion vector.

この場合、双方向予測で重み付け平均して求められる画素値は「5」となり、符号化対象の画素値「5」に対する誤差は「0」となるので、双方向予測において個別の最適化よりも全体的に最適な動きベクトルが選択される。   In this case, the pixel value obtained by weighted averaging in bi-directional prediction is “5”, and the error with respect to the pixel value “5” to be encoded is “0”. An optimal motion vector is selected as a whole.

図6は、反復動き探索器(反復ME)19の第3構成例を示す機能ブロック図である。図6において図2と同一あるいは同等部分には同じ符号を付している。第1構成例では、参照フレームが2枚であることを想定したが、第3構成例では、参照フレームが3枚以上の任意枚数(n枚)の場合にも対処可能となっている。第3構成例が第1構成例と異なるのは、バイアス付与部23を画素値n倍手段とし、動き補償部22で作成された予測フレームの画素値を画素値(n-1)倍部28で(n-1)倍して減算部24に与える点である。   FIG. 6 is a functional block diagram showing a third configuration example of the iterative motion searcher (iterative ME) 19. In FIG. 6, the same or equivalent parts as in FIG. In the first configuration example, it is assumed that there are two reference frames. However, in the third configuration example, it is possible to cope with an arbitrary number (n) of three or more reference frames. The third configuration example is different from the first configuration example in that the bias applying unit 23 is a pixel value n-times multiplying unit, and the pixel value of the prediction frame generated by the motion compensation unit 22 is a pixel value (n-1) multiplication unit 28. This is a point that is multiplied by (n-1) and given to the subtracting unit 24.

この場合にも、減算器24からは先の動き補償での残渣信号が残った形の符号化対象フレームが差分として出力されるので、第1具体例と同様に、次回の動き探索で同じ動き探索部21を用いることができる。   Also in this case, the subtracter 24 outputs the encoding target frame in which the residual signal in the previous motion compensation remains as a difference, so that the same motion is detected in the next motion search as in the first specific example. The search unit 21 can be used.

以上、実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、動き探索部21では任意の探索手法を採用でき、適当な探索手法を適宜選択して適用できるようにすることもできる。   As mentioned above, although embodiment was described, this invention is not limited to the said embodiment. For example, the motion search unit 21 can employ any search method, and can appropriately select and apply an appropriate search method.

本発明に係る画像符号化装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the image coding apparatus which concerns on this invention. 反復動き探索器の第1構成例を示す機能ブロック図である。It is a functional block diagram which shows the 1st structural example of an iterative motion searcher. 具体的サンプルによる第1構成例での動き探索の説明図である。It is explanatory drawing of the motion search in the 1st structural example by a specific sample. 反復動き探索器の第2構成例を示す機能ブロック図である。It is a functional block diagram which shows the 2nd structural example of an iterative motion searcher. 具体的サンプルによる第2構成例での動き探索の説明図である。It is explanatory drawing of the motion search in the 2nd structural example by a specific sample. 反復動き探索器の第3構成例を示す機能ブロック図である。It is a functional block diagram which shows the 3rd structural example of an iterative motion search device.

符号の説明Explanation of symbols

11・・・減算器、12・・・直交変換器(DCT)、13・・・量子化器(Q)、14・・・可変長符号化器(VLC)、15・・・逆量子化器(IQ)、16・・・逆直交変換器(IDCT)、17・・・加算器、18・・・フレームメモリ(memory)、19・・・反復動き探索器(反復ME)、20・・・動き補償器(MC)、21・・・動き探索部、22・・・動き補償部、23・・・バイアス付与部、24・・・減算部、25・・・判定部、26,27・・・切替部、28・・・画素値(n-1)倍部、29,30・・・画素値a倍部、31・・・画素値b倍部 11 ... Subtractor, 12 ... Orthogonal transformer (DCT), 13 ... Quantizer (Q), 14 ... Variable length encoder (VLC), 15 ... Inverse quantizer (IQ), 16 ... Inverse orthogonal transformer (IDCT), 17 ... Adder, 18 ... Frame memory (memory), 19 ... Repetitive motion searcher (iterative ME), 20 ... Motion compensator (MC), 21 ... motion search unit, 22 ... motion compensation unit, 23 ... bias applying unit, 24 ... subtraction unit, 25 ... determination unit, 26, 27 ...・ Switching unit, 28 ... Pixel value (n-1) multiplication unit, 29,30 ... Pixel value a multiplication unit, 31 ... Pixel value b multiplication unit

Claims (7)

符号化情報から画像信号を再構成し、再構成された複数の画像信号を元に予測信号を生成し、該予測信号により符号化対象の画像信号を予測符号化して符号化情報を出力する画像符号化装置であって、
符号化対象の画像信号と予測信号との差分を求める差分手段と、
前記差分手段の出力を直交変換する変換手段と、
前記変換手段の出力を量子化する量子化手段と、
前記量子化手段の出力を可変長符号化する可変長符号化手段と、
前記量子化手段の出力を逆量子化する逆量子化手段と、
前記逆量子化手段の出力を逆変換する逆変換手段と、
前記予測信号と前記逆変換手段の出力を加算して再構成された画像信号を出力する加算手段と、
前記加算手段の出力を参照フレームとして一時的に蓄えるフレームメモリと、
符号化対象の画像信号と前記フレームメモリに蓄えられた複数の参照フレームを用い、反復処理による動き情報の探索で前記複数の参照フレームについての動き情報を決定する反復動き探索手段と、
前記反復動き探索手段で決定された動き情報を用いて動き補償を施した前記複数の参照フレームを元に予測信号を出力する動き補償手段を備えたことを特徴とする画像符号化装置。
An image that reconstructs an image signal from encoded information, generates a prediction signal based on the reconstructed plurality of image signals, predictively encodes an image signal to be encoded using the prediction signal, and outputs encoded information An encoding device comprising:
A difference means for obtaining a difference between the image signal to be encoded and the prediction signal;
Transform means for orthogonally transforming the output of the difference means;
Quantization means for quantizing the output of the conversion means;
Variable length encoding means for variable length encoding the output of the quantization means;
Inverse quantization means for inversely quantizing the output of the quantization means;
Inverse transform means for inverse transforming the output of the inverse quantization means;
Adding means for adding the output of the prediction signal and the inverse transform means to output a reconstructed image signal;
A frame memory for temporarily storing the output of the adding means as a reference frame;
Repetitive motion search means for determining motion information for the plurality of reference frames by searching for motion information by iterative processing using an image signal to be encoded and a plurality of reference frames stored in the frame memory;
An image encoding apparatus comprising: motion compensation means for outputting a prediction signal based on the plurality of reference frames subjected to motion compensation using motion information determined by the repetitive motion search means.
前記反復動き探索手段は、反復処理で複数の参照フレームを順次用いて漸次的に動き情報を導くことを特徴とする請求項1に記載の画像符号化装置。 The image coding apparatus according to claim 1, wherein the repetitive motion search means gradually derives motion information by sequentially using a plurality of reference frames in repetitive processing. 前記反復動き探索手段は、動き探索する参照フレーム以外の参照フレームについての動き情報をその時点における最適な動き情報として固定しながら動き探索を行うことにより、複数の参照フレームについての一組の動き情報を最適化することを特徴とする請求項2に記載の画像符号化装置。 The repetitive motion search means performs a motion search while fixing motion information for reference frames other than the reference frame for motion search as the optimal motion information at that time, thereby providing a set of motion information for a plurality of reference frames. The image coding apparatus according to claim 2, wherein the image coding apparatus is optimized. 前記反復動き探索手段は、第1の参照フレームの画素値をa倍(aは正の整数)にする画素値a倍部と、第2の参照フレームの画素値をb倍(bは正の整数)にする画素値b倍部と、初回の動き探索では符号化対象の画像信号の画素値をa倍にした画像信号に対して動き探索を行い、反復処理による二回目以降の動き探索では前回の動き補償が反映された画像信号に対して動き探索を行う動き探索部と、前記動き探索部で探索された動き情報を用いて参照フレームを動き補償する動き補償部と、反復処理による二回目以降の動き探索に際して予め符号化対象の画像信号の画素値を(a+b)倍にするバイアス付与部と、前記バイアス付与部で画素値が(a+b)倍にされた符号化対象の画像信号と前記動き補償部で動き補償された参照フレームの差を求める減算部を備え、前記減算部の出力を前回の動き補償が反映された画像信号として動き探索部に入力することにより、第1の参照フレームと第2の参照フレームにそれぞれ重みa、bが付された重み付き予測での動き情報を決定することを特徴とする請求項3に記載の画像符号化装置。 The repetitive motion search means includes a pixel value a multiplication unit for multiplying a pixel value of the first reference frame by a (a is a positive integer) and a pixel value of the second reference frame by b (b is positive). In the first motion search, a motion search is performed on the image signal obtained by multiplying the pixel value of the image signal to be encoded by a times, and in the second and subsequent motion search by iterative processing. A motion search unit that performs a motion search on an image signal that reflects the previous motion compensation, a motion compensation unit that performs motion compensation on a reference frame using the motion information searched by the motion search unit, and two by iterative processing. A bias applying unit for multiplying a pixel value of an image signal to be encoded by (a + b) times in advance for a motion search after the first time, and an image signal to be encoded whose pixel value has been increased by (a + b) times by the bias applying unit; The difference between the reference frames motion compensated by the motion compensation unit is obtained. A subtracting unit that inputs the output of the subtracting unit to the motion search unit as an image signal reflecting the previous motion compensation, whereby weights a and b are respectively given to the first reference frame and the second reference frame. 4. The image coding apparatus according to claim 3, wherein motion information in the attached weighted prediction is determined. 前記反復動き探索手段は、初回の動き探索では符号化対象の画像信号そのものに対して動き探索を行い、反復処理による二回目以降の動き探索では前回の動き補償が反映された画像信号に対して動き探索を行う動き探索部と、前記動き探索部で探索された動き情報を用いて参照フレームを動き補償する動き補償部と、反復処理による二回目以降の動き探索に際して予め符号化対象の画像信号の画素値をn倍(nは2以上の整数)にするバイアス付与部と、前記バイアス付与部で画素値がn倍にされた符号化対象の画像信号と前記動き補償部で動き補償され、画素値が(n−1)倍にされた参照フレームの差を求める減算部を備え、前記減算部の出力を前回の動き補償が反映された画像信号として動き探索部に入力することにより、n枚の参照フレームについての動き情報を決定することを特徴とする請求項3に記載の画像符号化装置。 The repetitive motion search means performs a motion search on the image signal itself to be encoded in the first motion search, and on an image signal reflecting the previous motion compensation in the second and subsequent motion search by the iterative process. A motion search unit that performs motion search, a motion compensation unit that performs motion compensation of a reference frame using the motion information searched by the motion search unit, and an image signal to be encoded in advance in a second or subsequent motion search by iterative processing A bias applying unit for multiplying the pixel value of n by n (n is an integer of 2 or more), an image signal to be encoded whose pixel value has been multiplied by n by the bias applying unit, and motion compensation by the motion compensation unit, A subtractor that obtains a difference between reference frames whose pixel values have been multiplied by (n-1) times, and the output of the subtractor is input to the motion search unit as an image signal in which the previous motion compensation is reflected. Pieces of reference frame The image encoding apparatus according to claim 3, wherein motion information about the video is determined. 前記反復動き探手段は、前記動き探索部で探索された動き情報の変化の有無あるいは所定反復回数を元に反復処理を終了させる手段を備えたことを特徴とする請求項4または5に記載の画像符号化装置。 6. The repetitive motion search means, comprising: means for terminating repetitive processing based on the presence or absence of a change in motion information searched by the motion search unit or a predetermined number of repetitions. Image encoding device. 前記動き探索部は、任意の探索手法を採用可能であることを特徴とする請求項4または5に記載の画像符号化装置。 The image coding apparatus according to claim 4, wherein the motion search unit can employ any search method.
JP2006048456A 2006-02-24 2006-02-24 Image encoding device Expired - Fee Related JP5004150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006048456A JP5004150B2 (en) 2006-02-24 2006-02-24 Image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006048456A JP5004150B2 (en) 2006-02-24 2006-02-24 Image encoding device

Publications (2)

Publication Number Publication Date
JP2007228371A true JP2007228371A (en) 2007-09-06
JP5004150B2 JP5004150B2 (en) 2012-08-22

Family

ID=38549712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006048456A Expired - Fee Related JP5004150B2 (en) 2006-02-24 2006-02-24 Image encoding device

Country Status (1)

Country Link
JP (1) JP5004150B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209706A (en) * 2011-03-29 2012-10-25 Jvc Kenwood Corp Image decoding device, image decoding method, and image decoding program
JP2012209705A (en) * 2011-03-29 2012-10-25 Jvc Kenwood Corp Image encoding device, image encoding method, and image encoding program
CN107454423A (en) * 2011-01-12 2017-12-08 佳能株式会社 Coding method, code device, coding/decoding method and decoding apparatus
US11095878B2 (en) 2011-06-06 2021-08-17 Canon Kabushiki Kaisha Method and device for encoding a sequence of images and method and device for decoding a sequence of image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05236454A (en) * 1992-02-24 1993-09-10 G C Technol Kk Method and device for detecting motion vector for encoding image
JP2004159294A (en) * 2002-09-10 2004-06-03 Toshiba Corp Frame interpolation and apparatus using the frame interpolation
JP2004364064A (en) * 2003-06-05 2004-12-24 Matsushita Electric Ind Co Ltd Method for estimating motion, and method for encoding animation
JP2007509542A (en) * 2003-10-17 2007-04-12 レンセラー・ポリテクニック・インスティチュート Overlapping block motion compensation of variable size blocks in MCTF scalable video coder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05236454A (en) * 1992-02-24 1993-09-10 G C Technol Kk Method and device for detecting motion vector for encoding image
JP2004159294A (en) * 2002-09-10 2004-06-03 Toshiba Corp Frame interpolation and apparatus using the frame interpolation
JP2004364064A (en) * 2003-06-05 2004-12-24 Matsushita Electric Ind Co Ltd Method for estimating motion, and method for encoding animation
JP2007509542A (en) * 2003-10-17 2007-04-12 レンセラー・ポリテクニック・インスティチュート Overlapping block motion compensation of variable size blocks in MCTF scalable video coder

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107454423A (en) * 2011-01-12 2017-12-08 佳能株式会社 Coding method, code device, coding/decoding method and decoding apparatus
US10499060B2 (en) 2011-01-12 2019-12-03 Canon Kabushiki Kaisha Video encoding and decoding with improved error resilience
US10506236B2 (en) 2011-01-12 2019-12-10 Canon Kabushiki Kaisha Video encoding and decoding with improved error resilience
US10609380B2 (en) 2011-01-12 2020-03-31 Canon Kabushiki Kaisha Video encoding and decoding with improved error resilience
US11146792B2 (en) 2011-01-12 2021-10-12 Canon Kabushiki Kaisha Video encoding and decoding with improved error resilience
JP2012209706A (en) * 2011-03-29 2012-10-25 Jvc Kenwood Corp Image decoding device, image decoding method, and image decoding program
JP2012209705A (en) * 2011-03-29 2012-10-25 Jvc Kenwood Corp Image encoding device, image encoding method, and image encoding program
US11095878B2 (en) 2011-06-06 2021-08-17 Canon Kabushiki Kaisha Method and device for encoding a sequence of images and method and device for decoding a sequence of image

Also Published As

Publication number Publication date
JP5004150B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
JP5669278B2 (en) Method for coding a block of an image sequence and method for reconstructing this block
KR100955152B1 (en) Multi-dimensional neighboring block prediction for video encoding
US9667961B2 (en) Video encoding and decoding apparatus, method, and system
JP5078895B2 (en) Integrated space-time prediction method
WO2010035370A1 (en) Dynamic image encoding method and dynamic image decoding method
KR20130119395A (en) Method of estimating motion vector using multiple motion vector predictors, apparatus, encoder, decoder and decoding method
KR20030058873A (en) Apparatus for motion estimation and mode decision and method thereof
JP4494803B2 (en) Improved noise prediction method and apparatus based on motion compensation, and moving picture encoding method and apparatus using the same
US20090028241A1 (en) Device and method of coding moving image and device and method of decoding moving image
JP5004150B2 (en) Image encoding device
US20080080616A1 (en) Apparatus and method for compression-encoding moving picture
JP2006100871A (en) Coder, coding method, program of coding method, and recording medium with the program recorded thereon
JPH0662389A (en) Video signal encoder
JP4452733B2 (en) Motion evaluation apparatus, method and program for moving picture coding, and recording medium therefor
US20020168008A1 (en) Method and apparatus for coding moving pictures
JP5358485B2 (en) Image encoding device
KR100617598B1 (en) Method for compressing moving picture using 1/4 pixel motion vector
KR100757832B1 (en) Method for compressing moving picture using 1/4 pixel motion vector
JP2005323315A (en) Prediction information/quantization value control compression coding apparatus, program, and method
JP2005236584A (en) Moving picture information conversion encoding apparatus
KR19990058255A (en) Video compression method using 1/4 pixel motion vector.
KR100757830B1 (en) Method for compressing moving picture using 1/4 pixel motion vector
KR100757831B1 (en) Method for compressing moving picture using 1/4 pixel motion vector
KR100757829B1 (en) Method for compressing moving picture using 1/4 pixel motion vector
KR101786921B1 (en) Apparatus and Method for fast motion estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120516

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees