JP2000308066A - Device and method for encoding moving picture - Google Patents

Device and method for encoding moving picture

Info

Publication number
JP2000308066A
JP2000308066A JP11638399A JP11638399A JP2000308066A JP 2000308066 A JP2000308066 A JP 2000308066A JP 11638399 A JP11638399 A JP 11638399A JP 11638399 A JP11638399 A JP 11638399A JP 2000308066 A JP2000308066 A JP 2000308066A
Authority
JP
Japan
Prior art keywords
motion vector
information
encoding
shape
macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11638399A
Other languages
Japanese (ja)
Other versions
JP3677165B2 (en
Inventor
Noboru Yamaguchi
昇 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP11638399A priority Critical patent/JP3677165B2/en
Publication of JP2000308066A publication Critical patent/JP2000308066A/en
Application granted granted Critical
Publication of JP3677165B2 publication Critical patent/JP3677165B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving picture encoding device detecting a moving vector with less operation quantity while encoding efficiency is improved by detecting the moving vector of shape information in a macro block through the use of the moving vector of texture information which is previously detected. SOLUTION: It is checked whether a texture moving vector can be used or not (S11). When it cannot be used as a result, a search range is set to be a 'search range 3'. When it can be used as the result of checking, it is checked whether the texture moving vector can be relied or not (S12). When it cannot be relied as the result, the search range is set to be a 'search range 2'. When it can be relied as the result of checking, the search range is set to be a 'search range 1'. Thus, the search range corresponding o the prediction precision of a prediction vector can be switched and therefore the calculation quantity of the detection of the moving vector can be reduced without deteriorating encoding efficiency.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ISO/IEC
JTC/SC29/WG11において標準化作業が進行
中である、動画像符号化の国際標準方式MPEG4で実
現される、任意形状のオブジェクトを個別に符号化する
機能を利用した動画像符号化装置および動画像符号化方
法に関する。
[0001] The present invention relates to the ISO / IEC
A moving image encoding apparatus and a moving image using a function of individually encoding objects of an arbitrary shape realized by the international standard method MPEG4 for moving image encoding, which is being standardized in JTC / SC29 / WG11 It relates to an encoding method.

【0002】[0002]

【従来の技術】現在標準化作業が進行中であるMPEG
4( Motion Picture Experts Groupphase 4)では、
従来の動画像符号化の国際標準方式であるMPEG1
( Motion Picture Experts Group phase 1)やMPE
G2( Motion Picture Experts Group phase 2)では
実現出来ない機能である、任意形状のオブジェクト(例
えば、画面内に写っている人物)ごとに個別に符号化す
る機能が実現されることになっている。
2. Description of the Related Art MPEG standardization is currently underway.
4 (Motion Picture Experts Groupphase 4)
MPEG1 which is the international standard system of the conventional moving picture coding
(Motion Picture Experts Group phase 1) and MPE
A function that cannot be realized by G2 (Motion Picture Experts Group phase 2), that is, a function of individually encoding each object of an arbitrary shape (for example, a person appearing in a screen) is to be realized.

【0003】この機能を実現するためには、各オブジェ
クトの形や大きさを表わす情報(形状情報)が必要であ
り、この情報は、オブジェクト内部の輝度・色差の変化
を表わすテクスチャ情報と共に符号化された後、伝送・
蓄積される。
In order to realize this function, information (shape information) indicating the shape and size of each object is required, and this information is encoded together with texture information indicating changes in luminance and color difference inside the object. After transmission,
Stored.

【0004】すなわち、背景とオブジェクトからなる画
像があったとすると、この画像を背景とオブジェクトに
分け、符号化する。そして、背景やオブジェクトを別々
に符号化するために、各オブジェクトの形や大きさを表
わす情報(形状情報)が別途与えられる。これがアルフ
ァマップ信号と呼ばれる形状情報信号である。
That is, if there is an image composed of a background and an object, this image is divided into a background and an object and encoded. Then, in order to separately encode the background and the object, information (shape information) indicating the shape and size of each object is separately given. This is a shape information signal called an alpha map signal.

【0005】このアルファマップ信号は、オブジェクト
の形状や画面内の位置を表す例えば2値の副画像情報と
して与えられる(なお、背景のアルファマップ信号は、
オブジェクトのアルファマップ信号から一意に求められ
る)。
[0005] The alpha map signal is given as, for example, binary sub-image information representing the shape of the object and the position in the screen.
Uniquely determined from the object's alpha map signal).

【0006】このように、MPEG4では各オブジェク
トの形や大きさを表わす情報(形状情報)を、オブジェ
クト内部の輝度・色差の変化を表わすテクスチャ情報と
共に符号化することにより、情報量を小さくして、復号
側ではこれを元にオブジェクトを再現できる機能が実現
できるようになっている。
As described above, in MPEG4, information (shape information) representing the shape and size of each object is encoded together with texture information representing changes in luminance and color difference inside the object, thereby reducing the amount of information. On the decoding side, a function that can reproduce the object based on this can be realized.

【0007】ここで、MPEG4の画像符号化および画
像復号化装置について概略を説明しておく。図7は、画
像を符号化する場合に、画面内を背景とオブジェクトに
分割して符号化する方式の画像符号化装置のブロック構
成図である。この画像符号化装置は、図7に示すよう
に、差分回路1100、動き補償予測回路(MC)11
10、直交変換回路(DCT)1120、量子化回路1
130、可変長符号化回路(VLC)1140、逆量子
化回路(IQ)1150、逆直交変換回路(IDCT)
1160、加算回路1170、多重化回路1180、ア
ルファマップ符号化回路1200とから構成される。
Here, an outline of an MPEG4 image encoding and decoding apparatus will be described. FIG. 7 is a block diagram of an image encoding apparatus that encodes an image by dividing the screen into a background and an object when encoding the image. As shown in FIG. 7, the image encoding apparatus includes a difference circuit 1100, a motion compensation prediction circuit (MC) 11
10, orthogonal transform circuit (DCT) 1120, quantization circuit 1
130, variable length coding circuit (VLC) 1140, inverse quantization circuit (IQ) 1150, inverse orthogonal transform circuit (IDCT)
1160, an addition circuit 1170, a multiplexing circuit 1180, and an alpha map encoding circuit 1200.

【0008】アルファマップ符号化回路1200は、入
力されたアルファマップを符号化し、この符号化された
信号をアルファマップ信号として多重化回路1180に
出力する機能と、このアルファマップ信号を復号して局
部復号信号として出力する機能を有する。
The alpha map encoding circuit 1200 encodes the input alpha map, outputs the encoded signal to the multiplexing circuit 1180 as an alpha map signal, and decodes the alpha map signal to local It has the function of outputting as a decoded signal.

【0009】特に、本アルファマップ符号化回路120
0は、入力されたアルファマップを符号化するにあた
り、与えられた縮小率(倍率)で解像度を縮小する処理
を行い、この解像度縮小処理されたものを符号化すると
共に、この符号化したものと縮小率の情報(倍率情報)
とを多重化してこれをアルファマップ信号として多重化
回路180に出力する機能を有する。そして、局部復号
信号としては、解像度縮小処理されたものを元の解像度
に戻す処理をして得たものを用いる構成である。
In particular, the present alpha map encoding circuit 120
0 performs a process of reducing the resolution at a given reduction rate (magnification) when encoding the input alpha map, encodes the resolution-reduced image, and combines the encoded image with the encoded image. Reduction rate information (magnification information)
And multiplexing the same as an alpha map signal and outputting the same to the multiplexing circuit 180. Then, as the local decoded signal, a signal obtained by performing a process of returning the resolution reduced process to the original resolution is used.

【0010】差分回路1100は、動き補償予測回路1
110より供給される動き補償予測信号と入力画像信号
との差分信号を算出するものであり、直交変換回路11
20は、差分回路1100から供給された差分信号を、
アルファマップの情報にしたがって、直交変換係数に変
換して出力するものである。
The difference circuit 1100 includes a motion compensation prediction circuit 1
A difference signal between the motion-compensated prediction signal supplied from 110 and the input image signal is calculated.
Reference numeral 20 denotes a difference signal supplied from the difference circuit 1100,
According to the information of the alpha map, it is converted into orthogonal transform coefficients and output.

【0011】量子化回路1130はこの直交変換回路1
120により得られた直交変換係数を量子化する回路で
あり、可変長符号化回路1140はこの量子化回路11
30の出力を符号化して出力するものである。多重化回
路1180はこの可変長符号化回路1140により符号
化されたものと、前記アルファマップ信号とを、動きベ
クトル情報等のサイド情報と共に多重化多重化してビッ
トストリームとして出力するものである。
The quantizing circuit 1130 is the orthogonal transform circuit 1
The variable length coding circuit 1140 is a circuit for quantizing the orthogonal transform coefficient obtained by the quantization circuit 120.
30 is encoded and output. The multiplexing circuit 1180 multiplexes and multiplexes the signal coded by the variable length coding circuit 1140 and the alpha map signal together with side information such as motion vector information, and outputs the multiplexed signal as a bit stream.

【0012】逆量子化回路1150は量子化回路113
0の出力を逆量子化するものであり、逆直交変換回路1
160はこの逆量子化回路1150の出力を前記アルフ
ァマップに基いて逆直交変換するものであり、加算回路
1170はこの逆直交変換回路1160の出力と動き補
償予測回路1110から与えられる予測信号(動き補償
予測信号)とを加算して差分回路1100に出力するも
のである。
The inverse quantization circuit 1150 includes the quantization circuit 113
0 is inversely quantized, and the inverse orthogonal transform circuit 1
Reference numeral 160 denotes an inverse orthogonal transform for the output of the inverse quantization circuit 1150 based on the alpha map. An adder 1170 outputs the output of the inverse orthogonal transform circuit 1160 and a prediction signal (motion) supplied from the motion compensation prediction circuit 1110. And outputs the result to the difference circuit 1100.

【0013】動き補償予測回路1110は、フレームメ
モリを有し、アルファマップ復号化回路1200から与
えられる局部復号信号にもとづいて動作してオブジェク
ト領域の信号、背景領域の信号を蓄積する機能を有す
る。また、動き補償予測回路1110は蓄積したオブジ
ェクト領域の画像から動き補償値を予測して予測値とし
て出力し、また、蓄積した背景領域の画像から動き補償
値を予測して予測値として出力する機能を有する。
The motion compensation prediction circuit 1110 has a frame memory, and operates based on the local decoded signal supplied from the alpha map decoding circuit 1200, and has a function of accumulating the signal of the object area and the signal of the background area. Also, the motion compensation prediction circuit 1110 predicts a motion compensation value from the stored image of the object area and outputs the predicted value, and also predicts a motion compensation value from the stored image of the background area and outputs the predicted value. Having.

【0014】このような構成の本装置の作用を説明す
る。本装置には、画像信号とその画像信号のアルファマ
ップが入力される。そして、これらのうち、画像信号は
フレーム毎にそれぞれ所定画素サイズ(例えば、M×N
画素(M:水平方向の画素数、N:垂直方向の画素
数))のブロックに分割された後、ブロック位置順に信
号線1010を介して差分回路1100に供給される。
そして、差分回路1100では、この入力(画像信号)
と、予測信号(オブジェクト予測回路1110からの動
き補償予測信号の出力)との差分信号が算出され、直交
変換回路1120に供給される。
The operation of the apparatus having such a configuration will be described. This apparatus receives an image signal and an alpha map of the image signal. Of these, the image signal has a predetermined pixel size (for example, M × N) for each frame.
After being divided into blocks of pixels (M: the number of pixels in the horizontal direction, N: the number of pixels in the vertical direction), they are supplied to the difference circuit 1100 via the signal line 1010 in the order of the block positions.
Then, in the difference circuit 1100, this input (image signal)
And a prediction signal (the output of the motion compensation prediction signal from the object prediction circuit 1110) is calculated and supplied to the orthogonal transform circuit 1120.

【0015】直交変換回路1120では、供給された差
分信号を、信号線1040を介してアルファマップ符号
化回路1200から供給されるアルファマップの情報に
したがって、直交変換係数に変換した後、量子化回路1
130に供給する。そして、ここで量子化される。量子
化回路1130にて量子化されて得られた変換係数は、
可変長符号化回路1140において符号化されると共
に、逆量子化回路1150に供給される。
The orthogonal transform circuit 1120 converts the supplied difference signal into orthogonal transform coefficients according to the information of the alpha map supplied from the alpha map encoding circuit 1200 via the signal line 1040, and then converts the signal into a quantized circuit. 1
130. And it is quantized here. The transform coefficient obtained by quantization in the quantization circuit 1130 is
The data is encoded by the variable length encoding circuit 1140 and supplied to the inverse quantization circuit 1150.

【0016】逆量子化回路1150に供給された変換係
数は、ここで逆量子化された後、逆直交変換回路116
0において逆変換される。そして、加算回路1170に
おいて動き補償予測回路1110より供給される動き補
償予測値と加算され、局部復号画像として出力されて、
再び動き補償予測回路1110に入力される。
The transform coefficient supplied to the inverse quantization circuit 1150 is inversely quantized here, and then the inverse orthogonal transform circuit 116
Inverse conversion is performed at 0. Then, the sum is added to the motion compensation prediction value supplied from the motion compensation prediction circuit 1110 in the addition circuit 1170 and output as a locally decoded image.
It is again input to the motion compensation prediction circuit 1110.

【0017】そして、この加算回路1170の出力であ
る局部復号画像は、動き補償予測回路1110内のフレ
ームメモリに蓄えられる。
The locally decoded image output from the addition circuit 1170 is stored in a frame memory in the motion compensation prediction circuit 1110.

【0018】一方、この動き補償予測回路1110は、
アルファマップ復号化回路1200から与えられる局部
復号信号に基づいてオブジェクトの領域のブロックの処
理のタイミングでは“オブジェクトの動き補償予測値”
を、また、それ以外のタイミングでは“背景部分の動き
補償予測値”を出力して差分回路1100に与える。
On the other hand, the motion compensation prediction circuit 1110
Based on the local decoded signal supplied from the alpha map decoding circuit 1200, the processing timing of the block in the object area is "object motion compensation predicted value".
In addition, at other timings, the “motion compensation prediction value of the background portion” is output and given to the difference circuit 1100.

【0019】すなわち、動き補償予測回路1110では
アルファマップ信号の局部復号信号から現在、オブジェ
クトのブロック対応部分の画像信号が差分回路1100
に入力されているのか、あるいは背景部分のブロック対
応部分の画像信号が差分回路1100に入力されている
のかを知り、オブジェクトのブロック対応部分の画像信
号の入力期間中であれば、オブジェクトの動き補償予測
信号を、そして、背景部分のブロック対応部分の画像信
号入力期間中であれば、背景の動き補償予測信号を、差
分回路1100に与える。
That is, the motion compensation prediction circuit 1110 converts the image signal of the block corresponding portion of the object from the local decoded signal of the alpha map signal to the difference circuit 1100.
Or the image signal of the block corresponding portion of the background portion is input to the difference circuit 1100. If the image signal of the block corresponding portion of the object is being input, the motion compensation of the object is performed. The prediction signal is supplied to the difference circuit 1100 during the image signal input period of the block corresponding portion of the background portion during the input period.

【0020】差分回路1100では、この入力された画
像信号と、その画像の領域対応の予測信号との差を算出
するので、その結果、入力画像がオブジェクト対応の領
域のものであれば、そのオブジェクトの対応位置での予
測値との差分信号が、また、入力画像が背景の領域のも
のであれば、その背景位置対応の予測値との差分信号が
算出され、直交変換回路1120に供給される。
The difference circuit 1100 calculates the difference between the input image signal and the predicted signal corresponding to the area of the image. As a result, if the input image is in the area corresponding to the object, If the difference signal from the predicted value at the corresponding position is the input image of the background area, a difference signal from the predicted value corresponding to the background position is calculated and supplied to the orthogonal transformation circuit 1120. .

【0021】直交変換回路1120では、供給された差
分信号を信号線1040を介して供給されるアルファマ
ップの情報にしたがって、離散コサイン変換などの処理
を施すことにより、直交変換係数に変換した後、量子化
回路1130に供給する。そして、直交変換係数はこの
量子化回路1130にて量子化される。
The orthogonal transform circuit 1120 converts the supplied difference signal into an orthogonal transform coefficient by performing processing such as discrete cosine transform in accordance with the information of the alpha map supplied via the signal line 1040. This is supplied to the quantization circuit 1130. Then, the orthogonal transform coefficient is quantized by the quantization circuit 1130.

【0022】量子化回路1130にて量子化された変換
係数は、可変長符号化回路1140において符号化され
ると共に、逆量子化回路1150に供給される。そし
て、逆量子化回路1150に供給された変換係数はここ
で逆量子化された後、逆直交変換回路1160において
逆変換されて加算回路1170に供給される。そして、
予測値切り換え回路1500を介して加算回路1170
に供給される予測値と加算されることになる。
The transform coefficients quantized by the quantization circuit 1130 are encoded by the variable length encoding circuit 1140 and supplied to the inverse quantization circuit 1150. Then, the transform coefficient supplied to the inverse quantization circuit 1150 is inversely quantized here, then inversely transformed in the inverse orthogonal transform circuit 1160 and supplied to the addition circuit 1170. And
Addition circuit 1170 via predicted value switching circuit 1500
Is added to the predicted value supplied to

【0023】加算回路1170の出力である局部復号画
像の信号は、動き補償予測回路1110に供給される。
そして、この動き補償予測回路1110ではアルファマ
ップ信号の局部復号信号から現在、加算回路1170か
らオブジェクトのブロック対応の信号が出力されている
のか、あるいは背景部分のブロック対応の信号が出力さ
れているのかを知り、その結果、オブジェクトのブロッ
ク対応の信号の出力中であれば、オブジェクト用のフレ
ームメモリに、また、背景部分のブロック対応の信号の
出力中であれば、背景用のメモリに与えるべく動作して
対応のメモリに蓄える。
The signal of the locally decoded image output from the addition circuit 1170 is supplied to a motion compensation prediction circuit 1110.
Then, in the motion compensation prediction circuit 1110, whether the signal corresponding to the block of the object or the signal corresponding to the block of the background portion is currently output from the addition circuit 1170 from the local decoded signal of the alpha map signal When the signal corresponding to the block of the object is being output, the frame memory for the object is output. When the signal corresponding to the background block is being output, the signal is applied to the background memory. And store it in the corresponding memory.

【0024】そして、これにより、オブジェクト用のフ
レームメモリにはオブジェクト画像のみが、また、背景
用のメモリには背景画像のみの画像が得られることにな
る。これにより、動き補償予測回路1110はオブジェ
クト画像を利用してオブジェクト画像の予測値を求める
ことができ、また、背景部分の画像を利用して背景画像
の予測値を求めることができる。
Thus, only the object image is obtained in the object frame memory, and only the background image is obtained in the background memory. Thus, the motion compensation prediction circuit 1110 can obtain the predicted value of the object image using the object image, and can obtain the predicted value of the background image using the image of the background portion.

【0025】上述したように、アルファマップ符号化回
路1200では、入力されるアルファマップを符号化
し、この符号化されたアルファマップ信号を信号線30
を介して多重化回路1180に供給している。
As described above, the alpha map encoding circuit 1200 encodes the input alpha map and sends the encoded alpha map signal to the signal line 30.
Is supplied to the multiplexing circuit 1180 via the.

【0026】また、多重化回路180には、可変長符号
化回路140から出力された変換係数が線1040を介
して供給されている。そして、多重化回路180は供給
されているこれらアルファマップ信号および変換係数の
符号化値とを、動きベクトル情報等のサイド情報と共に
多重化した後、信号線1050を介して出力して本画像
符号化装置の最終出力としての符号化ビットストリーム
となる。
The multiplexing circuit 180 is supplied with the transform coefficient output from the variable length coding circuit 140 via a line 1040. Then, the multiplexing circuit 180 multiplexes the supplied alpha map signal and the encoded value of the transform coefficient together with side information such as motion vector information and the like, and outputs the multiplexed value through a signal line 1050 to output the main image code. Bit stream as the final output of the encoding device.

【0027】一方、図8は復号化装置のブロック図であ
る。復号化装置は、図8に示すように、分離化回路23
00、可変長復号化回路2310、逆量子化回路232
0、逆直交変換回路2330、加算回路2340、動き
補償予測回路2350、アルファマップ復号化回路24
00とより構成される。
FIG. 8 is a block diagram of the decoding apparatus. The decoding device, as shown in FIG.
00, variable length decoding circuit 2310, inverse quantization circuit 232
0, inverse orthogonal transformation circuit 2330, addition circuit 2340, motion compensation prediction circuit 2350, alpha map decoding circuit 24
00.

【0028】分離化回路2300は入力される符号化ビ
ットストリームを分離化処理してアルファマップ信号と
画像の符号化信号等を得る回路であり、アルファマップ
復号化回路2400はこの分離化回路2300にて分離
されたアルファマップ信号を復号してアルファマップを
再生する回路である。
The demultiplexing circuit 2300 is a circuit for demultiplexing an input coded bit stream to obtain an alpha map signal and an image coded signal, and the like. This is a circuit for decoding the separated alpha map signal and reproducing the alpha map.

【0029】可変長復号化回路2310は、分離化回路
2300にて分離された画像の符号化信号を復号するも
のであり、逆量子化回路2320はこの復号されたもの
を逆量子化して元の係数に戻すものであり、逆直交変換
回路2330はこの係数をアルファマップにしたがって
逆直交変換して予測誤差信号に戻すものであり、加算回
路2340は、この予測誤差信号に動き補償予測回路2
350からの動き補償予測値を加算して再生画像信号と
して出力するものである。この再生画像信号が復号化装
置の最終出力となる。
The variable length decoding circuit 2310 decodes the coded signal of the image separated by the separation circuit 2300, and the inverse quantization circuit 2320 inversely quantizes the decoded signal to obtain the original signal. The inverse orthogonal transform circuit 2330 performs an inverse orthogonal transform of the coefficient according to the alpha map and returns the result to a prediction error signal. The addition circuit 2340 adds the motion compensation prediction circuit 2
The motion compensation prediction value from 350 is added and output as a reproduced image signal. This reproduced image signal is the final output of the decoding device.

【0030】動き補償予測回路2350は、加算回路2
340から出力された再生画像信号をアルファマップに
したがってフレームメモリに蓄積することによりオブジ
ェクト画像と背景画像とを得ると共に、この蓄積されて
得られた画像からオブジェクトの動き補償予測信号、背
景の動き補償予測を得るものである。
The motion compensation prediction circuit 2350 includes an addition circuit 2
An object image and a background image are obtained by accumulating the reproduced image signal output from 340 in a frame memory according to an alpha map, and an object motion compensation prediction signal and a background motion compensation are obtained from the accumulated image. Get predictions.

【0031】このような構成の復号化装置においては、
符号化ビットストリームは、線2070を介して分離化
回路2300に供給され、分離化回路2300において
各々の情報毎に分離されることにより、アルファマップ
信号に関する符号と、画像信号の可変長符号とに分けら
れる。
In the decoding device having such a configuration,
The coded bit stream is supplied to a demultiplexing circuit 2300 via a line 2070, and is separated for each piece of information in the demultiplexing circuit 2300, whereby a code relating to the alpha map signal and a variable length code of the image signal are converted. Divided.

【0032】そして、アルファマップ信号に関する符号
は、信号線2080を介してアルファマップ復号化回路
2400に供給され、また、画像信号の可変長符号は可
変長復号化回路2310にそれぞれ供給される。
The code relating to the alpha map signal is supplied to an alpha map decoding circuit 2400 via a signal line 2080, and the variable length code of the image signal is supplied to a variable length decoding circuit 2310.

【0033】アルファマップ信号に関する符号はアルフ
ァマップ復号化回路2400においてアルファマップ信
号に再生され、信号線2090を介して逆直交変換回路
2330と動き補償予測回路2350に出力される。
The code relating to the alpha map signal is reproduced into an alpha map signal in the alpha map decoding circuit 2400 and output to the inverse orthogonal transform circuit 2330 and the motion compensation prediction circuit 2350 via the signal line 2090.

【0034】一方、可変長復号化回路2310では、分
離化回路2300から供給される符号を復号し、逆量子
化回路2320に供給して、ここで逆量子化する。逆量
子化された変換係数は、線2090を介して供給される
アルファマップにしたがって逆直交変換回路2330に
より逆変換され、加算回路2340に供給される。加算
回路2340では、逆直交変換回路2330からの逆直
交変換された信号と、動き補償予測回路2350より供
給される動き補償予測信号とを加算し、再生画像を得
る。
On the other hand, the variable length decoding circuit 2310 decodes the code supplied from the demultiplexing circuit 2300 and supplies it to the inverse quantization circuit 2320, where it is inversely quantized. The inversely quantized transform coefficients are inversely transformed by an inverse orthogonal transform circuit 2330 according to an alpha map supplied via a line 2090, and supplied to an adder circuit 2340. The addition circuit 2340 adds the signal subjected to the inverse orthogonal transform from the inverse orthogonal transform circuit 2330 to the motion compensation prediction signal supplied from the motion compensation prediction circuit 2350 to obtain a reproduced image.

【0035】以上がMPEG4用の画像符号化装置およ
び画像復号化装置の概要である。
The above is the outline of the image coding apparatus and the image decoding apparatus for MPEG4.

【0036】ここで、アルファマップの符号化について
説明する。アルファマップ、すなわち、形状情報の画素
値は2値信号であり、これは“0”,“1”あるいは
“0”,“255”で表現される。
Here, the encoding of the alpha map will be described. The alpha map, that is, the pixel value of the shape information is a binary signal, which is represented by "0", "1" or "0", "255".

【0037】アルファマップの符号化は、まずはじめ
に、図9に示されるように、画面(フレーム)内で符号
化対象となるオブジェクト(MPEG4では、VOP
(ideoObject Plane)と呼ばれている)を包含する符
号化領域(Bounding-Rectangleと呼ばれる)を設定す
る。そして、この領域内を16×16画素のマクロブロ
ックに分割して、各マクロブロック毎に該オブジェクト
を符号化する。
First, as shown in FIG. 9, the encoding of an alpha map is performed by encoding an object to be encoded (VOP in MPEG4) as shown in FIG.
(Called an “ideoObject Plane”). Then, this area is divided into macroblocks of 16 × 16 pixels, and the object is encoded for each macroblock.

【0038】ここで、各VOP毎に、Bounding
−Rcctangleの大きさ(vop-width,vop-heigh
t)と位置ベクトル(Spatial-refference(vop-horizon
tal-mc-spatial-ref,vop-vertical-mc-spatial-ref))
の値が符号化される。
Here, for each VOP, bounding
-Rcctangle size (vop-width, vop-heigh
t) and the position vector (Spatial-refference (vop-horizon
tal-mc-spatial-ref, vop-vertical-mc-spatial-ref))
Is encoded.

【0039】図10は、各マクロブロックの属性を説明
する図である。マクロブロックは分類すると、マクロブ
ロック内にオブジェクトを含まない“透過マクロブロッ
ク”(オブジェクトの画素が一つもない)と、マクロブ
ロックが全てオブジェクト内に含まれる“不透過マクロ
ブロック”(全てがオブジェクトの画素で埋められてい
る)と、マクロブロック内の一部がオブジェクトに含ま
れる“境界マクロブロック”(オブジェクトの画素が一
部含まれる)とに分けられる。
FIG. 10 is a diagram for explaining the attributes of each macroblock. Macroblocks can be classified into two types: “transparent macroblocks” that do not include objects in the macroblock (there is no pixel in the object), and “opaque macroblocks” in which all macroblocks are included in the object (all of which are objects). (A pixel is filled with pixels) and a “macroblock macroblock” in which a part of the macroblock is included in the object (in which some pixels of the object are included).

【0040】従って、マクロブロックは“透過マクロブ
ロック”、“不透過マクロブロック”、“境界マクロブ
ロック”のうちのいずれかの属性を持つことになる。
Therefore, the macroblock has one of the attributes of "transparent macroblock", "opaque macroblock", and "boundary macroblock".

【0041】各マクロブロックの符号化データには、形
状情報とテクスチャ情報とが含まれる。なお、透過マク
ロブロックにはテクスチャ情報は含まれない。
The encoded data of each macroblock includes shape information and texture information. Note that texture information is not included in the transparent macroblock.

【0042】参考文献(三木 編著、“MPEG−4の
すべて”第3章、工業調査会、1998)を参照して、
MPEG4検証(erification)モデルのエンコーダ
における形状情報の符号化法と任意形状オブジェクトの
テクスチャ情報の符号化法を説明する。
With reference to a reference (edited by Miki, "All about MPEG-4", Chapter 3, Industrial Research Council, 1998)
An encoding method of the shape information in the encoder of the MPEG4 verification model and an encoding method of the texture information of the arbitrary-shaped object will be described.

【0043】<形状情報の符号化法>形状情報(A)の
符号化法を説明する。図11に従来技術としてのモデル
システムの構成例を示す。形状符号化は、図11に示す
如き構成の形状符号化用エンコーダ(形状情報符号化手
段(Binary Shape encoder)500)によって実施され
る。当該形状符号化用エンコーダ(形状情報符号化手段
500)は、図11に示すように、モード判定手段50
1、形状動きベクトル検出手段502、動き補償手段5
03、算術符号化手段504、動きベクトル予測手段5
05、フレームメモリ506、セレクタ507、形状動
きベクトル情報記憶手段508、差分回路509、縮小
回路510,511、拡大回路512、可変長符号化回
路513,514、マルチプレクサ515とから構成さ
れている。
<Coding Method of Shape Information> A coding method of the shape information (A) will be described. FIG. 11 shows a configuration example of a model system as a conventional technique. The shape encoding is performed by a shape encoding encoder (Binary Shape Encoder 500) having a configuration as shown in FIG. The encoder for shape coding (shape information coding means 500) includes, as shown in FIG.
1. Shape motion vector detection means 502, motion compensation means 5
03, arithmetic coding means 504, motion vector prediction means 5
05, a frame memory 506, a selector 507, a shape motion vector information storage means 508, a difference circuit 509, reduction circuits 510 and 511, an enlargement circuit 512, variable length coding circuits 513 and 514, and a multiplexer 515.

【0044】形状動きベクトル検出手段502は、フレ
ーム画像中の対象とするオブジェクトの存在する領域で
ある符号化領域を検知する符号化領域検出手段(Boundi
ng-rectangle)を介して入力されるアルファマップ信号
(形状情報A)と動きベクトル予測手段505にて求め
られた予測ベクトルの情報とフレームメモリ506の形
状情報信号とから形状動きベクトルを検出してこれを形
状動きベクトル情報として出力するものであり、動き補
償手段503はこの形状動きベクトル検出手段502で
検出された形状動きベクトル情報とフレームメモリ50
6の形状情報信号と動きベクトル予測回路505の出力
する予測ベクトルとから動き補償予測のための動きベク
トル情報を求めるためのものである。
The shape motion vector detecting means 502 detects a coding area (Boundi) for detecting a coding area which is an area where the target object exists in the frame image.
ng-rectangle), a shape motion vector is detected from the alpha map signal (shape information A) inputted from the alpha vector signal (shape information A), the information of the prediction vector obtained by the motion vector prediction means 505, and the shape information signal of the frame memory 506. This is output as shape motion vector information. The motion compensating means 503 compares the shape motion vector information detected by the shape motion vector detecting means 502 with the frame memory 50.
6 for obtaining motion vector information for motion compensation prediction from the shape information signal of No. 6 and the prediction vector output from the motion vector prediction circuit 505.

【0045】また、形状動きベクトル情報記憶手段50
8は形状動きベクトル検出手段502で検出された形状
動きベクトル情報を記憶するためのものであり、動きベ
クトル予測手段505は形状動きベクトル情報記憶手段
508の保持した形状動きベクトル情報と輝度信号53
とをもとに動きベクトルの予測値である予測ベクトルを
求めるものである。
The shape motion vector information storage means 50
Numeral 8 is for storing the shape motion vector information detected by the shape motion vector detection means 502, and the motion vector prediction means 505 is for storing the shape motion vector information and the luminance signal 53 held by the shape motion vector information storage means 508.
And a prediction vector that is a prediction value of the motion vector is obtained based on the above.

【0046】また、差分回路509は、形状動きベクト
ル検出手段502の求めた形状動きベクトルと動きベク
トル予測手段505にて求められた予測ベクトルとの差
分を得るためのものであり、モード判定手段501は入
力される形状情報と動き補償手段503の出力する動き
補償予測のための動きベクトル情報と形状動きベクトル
検出手段502の出力する形状動きベクトル情報とから
モード判定するものである。
The difference circuit 509 is for obtaining a difference between the shape motion vector obtained by the shape motion vector detection means 502 and the prediction vector obtained by the motion vector prediction means 505. Is to determine the mode from the input shape information, the motion vector information for motion compensation prediction output from the motion compensating means 503, and the shape motion vector information output from the shape motion vector detecting means 502.

【0047】ここで、モード情報は次の7通りある。す
なわち、 (モード1):透過(Transparent) (モード2):不透過(Opaque) (モード3):2値画像符号化(フレーム内) (モード4):動き補償(MV=0) (モード5):動き補償(MV=0)+算術符号化(フ
レーム間) (モード6):動き補償(MV≠0) (モード7):動き補償(MV≠0)+算術符号化(フ
レーム間) である。
Here, there are the following seven types of mode information. (Mode 1): Transparent (Mode 2): Opaque (Mode 3): Binary image coding (within frame) (Mode 4): Motion compensation (MV = 0) (Mode 5) ): Motion compensation (MV = 0) + arithmetic coding (interframe) (mode 6): motion compensation (MVM0) (mode 7): motion compensation (MV ≠ 0) + arithmetic coding (interframe) is there.

【0048】これらのうち、“モード1”はマクロブロ
ック内の全データが透過、すなわち、マクロブロック内
にオブジェクトを一つも含まない場合であり、“モード
2”はマクロブロック内の全データが不透過、すなわ
ち、マクロブロック内が全てオブジェクトの場合であ
り、“モード3”は算術符号化(フレーム内)の場合で
ある。また、“モード4”は動き補償ベクトルがゼロ
(MV=0)の場合であり、“モード5”は動き補償ベ
クトルがゼロ(MV=0)で、且つ、算術符号化(フレ
ーム間)を行っている場合であり、また、“モード6”
は動き補償ベクトルがゼロではない(MV≠0)場合で
あり、また、“モード7”は動き補償ベクトルがゼロで
はなく(MV≠0)、しかも、算術符号化(フレーム
間)を行っている場合である。
Of these, "mode 1" is a case where all data in the macroblock is transparent, that is, the macroblock does not include any object, and "mode 2" is a case where all data in the macroblock is not. Transparency, that is, the case where the entire macroblock is an object, and "mode 3" is the case of arithmetic coding (within a frame). “Mode 4” is a case where the motion compensation vector is zero (MV = 0), and “Mode 5” is a case where the motion compensation vector is zero (MV = 0) and performs arithmetic coding (between frames). "Mode 6"
Is the case where the motion compensation vector is not zero (MV ≠ 0), and in “mode 7”, the motion compensation vector is not zero (MV ≠ 0) and arithmetic coding (between frames) is performed. Is the case.

【0049】算術符号化手段504は、モード判定手段
501のモード判定結果に応じて第1及び第2の縮小手
段510,511の出力のうちの、いずれか一方を算術
符号化してマルチプレクサ515に出力するものであ
り、また、セレクタ507は、動き補償手段503の出
力する動き補償予測のための動きベクトル情報と拡大化
手段512の出力と、予め設定された固定値である透過
画素の値(Transparentpixel value;例えば、値
“0”)と、予め設定された固定値である不透過画素の
値(Opaque pixel value;例えば、値“1”)が与えら
れ、これらのうちのいずれか一つをモード判定手段50
1から与えられるモード情報が何であるかにより、選択
して出力するものである。
Arithmetic encoding means 504 arithmetically encodes one of the outputs of first and second reduction means 510 and 511 in accordance with the mode judgment result of mode judgment means 501 and outputs the result to multiplexer 515. Further, the selector 507 outputs the motion vector information for motion compensation prediction output from the motion compensation unit 503, the output of the enlargement unit 512, and the value of a transparent pixel which is a preset fixed value (Transparentpixel). value; for example, a value “0”) and a predetermined fixed value of an opaque pixel (Opaque pixel value; for example, a value “1”) are given. Judgment means 50
The mode information is selected and output depending on what mode information is given from step 1.

【0050】また、フレームメモリ506は、セレクタ
507の出力を形状情報信号として保持するメモリであ
る。
The frame memory 506 is a memory for holding the output of the selector 507 as a shape information signal.

【0051】第1の縮小化手段510は、アルファマッ
プの2値化信号である形状情報入力を縮小化処理し、算
術符号化手段504に出力するものであり、第2の縮小
化手段511は、動き補償手段503の出力する動きベ
クトル情報を縮小化処理し、算術符号化手段504に出
力するものであり、拡大回路512は、第1の縮小化手
段510の出力をモード判定手段501のモード判定結
果に応じてセレクタ507に出力するものである。
The first reduction means 510 reduces the shape information input, which is a binary signal of the alpha map, and outputs the result to the arithmetic coding means 504. The second reduction means 511 , The motion vector information output from the motion compensating means 503 is reduced and output to the arithmetic coding means 504. The enlargement circuit 512 outputs the output of the first reducing means 510 to the mode of the mode determining means 501. The data is output to the selector 507 according to the determination result.

【0052】第1の可変長符号化回路513は、差分回
路509の出力を可変長符号化して出力するものであ
り、第2の可変長符号化回路514は、モード判定手段
501の判定結果を可変長符号化して出力するものであ
り、マルチプレクサ515は、第1及び第2の可変長符
号化手段の出力と算術符号化手段504の出力を受けて
これらを多重化してこれを形状情報符号化出力52とし
て出力するものである。
The first variable length coding circuit 513 performs variable length coding on the output of the difference circuit 509 and outputs the result. The second variable length coding circuit 514 outputs the result of the determination by the mode determination means 501. The multiplexer 515 receives the outputs of the first and second variable-length encoding means and the output of the arithmetic encoding means 504, multiplexes them, and encodes them into shape information. It is output as an output 52.

【0053】このような構成において、アルファマップ
の2値化信号である形状情報信号51が入力される。す
ると、これを受けたモード判定手段501は、当該供給
される形状情報と形状動きベクトル検出手段502の出
力する形状動きベクトルと、動き補償手段503の出力
する動きベクトル情報を元にモード判定する。そして、
このモード判定手段501によるマクロブロック毎に決
定された各マクロブロックのモードにしたがって、マク
ロブロック毎に情報が以下の如きに符号化されることに
なる。
In such a configuration, the shape information signal 51 which is a binary signal of the alpha map is input. Then, the mode determination unit 501 that has received this determines the mode based on the supplied shape information, the shape motion vector output from the shape motion vector detection unit 502, and the motion vector information output from the motion compensation unit 503. And
According to the mode of each macroblock determined for each macroblock by the mode determining means 501, information is encoded for each macroblock as follows.

【0054】ここで、モード判定手段501による判定
結果としてのモード情報は次の7通りのいずれかであ
る。“モード1”(透過(Transparent))、“モード
2” (不透過(Opaque))、“モード3”(算術符号
化(フレーム内))、“モード4”(動き補償(MV=
0))、“モード5”((動き補償(MV=0)+算術
符号化(フレーム間))、“モード6”(動き補償(M
V≠0))、“モード7”(動き補償(MV≠0)+算
術符号化(フレーム間))、である。
Here, the mode information as a result of the determination by the mode determining means 501 is one of the following seven types. "Mode 1" (Transparent), "Mode 2" (Opaque), "Mode 3" (arithmetic coding (within frame)), "Mode 4" (motion compensation (MV =
0)), “mode 5” ((motion compensation (MV = 0) + arithmetic coding (interframe)), “mode 6” (motion compensation (M
V ≠ 0)) and “mode 7” (motion compensation (MV ≠ 0) + arithmetic coding (between frames)).

【0055】そして、セレクタ507では、モード判定
手段501の判定したモードの情報にしたがって、マク
ロブロック毎に再生信号を出力する。そして、出力され
た各マクロブロックの再生信号はフレームメモリ(F
M)506に蓄積されると共に、出力線54を介してテ
クスチャ情報の符号化手段に供給され、符号化されるこ
とになる。
The selector 507 outputs a reproduction signal for each macro block in accordance with the mode information determined by the mode determining means 501. Then, the output reproduced signal of each macro block is stored in a frame memory (F
M) 506 and supplied to the texture information encoding means via the output line 54 to be encoded.

【0056】ここで、モード判定手段501からセレク
タ507に与えられるモード情報が何であるかにより、
セレクタ507からの出力は次のようになる。
Here, depending on what mode information is given from the mode determining means 501 to the selector 507,
The output from the selector 507 is as follows.

【0057】“モード1”の場合: 該マクロブロック
内の形状情報の再生画素値を、全て”Transparcnt pixe
l“(例えば、各画素値を“255”)にしたものを出
力する。
In the case of "mode 1": The reproduction pixel values of the shape information in the macro block are all set to "Transparcnt pixe".
l "(for example, each pixel value is set to" 255 ").

【0058】“モード3,5,7”の場合: 供給され
るマクロブロックの形状情報信号51を第1の縮小化手
段510にて縮小処理して得た信号(算術符号化手段5
04の符号化対象)を更に拡大化手段512により拡大
処理することにより元のサイズに戻して再生画素値にし
たものを出力する。
In the case of "modes 3, 5, 7": A signal obtained by subjecting the supplied macroblock shape information signal 51 to reduction processing by the first reduction means 510 (the arithmetic coding means 5).
04 is further enlarged by the enlarging means 512 to restore the original size and output a reproduced pixel value.

【0059】“モード4,6”の場合: マクロブロッ
ク内の形状情報の再生画素値を、動き補償手段503に
より動き補償予測して得た値を出力する。
In the case of "modes 4 and 6": A value obtained by performing motion compensation prediction on the reproduced pixel value of the shape information in the macroblock by the motion compensation means 503 is output.

【0060】一方、形状動きベクトル検出手段502で
は、入力線51より入力された形状入力信号と、動きベ
クトル予測手段505にて求められた予測ベクトルと、
フレームメモリ(FM)506に蓄積された形状情報信
号とから形状動きベクトルの情報を得る。この形状動き
ベクトル検出手段502で検出された形状動きベクトル
情報は、各マクロブロックの形状を動き補償手段503
において動き補償予測するために用いられる動きベクト
ル情報であり、動き補償手段503に供給されると共
に、形状動きベクトル情報記憶手段(MVmemoly)50
8に蓄積される。
On the other hand, the shape / motion vector detecting means 502 calculates the shape input signal input from the input line 51 and the prediction vector obtained by the motion vector predicting means 505,
Shape motion vector information is obtained from the shape information signal stored in the frame memory (FM) 506. The shape motion vector information detected by the shape motion vector detection means 502 is used to calculate the shape of each macroblock by the motion compensation means 503.
Is motion vector information used for motion compensated prediction in step (a). The motion vector information is supplied to the motion compensating means 503 and the shape motion vector information storing means (MVmemoly)
8 is stored.

【0061】ここで、形状動きベクトル検出手段502
では、動きベクトル予測手段505にて求められた予測
ベクトルを中心に、その周囲±16画素の範囲で予測誤
差ベクトルを検出している。
Here, the shape motion vector detecting means 502
Detects a prediction error vector in a range of ± 16 pixels around the prediction vector obtained by the motion vector prediction means 505.

【0062】従って、図3のようにゼロベクトルが検出
される頻度が最も多いため、形状動きベクトルがゼロベ
クトルであるか否かの情報を、モード情報に含めるよう
にすることで、形状動きベクトル情報の符号量を削減し
ている。また、この性質(ゼロベクトル近傍のベクトル
が検出される確率が高い)を用いることで、動きベクト
ル検出の処理量を削減することも可能になる。
Therefore, as shown in FIG. 3, since the frequency at which the zero vector is detected is the highest, the information as to whether or not the shape motion vector is a zero vector is included in the mode information. The code amount of information is reduced. Also, by using this property (the probability that a vector near the zero vector is detected is high), the processing amount of motion vector detection can be reduced.

【0063】動きベクトル予測手段505では、形状動
きベクトル情報記憶手段(MVmemoly)508に蓄積さ
れている形状動きベクトルと、信号線53を介して供給
されるテクスチャ動きベクトルから、形状動きベクトル
の予測値を求めている。
The motion vector predicting means 505 calculates the predicted value of the shape motion vector from the shape motion vector stored in the shape motion vector information storage means (MV memoly) 508 and the texture motion vector supplied via the signal line 53. Seeking.

【0064】“モード3,5,7”が選択された場合に
は、算術符号化手段504では、フレーム内符号化の場
合では第1の縮小化手段510によって縮小化処理され
て得た信号を算術符号化することになる。また、フレー
ム間符号化の場合、算術符号化手段504では、第1の
縮小化手段510により縮小化処理されて得られた信号
について、第2の縮小化手段511により縮小化された
信号を参照しつつ算術符号化する。一方、“モード5,
7”が選択された場合には、差分回路509により得ら
れた予測誤差ベクトルが、可変長符号化手段513によ
り可変長符号化されることになる。
When "modes 3, 5, 7" are selected, the arithmetic coding means 504 converts the signal obtained by the first reduction means 510 to the signal obtained by the reduction processing in the case of intra-frame coding. It will be arithmetically coded. In the case of inter-frame encoding, the arithmetic encoding unit 504 refers to the signal reduced by the second reduction unit 511 for the signal obtained by performing the reduction processing by the first reduction unit 510. Arithmetic coding. On the other hand, "mode 5,
When 7 ″ is selected, the prediction error vector obtained by the difference circuit 509 is subjected to variable-length encoding by the variable-length encoding unit 513.

【0065】そして、算術符号化手段504より得られ
た算術符号あるいは可変長符号化手段513により得ら
れた予測誤差ベクトルの可変長符号は、第2の可変長符
号化手段514により可変長符号化されて得られたモー
ド情報と共に、多重化手段(MUX)515に送られ、
ここで多重化されて形状情報符号化出力52として出力
される。
The arithmetic code obtained by the arithmetic coding means 504 or the variable length code of the prediction error vector obtained by the variable length coding means 513 is subjected to variable length coding by the second variable length coding means 514. Along with the obtained mode information, it is sent to a multiplexing means (MUX) 515,
Here, they are multiplexed and output as a shape information encoded output 52.

【0066】ところで、算術符号化手段504で符号化
された2値画像符号化情報は、各マクロブロック内の詳
細な形状を2値画像として扱い、符号化した情報であ
る。ここで、形状動きベクトルは、動きベクトル予測手
段505にて求められた予測ベクトルの周囲16画素を
探索して求められたものである。
By the way, the binary image encoded information encoded by the arithmetic encoding means 504 is information in which a detailed shape in each macroblock is treated as a binary image and encoded. Here, the shape motion vector is obtained by searching for 16 pixels around the prediction vector obtained by the motion vector prediction means 505.

【0067】従って、図3のようにゼロベクトルが検出
される頻度が最も多いため、形状動きベクトルがゼロベ
クトルか否かの情報をモード情報に含めることで、形状
動きベクトル情報の符号量を削減している。
Therefore, since the frequency at which the zero vector is detected is the highest as shown in FIG. 3, the code amount of the shape motion vector information is reduced by including information on whether or not the shape motion vector is the zero vector in the mode information. are doing.

【0068】このようにして、形状情報符号化手段50
0による形状情報の符号化処理が行われる。なお、ここ
での形状情報は、2階調化したアルファマップを対象と
しており、アルファマップには多階調グレースケールの
ものもあるので、これと区別して形状情報と称した。
Thus, the shape information encoding means 50
An encoding process of the shape information by 0 is performed. It should be noted that the shape information here is for a two-gradation alpha map, and there is also a multi-tone gray scale alpha map.

【0069】<テクスチャ情報の符号化法>アルファマ
ップはオブジェクトの形や大きさを表す情報(形状情
報)であるが、オブジェクトの内部の輝度や色差の変化
を表す情報であるテクスチャ情報がないとオブジェクト
の画像を再生できない。従って、MPEG4ではアルフ
ァマップと共に、テクスチャ情報も符号化されてアルフ
ァマップと対で利用される。
<Encoding Method of Texture Information> The alpha map is information (shape information) representing the shape and size of an object, but if there is no texture information which is information representing a change in luminance or color difference inside the object. The image of the object cannot be played. Therefore, in MPEG4, together with the alpha map, the texture information is also encoded and used in pairs with the alpha map.

【0070】テクスチャ情報(図12のYUV)の符号
化法を図12を用いて説明する。図12は従来技術のモ
デルシステムとして構成例を示すエンコーダ部分のブロ
ック構成図である。図12において、図に強調表記され
た構成要素である符号化領域(Bounding-Rectangle)検
出手段301、参照画像パディング手段302、LPE
パディング手段303、ゼロパディング手段304、ベ
クトルパディング手段306および形状情報符号化手段
500は、任意形状のオブジェクトを符号化するためだ
けに必要な構成要素である。従って、MPEG1やMP
EG2のような旧来の符号化法と同様に、矩形のオブジ
ェクトを符号化するためには、これ以外の構成要素、す
なわち、図12における動きベクトル検出手段305、
フレームメモリ307、動き補償手段308、切替スイ
ッチ309,310、動きベクトル予測手段311、動
きベクトル記憶手段312、差分回路313、第3の可
変長符号化手段314、量子化手段315、逆量子化手
段316、直交変換手段317、第4の可変長符号化手
段318、逆直交変換手段319、加算回路320、ス
イッチ321、マルチプレクサ322とから構成される
要素が備わっていればよい。
An encoding method of the texture information (YUV in FIG. 12) will be described with reference to FIG. FIG. 12 is a block diagram of an encoder showing a configuration example as a conventional model system. In FIG. 12, a coding region (Bounding-Rectangle) detection unit 301, a reference image padding unit 302, and LPE, which are components highlighted in the figure,
The padding unit 303, the zero padding unit 304, the vector padding unit 306, and the shape information encoding unit 500 are components necessary only for encoding an object having an arbitrary shape. Therefore, MPEG1 and MP
As in the case of a conventional encoding method such as EG2, in order to encode a rectangular object, other components, that is, the motion vector detecting means 305 in FIG.
Frame memory 307, motion compensation means 308, changeover switches 309 and 310, motion vector prediction means 311, motion vector storage means 312, difference circuit 313, third variable length coding means 314, quantization means 315, inverse quantization means It suffices if an element including 316, orthogonal transform means 317, fourth variable length coding means 318, inverse orthogonal transform means 319, adder circuit 320, switch 321, and multiplexer 322 is provided.

【0071】ここで、符号化領域(Bounding-Rectangl
e)検出手段301はフレーム画像中の対象とするオブ
ジェクトの存在する領域である符号化領域を検出するた
めのものであり(図9参照)、形状情報符号化手段50
0については、図11を用いて説明した通りである。
Here, the coding area (Bounding-Rectangl
e) The detecting means 301 is for detecting the coding area which is the area where the target object exists in the frame image (see FIG. 9), and the shape information coding means 50.
0 is as described with reference to FIG.

【0072】図12の構成においては、“不透過マクロ
ブロック”と“境界マクロブロック”に対して、テクス
チャ情報(YUV)の符号化が行われることになるが、
これらのうち、“不透過マクロブロック”に対しては、
従来の符号化法と同様に、入力されたマクロブロックの
信号をそのまま動き補償予測+DCT(離散コサイン変
換)法で符号化する。
In the configuration of FIG. 12, the encoding of the texture information (YUV) is performed on the “opaque macroblock” and the “boundary macroblock”.
Of these, "opaque macroblocks"
As in the conventional encoding method, the input macroblock signal is encoded as it is by motion compensation prediction + DCT (discrete cosine transform).

【0073】一方、“境界マクロブロック”に対して
は、オブジェクト外部の信号をパディング(補填処理)
した後、動き補償予測+DCT法で符号化する。
On the other hand, for the “boundary macro block”, the signal outside the object is padded (compensation processing).
After that, coding is performed by the motion compensation prediction + DCT method.

【0074】そして、ここでのパディング(補填処理)
には以下の3通りの手法がある。
Then, padding (compensation processing) here
Has the following three methods.

【0075】[1] 参照画像パディング: これは参
照画像パディング手段302による補充処理であって、
動き補償予測の参照画像をパディングする。境界マクロ
ブロックに対する処理と、透過マクロブロックに対する
処理がある。
[1] Reference image padding: This is a supplementary process by the reference image padding means 302.
The reference image for motion compensation prediction is padded. There are processes for boundary macroblocks and processes for transparent macroblocks.

【0076】[2] LPEパディング: これはLP
Eパディング手段303による補充処理であって、イン
トラマクロブロック内のブロックをDCT(離散コサイ
ン変換)する前に、オブジェクト外の画素(図13の白
丸部)値をオブジェクト内部の画素(図13の黒丸部)
値の平均値で置き換えた後、ローパスフィルタをかける
という処理である。処理単位は、DCTの場合と同じ8
×8画素である。
[2] LPE padding: This is LP
In the replenishment process by the E padding means 303, before performing DCT (Discrete Cosine Transform) on a block in an intra macroblock, the value of a pixel (open circle in FIG. 13) outside the object is converted to a pixel inside the object (black circle in FIG. 13). Part)
This is a process of applying a low-pass filter after replacing with the average value. The processing unit is the same as in DCT.
× 8 pixels.

【0077】[3] ゼロパディング: これはゼロパ
ディング手段304による補充処理であって、インター
マクロブロック内のブロックをDCTする前に、動き補
償予測誤差信号のオブジェクト外の画素(図13の白丸
部)値をゼロ値で置き換えると云う処理である。処理単
位は、DCTと同じ8×8画素である。
[3] Zero padding: This is a supplementary process by the zero padding means 304. Before the DCT of the block in the inter macro block, pixels outside the object of the motion compensation prediction error signal (the white circles in FIG. 13) ) The process of replacing the value with a zero value. The processing unit is 8 × 8 pixels, which is the same as DCT.

【0078】ここで、上記[1]のパディングはMPE
G4の規格における必須の処理であるが、上記[2]と
上記[3]のパディングは、符号化効率向上のために必
要なものであって、規格上での必須の処理では無いた
め、上記構成要素による処理に限らず他の手段を用いて
実施してもよい。
Here, the padding of the above [1] is the MPE
Although it is an indispensable process in the G4 standard, the padding in [2] and [3] is necessary for improving coding efficiency and is not an indispensable process in the standard. The present invention is not limited to the processing by the constituent elements, and may be performed using other means.

【0079】また、動きベクトル検出手段305では、
信号線31を介して符号化領域検出手段301より供給
される形状信号に基づき、信号線32を介して供給され
る原画像の輝度信号(YUV)と、信号線33を介して
フレームメモリ307から供給される参照画像の輝度信
号との間で動きベクトル検出を行う。そして、その結
果、得られた動きベクトル34は動き補償手段(MC)
308とベクトルパディング手段(Vector padding)3
06に出力している。
In the motion vector detecting means 305,
Based on the shape signal supplied from the encoding area detecting means 301 via the signal line 31, the luminance signal (YUV) of the original image supplied via the signal line 32 and the frame memory 307 via the signal line 33 Motion vector detection is performed between the supplied reference image and the luminance signal. Then, as a result, the obtained motion vector 34 is stored in the motion compensation unit (MC).
308 and vector padding means 3
06.

【0080】ベクトルパディング手段(Vector paddin
g)306では、形状情報符号化手段500より出力さ
れて供給される形状情報の再生値データ54に基づい
て、動きベクトルの無い8×8画素単位のブロック(透
明ブロックやイントラマクロブロック)に適切な動きベ
クトルを充填した後、動きベクトル記憶手段(MVmemor
y)312に蓄積する。
Vector paddin means (Vector paddin)
g) 306, based on the reproduction value data 54 of the shape information output and supplied from the shape information encoding means 500, suitable for an 8 × 8 pixel unit block (transparent block or intra macro block) having no motion vector. After filling the motion vectors, the motion vector storage means (MVmemor
y) Store in 312.

【0081】動きベクトルが検出される際に、参照画像
はパディングによりオブジエクト内の画素値と滑らかに
つながるように、オブジェクト外の画素値がパディング
されている。
When a motion vector is detected, pixel values outside the object are padded so that the reference image is smoothly connected to pixel values inside the object by padding.

【0082】一方、原画像ではオブジェクト境界部の画
素値はエッジの境界である場合が多いので、画素値変動
が大きい。従って、境界マクロブロックで通常のブロッ
クマッチングを行うと、オブジェクト外の画素値のミス
マッチが大きく、正常な動きベクトルが検出されない場
合が多い。
On the other hand, in the original image, the pixel value at the object boundary is often the boundary of the edge, and thus the pixel value greatly varies. Therefore, when ordinary block matching is performed on the boundary macroblock, the mismatch between pixel values outside the object is large, and a normal motion vector is often not detected.

【0083】そこで、従来モデルでは境界マクロブロッ
クに対しては、形状情報を参照してオブジェクト内部の
画素値(図14の黒丸部)のみで誤差を評価して動きベ
クトルを検出するようにしている(これをポリゴンマッ
チングと言う)。しかし、この方法は画素毎に、それが
オブジェクトの内部か否かを判定しながら動きベクトル
を検出することとなるため、勢い処理量が多くなってし
まう。
Therefore, in the conventional model, for the boundary macroblock, the motion vector is detected by evaluating the error only with the pixel value (black circle in FIG. 14) inside the object with reference to the shape information. (This is called polygon matching). However, in this method, a motion vector is detected for each pixel while determining whether or not the pixel is inside the object, so that the amount of momentum processing increases.

【0084】[0084]

【発明が解決しようとする課題】上述したように、アル
ファマップはオブジェクトの形や大きさを表す情報(形
状情報)であるが、オブジェクトの内部の輝度や色差の
変化を表す情報であるテクスチャ情報がないとオブジェ
クトの画像を再生できない。従って、MPEG4ではア
ルファマップと共に、テクスチャ情報も符号化されてア
ルファマップと対で利用される。
As described above, the alpha map is information (shape information) representing the shape and size of an object, but the texture information is information representing the change in luminance and color difference inside the object. Without it, the object image cannot be played. Therefore, in MPEG4, together with the alpha map, the texture information is also encoded and used in pairs with the alpha map.

【0085】そして、テクスチャ情報(YUV)の符号
化は、“不透過マクロブロック”と“境界マクロブロッ
ク”に対して行われることになるが、これらのうち、
“不透過マクロブロック”については、入力されたマク
ロブロックの信号をそのまま動き補償予測+DCT(離
散コサイン変換)法で符号化し、“境界マクロブロッ
ク”については、オブジェクト外部の信号をパディング
(補填処理)した後、動き補償予測+DCT法で符号化
する。
The encoding of the texture information (YUV) is performed on the “opaque macroblock” and the “boundary macroblock”.
For the “opaque macroblock”, the input macroblock signal is directly encoded by motion compensation prediction + DCT (discrete cosine transform), and for the “boundary macroblock”, the signal outside the object is padded (compensation processing). After that, coding is performed by the motion compensation prediction + DCT method.

【0086】すなわち、“境界マクロブロック”につい
ては、動き補償予測が行われるので、動きベクトル検出
の際に、参照画像はオブジエクト内の画素値と滑らかに
つながるようにオブジェク卜外の画素値をパディングし
ておくわけである。
That is, for the “boundary macroblock”, motion compensation prediction is performed. Therefore, when detecting a motion vector, the reference image is padded with pixel values outside the object so as to be smoothly connected to pixel values inside the object. That's why.

【0087】しかし、原画像ではオブジェクト境界部の
画素値は、エッジの境界である場合が多いので画素値変
動が大きく、従って、境界マクロブロックで通常のブロ
ックマッチングを行うと、オブジェクト外の画素値のミ
スマッチが大きく、正常な動きベクトルが検出されない
場合が多い。
However, in the original image, the pixel value at the object boundary is often at the boundary of the edge, so that the pixel value greatly fluctuates. Therefore, when ordinary block matching is performed at the boundary macroblock, the pixel value outside the object is reduced. Is large and a normal motion vector is not detected in many cases.

【0088】そこで、境界マクロブロックに対し、形状
情報を参照してオブジェクト内部の画素値(図14の黒
丸部)のみで誤差を評価して動きベクトルを検出する手
法であるポリゴンマッチングを採用する。
Therefore, polygon matching, which is a method of detecting a motion vector by evaluating an error only with a pixel value (a black circle in FIG. 14) inside an object with reference to shape information for a boundary macroblock, is employed.

【0089】しかし、この方法は画素毎にオブジェクト
の内部か否かを判定しながら動きベクトルを検出するこ
ととなることから、処理量が多くなってしまう問題があ
る。
However, in this method, since a motion vector is detected while judging whether or not each pixel is inside an object, there is a problem that a processing amount increases.

【0090】従って、本発明の目的とするところは、符
号化効率向上を図りつつ、少ない演算量で動きベクトル
の検出を行うことができるようにした動画像符号化装置
および動画像符号化方法を提供することにある。
Accordingly, an object of the present invention is to provide a moving picture coding apparatus and a moving picture coding method capable of detecting a motion vector with a small amount of calculation while improving coding efficiency. To provide.

【0091】[0091]

【課題を解決するための手段】本発明は、上記目的を達
成するため、次のように構成する。
The present invention has the following configuration to achieve the above object.

【0092】[1] 第1には、画像を構成する所望オ
ブジェクトについて、その所望オブジェクトをマクロブ
ロック単位で形状情報とテクスチャ情報とから構成され
る任意形状オブジェクトとして符号化する動画像符号化
方式の符号化装置において、各マクロブロック毎にテク
スチャ情報の動きベクトルを検出する手段と、該マクロ
ブロックにおける形状情報の動きベクトルを検出するた
めに、テクスチャ情報の動きベクトルの利用の可否を判
定する判定手段と、前記マクロブロックにおける形状情
報の動きベクトルを検出するために、テクスチャ情報の
動きベクトルの信頼性を評価する評価手段と、形状情報
の動きベクトル検出範囲を、テクスチャ情報の動きベク
トルが利用不可能時には利用可能時より広く設定され、
テクスチャ情報の動きベクトルが利用可能な場合におい
てはテクスチャ情報の動きベクトルの信頼性が高い場合
よりも低い場合の方が広く設定される設定手段と、既に
検出されているテクスチャ情報の動きベクトルを利用し
て前記マクロブロックにおける形状情報の動きベクトル
を検出する動きベクトル検出手段とを備えて構成したも
のである。そして、この装置は、形状情報とテクスチャ
情報とから構成される任意形状オブジェクトを符号化す
るにあたり、テクスチャ情報の動きベクトルも利用でき
るように動きベクトル検出手段にはテクスチャ情報の動
きベクトルも検出できる機能を持たせ、入力されたオブ
ジェクトの形状情報とテクスチャ情報のうち、テクスチ
ャ情報の動きベクトルが利用できるか否かを識別手段に
て識別させ、また、評価手段により、テクスチャ情報の
動きベクトルの信頼性を評価し、また、符号化対象のマ
クロブロックの符号化にあたっては、そのマクロブロッ
クの周辺のマクロブロックの形状動きベクトルを探索し
て形状動きベクトルを求めるが、その探索範囲はテクス
チャ情報の動きベクトルが利用できる場合には狭く、ま
た、テクスチャ情報の動きベクトルが利用できない場合
には、利用できる場合よりも広くし、テクスチャ情報の
動きベクトルが利用できる場合においてはテクスチャ情
報の動きベクトルの信頼性が高い場合よりも信頼性の低
い方が広く設定されるようにしてテクスチャ情報の動き
ベクトルの利用の可否と、信頼性の度合いに応じてマク
ロブロックの形状動きベクトル探索範囲を適正な範囲に
するようにした。
[1] First, for a desired object constituting an image, a moving image encoding method for encoding the desired object as an arbitrary-shaped object composed of shape information and texture information in macroblock units. In the encoding device, means for detecting a motion vector of texture information for each macroblock, and determination means for judging whether or not to use a motion vector of texture information to detect a motion vector of shape information in the macroblock Evaluation means for evaluating the reliability of the motion vector of the texture information in order to detect the motion vector of the shape information in the macroblock; Sometimes set wider than available,
When the motion vector of the texture information is available, the setting means that is set wider when the reliability of the motion vector of the texture information is low than when the reliability is high, and the motion vector of the already detected texture information is used. And a motion vector detecting means for detecting a motion vector of the shape information in the macro block. In this apparatus, when encoding an arbitrary shape object composed of shape information and texture information, the motion vector detecting means can detect the motion vector of the texture information so that the motion vector of the texture information can be used. Of the input object's shape information and texture information, the identification means determines whether or not the motion vector of the texture information can be used, and the evaluation means evaluates the reliability of the motion vector of the texture information. In coding a macroblock to be coded, a shape motion vector of a macroblock around the macroblock is searched for a shape motion vector. The search range is the motion vector of the texture information. Is narrow when available, and the motion If the motion vector of the texture information is available, it is set wider than the case where the reliability of the motion vector of the texture information is higher than the case where the motion vector of the texture information is available. In this way, the search range of the shape motion vector of the macroblock is set to an appropriate range according to the availability of the motion vector of the texture information and the degree of reliability.

【0093】すなわち、この発明は、動きベクトル検出
に関する発明であって、このようにした結果、符号化効
率を落とすことなく動きベクトル検出の計算量を低減す
ることができるようになる技術が提供できる。
That is, the present invention relates to motion vector detection, and as a result of this, it is possible to provide a technique capable of reducing the calculation amount of motion vector detection without lowering the coding efficiency. .

【0094】[2] また、本発明は、上記目的を達成
するため、第2には、画像を構成する所望オブジェクト
について、その所望オブジェクトをマクロブロック単位
で形状情報とテクスチャ情報とから構成される任意形状
オブジェクトとして符号化する動画像符号化方式の符号
化装置において、入力されるオブジェクトの形状情報か
ら形状動きベクトルおよびテクスチャ情報の動きベクト
ルを検出する動きベクトル検出手段を備えると共に、符
号化時の誤差を指定するためのしきい値を設定するしき
い値設定手段と、探索範囲内を複数の探索範囲に分割す
る分割手段と、検出された動きベクトルによる動き補償
予測誤差がしきい値よりも大きいか否かを判定する判定
手段とを備え、前記動きベクトル検出手段は、前記分割
された探索範囲のうち、最も狭い探索範囲から動きベク
トル検出を開始し、該探索範囲内で検出された最適な動
きベクトルによる動き補償予測誤差がしきい値よりも大
きい場合は、より広い探索範囲で最適な動きベクトルを
検出し、動き補償予測誤差がしきい値よりも小さい場合
は、動きベクトル検出を終了し、該動きべクトルを検出
結果として出力する機能を備える構成とする。
[2] According to the present invention, in order to achieve the above object, secondly, for a desired object forming an image, the desired object is formed from shape information and texture information in macroblock units. A coding apparatus of a moving image coding system for coding as an arbitrary shape object includes a motion vector detecting unit for detecting a shape motion vector and a motion vector of texture information from shape information of an input object, Threshold setting means for setting a threshold for designating the error; dividing means for dividing the search range into a plurality of search ranges; and a motion compensation prediction error based on the detected motion vector being smaller than the threshold. Determination means for determining whether or not the search range is greater than the maximum value; That is, the motion vector detection is started from the narrowest search range, and if the motion compensation prediction error due to the optimal motion vector detected in the search range is larger than a threshold, the optimal motion vector Is detected, and when the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated, and the motion vector is output as a detection result.

【0095】MPEG4においては、予測ベクトルがゼ
ロベクトルであった場合、予測ベクトルがゼロベクトル
であることを表す情報をモード情報に組み込んで別途符
号化することにより、符号化効率を向上させるが、この
ゼロベクトルを効率的に検出できるようにすることも演
算量軽減に大きく寄与する。そこで、本発明では、しき
い値設定手段を設けて、符号化時の誤差を指定するため
のしきい値を設定しておき、また、分割手段にて探索範
囲内を複数の探索範囲に分割する。そして、動きベクト
ル検出手段は、これら分割された探索範囲のうち、最も
狭い探索範囲から動きベクトル検出を開始し、判定手段
はこの動きベクトル検出手段にて検出された動きベクト
ルを元に、当該検出された動きベクトルによる動き補償
予測誤差がしきい値よりも大きいか否かを判定する。そ
して、動きベクトル検出手段は、最も狭い探索範囲から
動きベクトル検出を開始した結果、判定手段が、該探索
範囲内で検出された最適な動きベクトルによる動き補償
予測誤差がしきい値よりも大きいと判定した場合は、よ
り広い探索範囲で最適な動きベクトルを検出するように
動作し、動き補償予測誤差がしきい値よりも小さいと判
断した場合は、動きベクトル検出を終了し、該動きべク
トルを検出結果として出力する。このように、探索範囲
内で検出された最適な動きベクトルによる動き補償予測
誤差が大きい場合は、より広い探索範囲で最適な動きベ
クトルを検出し、動き補償予測誤差が小さい場合は、動
きベクトル検出を終了し、該動きべクトルを検出結果と
して出力するようにした結果、誤差が小さければ少ない
演算量でゼロベクトルを効率的に検出できるようにな
り、演算量軽減に大きく寄与する。
In MPEG4, when the prediction vector is a zero vector, the encoding efficiency is improved by incorporating information indicating that the prediction vector is a zero vector into the mode information and separately encoding the information. The ability to efficiently detect the zero vector also greatly contributes to the reduction in the amount of computation. Therefore, in the present invention, a threshold value setting unit is provided to set a threshold value for designating an error at the time of encoding, and the dividing unit divides the search range into a plurality of search ranges. I do. Then, the motion vector detection means starts the motion vector detection from the narrowest search range among the divided search ranges, and the determination means performs the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error based on the obtained motion vector is larger than a threshold value. Then, as a result of starting the motion vector detection from the narrowest search range, the determination unit determines that the motion compensation prediction error due to the optimal motion vector detected in the search range is larger than the threshold value. If it is determined, the operation is performed to detect the optimal motion vector in a wider search range. If it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated, and the motion vector Is output as the detection result. As described above, when the motion compensation prediction error due to the optimal motion vector detected in the search range is large, the optimal motion vector is detected in a wider search range, and when the motion compensation prediction error is small, the motion vector detection is performed. Is ended, and the motion vector is output as a detection result. As a result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to a reduction in the amount of calculation.

【0096】[3] また本発明は、上記目的を達成す
るため、第3には、画像を構成する所望オブジェクトに
ついて、その所望オブジェクトをマクロブロック単位で
形状情報とテクスチャ情報とから構成される任意形状オ
ブジェクトとして符号化する動画像符号化方式の符号化
装置において、形状符号化およびテクスチャ符号化を行
うに先立ち、該符号化手段に入力された形状信号を参照
して、オブジェクトを一部に含む形態の境界マクロブロ
ックについてはそのマクロブロック内を不連続性解消の
ためのパディング処理を施こすことによりテクスチャ符
号化対象となるマクロブロック内の画素を全て補填処理
する手段を有し、形状符号化およびテクスチャ符号化は
当該パディング処理済みの画像を使用して行う構成とし
たものである。
[3] Further, in order to achieve the above object, the present invention provides, for a third object, a desired object which forms an image by arbitrarily constructing the desired object in macroblock units from shape information and texture information. Prior to performing shape coding and texture coding, a moving image coding method coding apparatus that codes as a shape object includes an object as a part by referring to a shape signal input to the coding unit. For the boundary macroblock of the form, a means for performing padding processing for eliminating discontinuities in the macroblock to compensate for all pixels in the macroblock to be subjected to texture encoding, and performing shape encoding. The texture encoding is performed using the padded image.

【0097】この発明は、“境界マクロブロック”にお
けるテクスチャ符号化に関する発明であって、原画像
は、境界マクロブロックについては、オブジェクト境界
部での画素値の不連続性が解消できるパディング処理、
すなわち、LPEパディングにてパディング処理してか
ら、形状符号化およびテクスチャ符号化に供するように
した。そのため、オブジェクト境界部での画素値の不連
続性がほとんど無くなることから、通常のブロックマッ
チングを行った場合でも、正常な動きベクトルを検出す
ることができるようになる。故に、“境界マクロブロッ
ク”において処理量の多いポリゴンマッチングを行わず
に済み、計算時間の短縮を図ることができると共に、通
常のブロックマッチングを行った場合でも、正常な動き
ベクトルを検出することができるようになる。
The present invention relates to texture coding in a "boundary macroblock". In an original image, for a boundary macroblock, padding processing capable of eliminating discontinuity of pixel values at an object boundary portion,
That is, padding processing is performed by LPE padding, and then subjected to shape encoding and texture encoding. Therefore, discontinuity of the pixel value at the object boundary is almost eliminated, so that a normal motion vector can be detected even when ordinary block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, so that the calculation time can be reduced, and a normal motion vector can be detected even when ordinary block matching is performed. become able to.

【0098】[0098]

【発明の実施の形態】以下、本発明具体例について、図
面を参照して説明する。本発明は、MPEG4エンコー
ダ(動画像符号化装置)の構成要素の処理順序を変更す
ることによる符号化効率向上と、形状動きベクトルの検
出法を改良することで、符号化効率を低下させずに、少
ない演算量で動きベクトルの検出を行うことができるよ
うにするものであり、以下、詳細を説明する。
Embodiments of the present invention will be described below with reference to the drawings. The present invention improves the coding efficiency by changing the processing order of the components of the MPEG4 encoder (moving picture coding apparatus), and improves the detection method of the shape motion vector, without reducing the coding efficiency. This enables a motion vector to be detected with a small amount of calculation. The details will be described below.

【0099】<第1の具体例>図を参照して本発明の第
1の具体例を説明する。第1の具体例において説明する
技術は、符号化効率を落とすことなく動きベクトル検出
の計算量を低減することができるようにする技術であ
る。
<First Specific Example> A first specific example of the present invention will be described with reference to the drawings. The technique described in the first specific example is a technique that enables the amount of calculation for motion vector detection to be reduced without lowering the coding efficiency.

【0100】前述した通り、図11に示した従来技術と
してのモデルシステムの構成では、形状動きベクトル
(MVs)は、動きベクトル予測手段505にて求めら
れた予測ベクトル(MVPs)の周囲±16画素(図3
の探索範囲3)を探索して求められる。つまり、予測ベ
クトルMVPsからの差分ベクトルMVDsを検出して
いる(式1)。
As described above, in the configuration of the model system as the prior art shown in FIG. 11, the shape motion vector (MVs) has a size of ± 16 pixels around the prediction vector (MVPs) obtained by the motion vector prediction means 505. (FIG. 3
In the search range 3). That is, the difference vector MVDs from the prediction vector MVPs is detected (Equation 1).

【0101】MVDs=MVs−MVPs …(式1) 通常、予測誤差信号の頻度分布は、図1に示す如きに
“0”近傍の頻度が高く、“0”から離れるにしたがっ
て頻度が急激に小さくなる傾向がある。図1では、差分
ベクトルMVDsの水平成分を“mvds_y”、垂直
成分を“mvds_y”と表記している。
MVDs = MVs−MVPs (Equation 1) Normally, the frequency distribution of the prediction error signal has a high frequency near “0” as shown in FIG. 1, and the frequency rapidly decreases as the distance from “0” increases. Tend to be. In FIG. 1, the horizontal component of the difference vector MVDs is described as “mvds_y” and the vertical component is described as “mvds_y”.

【0102】ここで、予測ベクトルMVPsの予測精度
が低い場合は、頻度分布が緩慢となり、MVPsの予測
精度が高い場合は頻度分布が急峻となる。図2は予測ベ
クトルMVPsを求める方法を説明する図である。図2
(a)は形状信号成分に関して、そして、図2(b)は
輝度信号成分に関しての情報をマクロブロック単位で示
した図であり、符号化対象のマクロブロックMBとその
近隣のマクロブロックとして形状動きベクトルMVs
1、MVs2、MVs3を有するマクロブロックがある
ことを示している。また、図2(b)は符号化対象のマ
クロブロックMBとその近隣のマクロブロックとして、
テクスチャ動きベクトルMV1、MV2、MV3を有す
るマクロブロックがあることを示している。
Here, when the prediction accuracy of the prediction vector MVPs is low, the frequency distribution becomes slow, and when the prediction accuracy of the MVPs is high, the frequency distribution becomes steep. FIG. 2 is a diagram for explaining a method for obtaining the prediction vectors MVPs. FIG.
FIG. 2A is a diagram showing information on a shape signal component, and FIG. 2B is a diagram showing information on a luminance signal component in units of macroblocks. Vector MVs
It indicates that there is a macroblock having 1, MVs2, and MVs3. FIG. 2B shows a macroblock MB to be encoded and its neighboring macroblocks.
This indicates that there is a macroblock having the texture motion vectors MV1, MV2, and MV3.

【0103】そして、この場合、マクロブロックMBを
符号化するにあたり、本発明システムでは、符号化対象
のマクロブロックの符号化処理に際して、まずはじめ
に、MVs1、MVs2、MVs3の順番でその符号化
対象マクロブロックの周囲のマクロブロックについて、
形状動きベクトルが存在するか否かを調べ、最初に存在
する形状動きベクトルをMVPsとする。
In this case, when encoding the macroblock MB, the system of the present invention first performs the encoding process on the encoding target macroblock in the order of MVs1, MVs2, and MVs3. For the macroblock around the block,
It is checked whether or not a shape motion vector exists, and the shape motion vector that first exists is defined as MVPs.

【0104】形状動きベクトルMVs1、MVs2、M
Vs3のいずれも存在しない場合には、今度はMV1、
MV2、M3の順番でテクスチャ動きベクトルが存在
するか否かを調べ、最初に存在する動きべクトルを予測
ベクトルMVPsとする。
Shape motion vectors MVs1, MVs2, M
If none of Vs3 is present, then MV1,
It is checked whether or not a texture motion vector exists in the order of MV2 and M3, and the motion vector that first exists is set as a prediction vector MVPs.

【0105】テクスチャ動きベクトルMV1、MV2、
MV3いずれも存在しない場合は、予測ベクトルMVP
sをゼロベクトルにする。
The texture motion vectors MV1, MV2,
If neither MV3 exists, the prediction vector MVP
Let s be a zero vector.

【0106】本発明システムでは、動きベクトル予測手
段505にはこのような機能を持たせる。
In the system of the present invention, the motion vector prediction means 505 has such a function.

【0107】なお、前記参考文献にも記載されている通
り、テクスチャ動きベクトル(MV1、MV2、MV
3)を利用できる場合とできない場合がある。例えば、
テクスチャ情報を符号化せずに形状情報だけを符号化す
るモードや、符号化対象マクロブロックに対する、MV
1、MV2、MV3何れも存在しない場合などである。
つまり、テクスチャ動きベクトルが信頼できると仮定す
れば、この手法においては、テクスチャ動きベクトルを
利用できる場合には、利用できない場合と比べて予測ベ
クトルMVpsの予測精度が高いといえる。
As described in the above reference, the texture motion vectors (MV1, MV2, MV
There are cases where 3) can be used and cases where it cannot. For example,
A mode in which only the shape information is encoded without encoding the texture information, and an MV for the encoding target macroblock.
1, MV2, and MV3 do not exist.
That is, assuming that the texture motion vector is reliable, in this method, it can be said that the prediction accuracy of the prediction vector MVps is higher when the texture motion vector can be used than when it cannot be used.

【0108】(第1の具体例その1)そこで、本実施例
では図3に示すように、探索範囲を数段階分用意し、テ
クスチャ動きベクトルを利用できる場合には、予測ベク
トルMVPsの予測精度に応じて探索範囲を切り替える
ようにする。例えば、探索範囲を“探索範囲1”、“探
索範囲2”、“探索範囲3”と云った具合に数段分、用
意し、“探索範囲1”の領域サイズは4×4画素、“探
索範囲2”の領域サイズは8×8画素、“探索範囲3”
の領域サイズは16×16画素、と云った具合にする。
(First Specific Example 1) Therefore, in this embodiment, as shown in FIG. 3, a search range is prepared for several stages, and when a texture motion vector can be used, the prediction accuracy of the prediction vector MVPs is The search range is switched according to. For example, a search range is prepared for several stages, such as “search range 1”, “search range 2”, and “search range 3”. The area size of “search range 1” is 4 × 4 pixels and “search range 1”. The area size of “range 2” is 8 × 8 pixels, and “search range 3”
Area size is 16 × 16 pixels.

【0109】そして、図11に示した構成において、形
状動きベクトル検出手段502の機能として、このよう
に予測ベクトルMVPsの予測精度の検出と、この予測
精度に応じて動きベクトル探索範囲を切り替える機能を
付加した構成に改良することで、符号化効率を落とすこ
となく動きベクトル検出の計算量を低減することができ
る。予測精度は、例えば、動きベクトル予測手段505
の求めた予測ベクトルMVPsについての誤差の大きさ
で決めるようにすれば良い。
In the configuration shown in FIG. 11, the functions of the shape motion vector detecting means 502 include the function of detecting the prediction accuracy of the prediction vector MVPs and the function of switching the motion vector search range according to the prediction accuracy. By improving to the added configuration, the amount of calculation of motion vector detection can be reduced without lowering the coding efficiency. The prediction accuracy is, for example, the motion vector prediction means 505
May be determined based on the magnitude of the error with respect to the predicted vector MVPs obtained in the above.

【0110】動きベクトル探索範囲の具体例としては、
テクスチャ動きベクトルが信頼できる場合には最小領域
サイズとなる“探索範囲1”内を、そして、テクスチャ
動きベクトルが信頼できない場合にはそれよりも幾分広
い領域とした“探索範囲2”内を、探索範囲とする。ま
た、テクスチャ動きベクトルが利用できない場合は最も
広い領域とした“探索範囲3”を探索領域として探索す
るようにする。
As a specific example of the motion vector search range,
If the texture motion vector is reliable, the search area 1 is the minimum area size, and if the texture motion vector is unreliable, the search area 2 is a somewhat larger area. Search range. If the texture motion vector cannot be used, the “search range 3”, which is the widest area, is searched as the search area.

【0111】すなわち、形状動きベクトル検出手段50
2には、フレーム画像中の対象とするオブジェクトの存
在する領域である符号化領域を検知する符号化領域検出
手段(Bounding-rectangle)を介して入力されるアルフ
ァマップ信号(形状情報A)と動きベクトル予測手段5
05にて求められた予測ベクトルの情報とフレームメモ
リ506の形状情報信号とから動きベクトル検出するに
当たり、予測ベクトルMVPsの予測精度を求めて、そ
れに応じて切り替えた最適な動きベクトル探索範囲で形
状動きベクトルを検出するように動作させる。そして、
これにより検出したベクトルを形状動きベクトル情報と
して出力させる。
That is, the shape motion vector detecting means 50
2 includes an alpha map signal (shape information A) input through an encoding area detection unit (Bounding-rectangle) that detects an encoding area that is an area where the target object exists in the frame image, and a motion. Vector prediction means 5
In detecting a motion vector from the information of the prediction vector obtained in step 05 and the shape information signal of the frame memory 506, the prediction accuracy of the prediction vector MVPs is obtained, and the shape motion is detected in the optimum motion vector search range switched accordingly. Operate to detect vectors. And
Thus, the detected vector is output as shape motion vector information.

【0112】このようにすると、マクロブロックの符号
化に当たり、テクスチャ動きベクトルの予測精度に基づ
く信頼度を調べた結果、その信頼度が高ければ、符号化
しようとしているマクロブロックの周辺の狭い探索範囲
を用いて動きベクトル検出の計算を済ませることが可能
となり、動きベクトル検出に必要な計算量を低減するこ
とができることになる。また、テクスチャ動きベクトル
が信頼できない場合やテクスチャ動きベクトルが利用で
きない場合は探索範囲を広げることで、動きベクトルの
検出が可能になる。
As a result of checking the reliability based on the prediction accuracy of the texture motion vector when coding the macroblock, if the reliability is high, a narrow search range around the macroblock to be coded is determined. Can be used to complete the calculation of motion vector detection, and the amount of calculation required for motion vector detection can be reduced. When the texture motion vector is not reliable or when the texture motion vector cannot be used, the search range can be expanded to detect the motion vector.

【0113】図4は本具体例のフローチャートである。
すなわち、テクスチャ動きベクトルが利用できるか否か
をチェックし(ステップS11)、その結果、利用でき
なければ探索範囲を“探索範囲3”とすることとする。
ステップS11でのチェックの結果、利用できるのであ
れば、次にテクスチャ動きベクトルが信頼できるか否か
をチェックし(ステップS12)、その結果、信頼でき
なければ探索範囲を“探索範囲2”とすることとする。
ステップS12でのチェックの結果、信頼できるのであ
れば、探索範囲を“探索範囲1”とする。
FIG. 4 is a flowchart of this example.
That is, it is checked whether or not the texture motion vector can be used (step S11). As a result, if the texture motion vector cannot be used, the search range is set to “search range 3”.
If the result of the check in step S11 indicates that the texture motion vector can be used, it is next checked whether or not the texture motion vector is reliable (step S12). If the result is not reliable, the search range is set to "search range 2". It shall be.
As a result of the check in step S12, if it is reliable, the search range is set to "search range 1".

【0114】なお、ここではテクスチャ動きクトルの信
頼性は、テクスチャ動きベクトルの探索範囲によって判
断している。つまり、テクスチャ動きベクトルの検出
は、テクスチャ動きベクトルそのものを直接検出してい
るため、探索範囲が広い場合は大きな動きにも追従でき
ることから、探索範囲が狭い場合よりも信頼性が高いと
推測できる。なお、MPEG4では、テクスチャ動きベ
クトルの探索範囲は±1024まで拡張可能である。
Here, the reliability of the texture motion vector is determined by the search range of the texture motion vector. That is, since the detection of the texture motion vector directly detects the texture motion vector itself, it is possible to follow a large motion when the search range is wide. Therefore, it can be estimated that the reliability is higher than when the search range is narrow. In MPEG4, the search range of the texture motion vector can be extended to ± 1024.

【0115】このようにすることで、予測ベクトルMV
Psの予測精度に応じて探索範囲を切り替えることがで
きるようになり、このような予測ベクトルMVPsの予
測精度に応じた探索範囲切り替えを実施することで、符
号化効率を落とすことなく動きベクトル検出の計算量を
低減することができる。
In this way, the prediction vector MV
The search range can be switched according to the prediction accuracy of Ps. By performing the search range switching according to the prediction accuracy of the prediction vector MVPs, the motion vector detection can be performed without lowering the coding efficiency. The amount of calculation can be reduced.

【0116】(第1の具体例その2)予測ベクトルMV
Dsがゼロベクトルであった場合、前述したように、当
該予測ベクトルMVDsがゼロベクトルであることを表
す情報は、符号化効率向上のためモード情報に組み込ま
れて別途符号化される。
(First Specific Example 2) Prediction Vector MV
When Ds is a zero vector, as described above, information indicating that the prediction vector MVDs is a zero vector is incorporated into mode information and separately encoded to improve encoding efficiency.

【0117】そこで、図12に示したMPEG4用の従
来技術としてのモデルエンコードシステムでは、ゼロベ
クトルが検出され易いように、比較基準としての所定の
しきい値を定め、ゼロベクトル時の動き補償予測誤差
(MC誤差)をこのしきい値と比較すると共に、当該ゼ
ロベクトル時の動き補償予測誤差(MC誤差)が前記し
きい値よりも小さいときには、その時点で検出を打ち切
り、予測ベクトルMVPsを形状動きベクトルMVsと
している。
Therefore, in the conventional model encoding system for MPEG4 shown in FIG. 12, a predetermined threshold value is set as a comparison criterion so that a zero vector can be easily detected. The error (MC error) is compared with this threshold value, and when the motion compensation prediction error (MC error) at the time of the zero vector is smaller than the threshold value, detection is stopped at that time, and the prediction vector MVPs is shaped. The motion vector is MVs.

【0118】本具体例では、上記打ち切りを更に拡張し
たもので、たとえば、図3の“探索範囲1”まで検出し
た際の最適な動きベクトルでの動き補償予測誤差が、所
定のしきい値よりも小さいときには、その時点で検出を
打ち切るようにする。動き補償予測誤差が所定のしきい
値よりも大きい場合には、探索範囲を“探索範囲2”ま
で拡張し、“探索範囲1”のときと同様に、“探索範囲
2”の残りの範囲を探索した際の最適な動きベクトルで
の動き補償予測誤差が所定のしきい値よりも小さいとき
には、その時点で検出を打ち切るようにする。
In this specific example, the above-mentioned truncation is further extended. For example, when the motion compensation prediction error in the optimal motion vector when detecting up to “search range 1” in FIG. Is smaller, the detection is terminated at that time. When the motion compensation prediction error is larger than the predetermined threshold, the search range is extended to “search range 2”, and the remaining range of “search range 2” is changed in the same manner as in “search range 1”. If the motion compensation prediction error with the optimum motion vector at the time of the search is smaller than a predetermined threshold, the detection is terminated at that time.

【0119】つまり、予測ベクトルMVPsの予測精度
に応じて探索範囲を切り替えるようにし、このような予
測ベクトルMVPsの予測精度に応じた探索範囲切り替
えを実施することで、符号化効率を落とすことなく動き
ベクトル検出の計算量低減を図るようにする。
That is, the search range is switched in accordance with the prediction accuracy of the prediction vector MVPs, and the search range is switched in accordance with the prediction accuracy of the prediction vector MVPs. The calculation amount of vector detection is reduced.

【0120】図5は、本具体例のフローチャートであ
る。すなわち、予測ベクトルMVDsを“0”に初期化
し(ステップS1)、次にMC(動き補償)誤差が閾値
より大きいか否かをチェックする(ステップS2)。そ
の結果、小さければ処理を終了し、大きければ“探索範
囲1”内を探索する(ステップS3)。
FIG. 5 is a flowchart of this example. That is, the prediction vector MVDs is initialized to "0" (step S1), and it is checked whether or not the MC (motion compensation) error is larger than a threshold (step S2). As a result, if it is smaller, the process is terminated, and if it is larger, a search is performed within "search range 1" (step S3).

【0121】そして、次にMC(動き補償)誤差が閾値
より大きいか否かをチェックする(ステップS4)。そ
の結果、小さければ処理を終了し、大きければ“探索範
囲2−探索範囲1”内を探索する(ステップS5)。
Then, it is checked whether or not the MC (motion compensation) error is larger than a threshold (step S4). As a result, if it is smaller, the process is terminated, and if it is larger, a search is performed within "search range 2-search range 1" (step S5).

【0122】そして、次にMC(動き補償)誤差が閾値
より大きいか否かをチェックする(ステップS6)。そ
の結果、小さければ処理を終了し、大きければ“探索範
囲3−探索範囲2”内を探索し(ステップS7)、それ
が終われば処理を終了する。
Then, it is checked whether or not the MC (motion compensation) error is larger than a threshold (step S6). As a result, if it is smaller, the process is ended, and if it is larger, the search within “search range 3−search range 2” is performed (step S7).

【0123】このようにすることで、予測ベクトルMV
Psの予測精度に応じて探索範囲を切り替えることがで
きるようになり、このような予測ベクトルMVPsの予
測精度に応じた探索範囲切り替えを実施することで、符
号化効率を落とすことなく動きベクトル検出の計算量を
低減することができるようになる。
In this way, the prediction vector MV
The search range can be switched according to the prediction accuracy of Ps. By performing the search range switching according to the prediction accuracy of the prediction vector MVPs, the motion vector detection can be performed without lowering the coding efficiency. The amount of calculation can be reduced.

【0124】前述したように、ゼロベクトル近傍に差分
ベクトルMVDsの最適値がある可能性が高いため、狭
い探索範囲から段階的に探索範囲を拡張し、途中段階で
所定の条件を満たした場合は探索を打ち切ることで、符
号化効率の低下なしに、動きベクトル検出の計算量を低
減することができる。
As described above, since there is a high possibility that the optimum value of the difference vector MVDs is near the zero vector, the search range is expanded stepwise from a narrow search range, and when a predetermined condition is satisfied in the middle. By terminating the search, the amount of calculation for motion vector detection can be reduced without lowering the coding efficiency.

【0125】“具体例その1”、“具体例その2”共
に、図11のMPEG4用モデルエンコーダと比較し
て、大きさの小さいベクトルが選択されるため、動きベ
クトルの符号量が低減されて結果として符号化効率が向
上する場合もある。
In both “Specific Example 1” and “Specific Example 2”, since a vector having a smaller size is selected as compared with the MPEG4 model encoder in FIG. 11, the code amount of the motion vector is reduced. As a result, the coding efficiency may be improved.

【0126】なお、“具体例その1”と“具体例その
2”に示した技術を組み合せれば、さらに動きベクトル
検出の計算量の低減が可能になる。
By combining the techniques shown in "Specific example 1" and "Specific example 2", the calculation amount of motion vector detection can be further reduced.

【0127】以上は、MPEG4において、テクスチャ
動きベクトルを利用して動きベクトル検出を行うことに
より、動きベクトル検出に当たっての計算量を低減する
ことができるようにした技術であった。
The technique described above is a technique in which the amount of calculation in detecting a motion vector can be reduced by performing motion vector detection using a texture motion vector in MPEG4.

【0128】次に、“境界マクロブロック”におけるテ
クスチャ符号化について説明する。
Next, texture coding in a “boundary macroblock” will be described.

【0129】<第2の具体例>次に、本発明の第2の具
体例を説明する。本具体例は、マクロブロック内の一部
にオブジェクトを含む形態である“境界マクロブロッ
ク”におけるテクスチャ符号化に関わるものである。
<Second Specific Example> Next, a second specific example of the present invention will be described. This specific example relates to texture coding in a “boundary macroblock” in which an object is included in a part of a macroblock.

【0130】図6において、図に強調表記された構成要
素である符号化領域(Bounding-Rectangle)検出手段3
01、参照画像パディング手段302、LPEパディン
グ手段303a、ゼロパディング手段304、ベクトル
パディング手段306および形状情報符号化手段500
は、任意形状のオブジェクトを符号化するためだけに必
要な構成要素である。従って、MPEG1やMPEG2
のような旧来の符号化法と同様に、矩形のオブジェクト
を符号化するためには、これ以外の構成要素、すなわ
ち、図6における動きベクトル検出手段305、フレー
ムメモリ307、動き補償手段308、切替スイッチ3
09,310、動きベクトル予測手段311、動きベク
トル記憶手段312、差分回路313、第3の可変長符
号化手段314、量子化手段315、逆量子化手段31
6、直交変換手段317、第4の可変長符号化手段31
8、逆直交変換手段319、加算回路320、スイッチ
321、マルチプレクサ322とから構成される要素が
備わっていればよい。
In FIG. 6, a coding area (Bounding-Rectangle) detecting means 3 which is a component highlighted in the figure
01, reference image padding means 302, LPE padding means 303a, zero padding means 304, vector padding means 306, and shape information encoding means 500
Is a component necessary only for encoding an object of an arbitrary shape. Therefore, MPEG1 and MPEG2
In order to encode a rectangular object, as in the conventional encoding method as described above, the other components, that is, the motion vector detecting means 305, the frame memory 307, the motion compensating means 308, the switching Switch 3
09, 310, motion vector prediction means 311, motion vector storage means 312, difference circuit 313, third variable length coding means 314, quantization means 315, inverse quantization means 31
6, orthogonal transform means 317, fourth variable length coding means 31
8. It is sufficient that an element composed of the inverse orthogonal transform means 319, the adder circuit 320, the switch 321, and the multiplexer 322 is provided.

【0131】ここで、動きベクトル検出手段305は、
LPEパディング手段303の出力するLPEパディン
グ済みのマクロブロックデータと、形状情報符号化手段
500の出力する形状情報の再生値データ54と、フレ
ームメモリ307から供給される参照画像の輝度信号と
の間で動きベクトル検出を行う。そして、その結果、得
られた動きベクトルは、動き補償手段(MC)308と
ベクトルパディング(Vector padding)手段306と差
分回路313とに出力している。
Here, the motion vector detection means 305
Between the LPE padded macroblock data output from the LPE padding means 303, the reproduced value data 54 of the shape information output from the shape information encoding means 500, and the luminance signal of the reference image supplied from the frame memory 307. Perform motion vector detection. Then, as a result, the obtained motion vector is output to the motion compensation means (MC) 308, the vector padding (Vector padding) means 306, and the difference circuit 313.

【0132】フレームメモリ307は、参照画像パディ
ング手段302から出力されるパディング処理済みの参
照画像の輝度信号を保持するためのものである。また、
動き補償手段308は、動きベクトル検出手段305に
て検出された動きベクトルと、形状情報符号化手段50
0の出力する形状情報の再生値データ54とを用いて動
き補償予測のための動きベクトル情報を求めるためのも
のであり、切替スイッチ309,310は、LPEパデ
ィング手段303の出力をゼロパディング手段304に
与えるか、迂回させるかを選択切り換えするための経路
切り替えスイッチである。
The frame memory 307 stores the luminance signal of the padded reference image output from the reference image padding means 302. Also,
The motion compensating unit 308 includes a motion vector detected by the motion vector detecting unit 305 and the shape information encoding unit 50.
This is for obtaining motion vector information for motion compensation prediction using the reproduced value data 54 of the shape information output as 0, and the changeover switches 309 and 310 switch the output of the LPE padding means 303 to the zero padding means 304. Path switching switch for selectively switching between giving to the user and detouring.

【0133】直交変換手段317は、この切替スイッチ
310を介して与えられる出力を直交変換(離散コサイ
ン変換)して周波数成分に分解する処理をするためのも
のであり、量子化手段315は、この直交変換手段31
7の出力を量子化して出力するものであり、第4の可変
長符号化手段318は、この量子化出力を可変長符号化
処理してテクスチャストリームとしてマルチプレクサ3
22に出力するものである。
The orthogonal transform means 317 is for performing a process of orthogonally transforming (discrete cosine transform) the output provided via the changeover switch 310 and decomposing the output into frequency components. Orthogonal transformation means 31
7 is output after being quantized, and the fourth variable-length encoding unit 318 performs variable-length encoding on the quantized output and outputs the result as a texture stream to the multiplexer 3.
22.

【0134】また、動きベクトル予測手段311は、形
状情報符号化手段500の出力する形状情報の再生値デ
ータ54と、動きベクトル記憶手段312の保持するデ
ータとを用いて動きベクトルを予測するためのものであ
り、差分回路313は、この動きベクトル予測手段31
1の出力する動きベクトル予測値と動きベクトル検出手
段305の出力する動きベクトルとの差分値を得るため
のものであり、第3の可変長符号化手段314は、この
差分回路313の出力を可変長符号化処理してモーショ
ンストリームとしてマルチプレクサ322に出力するも
のである。
The motion vector predicting means 311 uses the reproduced value data 54 of the shape information output from the shape information encoding means 500 and the data held by the motion vector storing means 312 to predict a motion vector. The difference circuit 313 includes a motion vector prediction unit 31
1 to obtain a difference value between the motion vector prediction value output by the motion vector detector 1 and the motion vector output by the motion vector detection means 305. The third variable length encoding means 314 changes the output of the difference circuit 313. The data is subjected to long coding processing and output to the multiplexer 322 as a motion stream.

【0135】逆量子化手段316は、量子化手段315
の量子化出力を逆量子化してもとのデータに戻して出力
するものであり、逆直交変換手段319は、この逆量子
化手段316の出力するデータを逆直交変換(逆離散コ
サイン変換)して元のゼロパディング処理時点でのデー
タに戻すためのものである。
The inverse quantization means 316 includes a quantization means 315
The inverse orthogonal transform means 319 performs inverse orthogonal transform (inverse discrete cosine transform) on the data output from the inverse quantization means 316. To return to the original data at the time of the zero padding processing.

【0136】マルチプレクサ322は、第3の可変長符
号化手段314の出力する可変長符号化されたモーショ
ンストリームと、第4の可変長符号化手段318の出力
する可変長符号化されたテクスチャストリームと、符号
化領域(Bounding-Rectangle)検出手段301の出力す
る符号化領域の情報と、形状情報符号化手段500の出
力する形状情報の再生値データ54とを受けてこれらを
多重化して出力するものである。
The multiplexer 322 includes a variable-length encoded motion stream output from the third variable-length encoding unit 314 and a variable-length encoded texture stream output from the fourth variable-length encoding unit 318. Receiving the information of the coding area output from the coding area (Bounding-Rectangle) detection means 301 and the reproduction value data 54 of the shape information output from the shape information coding means 500, and multiplexing and outputting them. It is.

【0137】また、前記逆直交変換手段319は、この
逆量子化手段316の出力するデータを逆直交変換(逆
離散コサイン変換)して元のゼロパディング処理時点で
のデータに戻すためのものである。
The inverse orthogonal transform means 319 is for performing inverse orthogonal transform (inverse discrete cosine transform) on the data output from the inverse quantization means 316 to return to the original data at the time of the zero padding processing. is there.

【0138】また、加算回路320は、スイッチ321
を介して与えられる動き補償手段308からの動きベク
トル情報と逆直交変換手段319から与えられる元のゼ
ロパディング処理時点でのデータとを加算して参照画像
パディング手段302に与えるためのものであり、動き
ベクトル記憶手段312は、ベクトルパディング手段3
06の出力する形状情報の再生値データ54に基づい
て、動きベクトルの無い8×8画素単位のブロック(透
明ブロックやイントラマクロブロック)に適切な動きベ
クトルを充填したデータを受けてこれを蓄積するもので
ある。
The addition circuit 320 includes a switch 321
To add the motion vector information from the motion compensating means 308 provided via the 補償 and the original data at the time of the zero padding processing provided from the inverse orthogonal transform means 319, and to provide the resulting data to the reference image padding means 302. The motion vector storage unit 312 stores the vector padding unit 3
Based on the reproduced value data 54 of the shape information output from the block 06, data obtained by filling a block (transparent block or intra macro block) in 8 × 8 pixels without a motion vector with an appropriate motion vector is received and stored. Things.

【0139】ここで、本実施例でのエンコーダと従来の
エンコーダの仕組みの違いに触れておく。従来のエンコ
ーダは図12に示すように、動きベクトル検出手段30
5は入力されるテクスチャ情報(YUV)と符号化領域
(Bounding-Rectangle)検出手段301からの検出出力
とフレームメモリ307からの記憶情報とを用いて動き
ベクトル34を得るようにしていた。ここで、符号化領
域(Bounding-Rectangle)検出手段301はフレーム画
像中の対象とするオブジェクトの存在する領域である符
号化領域を検出するためのものである。
Here, the difference between the encoder of this embodiment and the mechanism of the conventional encoder will be described. A conventional encoder is, as shown in FIG.
Reference numeral 5 is such that the motion vector 34 is obtained using the input texture information (YUV), the detection output from the coding area (Bounding-Rectangle) detection means 301 and the storage information from the frame memory 307. Here, the encoding area (Bounding-Rectangle) detecting means 301 is for detecting an encoding area which is an area where the target object exists in the frame image.

【0140】また、LPEパディング手段303はゼロ
パディング手段304と並列におき、入力テクスチャ情
報(YUV)を条件に応じていずれか一方に与えてパデ
ィングさせて、そのパディング処理済みの出力を直交変
換手段317に与える構成であった。
Further, the LPE padding means 303 is placed in parallel with the zero padding means 304, and the input texture information (YUV) is given to one of them according to the conditions to perform padding, and the padded output is subjected to orthogonal transform means. 317.

【0141】これを本発明では、図6に示す如く、LP
Eパディング手段303は初段において、入力テクスチ
ャ情報(YUV)を条件に係わりなく、LPEパディン
グ処理し、これを動きベクトル検出手段305と、そし
て、条件に応じてゼロパディング手段304に与える構
成としている。ここで、LPEパディングとは、前述し
たように、イントラマクロブロック内のブロックをDC
T(離散コサイン変換)する前に、オブジェクト外の画
素(図13の白丸部)値をオブジェクト内部の画素(図
13の黒丸部)値の平均値で置き換えた後、ローパスフ
ィルタをかける処理であって、処理単位は、DCTの場
合と同様、8×8画素である。また、ゼロパディング
は、インターマクロブロック内のブロックをDCTする
前に、動き補償予測誤差信号のオブジェクト外の画素
(図13の白丸部)値をゼロ値で置き換える処理であっ
て、処理単位は、DCTの場合と同様、8×8画素であ
る。これらLPEパディングおよびゼロパディングは、
MPEG4の規格において必須の処理ではないが、符号
化効率向上のために実施するものである。
According to the present invention, as shown in FIG.
In the first stage, the E padding means 303 performs LPE padding processing on the input texture information (YUV) irrespective of the condition, and supplies the result to the motion vector detecting means 305 and the zero padding means 304 according to the condition. Here, LPE padding refers to, as described above, a block in an intra macroblock is DC
Before T (discrete cosine transform), the pixel values outside the object (open circles in FIG. 13) are replaced with the average values of the pixels inside the object (black circles in FIG. 13), and a low-pass filter is applied. The processing unit is 8 × 8 pixels as in the case of DCT. Further, zero padding is a process of replacing a pixel (open circle portion in FIG. 13) outside the object of the motion compensation prediction error signal with a zero value before performing DCT on a block in the inter macro block. As in the case of DCT, it is 8 × 8 pixels. These LPE padding and zero padding
Although not an essential process in the MPEG4 standard, it is performed to improve coding efficiency.

【0142】本具体例のブロック構成は図6に示す如き
のものである。そして、本具体例の構成は、動きベクト
ル検出手段305の処理位置が図12に示した従来モデ
ルの構成における動きベクトル検出手段305の位置と
異なり、また、LPEパディング303の処理位置が従
来モデルのLPEパディング303の位置と異なる。
The block configuration of this example is as shown in FIG. In the configuration of this specific example, the processing position of the motion vector detecting unit 305 is different from the position of the motion vector detecting unit 305 in the configuration of the conventional model shown in FIG. 12, and the processing position of the LPE padding 303 is Different from the position of LPE padding 303.

【0143】<LPEパディング手段>まず、本実施例
システムにおけるLPEパディング手段303aでの処
理と、従来技術としてのシステムにおけるLPEパディ
ング手段303での処理との相違点を説明する。
<LPE padding means> First, the difference between the processing by the LPE padding means 303a in the system of the present embodiment and the processing by the LPE padding means 303 in the system according to the prior art will be described.

【0144】LPEパディング手段303aでのパディ
ング処理は、信号線を介して供給されるテクスチャ画像
の原信号(YUV)41の境界マクロブロックのみに施
される。ここで、境界マクロブロックか否かは符号化領
域(Bounding-Rectangle)検出手段301を介して供給
される形状画像の原信号42を用いて判断する。つま
り、LPEパディング手段303aでの処理は、符号化
の前処理としてLPEパディングを施していることにな
る。
The padding processing by the LPE padding means 303a is performed only on the boundary macroblock of the original signal (YUV) 41 of the texture image supplied via the signal line. Here, whether or not the macroblock is a boundary macroblock is determined by using the original signal 42 of the shape image supplied via the coding area (Bounding-Rectangle) detection means 301. That is, the processing by the LPE padding means 303a is performed by performing LPE padding as preprocessing for encoding.

【0145】当該前処理を行ったことにより、LPEパ
ディング手段303aから出力されるテクスチャ画像4
3は、符号化される前に符号化対象となるマクロブロッ
ク内の画素値が全て補填されることになる。
By performing the preprocessing, the texture image 4 output from the LPE padding means 303a is output.
No. 3 means that all pixel values in the macroblock to be encoded are supplemented before encoding.

【0146】なお、従来技術としてのモデルシステムに
おけるLPEパディング手段303では、信号線35を
介して形状情報符号化手段500より供給される形状画
像の局部復号信号に基づき、8×8画素のブロックが境
界ブロックであればパディングを施している。
In the LPE padding means 303 in the model system as the prior art, an 8 × 8 pixel block is formed based on the local decoded signal of the shape image supplied from the shape information coding means 500 via the signal line 35. If it is a boundary block, padding is applied.

【0147】本具体例では、8×8画素のブロック単位
でパディングして、図14の左上のブロックのように、
ブロック内にオブジェクト内の画素を含まない場合は、
たとえば、周囲のブロックの平均値でパディングするこ
とで、マクロブロック内の画素が全てパディングされる
ようにする。
In this specific example, padding is performed in units of 8 × 8 pixels, as shown in the upper left block of FIG.
If the block does not include the pixels in the object,
For example, by padding with the average value of surrounding blocks, all pixels in the macroblock are padded.

【0148】以上、説明したように、本具体例と従来モ
デルシステムとでは、第1には、形状画像の原信号に基
づきパディングするか、局部復号信号に基づきパディン
グするかという点が異なる。
As described above, the first example is different from the conventional model system in that padding is performed based on the original signal of the shape image or padding is performed based on the locally decoded signal.

【0149】ここで、本発明の手法である“形状画像の
原信号に基づきパディング”する方式の効果を具体的に
示すために、1次元信号のモデルに対してLPEパディ
ングを施した例を示す。輝度信号をY、形状信号をA、
形状の局部復号信号(その1)をA′、形状の局部復号
信号(その2)をA″とする。そして、これらがそれぞ
れ以下のような信号であったとする。
Here, in order to specifically show the effect of the method of “padding based on the original signal of the shape image” according to the present invention, an example in which LPE padding is applied to a one-dimensional signal model will be described. . The luminance signal is Y, the shape signal is A,
The local decoded signal of the shape (No. 1) is A ′, and the local decoded signal of the shape (No. 2) is A ″. It is assumed that these are the following signals, respectively.

【0150】以下の例では、簡単のため、形状信号を
“0”(オブジェクト外)か、“1”(オブジェクト
内)かで表現している。
In the following example, for simplicity, the shape signal is represented by “0” (outside the object) or “1” (inside the object).

【0151】Y={50,50,50,50,180,190,200,210} A={0,0,0,0,1,1,1,1,1} A′={0,0,0,1,1,1,1,1} A″={0,0,0,0,0,1,1,1} ここで、輝度信号Yを上述のA、A′、A″でそれぞれ
LPEパディングした結果をYp、Yp′、Yp″とす
ると、例えば、以下のようになる。
Y = {50,50,50,50,180,190,200,210} A = {0,0,0,0,1,1,1,1,1} A ′ = {0,0,0,1,1,1 , 1,1} A ″ = {0,0,0,0,0,1,1,1} Here, the result of LPE padding of the luminance signal Y with the above-mentioned A, A ′, A ″ is Yp, Assuming that Yp ′ and Yp ″, for example, the following is performed.

【0152】 Yp={195,195,195,188,180,190,200,210} Yp′={166,166,108,50,180,190,200,210} Yp″={200,200,200,200,195,190,200,210} すなわち、Ypの場合、もとのYなるデータの“50”,
“50”,“50”,“50”,“180”,“190”,“20
0”,“210”なるデータ列がパディングの結果、“19
5”,“195”,“195”,“188”,“180”,“190”,
“200”,“210”となったことを示しており、Yp′の
場合にはデータ値が“166”,“166”,“108”,“5
0”,“180”,“190”,“200”,“210”となったこ
とを示しており、Yp″の場合はデータ値が“200”,
“200”,“200”,“200”,“195”,“190”,“20
0”,“210”となったことを示している。尚、ここに示
した数値は下限値を“0”(白)、上限値を“255”
(黒)とする256段階のグレースケール値である。
Yp = {195,195,195,188,180,190,200,210} Yp ′ = {166,166,108,50,180,190,200,210} Yp ″ = {200,200,200,200,195,190,200,210} That is, in the case of Yp, the original Y data “50”,
“50”, “50”, “50”, “180”, “190”, “20
The data strings “0” and “210” are padded as a result of “19”.
5 ”,“ 195 ”,“ 195 ”,“ 188 ”,“ 180 ”,“ 190 ”,
The data values are "200" and "210". In the case of Yp ', the data values are "166", "166", "108", and "5".
0 "," 180 "," 190 "," 200 ", and" 210 ". In the case of Yp", the data value is "200",
“200”, “200”, “200”, “195”, “190”, “20”
0 ”and“ 210. ”The numerical values shown here are“ 0 ”(white) for the lower limit and“ 255 ”for the upper limit.
It is a gray scale value of 256 steps to be (black).

【0153】一般に、オブジェクトの境界は、像のエッ
ジ部であり、上記の例のように輝度信号Yが大きく変動
する。形状情報符号化手段500での処理において、形
状の局部復号信号に誤差が発生した場合には、上記の例
(Yp)のように滑らかにパディングされない場合があ
る。そのため、“境界マクロブロック”におけるテクス
チャ符号化をする場合に、このような誤差を含む信号を
用いなければならなくなったときはエッジが不明確とな
ってしまう問題が浮上することとなる。
In general, the boundary of an object is the edge of an image, and the luminance signal Y greatly fluctuates as in the above example. In the processing by the shape information encoding unit 500, if an error occurs in the locally decoded signal of the shape, padding may not be performed smoothly as in the above example (Yp). Therefore, when texture coding is performed on a “boundary macroblock”, if a signal including such an error must be used, a problem that edges become unclear arises.

【0154】しかし、本発明方式の場合は、形状信号を
“0”(オブジェクト外)、“1”(オブジェクト内)
とすることで、このような心配が全くなくなる。
However, in the case of the method of the present invention, the shape signal is set to “0” (outside the object) and “1” (inside the object).
By doing so, such worries are completely eliminated.

【0155】<動きベクトル検出手段>次に、本実施例
システムにおける動きベクトル検出手段305aの処理
と従来モデルのシステムにおける動きベクトル検出手段
305の処理との相違点を説明する。本システムにおけ
る動きベクトル検出手段305aでは、形状情報符号化
手段500から出力され、信号線44を介して供給され
る形状情報の再生値データ54と、LPEパディング手
段303aの出力するパディング処理済みデータとに基
づいて透過マクロブロック以外のマクロブロックに対す
る動きべクトルを検出する。
<Motion Vector Detecting Means> Next, differences between the processing of the motion vector detecting means 305a in the system of the present embodiment and the processing of the motion vector detecting means 305 in the system of the conventional model will be described. In the motion vector detecting means 305a in the present system, the reproduction value data 54 of the shape information output from the shape information encoding means 500 and supplied via the signal line 44, and the padded data output from the LPE padding means 303a , A motion vector for a macroblock other than the transparent macroblock is detected.

【0156】LPEパディング手段303aより信号線
45を介して供給される原画像データ(パディング処理
済みデータ)と、フレームメモリ307から信号線46
を介して供給される参照画像との間で動きベクトルを検
出し、この検出した動きベクトルは、信号線47を介し
てベクトルパディング(Vector padding)手段306
と、動き補償手段308と、差分回路313とに出力す
る。
The original image data (padding-processed data) supplied from the LPE padding means 303a via the signal line 45 and the signal line 46 from the frame memory 307.
, And a motion vector is detected between the reference image supplied through the signal line 47 and a vector padding means 306 via a signal line 47.
To the motion compensating means 308 and the difference circuit 313.

【0157】ここで、信号線45を介して供給される原
画像は、すでにLPEパディング403により境界マク
ロブロックがパディングされている。そのため、オブジ
ェクト境界部での画素値の不連続性がほとんど無い。
Here, in the original image supplied via the signal line 45, the boundary macroblock is already padded by the LPE padding 403. Therefore, there is almost no discontinuity in the pixel value at the object boundary.

【0158】従って、従来モデルシステムにおける動き
ベクトル検出手段305の場合と異なり、本発明システ
ムの動きベクトル検出手段305aにおいては、“境界
マクロブロック”において処理量の多いポリゴンマッチ
ングを行わずに済み、しかも、通常のブロックマッチン
グを行った場合でも、正常な動きベクトルを検出するこ
とができるようになる。
Therefore, unlike the case of the motion vector detecting means 305 in the conventional model system, the motion vector detecting means 305a of the system of the present invention does not need to perform the polygon matching with a large processing amount in the "boundary macroblock". Even when ordinary block matching is performed, a normal motion vector can be detected.

【0159】以上、種々の実施例を説明したが、要する
に本発明は、第1には、画像を構成する所望オブジェク
トについて、その所望オブジェクトをマクロブロック単
位で形状情報とテクスチャ情報とから構成される任意形
状オブジェクトとして符号化する動画像符号化方式の符
号化装置において、入力されるオブジェクトの形状情報
から動き補償予測に用いるための形状動きベクトルおよ
びテクスチャ情報の動きベクトルとを検出する動きベク
トル検出手段と、入力されるテクスチャ情報から当該テ
クスチャ情報の動きベクトルの利用の可否を識別する識
別手段と、テクスチャ情報における前記検出された動き
ベクトルの信頼性を評価する評価手段と、形状動きベク
トルの探索範囲を、テクスチャ情報の動きベクトル不可
能時には利用可能時より広く設定され、テクスチャ情報
の動きベクトルが利用可能な場合においてはテクスチャ
情報の動きベクトルの信頼性が高い場合より低い方が広
く設定される設定手段とを有するものである。そして、
この装置は、形状情報とテクスチャ情報とから構成され
る任意形状オブジェクトを符号化するにあたり、テクス
チャ情報の動きベクトルも利用できるように動きベクト
ル検出手段にはテクスチャ情報の動きベクトルも検出で
きる機能を持たせ、入力されたオブジェクトの形状情報
とテクスチャ情報のうち、テクスチャ情報の動きベクト
ルが利用できるか否かを識別手段にて識別させ、また、
評価手段により、テクスチャ情報の動きベクトルの信頼
性を評価し、また、符号化対象のマクロブロックの符号
化にあたっては、そのマクロブロックの周辺のマクロブ
ロックの形状動きベクトルを探索して形状動きベクトル
を求めるが、その探索範囲はテクスチャ情報の動きベク
トルが利用できる場合には狭く、また、テクスチャ情報
の動きベクトルが利用できない場合には、利用できる場
合よりも広くし、テクスチャ情報の動きベクトルが利用
できる場合においてはテクスチャ情報の動きベクトルの
信頼性が高い場合よりも信頼性の低い方が広く設定され
るようにしてテクスチャ情報の動きベクトルの利用の可
否と、信頼性の度合いに応じてマクロブロックの形状動
きベクトル探索範囲を適正な範囲にするようにした。す
なわち、この発明は、動きベクトル検出に関する発明で
あって、このようにした結果、符号化効率を落とすこと
なく動きベクトル検出の計算量を低減することができる
ようになる技術が提供できる。
Various embodiments have been described above. In short, the present invention is, first, for a desired object constituting an image, the desired object is constituted by shape information and texture information in macroblock units. A motion vector detecting means for detecting a shape motion vector to be used for motion compensation prediction and a motion vector of texture information from shape information of an input object in a coding apparatus of a moving image coding system for coding as an arbitrary shape object. Identification means for identifying whether or not a motion vector of the texture information can be used from input texture information; evaluation means for evaluating the reliability of the detected motion vector in the texture information; and a search range of the shape motion vector. Can be used when motion vector of texture information is not possible Is wider set, when the motion vector of texture information is available are those having a setting unit for lower than the reliability of the motion vector of texture information are set widely. And
In this apparatus, when encoding an arbitrary shape object composed of shape information and texture information, the motion vector detecting means has a function of detecting a motion vector of texture information so that a motion vector of texture information can be used. Of the input object's shape information and texture information to identify whether or not the motion vector of the texture information can be used by the identification means,
The evaluation unit evaluates the reliability of the motion vector of the texture information, and when coding a macroblock to be coded, searches for a shape motion vector of a macroblock around the macroblock and calculates the shape motion vector. The search range is narrow when the motion vector of the texture information is available, and wider when it is not available, and the motion vector of the texture information is available. In such a case, the lower reliability is set wider than the higher reliability of the motion vector of the texture information so that the use of the motion vector of the texture information and the degree of the reliability depend on the macroblock. The shape motion vector search range is set to an appropriate range. That is, the present invention relates to motion vector detection, and as a result of this, it is possible to provide a technique that can reduce the calculation amount of motion vector detection without lowering the coding efficiency.

【0160】また、第2には、本発明は、画像を構成す
る所望オブジェクトについて、その所望オブジェクトを
マクロブロック単位で形状情報とテクスチャ情報とから
構成される任意形状オブジェクトとして符号化する動画
像符号化方式の符号化装置において、入力されるオブジ
ェクトの形状情報から形状動きベクトルおよびテクスチ
ャ情報の動きベクトルを検出する動きベクトル検出手段
を備えると共に、符号化時の誤差を指定するためのしき
い値を設定するしきい値設定手段と、探索範囲内を複数
の探索範囲に分割する分割手段と、検出された動きベク
トルによる動き補償予測誤差がしきい値よりも大きいか
否かを判定する判定手段とを備え、前記動きベクトル検
出手段は、前記分割された探索範囲のうち、最も狭い探
索範囲から動きベクトル検出を開始し、該探索範囲内で
検出された最適な動きベクトルによる動き補償予測誤差
がしきい値よりも大きい場合は、より広い探索範囲で最
適な動きベクトルを検出し、動き補償予測誤差がしきい
値よりも小さい場合は、動きベクトル検出を終了し、該
動きべクトルを検出結果として出力する機能を備える構
成とした。
Second, the present invention relates to a moving picture code for encoding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. A coding apparatus of a coding method, comprising a motion vector detecting means for detecting a shape motion vector and a motion vector of texture information from input shape information of an object, Threshold setting means for setting, dividing means for dividing the search range into a plurality of search ranges, and determination means for determining whether a motion compensation prediction error due to the detected motion vector is larger than a threshold. Wherein the motion vector detecting means includes a motion vector from a narrowest search range among the divided search ranges. If the motion compensation prediction error due to the optimal motion vector detected in the search range is larger than the threshold, the optimal motion vector is detected in a wider search range, and the motion compensation prediction error Is smaller than the threshold value, the motion vector detection is terminated, and the motion vector is output as a detection result.

【0161】MPEG4においては、予測ベクトルがゼ
ロベクトルであった場合、予測ベクトルがゼロベクトル
であることを表す情報をモード情報に組み込んで別途符
号化することにより、符号化効率を向上させるが、この
ゼロベクトルを効率的に検出できるようにすることも演
算量軽減に大きく寄与する。そこで、本発明では、しき
い値設定手段を設けて、符号化時の誤差を指定するため
のしきい値を設定しておき、また、分割手段にて探索範
囲内を複数の探索範囲に分割する。そして、動きベクト
ル検出手段は、これら分割された探索範囲のうち、最も
狭い探索範囲から動きベクトル検出を開始し、判定手段
はこの動きベクトル検出手段にて検出された動きベクト
ルを元に、当該検出された動きベクトルによる動き補償
予測誤差がしきい値よりも大きいか否かを判定する。そ
して、動きベクトル検出手段は、最も狭い探索範囲から
動きベクトル検出を開始した結果、判定手段が、該探索
範囲内で検出された最適な動きベクトルによる動き補償
予測誤差がしきい値よりも大きいと判定した場合は、よ
り広い探索範囲で最適な動きベクトルを検出するように
動作し、動き補償予測誤差がしきい値よりも小さいと判
断した場合は、動きベクトル検出を終了し、該動きべク
トルを検出結果として出力する。このように、探索範囲
内で検出された最適な動きベクトルによる動き補償予測
誤差が大きい場合は、より広い探索範囲で最適な動きベ
クトルを検出し、動き補償予測誤差が小さい場合は、動
きベクトル検出を終了し、該動きべクトルを検出結果と
して出力するようにした結果、誤差が小さければ少ない
演算量でゼロベクトルを効率的に検出できるようにな
り、演算量軽減に大きく寄与する。
In MPEG4, when the prediction vector is a zero vector, the coding efficiency is improved by incorporating information indicating that the prediction vector is a zero vector into the mode information and separately coding the mode information. The ability to efficiently detect the zero vector also greatly contributes to the reduction in the amount of computation. Therefore, in the present invention, a threshold value setting unit is provided to set a threshold value for designating an error at the time of encoding, and the dividing unit divides the search range into a plurality of search ranges. I do. Then, the motion vector detection means starts the motion vector detection from the narrowest search range among the divided search ranges, and the determination means performs the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error based on the obtained motion vector is larger than a threshold value. Then, as a result of starting the motion vector detection from the narrowest search range, the determination unit determines that the motion compensation prediction error due to the optimal motion vector detected in the search range is larger than the threshold value. If it is determined, the operation is performed to detect the optimal motion vector in a wider search range. If it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated, and the motion vector Is output as the detection result. As described above, when the motion compensation prediction error due to the optimal motion vector detected in the search range is large, the optimal motion vector is detected in a wider search range, and when the motion compensation prediction error is small, the motion vector detection is performed. Is ended, and the motion vector is output as a detection result. As a result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to a reduction in the amount of calculation.

【0162】また本発明は、第3には、画像を構成する
所望オブジェクトについて、その所望オブジェクトをマ
クロブロック単位で形状情報とテクスチャ情報とから構
成される任意形状オブジェクトとして符号化する動画像
符号化方式の符号化装置において、形状符号化およびテ
クスチャ符号化を行うに先立ち、該符号化手段に入力さ
れた形状信号を参照して、オブジェクトを一部に含む形
態の境界マクロブロックについてはそのマクロブロック
内を不連続性解消のためのパディング処理を施こすこと
によりテクスチャ符号化対象となるマクロブロック内の
画素を全て補填処理する手段を有し、形状符号化および
テクスチャ符号化は当該パディング処理済みの画像を使
用して行う構成としたものである。
Thirdly, the present invention provides a moving picture encoding system which encodes a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information on a macroblock basis. Prior to performing shape coding and texture coding in a coding apparatus of the system, a boundary macroblock of a form including an object is referred to by referring to a shape signal input to the coding means. Has a means for compensating for all the pixels in the macroblock to be texture-encoded by performing padding processing for eliminating discontinuities in the inside, and the shape encoding and texture encoding have the padding processing. This is a configuration using images.

【0163】この発明は、“境界マクロブロック”にお
けるテクスチャ符号化に関する発明であって、原画像
は、境界マクロブロックについては、オブジェクト境界
部での画素値の不連続性が解消できるパディング処理、
すなわち、LPEパディングにてパディング処理してか
ら、形状符号化およびテクスチャ符号化に供するように
した。そのため、オブジェクト境界部での画素値の不連
続性がほとんど無くなることから、通常のブロックマッ
チングを行った場合でも、正常な動きベクトルを検出す
ることができるようになる。故に、“境界マクロブロッ
ク”において処理量の多いポリゴンマッチングを行わず
に済み、計算時間の短縮を図ることができると共に、通
常のブロックマッチングを行った場合でも、正常な動き
ベクトルを検出することができるようになる。
The present invention relates to texture coding in a "boundary macroblock". In an original image, for a boundary macroblock, padding processing for eliminating discontinuity of pixel values at an object boundary portion,
That is, padding processing is performed by LPE padding, and then subjected to shape encoding and texture encoding. Therefore, discontinuity of the pixel value at the object boundary is almost eliminated, so that a normal motion vector can be detected even when ordinary block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, so that the calculation time can be reduced, and a normal motion vector can be detected even when ordinary block matching is performed. become able to.

【0164】なお、本発明は上述した実施例に限定され
るものではなく、要旨を変更しない範囲内で適宜変形し
て実施可能である。
The present invention is not limited to the above-described embodiment, but can be implemented with appropriate modifications within a scope that does not change the gist.

【0165】[0165]

【発明の効果】以上、詳述したように、本発明によれ
ば、任意形状オブジェクトの符号化に必要な構成要素の
処理順序を変更することで、処理量の増加なしに符号化
効率の向上が図れる。また、形状動きベクトルの検出処
理を適応的に打ち切ることで、符号化効率の低下を招く
ことなく処理量の削減が可能となる。
As described above in detail, according to the present invention, the coding efficiency can be improved without increasing the processing amount by changing the processing order of the components required for coding the arbitrary-shaped object. Can be achieved. In addition, by adaptively terminating the shape motion vector detection processing, the processing amount can be reduced without lowering the coding efficiency.

【図面の簡単な説明】[Brief description of the drawings]

【図1】差分ベクトルMVDsの頻度分布の特徴を説明
する図。
FIG. 1 is a view for explaining the characteristics of the frequency distribution of difference vectors MVDs.

【図2】予測ベクトルMVPsを求める方法を説明する
図。
FIG. 2 is a view for explaining a method for obtaining prediction vectors MVPs.

【図3】本発明の形状動きベクトルの探索範囲を説明す
る図。
FIG. 3 is a diagram illustrating a search range of a shape motion vector according to the present invention.

【図4】本発明を説明するための図であって、本発明の
第1の具体例その1での処理例示すフローチャート。
FIG. 4 is a diagram for explaining the present invention, and is a flowchart showing a processing example in the first specific example 1 of the present invention;

【図5】本発明を説明するための図であって、本発明の
第1の具体例その2での処理例示すフローチャート。
FIG. 5 is a diagram for explaining the present invention, and is a flowchart showing a processing example in the first specific example 2 of the present invention;

【図6】本発明を説明するための図であって、本発明の
エンコーダの構成例を示すブロック図。
FIG. 6 is a diagram for explaining the present invention, and is a block diagram showing a configuration example of an encoder of the present invention.

【図7】画像を符号化する場合に、画面内を背景とオブ
ジェクトに分割して符号化する方式の画像符号化装置の
ブロック構成図。
FIG. 7 is a block diagram of an image encoding apparatus that encodes an image by dividing the screen into a background and an object when encoding the image.

【図8】復号化装置のブロック図。FIG. 8 is a block diagram of a decoding device.

【図9】本発明を説明するための図であって、オブジェ
クトを含む符号化領域を説明する図。
FIG. 9 is a diagram for explaining the present invention, and is a diagram for explaining a coding area including an object.

【図10】本発明を説明するための図であって、各マク
ロブロックの属性を説明する図。
FIG. 10 is a diagram for explaining the present invention and is a diagram for explaining attributes of each macroblock.

【図11】従来技術としてのモデルシステムにおける形
状符号化エンコーダ(Binary Shape encoder 500)部分
のブロック構成図。
FIG. 11 is a block diagram of a shape encoding encoder (Binary Shape encoder 500) in a model system as a conventional technique.

【図12】従来技術としてのモデルシステムにおけるエ
ンコーダのブロック構成図。
FIG. 12 is a block configuration diagram of an encoder in a model system as a conventional technique.

【図13】オブジェクト内の画素とオブジェクト外の画
素を説明する図。
FIG. 13 is a diagram illustrating pixels in an object and pixels outside the object.

【図14】本発明のLPEパディングを説明する図。FIG. 14 is a diagram illustrating LPE padding of the present invention.

【符号の説明】[Explanation of symbols]

301…符号化領域(Bounding-Rectangle)検出手段 302…参照画像パディング手段 303…LPEパディング手段 304…ゼロパディング手段 306…ベクトルパディング手段 500…形状情報符号化手段(Binary Shape encoder) 305,305a…動きベクトル検出手段 307…フレームメモリ 308,308a…動き補償手段 309,310、…切替スイッチ 312…動きベクトル記憶手段 313…差分回路 314…第3の可変長符号化手段 315…量子化手段 316…逆量子化手段 317…直交変換手段(DCT) 318…第4の可変長符号化手段 319…逆直交変換手段 320…加算回路 321…スイッチ 322…マルチプレクサ 301: Bounding-Rectangle detection means 302: Reference image padding means 303 ... LPE padding means 304 ... Zero padding means 306 ... Vector padding means 500 ... Binary Shape encoders 305, 305a ... Motion Vector detecting means 307 frame memories 308, 308a motion compensating means 309, 310, changeover switch 312 motion vector storing means 313 difference circuit 314 third variable length coding means 315 quantizing means 316 inverse quantum Means 317 ... orthogonal transform means (DCT) 318 ... fourth variable length coding means 319 ... inverse orthogonal transform means 320 ... adder circuit 321 ... switch 322 ... multiplexer

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化装置
において、 各マクロブロック毎にテクスチャ情報の動きベクトルを
検出する手段と、 該マクロブロックにおける形状情報の動きベクトルを検
出するために、テクスチャ情報の動きベクトルの利用の
可否を判定する判定手段と、 前記マクロブロックにおける形状情報の動きベクトルを
検出するために、テクスチャ情報の動きベクトルの信頼
性を評価する評価手段と、 形状情報の動きベクトル検出範囲を、テクスチャ情報の
動きベクトルが利用不可能時には利用可能時より広く設
定され、テクスチャ情報の動きベクトルが利用可能な場
合においてはテクスチャ情報の動きベクトルの信頼性が
高い場合よりも低い場合の方が広く設定される設定手段
と、 既に検出されているテクスチャ情報の動きベクトルを利
用して前記マクロブロックにおける形状情報の動きベク
トルを検出する動きベクトル検出手段と、を有すること
を特徴とする動画像符号化装置。
An encoding apparatus of a moving image encoding system for encoding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. Means for detecting a motion vector of texture information for each macroblock; determining means for determining whether a motion vector of texture information can be used to detect a motion vector of shape information in the macroblock; Evaluation means for evaluating the reliability of the motion vector of the texture information in order to detect the motion vector of the shape information, and a motion vector detection range of the shape information which is wider when the motion vector of the texture information is unavailable than when it is available Is set and the motion vector of the texture information is Setting means that is set wider when the reliability of the motion vector of the texture information is low than when the reliability is high, and using the motion vector of the already detected texture information in the macroblock. A moving image encoding apparatus comprising: a motion vector detecting unit configured to detect a motion vector of shape information.
【請求項2】請求項1記載の形状情報符号化手段は、 テクスチャ情報の動きベクトルの信頼性はテクスチャ情
報の動きベクトルの探索範囲に基づいて評価するように
したことを特徴とする動画像符号化装置。
2. The moving picture coding apparatus according to claim 1, wherein the reliability of the motion vector of the texture information is evaluated based on a search range of the motion vector of the texture information. Device.
【請求項3】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化装置
において、 各マクロブロック毎にテクスチャ情報の動きベクトルを
検出する手段を備えると共に、符号化時の誤差を指定す
るためのしきい値を設定するしきい値設定手段と、探索
範囲内を複数の探索範囲に分割する分割手段と、検出さ
れた動きベクトルによる動き補償予測誤差がしきい値よ
りも大きいか否かを判定する判定手段とを備え、 前記動きベクトル検出のための手段は、前記分割された
探索範囲のうち、最も狭い探索範囲から動きベクトル検
出を開始し、該探索範囲内で検出された最適な動きベク
トルによる動き補償予測誤差がしきい値よりも大きい場
合は、より広い探索範囲で最適な動きベクトルを検出
し、動き補償予測誤差がしきい値よりも小さい場合は、
動きベクトル検出を終了し、該動きべクトルを検出結果
として出力する機能を備える構成としたことを特徴とす
る動画像符号化装置。
3. A moving picture coding method for coding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. A means for detecting a motion vector of texture information for each macroblock; a threshold setting means for setting a threshold for designating an error at the time of encoding; and a search range divided into a plurality of search ranges And a determining unit for determining whether a motion compensation prediction error due to the detected motion vector is larger than a threshold value. The means for detecting a motion vector includes: Motion vector detection is started from the narrowest search range, and the motion vector detected by the optimal motion vector detected within the search range is determined. If compensation prediction error is greater than the threshold value, it detects the optimal motion vector with a wider search range when the motion compensated prediction error is smaller than the threshold value,
A moving picture encoding apparatus having a function of ending a motion vector detection and outputting the motion vector as a detection result.
【請求項4】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化装置
において、 形状符号化およびテクスチャ符号化を行うに先立ち、該
符号化手段に入力された形状信号を参照して、オブジェ
クトを一部に含む形態の境界マクロブロックについては
そのマクロブロック内を不連続性解消のためのパディン
グ処理を施こすことによりテクスチャ符号化対象となる
マクロブロック内の画素を全て補填処理する手段を有
し、形状符号化およびテクスチャ符号化は当該パディン
グ処理済みの画像を使用して行う構成とすることを特徴
とする動画像符号化装置。
4. A moving picture coding method for coding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. Prior to encoding and texture encoding, a boundary macroblock of a form partially including an object is referred to the shape signal input to the encoding means to eliminate discontinuity in the macroblock. A means for performing a padding process to compensate all the pixels in the macroblock to be texture-encoded by performing the padding process, and performing the shape encoding and the texture encoding using the padded image. A moving image encoding apparatus.
【請求項5】請求項4記載の動画像符号化装置におい
て、 入力されるオブジェクトの形状情報から動き補償予測に
用いるための形状動きベクトルおよびテクスチャ情報の
動きベクトルとを検出する動きベクトル検出手段を備え
ると共に、当該動きベクトル検出手段は、テクスチャ情
報の動きベクトルを検出するに際しては、前記パディン
グ処理によりすでに補填されたマクロブロックと、参照
画像パディングされた参照画像との間で検出する構成と
することを特徴とする動画像符号化装置。
5. A moving picture coding apparatus according to claim 4, wherein said motion vector detecting means detects a shape motion vector to be used for motion compensation prediction and a motion vector of texture information from the input shape information of the object. In addition, when detecting the motion vector of the texture information, the motion vector detecting means is configured to detect between the macroblock already compensated by the padding process and the reference image padded with the reference image. A video encoding device characterized by the above-mentioned.
【請求項6】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化方法
において、 入力されるテクスチャ情報から当該テクスチャ情報の動
きベクトルの利用の可否を識別する識別ステップと、 テクスチャ情報における前記検出された動きベクトルの
信頼性を評価する評価ステップと、 テクスチャ情報の動きベクトル利用不可能時には利用可
能時より広く、また、テクスチャ情報の動きベクトルが
利用可能な場合にはテクスチャ情報の動きベクトルの信
頼性が高い場合より低い方が広く設定されるべく形状動
きベクトルの探索範囲を設定する設定ステップと、 入力されるオブジェクトの形状情報から動き補償予測に
用いるための形状動きベクトルを上記検索範囲内で検出
する動きベクトル検出ステップと、を具備することを特
徴とする動画像符号化方法。
6. A moving picture coding method for coding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. An identification step of determining whether or not the motion vector of the texture information can be used from the texture information to be obtained; an evaluation step of evaluating the reliability of the detected motion vector in the texture information; A setting that sets the search range of the shape motion vector to be set wider when the motion vector of the texture information is available and lower when the reliability of the motion vector of the texture information is higher when the motion vector of the texture information is available. Step and input object shape information A motion vector detecting step of detecting a shape motion vector to be used for motion compensation prediction from the report within the search range.
【請求項7】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化方法
において、 符号化時の誤差を指定するためのしきい値を設定し、探
索範囲内を複数の探索範囲に分割すると共に、また、入
力されるオブジェクトの形状情報から動き補償予測に用
いるための形状動きベクトルを検出し、この検出された
動きベクトルによる動き補償予測誤差がしきい値よりも
大きいか否かを判定すると共に、前記動きベクトル検出
にあたり、前記分割された探索範囲のうち、最も狭い探
索範囲から動きベクトル検出を開始し、該探索範囲内で
検出された最適な動きベクトルによる動き補償予測誤差
がしきい値よりも大きい場合は、より広い探索範囲で最
適な動きベクトルを検出し、動き補償予測誤差がしきい
値よりも小さい場合は、動きベクトル検出を終了し、該
動きべクトルを検出結果として出力することを特徴とす
る動画像符号化方法。
7. A moving image encoding method for encoding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. A threshold value for designating an error at the time of conversion, dividing the search range into a plurality of search ranges, and calculating a shape motion vector for use in motion compensation prediction from shape information of an input object. It is determined whether or not the motion compensation prediction error due to the detected motion vector is larger than a threshold value, and the motion vector is detected from the narrowest search range among the divided search ranges. Vector detection is started, and a motion compensation prediction error due to an optimal motion vector detected within the search range is a threshold. If the value is larger than the value, the optimum motion vector is detected in a wider search range. If the motion compensation prediction error is smaller than the threshold, the motion vector detection is terminated and the motion vector is output as a detection result. A moving image encoding method.
【請求項8】画像を構成する所望オブジェクトについ
て、その所望オブジェクトをマクロブロック単位で形状
情報とテクスチャ情報とから構成される任意形状オブジ
ェクトとして符号化する動画像符号化方式の符号化方法
において、 形状符号化およびテクスチャ符号化を行うに先立ち、該
符号化手段に入力された形状信号を参照して、オブジェ
クトを一部に含む形態の境界マクロブロックについては
そのマクロブロック内を不連続性解消のためのパディン
グ処理を施こすことによりテクスチャ符号化対象となる
マクロブロック内の画素を全て補填処理し、形状符号化
およびテクスチャ符号化は当該パディング処理済みの画
像を使用して行うことを特徴とする動画像符号化方法。
8. A moving picture encoding method for encoding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units. Prior to encoding and texture encoding, a boundary macroblock of a form partially including an object is referred to the shape signal input to the encoding means to eliminate discontinuity in the macroblock. Moving image wherein all pixels in a macroblock to be texture-encoded are compensated by performing padding processing, and shape encoding and texture encoding are performed using the padded image. Image coding method.
【請求項9】画像を構成する所望オブジェクトをマクロ
ブロック単位で形状情報とテクスチャ情報とから構成さ
れる任意形状オブジェクトとして符号化する動画像符号
化装置において、 マクロブロック毎にテクスチャ情報の動きベクトルを検
出する手段と、 そのマクロブロックにおける形状情報の動きベクトルを
検出するためにテクスチャ情報の動きベクトルの利用の
可否を判定する手段と、 テクスチャ情報の動きベクトルの信頼性を評価する手段
とを具備し、 テクスチャ情報の動きベクトルの信頼性が高く、形状情
報の動きベクトルを検出するためにテクスチャ情報の動
きベクトルを利用可能な場合には、形状情報の動きベク
トルの検出範囲を制限することを特徴とする動画像符号
化装置。
9. A moving picture coding apparatus for coding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units, wherein a motion vector of the texture information is defined for each macroblock. Detecting means; determining means for using a motion vector of texture information to detect a motion vector of shape information in the macroblock; and means for evaluating reliability of the motion vector of texture information. If the motion vector of the texture information is highly reliable and the motion vector of the texture information can be used to detect the motion vector of the shape information, the detection range of the motion vector of the shape information is limited. Video encoding device.
【請求項10】画像を構成する所望オブジェクトをマク
ロブロック単位で形状情報とテクスチャ情報とから構成
される任意形状オブジェクトとして符号化する動画像符
号化方法において、 マクロブロック毎にテクスチャ情報の動きベクトルを検
出し、そのマクロブロックにおける形状情報の動きベク
トルを検出するためにテクスチャ情報の動きベクトルの
利用の可否を判定すると共に、テクスチャ情報の動きベ
クトルの信頼性を評価し、その結果、テクスチャ情報の
動きベクトルの信頼性が高く、形状情報の動きベクトル
を検出するためにテクスチャ情報の動きベクトルを利用
可能な場合には、形状情報の動きベクトルの検出範囲を
制限することを特徴とする動画像符号化方法。
10. A moving image encoding method for encoding a desired object constituting an image as an arbitrary-shaped object composed of shape information and texture information in macroblock units, wherein a motion vector of texture information is defined for each macroblock. In addition to determining whether or not to use the motion vector of the texture information in order to detect the motion vector of the shape information in the macro block, the reliability of the motion vector of the texture information is evaluated. Moving image coding characterized by limiting the detection range of the motion vector of the shape information when the reliability of the vector is high and the motion vector of the texture information can be used to detect the motion vector of the shape information. Method.
JP11638399A 1999-04-23 1999-04-23 Moving picture coding apparatus and moving picture coding method Expired - Fee Related JP3677165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11638399A JP3677165B2 (en) 1999-04-23 1999-04-23 Moving picture coding apparatus and moving picture coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11638399A JP3677165B2 (en) 1999-04-23 1999-04-23 Moving picture coding apparatus and moving picture coding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004330956A Division JP2005094803A (en) 2004-11-15 2004-11-15 Apparatus and method for motion image coding

Publications (2)

Publication Number Publication Date
JP2000308066A true JP2000308066A (en) 2000-11-02
JP3677165B2 JP3677165B2 (en) 2005-07-27

Family

ID=14685664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11638399A Expired - Fee Related JP3677165B2 (en) 1999-04-23 1999-04-23 Moving picture coding apparatus and moving picture coding method

Country Status (1)

Country Link
JP (1) JP3677165B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004049726A1 (en) * 2002-11-25 2004-06-10 Matsushita Electric Industrial Co., Ltd. Motion compensation method, image encoding method, and image decoding method
JP2005323252A (en) * 2004-05-11 2005-11-17 Victor Co Of Japan Ltd Image encoding device and image decoding device
JP2006517069A (en) * 2003-01-16 2006-07-13 ビクシズ システムズ インコーポレイティド Motion vector prediction method and system
CN101960843B (en) * 2008-03-21 2012-12-26 日本电气株式会社 Image processing method, image processing device, and image processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698954B2 (en) 2008-03-21 2014-04-15 Nec Corporation Image processing method, image processing apparatus and image processing program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897367B2 (en) 2002-11-25 2014-11-25 Panasonic Intellectual Property Corporation Of America Motion compensation method, picture coding method and picture decoding method
US8660185B2 (en) 2002-11-25 2014-02-25 Panasonic Corporation Picture decoding apparatus and method for decoding a picture using motion compensation
US10057595B2 (en) 2002-11-25 2018-08-21 Godo Kaisha Ip Bridge 1 Motion compensation method, picture coding method and picture decoding method
CN101827265A (en) * 2002-11-25 2010-09-08 松下电器产业株式会社 Picture coding apparatus and method, picture decoding apparatus and method, and recording method
WO2004049726A1 (en) * 2002-11-25 2004-06-10 Matsushita Electric Industrial Co., Ltd. Motion compensation method, image encoding method, and image decoding method
US9554148B2 (en) 2002-11-25 2017-01-24 Godo Kaisha Ip Bridge 1 Picture coding method and picture coding apparatus for coding a current picture in direct mode
US9485516B2 (en) 2002-11-25 2016-11-01 Godo Kaisha Ip Bridge 1 Picture decoding apparatus and picture decoding method for decoding a current picture in direct mode
US8861607B2 (en) 2002-11-25 2014-10-14 Panasonic Intellectual Property Corporation Of America Motion compensation method, picture coding method and picture decoding method
US8009731B2 (en) 2002-11-25 2011-08-30 Panasonic Corporation Motion compensation method, picture coding method and picture decoding method
US9088795B2 (en) 2002-11-25 2015-07-21 Godo Kaisha Ip Bridge 1 Picture coding and decoding system for coding and decoding macroblocks in direct mode
US9204153B2 (en) 2002-11-25 2015-12-01 Godo Kaisha Ip Bridge 1 Motion compensation method, picture coding method and picture decoding method
US9241171B2 (en) 2002-11-25 2016-01-19 Godo Kaisha Ip Bridge 1 Motion compensation method, picture coding method and picture decoding method
US9473786B2 (en) 2002-11-25 2016-10-18 Godo Kaisha Ip Bridge 1 Coding and decoding system for coding and decoding a picture in direct mode
JP2006517069A (en) * 2003-01-16 2006-07-13 ビクシズ システムズ インコーポレイティド Motion vector prediction method and system
JP2005323252A (en) * 2004-05-11 2005-11-17 Victor Co Of Japan Ltd Image encoding device and image decoding device
CN101960843B (en) * 2008-03-21 2012-12-26 日本电气株式会社 Image processing method, image processing device, and image processing program

Also Published As

Publication number Publication date
JP3677165B2 (en) 2005-07-27

Similar Documents

Publication Publication Date Title
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
US7444026B2 (en) Image processing apparatus and method of motion vector detection in a moving picture, and recording medium used therewith
US6542642B2 (en) Image coding process and motion detecting process using bidirectional prediction
CN110809887A (en) Motion vector modification for multi-reference prediction
US20140105295A1 (en) Moving image encoding method and apparatus, and moving image decoding method and apparatus
US20150172687A1 (en) Multiple-candidate motion estimation with advanced spatial filtering of differential motion vectors
KR100680452B1 (en) Method and apparatus for updating motion vector memory
JPH05115061A (en) Motion vector coder and decoder
KR20130020697A (en) Dynamic image encoding device and dynamic image decoding device
US20050276327A1 (en) Method and apparatus for predicting motion
JP2001197501A (en) Motion vector searching device and motion vector searching method, and moving picture coder
JP2002527958A (en) Method for controlling generated video speed in MPEG-4 type encoding
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
US20050074064A1 (en) Method for hierarchical motion estimation
JP3519441B2 (en) Video transmission equipment
KR20010030652A (en) Image encoding system
JP3677165B2 (en) Moving picture coding apparatus and moving picture coding method
KR100266161B1 (en) Method of predicting motion for digital image
US6754270B1 (en) Encoding high-definition video using overlapping panels
JPH11122618A (en) Image coder
JP2005094803A (en) Apparatus and method for motion image coding
KR19990058255A (en) Video compression method using 1/4 pixel motion vector.
JP2002209213A (en) Motion vector detection method and device, and image coder
JPH10164596A (en) Motion detector
JP2007036887A (en) Coding method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050506

LAPS Cancellation because of no payment of annual fees