JP2005094803A - Apparatus and method for motion image coding - Google Patents

Apparatus and method for motion image coding Download PDF

Info

Publication number
JP2005094803A
JP2005094803A JP2004330956A JP2004330956A JP2005094803A JP 2005094803 A JP2005094803 A JP 2005094803A JP 2004330956 A JP2004330956 A JP 2004330956A JP 2004330956 A JP2004330956 A JP 2004330956A JP 2005094803 A JP2005094803 A JP 2005094803A
Authority
JP
Japan
Prior art keywords
motion vector
shape
information
coding
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2004330956A
Other languages
Japanese (ja)
Inventor
Noboru Yamaguchi
昇 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004330956A priority Critical patent/JP2005094803A/en
Publication of JP2005094803A publication Critical patent/JP2005094803A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain reduction of processing amount and improvement of coding efficiency in an arbitrary shaped object coding. <P>SOLUTION: An arbitrary shaped object coding means 502 consisting of shape information and texture information is a shape information coding means having a motion vector detecting means capable of also utilizing a motion vector of the texture information. This means has a means of discriminating whether or not the motion vector of the texture information can be used; a means of evaluating the reliability of the motion vector of the texture information; and a means in which a range of searching a shape vector is set larger when the motion vector of the texture information can be utilized than when it cannot be utilized, and the searching range is set larger when the reliability of the motion vector of the texture information is high than when it is low, if the motion vector of the texture information can be utilized. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ISO/IEC JTC/SC29/WG11において標準化作業が進行中である、動画像符号化の国際標準方式MPEG4で実現される、任意形状のオブジェクトを個別に符号化する機能を利用した動画像符号化装置および動画像符号化方法に関する。   The present invention is a moving picture using a function for individually encoding an object of arbitrary shape, which is realized by the MPEG4 international standard system for encoding moving images, which is being standardized in ISO / IEC JTC / SC29 / WG11. The present invention relates to an image encoding device and a moving image encoding method.

現在標準化作業が進行中であるMPEG4(Motion Picture Experts Groupphase 4)では、従来の動画像符号化の国際標準方式であるMPEG1(Motion Picture Experts Group phase 1)やMPEG2( Motion Picture Experts Group phase 2)では実現出来ない機能である、任意形状のオブジェクト(例えば、画面内に写っている人物)ごとに個別に符号化する機能が実現されることになっている。   In MPEG4 (Motion Picture Experts Group phase 4), where standardization work is currently in progress, in MPEG1 (Motion Picture Experts Group phase 1) and MPEG2 (Motion Picture Experts Group phase 2), which are international standard systems for conventional video coding, A function that cannot be realized, and a function that individually encodes each object of an arbitrary shape (for example, a person shown in the screen) is to be realized.

この機能を実現するためには、各オブジェクトの形や大きさを表わす情報(形状情報)が必要であり、この情報は、オブジェクト内部の輝度・色差の変化を表わすテクスチャ情報と共に符号化された後、伝送・蓄積される。   In order to realize this function, information (shape information) representing the shape and size of each object is required, and this information is encoded with texture information representing changes in luminance and color difference inside the object. , Transmitted and stored.

すなわち、背景とオブジェクトからなる画像があったとすると、この画像を背景とオブジェクトに分け、符号化する。そして、背景やオブジェクトを別々に符号化するために、各オブジェクトの形や大きさを表わす情報(形状情報)が別途与えられる。これがアルファマップ信号と呼ばれる形状情報信号である。   That is, if there is an image composed of a background and an object, the image is divided into a background and an object and encoded. In order to separately encode the background and the object, information (shape information) indicating the shape and size of each object is separately provided. This is a shape information signal called an alpha map signal.

このアルファマップ信号は、オブジェクトの形状や画面内の位置を表す例えば2値の副画像情報として与えられる(なお、背景のアルファマップ信号は、オブジェクトのアルファマップ信号から一意に求められる)。   This alpha map signal is given as, for example, binary sub-image information representing the shape of the object and the position in the screen (note that the alpha map signal of the background is uniquely obtained from the alpha map signal of the object).

このように、MPEG4では各オブジェクトの形や大きさを表わす情報(形状情報)を、オブジェクト内部の輝度・色差の変化を表わすテクスチャ情報と共に符号化することにより、情報量を小さくして、復号側ではこれを元にオブジェクトを再現できる機能が実現できるようになっている。   In this way, MPEG4 encodes information (shape information) representing the shape and size of each object together with texture information representing changes in luminance and color difference inside the object, thereby reducing the amount of information and decoding side. Based on this, a function that can reproduce an object can be realized.

ここで、MPEG4の画像符号化および画像復号化装置について概略を説明しておく。図7は、画像を符号化する場合に、画面内を背景とオブジェクトに分割して符号化する方式の画像符号化装置のブロック構成図である。この画像符号化装置は、図7に示すように、差分回路1100、動き補償予測回路(MC)1110、直交変換回路(DCT)1120、量子化回路1130、可変長符号化回路(VLC)1140、逆量子化回路(IQ)1150、逆直交変換回路(IDCT)1160、加算回路1170、多重化回路1180、アルファマップ符号化回路1200とから構成される。   Here, an outline of an MPEG4 image encoding and image decoding apparatus will be described. FIG. 7 is a block configuration diagram of an image coding apparatus that divides the screen into a background and an object and codes the image when coding the image. As shown in FIG. 7, the image coding apparatus includes a difference circuit 1100, a motion compensation prediction circuit (MC) 1110, an orthogonal transform circuit (DCT) 1120, a quantization circuit 1130, a variable length coding circuit (VLC) 1140, The circuit includes an inverse quantization circuit (IQ) 1150, an inverse orthogonal transform circuit (IDCT) 1160, an adder circuit 1170, a multiplexing circuit 1180, and an alpha map encoding circuit 1200.

アルファマップ符号化回路1200は、入力されたアルファマップを符号化し、この符号化された信号をアルファマップ信号として多重化回路1180に出力する機能と、このアルファマップ信号を復号して局部復号信号として出力する機能を有する。   The alpha map encoding circuit 1200 encodes the input alpha map and outputs the encoded signal to the multiplexing circuit 1180 as an alpha map signal, and decodes the alpha map signal as a local decoded signal. Has a function to output.

特に、本アルファマップ符号化回路1200は、入力されたアルファマップを符号化するにあたり、与えられた縮小率(倍率)で解像度を縮小する処理を行い、この解像度縮小処理されたものを符号化すると共に、この符号化したものと縮小率の情報(倍率情報)とを多重化してこれをアルファマップ信号として多重化回路1180に出力する機能を有する。そして、局部復号信号としては、解像度縮小処理されたものを元の解像度に戻す処理をして得たものを用いる構成である。   In particular, the present alpha map encoding circuit 1200 performs a process of reducing the resolution at a given reduction rate (magnification) when encoding the input alpha map, and encodes the resolution reduced process. At the same time, it has a function of multiplexing the encoded data and reduction rate information (magnification information) and outputting them to the multiplexing circuit 1180 as an alpha map signal. As the local decoded signal, a signal obtained by performing processing for returning the resolution-reduced signal to the original resolution is used.

差分回路1100は、動き補償予測回路1110より供給される動き補償予測信号と入力画像信号との差分信号を算出するものであり、直交変換回路1120は、差分回路1100から供給された差分信号を、アルファマップの情報にしたがって、直交変換係数に変換して出力するものである。   The difference circuit 1100 calculates a difference signal between the motion compensation prediction signal supplied from the motion compensation prediction circuit 1110 and the input image signal, and the orthogonal transformation circuit 1120 converts the difference signal supplied from the difference circuit 1100 into the difference signal. According to the information of the alpha map, it is converted into an orthogonal transform coefficient and output.

量子化回路1130はこの直交変換回路1120により得られた直交変換係数を量子化する回路であり、可変長符号化回路1140はこの量子化回路1130の出力を符号化して出力するものである。多重化回路1180はこの可変長符号化回路1140により符号化されたものと、前記アルファマップ信号とを、動きベクトル情報等のサイド情報と共に多重化多重化してビットストリームとして出力するものである。   The quantization circuit 1130 is a circuit that quantizes the orthogonal transform coefficient obtained by the orthogonal transform circuit 1120, and the variable length coding circuit 1140 encodes and outputs the output of the quantization circuit 1130. The multiplexing circuit 1180 multiplexes and multiplexes the signal encoded by the variable length encoding circuit 1140 and the alpha map signal together with side information such as motion vector information and outputs the result as a bit stream.

逆量子化回路1150は量子化回路1130の出力を逆量子化するものであり、逆直交変換回路1160はこの逆量子化回路1150の出力を前記アルファマップに基いて逆直交変換するものであり、加算回路1170はこの逆直交変換回路1160の出力と動き補償予測回路1110から与えられる予測信号(動き補償予測信号)とを加算して差分回路1100に出力するものである。   The inverse quantization circuit 1150 performs inverse quantization on the output of the quantization circuit 1130, and the inverse orthogonal transform circuit 1160 performs inverse orthogonal transform on the output of the inverse quantization circuit 1150 based on the alpha map. The adder circuit 1170 adds the output of the inverse orthogonal transform circuit 1160 and the prediction signal (motion compensation prediction signal) given from the motion compensation prediction circuit 1110 and outputs the result to the difference circuit 1100.

動き補償予測回路1110は、フレームメモリを有し、アルファマップ符号化回路1200から与えられる局部復号信号にもとづいて動作してオブジェクト領域の信号、背景領域の信号を蓄積する機能を有する。また、動き補償予測回路1110は蓄積したオブジェクト領域の画像から動き補償値を予測して予測値として出力し、また、蓄積した背景領域の画像から動き補償値を予測して予測値として出力する機能を有する。   The motion compensation prediction circuit 1110 has a frame memory and has a function of accumulating the object region signal and the background region signal by operating based on the local decoded signal supplied from the alpha map encoding circuit 1200. The motion compensation prediction circuit 1110 also predicts a motion compensation value from the accumulated image of the object region and outputs it as a prediction value, and also predicts a motion compensation value from the image of the accumulated background region and outputs it as a prediction value. Have

このような構成の本装置の作用を説明する。本装置には、画像信号とその画像信号のアルファマップが入力される。そして、これらのうち、画像信号はフレーム毎にそれぞれ所定画素サイズ(例えば、M×N画素(M:水平方向の画素数、N:垂直方向の画素数))のブロックに分割された後、ブロック位置順に信号線1010を介して差分回路1100に供給される。そして、差分回路1100では、この入力(画像信号)と、予測信号(オブジェクト予測回路1110からの動き補償予測信号の出力)との差分信号が算出され、直交変換回路1120に供給される。   The operation of the apparatus having such a configuration will be described. The apparatus receives an image signal and an alpha map of the image signal. Of these, the image signal is divided into blocks each having a predetermined pixel size (for example, M × N pixels (M: number of pixels in the horizontal direction, N: number of pixels in the vertical direction)) for each frame, and then the blocks The signals are supplied to the difference circuit 1100 via the signal line 1010 in the order of position. Then, the difference circuit 1100 calculates a difference signal between this input (image signal) and the prediction signal (output of the motion compensation prediction signal from the object prediction circuit 1110) and supplies the difference signal to the orthogonal transformation circuit 1120.

直交変換回路1120では、供給された差分信号を、信号線1040を介してアルファマップ符号化回路1200から供給されるアルファマップの情報にしたがって、直交変換係数に変換した後、量子化回路1130に供給する。そして、ここで量子化される。量子化回路1130にて量子化されて得られた変換係数は、可変長符号化回路1140において符号化されると共に、逆量子化回路1150に供給される。   In the orthogonal transform circuit 1120, the supplied differential signal is converted into an orthogonal transform coefficient according to the information of the alpha map supplied from the alpha map encoding circuit 1200 via the signal line 1040, and then supplied to the quantization circuit 1130. To do. And it is quantized here. The transform coefficient obtained by quantization in the quantization circuit 1130 is encoded in the variable length encoding circuit 1140 and supplied to the inverse quantization circuit 1150.

逆量子化回路1150に供給された変換係数は、ここで逆量子化された後、逆直交変換回路1160において逆変換される。そして、加算回路1170において動き補償予測回路1110より供給される動き補償予測値と加算され、局部復号画像として出力されて、再び動き補償予測回路1110に入力される。   The transform coefficient supplied to the inverse quantization circuit 1150 is inversely quantized here and then inverse transformed in the inverse orthogonal transform circuit 1160. Then, the addition circuit 1170 adds the motion compensation prediction value supplied from the motion compensation prediction circuit 1110, outputs it as a locally decoded image, and inputs it again to the motion compensation prediction circuit 1110.

そして、この加算回路1170の出力である局部復号画像は、動き補償予測回路1110内のフレームメモリに蓄えられる。   Then, the locally decoded image that is the output of the addition circuit 1170 is stored in a frame memory in the motion compensation prediction circuit 1110.

一方、この動き補償予測回路1110は、アルファマップ復号化回路1200から与えられる局部復号信号に基づいてオブジェクトの領域のブロックの処理のタイミングでは"オブジェクトの動き補償予測値"を、また、それ以外のタイミングでは"背景部分の動き補償予測値"を出力して差分回路1100に与える。   On the other hand, the motion compensation prediction circuit 1110 outputs an “object motion compensation prediction value” at the processing timing of the block in the object region based on the local decoded signal supplied from the alpha map decoding circuit 1200, and other than that. At the timing, the “background portion motion compensation prediction value” is output and supplied to the difference circuit 1100.

すなわち、動き補償予測回路1110ではアルファマップ信号の局部復号信号から現在、オブジェクトのブロック対応部分の画像信号が差分回路1100に入力されているのか、あるいは背景部分のブロック対応部分の画像信号が差分回路1100に入力されているのかを知り、オブジェクトのブロック対応部分の画像信号の入力期間中であれば、オブジェクトの動き補償予測信号を、そして、背景部分のブロック対応部分の画像信号入力期間中であれば、背景の動き補償予測信号を、差分回路1100に与える。   That is, in the motion compensation prediction circuit 1110, whether the image signal of the block corresponding portion of the object is currently input to the difference circuit 1100 from the local decoded signal of the alpha map signal or the image signal of the block corresponding portion of the background portion is the difference circuit. If it is during the input period of the image signal of the block corresponding part of the object, the motion compensation prediction signal of the object and the image signal input period of the block corresponding part of the background part may be detected. For example, the background motion compensation prediction signal is supplied to the difference circuit 1100.

差分回路1100では、この入力された画像信号と、その画像の領域対応の予測信号との差を算出するので、その結果、入力画像がオブジェクト対応の領域のものであれば、そのオブジェクトの対応位置での予測値との差分信号が、また、入力画像が背景の領域のものであれば、その背景位置対応の予測値との差分信号が算出され、直交変換回路1120に供給される。   The difference circuit 1100 calculates the difference between the input image signal and the prediction signal corresponding to the region of the image. As a result, if the input image is in the region corresponding to the object, the corresponding position of the object If the difference signal from the predicted value in FIG. 4 is a background region, the difference signal from the predicted value corresponding to the background position is calculated and supplied to the orthogonal transformation circuit 1120.

直交変換回路1120では、供給された差分信号を信号線1040を介して供給されるアルファマップの情報にしたがって、離散コサイン変換などの処理を施すことにより、直交変換係数に変換した後、量子化回路1130に供給する。そして、直交変換係数はこの量子化回路1130にて量子化される。   The orthogonal transform circuit 1120 converts the supplied difference signal into an orthogonal transform coefficient by performing processing such as discrete cosine transform according to the information of the alpha map supplied via the signal line 1040, and then the quantization circuit. 1130. The orthogonal transform coefficient is quantized by the quantization circuit 1130.

量子化回路1130にて量子化された変換係数は、可変長符号化回路1140において符号化されると共に、逆量子化回路1150に供給される。そして、逆量子化回路1150に供給された変換係数はここで逆量子化された後、逆直交変換回路1160において逆変換されて加算回路1170に供給される。そして、予測値切り換え回路1500を介して加算回路1170に供給される予測値と加算されることになる。   The transform coefficient quantized by the quantization circuit 1130 is encoded by the variable length encoding circuit 1140 and supplied to the inverse quantization circuit 1150. The transform coefficient supplied to the inverse quantization circuit 1150 is inversely quantized here, and then inverse transformed in the inverse orthogonal transform circuit 1160 and supplied to the adder circuit 1170. Then, it is added to the predicted value supplied to the adding circuit 1170 via the predicted value switching circuit 1500.

加算回路1170の出力である局部復号画像の信号は、動き補償予測回路1110に供給される。そして、この動き補償予測回路1110ではアルファマップ信号の局部復号信号から現在、加算回路1170からオブジェクトのブロック対応の信号が出力されているのか、あるいは背景部分のブロック対応の信号が出力されているのかを知り、その結果、オブジェクトのブロック対応の信号の出力中であれば、オブジェクト用のフレームメモリに、また、背景部分のブロック対応の信号の出力中であれば、背景用のメモリに与えるべく動作して対応のメモリに蓄える。   The signal of the locally decoded image that is the output of the adder circuit 1170 is supplied to the motion compensation prediction circuit 1110. In this motion compensated prediction circuit 1110, whether the signal corresponding to the block of the object is currently output from the local decoding signal of the alpha map signal, or whether the signal corresponding to the block of the background portion is output. As a result, if the signal corresponding to the block of the object is being output, it is applied to the frame memory for the object, and if the signal corresponding to the block of the background portion is being output, the operation is performed to the background memory. And store it in the corresponding memory.

そして、これにより、オブジェクト用のフレームメモリにはオブジェクト画像のみが、また、背景用のメモリには背景画像のみの画像が得られることになる。これにより、動き補償予測回路1110はオブジェクト画像を利用してオブジェクト画像の予測値を求めることができ、また、背景部分の画像を利用して背景画像の予測値を求めることができる。   Thus, only the object image is obtained in the object frame memory, and only the background image is obtained in the background memory. Accordingly, the motion compensation prediction circuit 1110 can obtain the predicted value of the object image using the object image, and can obtain the predicted value of the background image using the image of the background portion.

上述したように、アルファマップ符号化回路1200では、入力されるアルファマップを符号化し、この符号化されたアルファマップ信号を信号線1030を介して多重化回路1180に供給している。   As described above, the alpha map encoding circuit 1200 encodes an input alpha map and supplies the encoded alpha map signal to the multiplexing circuit 1180 via the signal line 1030.

また、多重化回路1180には、可変長符号化回路1140から出力された変換係数が線1040を介して供給されている。そして、多重化回路1180は供給されているこれらアルファマップ信号および変換係数の符号化値とを、動きベクトル情報等のサイド情報と共に多重化した後、信号線1050を介して出力して本画像符号化装置の最終出力としての符号化ビットストリームとなる。   Also, the transform coefficient output from the variable length coding circuit 1140 is supplied to the multiplexing circuit 1180 via a line 1040. Then, the multiplexing circuit 1180 multiplexes the supplied alpha map signal and the encoded value of the transform coefficient together with side information such as motion vector information, and then outputs it through the signal line 1050 to output the main image code. The encoded bit stream is the final output of the encoding device.

一方、図8は復号化装置のブロック図である。復号化装置は、図8に示すように、分離化回路2300、可変長復号化回路2310、逆量子化回路2320、逆直交変換回路2330、加算回路2340、動き補償予測回路2350、アルファマップ復号化回路2400とより構成される。   On the other hand, FIG. 8 is a block diagram of the decoding apparatus. As shown in FIG. 8, the decoding apparatus includes a separation circuit 2300, a variable length decoding circuit 2310, an inverse quantization circuit 2320, an inverse orthogonal transform circuit 2330, an addition circuit 2340, a motion compensation prediction circuit 2350, an alpha map decoding. A circuit 2400 is included.

分離化回路2300は入力される符号化ビットストリームを分離化処理してアルファマップ信号と画像の符号化信号等を得る回路であり、アルファマップ復号化回路2400はこの分離化回路2300にて分離されたアルファマップ信号を復号してアルファマップを再生する回路である。   The separation circuit 2300 is a circuit that obtains an alpha map signal and a coded image signal by separating the input encoded bit stream, and the alpha map decoding circuit 2400 is separated by the separation circuit 2300. This circuit decodes the alpha map signal and reproduces the alpha map.

可変長復号化回路2310は、分離化回路2300にて分離された画像の符号化信号を復号するものであり、逆量子化回路2320はこの復号されたものを逆量子化して元の係数に戻すものであり、逆直交変換回路2330はこの係数をアルファマップにしたがって逆直交変換して予測誤差信号に戻すものであり、加算回路2340は、この予測誤差信号に動き補償予測回路2350からの動き補償予測値を加算して再生画像信号として出力するものである。この再生画像信号が復号化装置の最終出力となる。   The variable length decoding circuit 2310 decodes the encoded signal of the image separated by the separation circuit 2300, and the inverse quantization circuit 2320 inversely quantizes the decoded signal to return it to the original coefficient. The inverse orthogonal transform circuit 2330 performs inverse orthogonal transform on this coefficient according to the alpha map to return it to the prediction error signal, and the adder circuit 2340 converts the motion compensation from the motion compensation prediction circuit 2350 into the prediction error signal. The predicted value is added and output as a reproduced image signal. This reproduced image signal becomes the final output of the decoding apparatus.

動き補償予測回路2350は、加算回路2340から出力された再生画像信号をアルファマップにしたがってフレームメモリに蓄積することによりオブジェクト画像と背景画像とを得ると共に、この蓄積されて得られた画像からオブジェクトの動き補償予測信号、背景の動き補償予測を得るものである。   The motion compensation prediction circuit 2350 obtains the object image and the background image by accumulating the reproduced image signal output from the adder circuit 2340 in the frame memory according to the alpha map, and obtains the object image from the accumulated image. A motion compensation prediction signal and a background motion compensation prediction are obtained.

このような構成の復号化装置においては、符号化ビットストリームは、線2070を介して分離化回路2300に供給され、分離化回路2300において各々の情報毎に分離されることにより、アルファマップ信号に関する符号と、画像信号の可変長符号とに分けられる。   In the decoding apparatus having such a configuration, the encoded bit stream is supplied to the separation circuit 2300 via the line 2070, and is separated for each piece of information by the separation circuit 2300, thereby relating to the alpha map signal. It is divided into a code and a variable length code of the image signal.

そして、アルファマップ信号に関する符号は、信号線2080を介してアルファマップ復号化回路2400に供給され、また、画像信号の可変長符号は可変長復号化回路2310にそれぞれ供給される。   The code relating to the alpha map signal is supplied to the alpha map decoding circuit 2400 via the signal line 2080, and the variable length code of the image signal is supplied to the variable length decoding circuit 2310, respectively.

アルファマップ信号に関する符号はアルファマップ復号化回路2400においてアルファマップ信号に再生され、信号線2090を介して逆直交変換回路2330と動き補償予測回路2350に出力される。   The code relating to the alpha map signal is reproduced as an alpha map signal by the alpha map decoding circuit 2400 and output to the inverse orthogonal transform circuit 2330 and the motion compensation prediction circuit 2350 via the signal line 2090.

一方、可変長復号化回路2310では、分離化回路2300から供給される符号を復号し、逆量子化回路2320に供給して、ここで逆量子化する。逆量子化された変換係数は、線2090を介して供給されるアルファマップにしたがって逆直交変換回路2330により逆変換され、加算回路2340に供給される。加算回路2340では、逆直交変換回路2330からの逆直交変換された信号と、動き補償予測回路2350より供給される動き補償予測信号とを加算し、再生画像を得る。   On the other hand, the variable length decoding circuit 2310 decodes the code supplied from the separation circuit 2300 and supplies it to the inverse quantization circuit 2320 where it is inversely quantized. The inversely quantized transform coefficient is inversely transformed by the inverse orthogonal transform circuit 2330 according to the alpha map supplied via the line 2090 and supplied to the adder circuit 2340. The adder circuit 2340 adds the inverse orthogonal transform signal from the inverse orthogonal transform circuit 2330 and the motion compensation prediction signal supplied from the motion compensation prediction circuit 2350 to obtain a reproduced image.

以上がMPEG4用の画像符号化装置および画像復号化装置の概要である。   The above is the outline of the MPEG4 image encoding device and image decoding device.

ここで、アルファマップの符号化について説明する。アルファマップ、すなわち、形状情報の画素値は2値信号であり、これは"0","1"あるいは"0","255"で表現される。   Here, encoding of the alpha map will be described. The alpha map, that is, the pixel value of the shape information is a binary signal, which is expressed by “0”, “1” or “0”, “255”.

アルファマップの符号化は、まずはじめに、図9に示されるように、画面(フレーム)内で符号化対象となるオブジェクト(MPEG4では、VOP(VideoObject Plane)と呼ばれている)を包含する符号化領域(Bounding-Rectangleと呼ばれる)を設定する。そして、この領域内を16×16画素のマクロブロックに分割して、各マクロブロック毎に該オブジェクトを符号化する。   First, as shown in FIG. 9, the alpha map is encoded including an object (called VOP (Video Object Plane) in MPEG4) to be encoded in a screen (frame). Set a region (called Bounding-Rectangle). The area is divided into 16 × 16 pixel macroblocks, and the object is encoded for each macroblock.

ここで、各VOP毎に、Bounding-Rcctangleの大きさ(vop-width,vop-height)と位置ベクトル(Spatial-refference(vop-horizontal-mc-spatial-ref,vop-vertical-mc-spatial-ref))の値が符号化される。   Here, for each VOP, the size (vop-width, vop-height) of the Bounding-Rcctangle and the position vector (Spatial-refference (vop-horizontal-mc-spatial-ref, vop-vertical-mc-spatial-ref )) Value is encoded.

図10は、各マクロブロックの属性を説明する図である。マクロブロックは分類すると、マクロブロック内にオブジェクトを含まない"透過マクロブロック"(オブジェクトの画素が一つもない)と、マクロブロックが全てオブジェクト内に含まれる"不透過マクロブロック"(全てがオブジェクトの画素で埋められている)と、マクロブロック内の一部がオブジェクトに含まれる"境界マクロブロック"(オブジェクトの画素が一部含まれる)とに分けられる。   FIG. 10 is a diagram for explaining the attributes of each macroblock. Macroblocks can be classified as "transparent macroblocks" (no object pixels) that do not contain objects in macroblocks, and "opaque macroblocks" (all objects that contain objects). And a “boundary macroblock” (a part of the pixel of the object is included) in which a part of the macroblock is included in the object.

従って、マクロブロックは"透過マクロブロック"、"不透過マクロブロック"、"境界マクロブロック"のうちのいずれかの属性を持つことになる。   Therefore, the macroblock has an attribute of “transparent macroblock”, “opaque macroblock”, or “boundary macroblock”.

各マクロブロックの符号化データには、形状情報とテクスチャ情報とが含まれる。なお、透過マクロブロックにはテクスチャ情報は含まれない。   The encoded data of each macroblock includes shape information and texture information. Note that the transparent macroblock does not include texture information.

参考文献(三木 編著、"MPEG−4のすべて"第3章、工業調査会、1998)を参照して、MPEG4検証(Verification)モデルのエンコーダにおける形状情報の符号化法と任意形状オブジェクトのテクスチャ情報の符号化法を説明する。   With reference to the reference (edited by Miki, "All about MPEG-4", Chapter 3, Industrial Research Committee, 1998), the encoding method of shape information in the encoder of the MPEG4 Verification model and the texture information of the arbitrary shape object The encoding method will be described.

<形状情報の符号化法>
形状情報(A)の符号化法を説明する。図11に従来技術としてのモデルシステムの構成例を示す。形状符号化は、図11に示す如き構成の形状符号化用エンコーダ(形状情報符号化手段(Binary Shape encoder)500)によって実施される。当該形状符号化用エンコーダ(形状情報符号化手段500)は、図11に示すように、モード判定手段501、形状動きベクトル検出手段502、動き補償手段503、算術符号化手段504、動きベクトル予測手段505、フレームメモリ506、セレクタ507、形状動きベクトル情報記憶手段508、差分回路509、縮小回路510,511、拡大回路512、可変長符号化回路513,514、マルチプレクサ515とから構成されている。
<Encoding method of shape information>
A coding method of the shape information (A) will be described. FIG. 11 shows a configuration example of a model system as a conventional technique. The shape encoding is performed by a shape encoding encoder (a shape information encoding means (Binary Shape encoder) 500) having a configuration as shown in FIG. As shown in FIG. 11, the shape encoding encoder (shape information encoding unit 500) includes a mode determination unit 501, a shape motion vector detection unit 502, a motion compensation unit 503, an arithmetic encoding unit 504, and a motion vector prediction unit. 505, a frame memory 506, a selector 507, a shape motion vector information storage unit 508, a difference circuit 509, reduction circuits 510 and 511, an enlargement circuit 512, variable length encoding circuits 513 and 514, and a multiplexer 515.

形状動きベクトル検出手段502は、フレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検知する符号化領域検出手段(Bounding-rectangle)を介して入力されるアルファマップ信号(形状情報A)と動きベクトル予測手段505にて求められた予測ベクトルの情報とフレームメモリ506の形状情報信号とから形状動きベクトルを検出してこれを形状動きベクトル情報として出力するものであり、動き補償手段503はこの形状動きベクトル検出手段502で検出された形状動きベクトル情報とフレームメモリ506の形状情報信号と動きベクトル予測回路505の出力する予測ベクトルとから動き補償予測のための動きベクトル情報を求めるためのものである。   The shape motion vector detection means 502 is an alpha map signal (shape information) input via an encoding area detection means (Bounding-rectangle) that detects an encoding area that is an area where a target object exists in a frame image. A) a shape motion vector is detected from the prediction vector information obtained by the motion vector prediction means 505 and the shape information signal of the frame memory 506, and this is output as shape motion vector information. Reference numeral 503 is for obtaining motion vector information for motion compensation prediction from the shape motion vector information detected by the shape motion vector detection means 502, the shape information signal of the frame memory 506, and the prediction vector output from the motion vector prediction circuit 505. belongs to.

また、形状動きベクトル情報記憶手段508は形状動きベクトル検出手段502で検出された形状動きベクトル情報を記憶するためのものであり、動きベクトル予測手段505は形状動きベクトル情報記憶手段508の保持した形状動きベクトル情報と輝度信号53とをもとに動きベクトルの予測値である予測ベクトルを求めるものである。   The shape motion vector information storage means 508 is for storing the shape motion vector information detected by the shape motion vector detection means 502, and the motion vector prediction means 505 is the shape held by the shape motion vector information storage means 508. Based on the motion vector information and the luminance signal 53, a predicted vector that is a predicted value of the motion vector is obtained.

また、差分回路509は、形状動きベクトル検出手段502の求めた形状動きベクトルと動きベクトル予測手段505にて求められた予測ベクトルとの差分を得るためのものであり、モード判定手段501は入力される形状情報と動き補償手段503の出力する動き補償予測のための動きベクトル情報と形状動きベクトル検出手段502の出力する形状動きベクトル情報とからモード判定するものである。   The difference circuit 509 is for obtaining a difference between the shape motion vector obtained by the shape motion vector detection means 502 and the prediction vector obtained by the motion vector prediction means 505, and the mode determination means 501 is inputted. The mode is determined from the shape information obtained from the motion, the motion vector information for motion compensation prediction output from the motion compensation means 503, and the shape motion vector information output from the shape motion vector detection means 502.

ここで、モード情報は次の7通りある。すなわち、
(モード1):透過(Transparent)
(モード2):不透過(Opaque)
(モード3):2値画像符号化(フレーム内)
(モード4):動き補償(MV=0)
(モード5):動き補償(MV=0)+算術符号化(フレーム間)
(モード6):動き補償(MV≠0)
(モード7):動き補償(MV≠0)+算術符号化(フレーム間)
である。
Here, there are the following seven types of mode information. That is,
(Mode 1): Transparent
(Mode 2): Opaque
(Mode 3): Binary image encoding (within frame)
(Mode 4): Motion compensation (MV = 0)
(Mode 5): Motion compensation (MV = 0) + arithmetic coding (between frames)
(Mode 6): Motion compensation (MV ≠ 0)
(Mode 7): Motion compensation (MV ≠ 0) + arithmetic coding (between frames)
It is.

これらのうち、"モード1"はマクロブロック内の全データが透過、すなわち、マクロブロック内にオブジェクトを一つも含まない場合であり、"モード2"はマクロブロック内の全データが不透過、すなわち、マクロブロック内が全てオブジェクトの場合であり、"モード3"は算術符号化(フレーム内)の場合である。また、"モード4"は動き補償ベクトルがゼロ(MV=0)の場合であり、"モード5"は動き補償ベクトルがゼロ(MV=0)で、且つ、算術符号化(フレーム間)を行っている場合であり、また、"モード6"は動き補償ベクトルがゼロではない(MV≠0)場合であり、また、"モード7"は動き補償ベクトルがゼロではなく(MV≠0)、しかも、算術符号化(フレーム間)を行っている場合である。   Among these, “mode 1” is a case where all data in the macroblock is transparent, that is, no object is included in the macroblock, and “mode 2” is a case where all data in the macroblock is opaque. In this case, all the macroblocks are objects, and “mode 3” is a case of arithmetic coding (in a frame). “Mode 4” is when the motion compensation vector is zero (MV = 0), and “Mode 5” is when the motion compensation vector is zero (MV = 0) and arithmetic coding (between frames) is performed. “Mode 6” is a case where the motion compensation vector is not zero (MV ≠ 0), and “Mode 7” is a case where the motion compensation vector is not zero (MV ≠ 0). This is a case where arithmetic coding (between frames) is performed.

算術符号化手段504は、モード判定手段501のモード判定結果に応じて第1及び第2の縮小手段510,511の出力のうちの、いずれか一方を算術符号化してマルチプレクサ515に出力するものであり、また、セレクタ507は、動き補償手段503の出力する動き補償予測のための動きベクトル情報と拡大化手段512の出力と、予め設定された固定値である透過画素の値(Transparent pixel value;例えば、値"0")と、予め設定された固定値である不透過画素の値(Opaque pixel value;例えば、値"1")が与えられ、これらのうちのいずれか一つをモード判定手段501から与えられるモード情報が何であるかにより、選択して出力するものである。   The arithmetic encoding unit 504 arithmetically encodes one of the outputs of the first and second reduction units 510 and 511 according to the mode determination result of the mode determination unit 501 and outputs the result to the multiplexer 515. In addition, the selector 507 includes motion vector information for motion compensation prediction output from the motion compensation unit 503, an output from the enlargement unit 512, and a transparent pixel value (transparent pixel value; a preset fixed value). For example, a value “0”) and a fixed pixel value (Opaque pixel value; for example, value “1”) which is a preset fixed value are given, and any one of these values is set as a mode determination unit. Depending on what the mode information given from 501 is, it is selected and output.

また、フレームメモリ506は、セレクタ507の出力を形状情報信号として保持するメモリである。   The frame memory 506 is a memory that holds the output of the selector 507 as a shape information signal.

第1の縮小化手段510は、アルファマップの2値化信号である形状情報入力を縮小化処理し、算術符号化手段504に出力するものであり、第2の縮小化手段511は、動き補償手段503の出力する動きベクトル情報を縮小化処理し、算術符号化手段504に出力するものであり、拡大回路512は、第1の縮小化手段510の出力をモード判定手段501のモード判定結果に応じてセレクタ507に出力するものである。   The first reduction unit 510 performs reduction processing on the shape information input, which is a binarized signal of the alpha map, and outputs it to the arithmetic coding unit 504. The second reduction unit 511 is a motion compensation unit. The motion vector information output from the means 503 is reduced and output to the arithmetic encoding means 504. The enlargement circuit 512 converts the output of the first reduction means 510 into the mode determination result of the mode determination means 501. In response, the data is output to the selector 507.

第1の可変長符号化回路513は、差分回路509の出力を可変長符号化して出力するものであり、第2の可変長符号化回路514は、モード判定手段501の判定結果を可変長符号化して出力するものであり、マルチプレクサ515は、第1及び第2の可変長符号化手段の出力と算術符号化手段504の出力を受けてこれらを多重化してこれを形状情報符号化出力52として出力するものである。   The first variable length encoding circuit 513 performs variable length encoding on the output of the difference circuit 509 and outputs the result. The second variable length encoding circuit 514 outputs the determination result of the mode determination unit 501 as a variable length code. The multiplexer 515 receives the outputs of the first and second variable length encoding means and the output of the arithmetic encoding means 504, multiplexes them, and forms them as the shape information encoding output 52. Output.

このような構成において、アルファマップの2値化信号である形状情報信号51が入力される。すると、これを受けたモード判定手段501は、当該供給される形状情報と形状動きベクトル検出手段502の出力する形状動きベクトルと、動き補償手段503の出力する動きベクトル情報を元にモード判定する。そして、このモード判定手段501によるマクロブロック毎に決定された各マクロブロックのモードにしたがって、マクロブロック毎に情報が以下の如きに符号化されることになる。   In such a configuration, a shape information signal 51 that is a binarized signal of an alpha map is input. In response to this, the mode determination unit 501 determines the mode based on the supplied shape information, the shape motion vector output from the shape motion vector detection unit 502, and the motion vector information output from the motion compensation unit 503. Then, according to the mode of each macroblock determined for each macroblock by the mode determining means 501, information is encoded for each macroblock as follows.

ここで、モード判定手段501による判定結果としてのモード情報は次の7通りのいずれかである。"モード1"(透過(Transparent))、"モード2" (不透過(Opaque))、"モード3"(算術符号化(フレーム内))、"モード4"(動き補償(MV=0))、"モード5"((動き補償(MV=0)+算術符号化(フレーム間))、"モード6"(動き補償(MV≠0))、"モード7"(動き補償(MV≠0)+算術符号化(フレーム間))、である。   Here, the mode information as a determination result by the mode determination unit 501 is one of the following seven types. “Mode 1” (Transparent), “Mode 2” (Opaque), “Mode 3” (arithmetic coding (intraframe)), “Mode 4” (motion compensation (MV = 0)) , “Mode 5” ((motion compensation (MV = 0) + arithmetic coding (between frames)), “mode 6” (motion compensation (MV ≠ 0)), “mode 7” (motion compensation (MV ≠ 0)) + Arithmetic coding (between frames).

そして、セレクタ507では、モード判定手段501の判定したモードの情報にしたがって、マクロブロック毎に再生信号を出力する。そして、出力された各マクロブロックの再生信号はフレームメモリ(FM)506に蓄積されると共に、出力線54を介してテクスチャ情報の符号化手段に供給され、符号化されることになる。   The selector 507 outputs a reproduction signal for each macroblock according to the mode information determined by the mode determination unit 501. The output reproduction signal of each macroblock is accumulated in a frame memory (FM) 506 and supplied to the texture information encoding means via the output line 54 to be encoded.

ここで、モード判定手段501からセレクタ507に与えられるモード情報が何であるかにより、セレクタ507からの出力は次のようになる。   Here, the output from the selector 507 is as follows depending on what mode information is given from the mode determination means 501 to the selector 507.

"モード1"の場合: 該マクロブロック内の形状情報の再生画素値を、全て"Transparent pixel"(例えば、各画素値を"255")にしたものを出力する。   In the case of “mode 1”: the reproduction pixel values of the shape information in the macroblock are all set to “Transparent pixel” (for example, each pixel value is “255”).

"モード3,5,7"の場合: 供給されるマクロブロックの形状情報信号51を第1の縮小化手段510にて縮小処理して得た信号(算術符号化手段504の符号化対象)を更に拡大化手段512により拡大処理することにより元のサイズに戻して再生画素値にしたものを出力する。   In the case of “modes 3, 5, and 7”: a signal obtained by reducing the shape information signal 51 of the supplied macroblock by the first reduction unit 510 (the encoding target of the arithmetic encoding unit 504) Further, enlargement processing is performed by the enlargement means 512, and the original pixel size is restored and the reproduced pixel value is output.

"モード4,6"の場合: マクロブロック内の形状情報の再生画素値を、動き補償手段503により動き補償予測して得た値を出力する。   In the case of “modes 4 and 6”: A value obtained by performing motion compensation prediction on the reproduction pixel value of the shape information in the macroblock by the motion compensation unit 503 is output.

一方、形状動きベクトル検出手段502では、入力線51より入力された形状入力信号と、動きベクトル予測手段505にて求められた予測ベクトルと、フレームメモリ(FM)506に蓄積された形状情報信号とから形状動きベクトルの情報を得る。この形状動きベクトル検出手段502で検出された形状動きベクトル情報は、各マクロブロックの形状を動き補償手段503において動き補償予測するために用いられる動きベクトル情報であり、動き補償手段503に供給されると共に、形状動きベクトル情報記憶手段(MVmemory)508に蓄積される。   On the other hand, the shape motion vector detection unit 502 receives the shape input signal input from the input line 51, the prediction vector obtained by the motion vector prediction unit 505, and the shape information signal stored in the frame memory (FM) 506. To obtain the shape motion vector information. The shape motion vector information detected by the shape motion vector detection unit 502 is motion vector information used for motion compensation prediction of the shape of each macroblock in the motion compensation unit 503, and is supplied to the motion compensation unit 503. At the same time, it is stored in the shape motion vector information storage means (MVmemory) 508.

ここで、形状動きベクトル検出手段502では、動きベクトル予測手段505にて求められた予測ベクトルを中心に、その周囲±16画素の範囲で予測誤差ベクトルを検出している。   Here, the shape motion vector detection unit 502 detects a prediction error vector in a range of ± 16 pixels around the prediction vector obtained by the motion vector prediction unit 505.

従って、図3のようにゼロベクトルが検出される頻度が最も多いため、形状動きベクトルがゼロベクトルであるか否かの情報を、モード情報に含めるようにすることで、形状動きベクトル情報の符号量を削減している。また、この性質(ゼロベクトル近傍のベクトルが検出される確率が高い)を用いることで、動きベクトル検出の処理量を削減することも可能になる。   Accordingly, since the zero vector is detected most frequently as shown in FIG. 3, the information on whether or not the shape motion vector is the zero vector is included in the mode information. The amount is reduced. Further, by using this property (the probability that a vector near the zero vector is detected is high), it is possible to reduce the amount of motion vector detection processing.

動きベクトル予測手段505では、形状動きベクトル情報記憶手段(MVmemory)508に蓄積されている形状動きベクトルと、信号線53を介して供給されるテクスチャ動きベクトルから、形状動きベクトルの予測値を求めている。   The motion vector prediction unit 505 obtains a predicted value of the shape motion vector from the shape motion vector stored in the shape motion vector information storage unit (MVmemory) 508 and the texture motion vector supplied via the signal line 53. Yes.

"モード3,5,7"が選択された場合には、算術符号化手段504では、フレーム内符号化の場合では第1の縮小化手段510によって縮小化処理されて得た信号を算術符号化することになる。また、フレーム間符号化の場合、算術符号化手段504では、第1の縮小化手段510により縮小化処理されて得られた信号について、第2の縮小化手段511により縮小化された信号を参照しつつ算術符号化する。一方、"モード5,7"が選択された場合には、差分回路509により得られた予測誤差ベクトルが、可変長符号化手段513により可変長符号化されることになる。   When “modes 3, 5, and 7” are selected, the arithmetic encoding unit 504 arithmetically encodes the signal obtained by the reduction processing by the first reduction unit 510 in the case of intra-frame encoding. Will do. In the case of inter-frame coding, the arithmetic coding unit 504 refers to the signal reduced by the second reduction unit 511 for the signal obtained by the reduction processing by the first reduction unit 510. However, arithmetic coding is performed. On the other hand, when “modes 5 and 7” are selected, the prediction error vector obtained by the difference circuit 509 is variable-length encoded by the variable-length encoding means 513.

そして、算術符号化手段504より得られた算術符号あるいは可変長符号化手段513により得られた予測誤差ベクトルの可変長符号は、第2の可変長符号化手段514により可変長符号化されて得られたモード情報と共に、多重化手段(MUX)515に送られ、ここで多重化されて形状情報符号化出力52として出力される。   The arithmetic code obtained from the arithmetic coding unit 504 or the variable length code of the prediction error vector obtained by the variable length coding unit 513 is obtained by variable length coding by the second variable length coding unit 514. Along with the received mode information, it is sent to multiplexing means (MUX) 515 where it is multiplexed and output as shape information encoded output 52.

ところで、算術符号化手段504で符号化された2値画像符号化情報は、各マクロブロック内の詳細な形状を2値画像として扱い、符号化した情報である。ここで、形状動きベクトルは、動きベクトル予測手段505にて求められた予測ベクトルの周囲16画素を探索して求められたものである。   By the way, the binary image encoding information encoded by the arithmetic encoding means 504 is information obtained by treating the detailed shape in each macroblock as a binary image and encoding it. Here, the shape motion vector is obtained by searching 16 pixels around the prediction vector obtained by the motion vector prediction means 505.

従って、図3のようにゼロベクトルが検出される頻度が最も多いため、形状動きベクトルがゼロベクトルか否かの情報をモード情報に含めることで、形状動きベクトル情報の符号量を削減している。   Accordingly, since the zero vector is detected most frequently as shown in FIG. 3, the code amount of the shape motion vector information is reduced by including information on whether or not the shape motion vector is the zero vector in the mode information. .

このようにして、形状情報符号化手段500による形状情報の符号化処理が行われる。なお、ここでの形状情報は、2階調化したアルファマップを対象としており、アルファマップには多階調グレースケールのものもあるので、これと区別して形状情報と称した。   In this way, the shape information encoding unit 500 performs shape information encoding processing. Note that the shape information here is for an alpha map with two gradations, and some alpha maps have a multi-grayscale gray scale, so they are referred to as shape information to distinguish them.

<テクスチャ情報の符号化法>
アルファマップはオブジェクトの形や大きさを表す情報(形状情報)であるが、オブジェクトの内部の輝度や色差の変化を表す情報であるテクスチャ情報がないとオブジェクトの画像を再生できない。従って、MPEG4ではアルファマップと共に、テクスチャ情報も符号化されてアルファマップと対で利用される。
<Encoding method of texture information>
The alpha map is information (shape information) representing the shape and size of the object, but the image of the object cannot be reproduced without texture information that is information representing changes in luminance and color difference inside the object. Therefore, in MPEG4, texture information is also encoded together with the alpha map and used as a pair with the alpha map.

テクスチャ情報(図12のYUV)の符号化法を図12を用いて説明する。図12は従来技術のモデルシステムとして構成例を示すエンコーダ部分のブロック構成図である。図12において、図に強調表記された構成要素である符号化領域(Bounding-Rectangle)検出手段301、参照画像パディング手段302、LPEパディング手段303、ゼロパディング手段304、ベクトルパディング手段306および形状情報符号化手段500は、任意形状のオブジェクトを符号化するためだけに必要な構成要素である。従って、MPEG1やMPEG2のような旧来の符号化法と同様に、矩形のオブジェクトを符号化するためには、これ以外の構成要素、すなわち、図12における動きベクトル検出手段305、フレームメモリ307、動き補償手段308、切替スイッチ309,310、動きベクトル予測手段311、動きベクトル記憶手段312、差分回路313、第3の可変長符号化手段314、量子化手段315、逆量子化手段316、直交変換手段317、第4の可変長符号化手段318、逆直交変換手段319、加算回路320、スイッチ321、マルチプレクサ322とから構成される要素が備わっていればよい。   An encoding method of texture information (YUV in FIG. 12) will be described with reference to FIG. FIG. 12 is a block diagram of an encoder portion showing a configuration example as a model system of the prior art. In FIG. 12, coding region (Bounding-Rectangle) detection means 301, reference image padding means 302, LPE padding means 303, zero padding means 304, vector padding means 306, and shape information code which are components highlighted in the figure. The converting unit 500 is a component necessary only for encoding an object having an arbitrary shape. Accordingly, in order to encode a rectangular object as in the conventional encoding method such as MPEG1 or MPEG2, other components, that is, the motion vector detecting means 305, the frame memory 307, the motion in FIG. Compensation means 308, changeover switches 309 and 310, motion vector prediction means 311, motion vector storage means 312, difference circuit 313, third variable length coding means 314, quantization means 315, inverse quantization means 316, orthogonal transformation means 317, fourth variable length coding means 318, inverse orthogonal transform means 319, adding circuit 320, switch 321, and multiplexer 322 may be provided.

ここで、符号化領域(Bounding-Rectangle)検出手段301はフレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検出するためのものであり(図9参照)、形状情報符号化手段500については、図11を用いて説明した通りである。   Here, the coding area (Bounding-Rectangle) detecting means 301 is for detecting a coding area which is an area where a target object is present in a frame image (see FIG. 9), and shape information coding. The means 500 is as described with reference to FIG.

図12の構成においては、"不透過マクロブロック"と"境界マクロブロック"に対して、テクスチャ情報(YUV)の符号化が行われることになるが、これらのうち、"不透過マクロブロック"に対しては、従来の符号化法と同様に、入力されたマクロブロックの信号をそのまま動き補償予測+DCT(離散コサイン変換)法で符号化する。   In the configuration of FIG. 12, the texture information (YUV) is encoded for the “opaque macroblock” and the “boundary macroblock”. On the other hand, as in the conventional encoding method, the input macroblock signal is directly encoded by the motion compensated prediction + DCT (discrete cosine transform) method.

一方、"境界マクロブロック"に対しては、オブジェクト外部の信号をパディング(補填処理)した後、動き補償予測+DCT法で符号化する。   On the other hand, for the “boundary macroblock”, a signal outside the object is padded (compensated) and then encoded by motion compensated prediction + DCT method.

そして、ここでのパディング(補填処理)には以下の3通りの手法がある。   There are the following three methods of padding (compensation processing) here.

[1] 参照画像パディング: これは参照画像パディング手段302による補充処理であって、動き補償予測の参照画像をパディングする。境界マクロブロックに対する処理と、透過マクロブロックに対する処理がある。   [1] Reference image padding: This is a replenishment process by the reference image padding means 302, and the reference image for motion compensation prediction is padded. There are processing for boundary macroblocks and processing for transparent macroblocks.

[2] LPEパディング: これはLPEパディング手段303による補充処理であって、イントラマクロブロック内のブロックをDCT(離散コサイン変換)する前に、オブジェクト外の画素(図13の白丸部)値をオブジェクト内部の画素(図13の黒丸部)値の平均値で置き換えた後、ローパスフィルタをかけるという処理である。処理単位は、DCTの場合と同じ8×8画素である。   [2] LPE padding: This is a replenishment process by the LPE padding means 303, and before DCT (discrete cosine transform) of the block in the intra macroblock, the pixel (white circle in FIG. 13) value outside the object is set to the object. This is a process of applying a low-pass filter after replacing the average value of the internal pixel (black circle portion in FIG. 13) value. The processing unit is the same 8 × 8 pixels as in the case of DCT.

[3] ゼロパディング: これはゼロパディング手段304による補充処理であって、インターマクロブロック内のブロックをDCTする前に、動き補償予測誤差信号のオブジェクト外の画素(図13の白丸部)値をゼロ値で置き換えると云う処理である。処理単位は、DCTと同じ8×8画素である。   [3] Zero padding: This is a replenishment process by the zero padding means 304, and before DCTing the block in the inter macro block, the value of the pixel outside the object (white circle in FIG. 13) of the motion compensated prediction error signal is set. This is a process of replacing with a zero value. The processing unit is 8 × 8 pixels, which is the same as DCT.

ここで、上記[1]のパディングはMPEG4の規格における必須の処理であるが、上記[2]と上記[3]のパディングは、符号化効率向上のために必要なものであって、規格上での必須の処理では無いため、上記構成要素による処理に限らず他の手段を用いて実施してもよい。   Here, the padding [1] is an indispensable process in the MPEG4 standard, but the padding [2] and [3] are necessary for improving the coding efficiency and are based on the standard. Therefore, the processing is not limited to the above-described components, and may be performed using other means.

また、動きベクトル検出手段305では、信号線31を介して符号化領域検出手段301より供給される形状信号に基づき、信号線32を介して供給される原画像の輝度信号(YUV)と、信号線33を介してフレームメモリ307から供給される参照画像の輝度信号との間で動きベクトル検出を行う。そして、その結果、得られた動きベクトル34は動き補償手段(MC)308とベクトルパディング手段(Vector padding)306に出力している。   Further, the motion vector detection unit 305, based on the shape signal supplied from the coding region detection unit 301 via the signal line 31, and the luminance signal (YUV) of the original image supplied via the signal line 32, and the signal Motion vector detection is performed between the luminance signal of the reference image supplied from the frame memory 307 via the line 33. As a result, the obtained motion vector 34 is output to the motion compensation means (MC) 308 and the vector padding means (Vector padding) 306.

ベクトルパディング手段(Vector padding)306では、形状情報符号化手段500より出力されて供給される形状情報の再生値データ54に基づいて、動きベクトルの無い8×8画素単位のブロック(透明ブロックやイントラマクロブロック)に適切な動きベクトルを充填した後、動きベクトル記憶手段(MV memory)312に蓄積する。   In the vector padding unit 306, based on the reproduction value data 54 of the shape information output and supplied from the shape information encoding unit 500, a block (transparent block or intra block) having no motion vector is used. After the macroblocks) are filled with appropriate motion vectors, they are stored in the motion vector storage means (MV memory) 312.

動きベクトルが検出される際に、参照画像はパディングによりオブジエクト内の画素値と滑らかにつながるように、オブジェクト外の画素値がパディングされている。   When the motion vector is detected, pixel values outside the object are padded so that the reference image is smoothly connected to the pixel values in the object by padding.

一方、原画像ではオブジェクト境界部の画素値はエッジの境界である場合が多いので、画素値変動が大きい。従って、境界マクロブロックで通常のブロックマッチングを行うと、オブジェクト外の画素値のミスマッチが大きく、正常な動きベクトルが検出されない場合が多い。   On the other hand, in the original image, the pixel value at the object boundary is often an edge boundary, and the pixel value variation is large. Therefore, when normal block matching is performed on the boundary macroblock, the mismatch of pixel values outside the object is large, and a normal motion vector is often not detected.

そこで、従来モデルでは境界マクロブロックに対しては、形状情報を参照してオブジェクト内部の画素値(図14の黒丸部)のみで誤差を評価して動きベクトルを検出するようにしている(これをポリゴンマッチングと言う)。しかし、この方法は画素毎に、それがオブジェクトの内部か否かを判定しながら動きベクトルを検出することとなるため、勢い処理量が多くなってしまう。   Therefore, in the conventional model, for the boundary macroblock, the motion vector is detected by evaluating the error only with the pixel value inside the object (black circle portion in FIG. 14) with reference to the shape information (this is the Polygon matching). However, since this method detects a motion vector for each pixel while determining whether or not it is inside an object, the amount of momentum processing increases.

上述したように、アルファマップはオブジェクトの形や大きさを表す情報(形状情報)であるが、オブジェクトの内部の輝度や色差の変化を表す情報であるテクスチャ情報がないとオブジェクトの画像を再生できない。従って、MPEG4ではアルファマップと共に、テクスチャ情報も符号化されてアルファマップと対で利用される。   As described above, an alpha map is information (shape information) that represents the shape and size of an object, but an object image cannot be reproduced without texture information that is information representing changes in luminance and color difference inside the object. . Therefore, in MPEG4, texture information is also encoded together with the alpha map and used as a pair with the alpha map.

そして、テクスチャ情報(YUV)の符号化は、"不透過マクロブロック"と"境界マクロブロック"に対して行われることになるが、これらのうち、"不透過マクロブロック"については、入力されたマクロブロックの信号をそのまま動き補償予測+DCT(離散コサイン変換)法で符号化し、"境界マクロブロック"については、オブジェクト外部の信号をパディング(補填処理)した後、動き補償予測+DCT法で符号化する。   The encoding of the texture information (YUV) is performed on the “opaque macroblock” and the “boundary macroblock”. Of these, the “opaque macroblock” is input. The macroblock signal is encoded as it is by the motion compensated prediction + DCT (discrete cosine transform) method, and the “boundary macroblock” is encoded by the motion compensated prediction + DCT method after padding the signal outside the object (compensation processing). .

すなわち、"境界マクロブロック"については、動き補償予測が行われるので、動きベクトル検出の際に、参照画像はオブジエクト内の画素値と滑らかにつながるようにオブジェク卜外の画素値をパディングしておくわけである。   That is, since motion compensation prediction is performed for the “boundary macroblock”, the pixel values outside the object are padded so that the reference image is smoothly connected to the pixel values in the object when the motion vector is detected. That is why.

しかし、原画像ではオブジェクト境界部の画素値は、エッジの境界である場合が多いので画素値変動が大きく、従って、境界マクロブロックで通常のブロックマッチングを行うと、オブジェクト外の画素値のミスマッチが大きく、正常な動きベクトルが検出されない場合が多い。   However, in the original image, the pixel value at the object boundary is often an edge boundary, so the pixel value fluctuates greatly. Therefore, when normal block matching is performed on the boundary macroblock, there is a mismatch between the pixel values outside the object. In many cases, a large and normal motion vector is not detected.

そこで、境界マクロブロックに対し、形状情報を参照してオブジェクト内部の画素値(図14の黒丸部)のみで誤差を評価して動きベクトルを検出する手法であるポリゴンマッチングを採用する。   Therefore, for the boundary macroblock, polygon matching, which is a method of detecting a motion vector by evaluating an error only with a pixel value (black circle portion in FIG. 14) inside the object with reference to shape information, is adopted.

しかし、この方法は画素毎にオブジェクトの内部か否かを判定しながら動きベクトルを検出することとなることから、処理量が多くなってしまう問題がある。   However, this method has a problem that the amount of processing increases because a motion vector is detected while determining whether or not each pixel is inside an object.

従って、本発明の目的とするところは、符号化効率向上を図りつつ、少ない演算量で動きベクトルの検出を行うことができるようにした動画像符号化装置および動画像符号化方法を提供することにある。   Accordingly, an object of the present invention is to provide a moving picture coding apparatus and a moving picture coding method capable of detecting a motion vector with a small amount of calculation while improving coding efficiency. It is in.

本発明は、上記目的を達成するため、次のように構成する。   In order to achieve the above object, the present invention is configured as follows.

[1] 第1には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、各マクロブロック毎にテクスチャ情報の動きベクトルを検出する手段と、該マクロブロックにおける形状情報の動きベクトルを検出するために、テクスチャ情報の動きベクトルの利用の可否を判定する判定手段と、前記マクロブロックにおける形状情報の動きベクトルを検出するために、テクスチャ情報の動きベクトルの信頼性を評価する評価手段と、形状情報の動きベクトル検出範囲を、テクスチャ情報の動きベクトルが利用不可能時には利用可能時より広く設定され、テクスチャ情報の動きベクトルが利用可能な場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも低い場合の方が広く設定される設定手段と、既に検出されているテクスチャ情報の動きベクトルを利用して前記マクロブロックにおける形状情報の動きベクトルを検出する動きベクトル検出手段とを備えて構成したものである。そして、この装置は、形状情報とテクスチャ情報とから構成される任意形状オブジェクトを符号化するにあたり、テクスチャ情報の動きベクトルも利用できるように動きベクトル検出手段にはテクスチャ情報の動きベクトルも検出できる機能を持たせ、入力されたオブジェクトの形状情報とテクスチャ情報のうち、テクスチャ情報の動きベクトルが利用できるか否かを識別手段にて識別させ、また、評価手段により、テクスチャ情報の動きベクトルの信頼性を評価し、また、符号化対象のマクロブロックの符号化にあたっては、そのマクロブロックの周辺のマクロブロックの形状動きベクトルを探索して形状動きベクトルを求めるが、その探索範囲はテクスチャ情報の動きベクトルが利用できる場合には狭く、また、テクスチャ情報の動きベクトルが利用できない場合には、利用できる場合よりも広くし、テクスチャ情報の動きベクトルが利用できる場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも信頼性の低い方が広く設定されるようにしてテクスチャ情報の動きベクトルの利用の可否と、信頼性の度合いに応じてマクロブロックの形状動きベクトル探索範囲を適正な範囲にするようにした。   [1] First, a coding apparatus of a moving image coding method for coding a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. A means for detecting a motion vector of the texture information for each macroblock, a determination means for determining whether or not the motion vector of the texture information can be used in order to detect a motion vector of the shape information in the macroblock, In order to detect the motion vector of shape information in a macro block, the evaluation means for evaluating the reliability of the motion vector of texture information and the motion vector detection range of the shape information can be used when the motion vector of texture information is not available It is set wider than the time and the motion information motion vector is In the case where the macroblock is available, setting means that is set more widely when the motion vector reliability of the texture information is lower than when the reliability of the motion vector is high, and the motion vector of the texture information that has already been detected is used in the macroblock. And a motion vector detecting means for detecting a motion vector of the shape information. This device is also capable of detecting the motion vector of the texture information in the motion vector detection means so that the motion vector of the texture information can be used when encoding the arbitrary shape object composed of the shape information and the texture information. Of the input object shape information and texture information, the identification means identifies whether the motion vector of the texture information can be used, and the reliability of the motion vector of the texture information is determined by the evaluation means In addition, when encoding a macroblock to be encoded, a shape motion vector is obtained by searching for shape motion vectors of macroblocks around the macroblock, and the search range is a motion vector of texture information. Is narrower when available, and the motion If the texture information motion vector cannot be used, it is wider than when it is available. If the texture information motion vector is available, the lower reliability is set wider than when the texture information motion vector is highly reliable. Thus, the shape motion vector search range of the macroblock is set to an appropriate range according to the availability of the motion vector of the texture information and the degree of reliability.

すなわち、この発明は、動きベクトル検出に関する発明であって、このようにした結果、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる技術が提供できる。   That is, the present invention relates to motion vector detection. As a result, it is possible to provide a technique capable of reducing the calculation amount of motion vector detection without reducing coding efficiency.

[2] また、本発明は、上記目的を達成するため、第2には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から形状動きベクトルおよびテクスチャ情報の動きベクトルを検出する動きベクトル検出手段を備えると共に、符号化時の誤差を指定するためのしきい値を設定するしきい値設定手段と、探索範囲内を複数の探索範囲に分割する分割手段と、検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する判定手段とを備え、前記動きベクトル検出手段は、前記分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差がしきい値よりも小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する機能を備える構成とする。   [2] In order to achieve the above object, according to the second aspect of the present invention, secondly, for a desired object constituting an image, the desired object is composed of shape information and texture information in units of macroblocks. In the coding apparatus of the moving image coding method, the motion vector detection means for detecting the shape motion vector and the motion vector of the texture information from the input object shape information is provided, and an error at the time of encoding is designated. Threshold value setting means for setting a threshold value for performing the search, dividing means for dividing the search range into a plurality of search ranges, and whether or not the motion compensation prediction error due to the detected motion vector is larger than the threshold value Determination means for determining whether the motion vector detection means is the narrowest of the divided search ranges When motion vector detection is started from the search range, and the motion compensation prediction error due to the optimal motion vector detected within the search range is larger than the threshold, the optimal motion vector is detected in a wider search range, When the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated, and the motion vector is output as a detection result.

MPEG4においては、予測ベクトルがゼロベクトルであった場合、予測ベクトルがゼロベクトルであることを表す情報をモード情報に組み込んで別途符号化することにより、符号化効率を向上させるが、このゼロベクトルを効率的に検出できるようにすることも演算量軽減に大きく寄与する。そこで、本発明では、しきい値設定手段を設けて、符号化時の誤差を指定するためのしきい値を設定しておき、また、分割手段にて探索範囲内を複数の探索範囲に分割する。そして、動きベクトル検出手段は、これら分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、判定手段はこの動きベクトル検出手段にて検出された動きベクトルを元に、当該検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する。そして、動きベクトル検出手段は、最も狭い探索範囲から動きベクトル検出を開始した結果、判定手段が、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きいと判定した場合は、より広い探索範囲で最適な動きベクトルを検出するように動作し、動き補償予測誤差がしきい値よりも小さいと判断した場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する。このように、探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差が大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差が小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力するようにした結果、誤差が小さければ少ない演算量でゼロベクトルを効率的に検出できるようになり、演算量軽減に大きく寄与する。   In MPEG4, when the prediction vector is a zero vector, information indicating that the prediction vector is a zero vector is incorporated into mode information and separately encoded, thereby improving the encoding efficiency. Making it possible to detect efficiently also greatly contributes to a reduction in the amount of calculation. Therefore, in the present invention, a threshold setting unit is provided to set a threshold for specifying an error during encoding, and the search unit is divided into a plurality of search ranges by the dividing unit. To do. Then, the motion vector detection means starts motion vector detection from the narrowest search range among the divided search ranges, and the determination means detects the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error due to the motion vector thus determined is larger than a threshold value. Then, as a result of starting motion vector detection from the narrowest search range, the motion vector detection means determines that the motion compensation prediction error due to the optimal motion vector detected within the search range is greater than the threshold value. If it is determined, it operates so as to detect an optimal motion vector in a wider search range, and if it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated and the motion vector is detected. Is output as a detection result. As described above, when the motion compensated prediction error due to the optimum motion vector detected within the search range is large, the optimum motion vector is detected within a wider search range, and when the motion compensated prediction error is small, the motion vector detection is performed. As a result of outputting the motion vector as a detection result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to the reduction of the amount of calculation.

[3] また本発明は、上記目的を達成するため、第3には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理する手段を有し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行う構成としたものである。   [3] In order to achieve the above object, according to the third aspect of the present invention, thirdly, regarding a desired object constituting an image, the desired object is an arbitrary shape object composed of shape information and texture information in units of macroblocks. In a coding apparatus of a moving image coding method to be coded, before performing shape coding and texture coding, a boundary of a form including an object as a part with reference to a shape signal input to the coding means For macroblocks, it has means to compensate all pixels in the macroblock to be texture encoded by performing padding processing for eliminating discontinuity in the macroblock, and shape coding and texture coding Is configured to use the padded image.

この発明は、"境界マクロブロック"におけるテクスチャ符号化に関する発明であって、原画像は、境界マクロブロックについては、オブジェクト境界部での画素値の不連続性が解消できるパディング処理、すなわち、LPEパディングにてパディング処理してから、形状符号化およびテクスチャ符号化に供するようにした。そのため、オブジェクト境界部での画素値の不連続性がほとんど無くなることから、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。故に、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、計算時間の短縮を図ることができると共に、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。   The present invention relates to texture coding in a “boundary macroblock”, and the original image is a padding process that can eliminate the discontinuity of pixel values at the object boundary for the boundary macroblock, that is, LPE padding. After the padding process, the shape coding and texture coding are used. For this reason, since there is almost no discontinuity of pixel values at the object boundary, a normal motion vector can be detected even when normal block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, the calculation time can be shortened, and a normal motion vector can be detected even when normal block matching is performed. become able to.

本発明によれば、任意形状オブジェクトの符号化に必要な構成要素の処理順序を変更することで、処理量の増加なしに符号化効率の向上が図れる。また、形状動きベクトルの検出処理を適応的に打ち切ることで、符号化効率の低下を招くことなく処理量の削減が可能となる。   According to the present invention, it is possible to improve the encoding efficiency without increasing the processing amount by changing the processing order of the components necessary for encoding the arbitrary shape object. In addition, by adaptively terminating the shape motion vector detection process, the processing amount can be reduced without causing a decrease in encoding efficiency.

以下、本発明具体例について、図面を参照して説明する。本発明は、MPEG4エンコーダ(動画像符号化装置)の構成要素の処理順序を変更することによる符号化効率向上と、形状動きベクトルの検出法を改良することで、符号化効率を低下させずに、少ない演算量で動きベクトルの検出を行うことができるようにするものであり、以下、詳細を説明する。   Hereinafter, specific examples of the present invention will be described with reference to the drawings. The present invention improves the encoding efficiency by changing the processing order of the components of the MPEG4 encoder (moving image encoding apparatus) and improves the shape motion vector detection method without reducing the encoding efficiency. The motion vector can be detected with a small amount of calculation, and the details will be described below.

<第1の具体例>
図を参照して本発明の第1の具体例を説明する。第1の具体例において説明する技術は、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようにする技術である。
<First specific example>
A first specific example of the present invention will be described with reference to the drawings. The technique described in the first specific example is a technique that can reduce the amount of calculation of motion vector detection without reducing the encoding efficiency.

前述した通り、図11に示した従来技術としてのモデルシステムの構成では、形状動きベクトル(MVs)は、動きベクトル予測手段505にて求められた予測ベクトル(MVPs)の周囲±16画素(図3の探索範囲3)を探索して求められる。つまり、予測ベクトルMVPsからの差分ベクトルMVDsを検出している(式1)。
MVDs=MVs−MVPs …(式1)
通常、予測誤差信号の頻度分布は、図1に示す如きに"0"近傍の頻度が高く、"0"から離れるにしたがって頻度が急激に小さくなる傾向がある。図1では、差分ベクトルMVDsの水平成分を"mvds_y"、垂直成分を"mvds_y"と表記している。
As described above, in the configuration of the model system as the prior art shown in FIG. 11, the shape motion vector (MVs) is ± 16 pixels around the prediction vector (MVPs) obtained by the motion vector prediction means 505 (FIG. 3). This is obtained by searching the search range 3). That is, the difference vector MVDs from the prediction vector MVPs is detected (Formula 1).
MVDs = MVs−MVPs (Formula 1)
Normally, the frequency distribution of the prediction error signal has a high frequency in the vicinity of “0” as shown in FIG. 1, and the frequency tends to decrease rapidly as the distance from “0” increases. In FIG. 1, the horizontal component of the difference vector MVDs is expressed as “mvds_y”, and the vertical component is expressed as “mvds_y”.

ここで、予測ベクトルMVPsの予測精度が低い場合は、頻度分布が緩慢となり、MVPsの予測精度が高い場合は頻度分布が急峻となる。図2は予測ベクトルMVPsを求める方法を説明する図である。図2(a)は形状信号成分に関して、そして、図2(b)は輝度信号成分に関しての情報をマクロブロック単位で示した図であり、符号化対象のマクロブロックMBとその近隣のマクロブロックとして形状動きベクトルMVs1、MVs2、MVs3を有するマクロブロックがあることを示している。また、図2(b)は符号化対象のマクロブロックMBとその近隣のマクロブロックとして、テクスチャ動きベクトルMV1、MV2、MV3を有するマクロブロックがあることを示している。   Here, when the prediction accuracy of the prediction vector MVPs is low, the frequency distribution is slow, and when the prediction accuracy of MVPs is high, the frequency distribution is steep. FIG. 2 is a diagram for explaining a method for obtaining the prediction vector MVPs. FIG. 2A is a diagram showing the shape signal component, and FIG. 2B is a diagram showing information on the luminance signal component in units of macroblocks. As the macroblock MB to be encoded and its neighboring macroblocks, FIG. It shows that there is a macroblock having shape motion vectors MVs1, MVs2, and MVs3. FIG. 2B shows that macroblocks having texture motion vectors MV1, MV2, and MV3 exist as macroblocks MB to be encoded and neighboring macroblocks.

そして、この場合、マクロブロックMBを符号化するにあたり、本発明システムでは、符号化対象のマクロブロックの符号化処理に際して、まず、はじめに、MVs1、MVs2、MVs3の順番でその符号化対象マクロブロックの周囲のマクロブロックについて、形状動きベクトルが存在するか否かを調べ、最初に存在する形状動きベクトルをMVPsとする。   In this case, in encoding the macroblock MB, in the system of the present invention, when encoding the macroblock to be encoded, first, in the order of the MVs1, MVs2, and MVs3, It is checked whether or not a shape motion vector exists for surrounding macroblocks, and the shape motion vector that exists first is defined as MVPs.

形状動きベクトルMVs1、MVs2、MVs3のいずれも存在しない場合には、今度はMV1、MV2、MV3の順番でテクスチャ動きベクトルが存在するか否かを調べ、最初に存在する動きべクトルを予測ベクトルMVPsとする。   When none of the shape motion vectors MVs1, MVs2, and MVs3 exist, it is checked whether or not the texture motion vector exists in the order of MV1, MV2, and MV3, and the motion vector that exists first is determined as the prediction vector MVPs. And

テクスチャ動きベクトルMV1、MV2、MV3いずれも存在しない場合は、予測ベクトルMVPsをゼロベクトルにする。   When none of the texture motion vectors MV1, MV2, and MV3 exists, the prediction vector MVPs is set to a zero vector.

本発明システムでは、動きベクトル予測手段505にはこのような機能を持たせる。   In the system of the present invention, the motion vector predicting unit 505 has such a function.

なお、前記参考文献にも記載されている通り、テクスチャ動きベクトル(MV1、MV2、MV3)を利用できる場合とできない場合がある。例えば、テクスチャ情報を符号化せずに形状情報だけを符号化するモードや、符号化対象マクロブロックに対する、MV1、MV2、MV3何れも存在しない場合などである。つまり、テクスチャ動きベクトルが信頼できると仮定すれば、この手法においては、テクスチャ動きベクトルを利用できる場合には、利用できない場合と比べて予測ベクトルMVpsの予測精度が高いといえる。   Note that, as described in the above-mentioned reference, texture motion vectors (MV1, MV2, MV3) may or may not be used. For example, there is a mode in which only the shape information is encoded without encoding the texture information, or the case where none of MV1, MV2, and MV3 exists for the encoding target macroblock. That is, assuming that the texture motion vector is reliable, it can be said that in this method, when the texture motion vector can be used, the prediction accuracy of the prediction vector MVps is higher than when the texture motion vector cannot be used.

(第1の具体例その1)
そこで、本実施例では図3に示すように、探索範囲を数段階分用意し、テクスチャ動きベクトルを利用できる場合には、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えるようにする。例えば、探索範囲を"探索範囲1"、"探索範囲2"、"探索範囲3"と云った具合に数段分、用意し、"探索範囲1"の領域サイズは4×4画素、"探索範囲2"の領域サイズは8×8画素、"探索範囲3"の領域サイズは16×16画素、と云った具合にする。
(First specific example 1)
Therefore, in this embodiment, as shown in FIG. 3, the search range is prepared for several stages, and when the texture motion vector can be used, the search range is switched according to the prediction accuracy of the prediction vector MVPs. For example, the search range is prepared for several stages such as “search range 1”, “search range 2”, “search range 3”, and the area size of “search range 1” is 4 × 4 pixels. The area size of “range 2” is 8 × 8 pixels, and the area size of “search range 3” is 16 × 16 pixels.

そして、図11に示した構成において、形状動きベクトル検出手段502の機能として、このように予測ベクトルMVPsの予測精度の検出と、この予測精度に応じて動きベクトル探索範囲を切り替える機能を付加した構成に改良することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができる。予測精度は、例えば、動きベクトル予測手段505の求めた予測ベクトルMVPsについての誤差の大きさで決めるようにすれば良い。   In the configuration shown in FIG. 11, as a function of the shape motion vector detection unit 502, the function of detecting the prediction accuracy of the prediction vector MVPs and the function of switching the motion vector search range according to the prediction accuracy are added. Thus, the calculation amount of motion vector detection can be reduced without reducing the coding efficiency. The prediction accuracy may be determined, for example, by the magnitude of the error with respect to the prediction vector MVPs obtained by the motion vector prediction unit 505.

動きベクトル探索範囲の具体例としては、テクスチャ動きベクトルが信頼できる場合には最小領域サイズとなる"探索範囲1"内を、そして、テクスチャ動きベクトルが信頼できない場合にはそれよりも幾分広い領域とした"探索範囲2"内を、探索範囲とする。また、テクスチャ動きベクトルが利用できない場合は最も広い領域とした"探索範囲3"を探索領域として探索するようにする。   As a specific example of the motion vector search range, if the texture motion vector is reliable, it is within the “search range 1”, which is the minimum region size, and if the texture motion vector is not reliable, a slightly wider region The “search range 2” is set as the search range. If the texture motion vector cannot be used, the search area “search range 3”, which is the widest area, is searched.

すなわち、形状動きベクトル検出手段502には、フレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検知する符号化領域検出手段(Bounding-rectangle)を介して入力されるアルファマップ信号(形状情報A)と動きベクトル予測手段505にて求められた予測ベクトルの情報とフレームメモリ506の形状情報信号とから動きベクトル検出するに当たり、予測ベクトルMVPsの予測精度を求めて、それに応じて切り替えた最適な動きベクトル探索範囲で形状動きベクトルを検出するように動作させる。そして、これにより検出したベクトルを形状動きベクトル情報として出力させる。   That is, an alpha map signal input to the shape motion vector detection unit 502 via an encoding region detection unit (Bounding-rectangle) that detects an encoding region that is a region where a target object exists in the frame image. In detecting a motion vector from (shape information A), the prediction vector information obtained by the motion vector prediction means 505 and the shape information signal in the frame memory 506, the prediction accuracy of the prediction vector MVPs is obtained and switched accordingly. The motion is detected so as to detect the shape motion vector within the optimum motion vector search range. Then, the detected vector is output as shape motion vector information.

このようにすると、マクロブロックの符号化に当たり、テクスチャ動きベクトルの予測精度に基づく信頼度を調べた結果、その信頼度が高ければ、符号化しようとしているマクロブロックの周辺の狭い探索範囲を用いて動きベクトル検出の計算を済ませることが可能となり、動きベクトル検出に必要な計算量を低減することができることになる。また、テクスチャ動きベクトルが信頼できない場合やテクスチャ動きベクトルが利用できない場合は探索範囲を広げることで、動きベクトルの検出が可能になる。   In this way, when encoding the macroblock, as a result of examining the reliability based on the prediction accuracy of the texture motion vector, if the reliability is high, a narrow search range around the macroblock to be encoded is used. It becomes possible to complete the calculation of motion vector detection, and the amount of calculation required for motion vector detection can be reduced. If the texture motion vector is not reliable or the texture motion vector cannot be used, the motion vector can be detected by expanding the search range.

図4は本具体例のフローチャートである。すなわち、テクスチャ動きベクトルが利用できるか否かをチェックし(ステップS11)、その結果、利用できなければ探索範囲を"探索範囲3"とすることとする。ステップS11でのチェックの結果、利用できるのであれば、次にテクスチャ動きベクトルが信頼できるか否かをチェックし(ステップS12)、その結果、信頼できなければ探索範囲を"探索範囲2"とすることとする。ステップS12でのチェックの結果、信頼できるのであれば、探索範囲を"探索範囲1"とする。   FIG. 4 is a flowchart of this example. That is, it is checked whether or not the texture motion vector can be used (step S11). As a result, if the texture motion vector cannot be used, the search range is set to “search range 3”. If the texture motion vector can be used as a result of the check in step S11, it is next checked whether or not the texture motion vector is reliable (step S12). If the result is not reliable, the search range is set to "search range 2". I will do it. If the result of the check in step S12 is reliable, the search range is set to “search range 1”.

なお、ここではテクスチャ動きクトルの信頼性は、テクスチャ動きベクトルの探索範囲によって判断している。つまり、テクスチャ動きベクトルの検出は、テクスチャ動きベクトルそのものを直接検出しているため、探索範囲が広い場合は大きな動きにも追従できることから、探索範囲が狭い場合よりも信頼性が高いと推測できる。なお、MPEG4では、テクスチャ動きベクトルの探索範囲は±1024まで拡張可能である。   Here, the reliability of the texture motion vector is determined by the search range of the texture motion vector. That is, the texture motion vector is detected directly because the texture motion vector itself is directly detected, and can follow a large motion when the search range is wide. Therefore, it can be estimated that the reliability is higher than that when the search range is narrow. In MPEG4, the search range of texture motion vectors can be extended to ± 1024.

このようにすることで、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えることができるようになり、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができる。   In this way, the search range can be switched according to the prediction accuracy of the prediction vector MVPs, and encoding is performed by performing such search range switching according to the prediction accuracy of the prediction vector MVPs. It is possible to reduce the calculation amount of motion vector detection without reducing efficiency.

(第1の具体例その2)
予測ベクトルMVDsがゼロベクトルであった場合、前述したように、当該予測ベクトルMVDsがゼロベクトルであることを表す情報は、符号化効率向上のためモード情報に組み込まれて別途符号化される。
(First specific example 2)
When the prediction vector MVDs is a zero vector, as described above, information indicating that the prediction vector MVDs is a zero vector is incorporated into mode information and separately encoded to improve encoding efficiency.

そこで、図12に示したMPEG4用の従来技術としてのモデルエンコードシステムでは、ゼロベクトルが検出され易いように、比較基準としての所定のしきい値を定め、ゼロベクトル時の動き補償予測誤差(MC誤差)をこのしきい値と比較すると共に、当該ゼロベクトル時の動き補償予測誤差(MC誤差)が前記しきい値よりも小さいときには、その時点で検出を打ち切り、予測ベクトルMVPsを形状動きベクトルMVsとしている。   Therefore, in the model encoding system as the prior art for MPEG4 shown in FIG. 12, a predetermined threshold value is set as a comparison reference so that the zero vector is easily detected, and a motion compensation prediction error (MC at the time of the zero vector is determined. Error) is compared with this threshold value, and when the motion compensated prediction error (MC error) at the time of the zero vector is smaller than the threshold value, detection is aborted at that time, and the predicted vector MVPs is converted into the shape motion vector MVs. It is said.

本具体例では、上記打ち切りを更に拡張したもので、たとえば、図3の"探索範囲1"まで検出した際の最適な動きベクトルでの動き補償予測誤差が、所定のしきい値よりも小さいときには、その時点で検出を打ち切るようにする。動き補償予測誤差が所定のしきい値よりも大きい場合には、探索範囲を"探索範囲2"まで拡張し、"探索範囲1"のときと同様に、"探索範囲2"の残りの範囲を探索した際の最適な動きベクトルでの動き補償予測誤差が所定のしきい値よりも小さいときには、その時点で検出を打ち切るようにする。   In this specific example, the above truncation is further expanded. For example, when the motion compensation prediction error with the optimum motion vector when detecting up to “search range 1” in FIG. 3 is smaller than a predetermined threshold value. , At that point, stop the detection. When the motion compensation prediction error is larger than the predetermined threshold value, the search range is expanded to “search range 2”, and the remaining range of “search range 2” is expanded as in the case of “search range 1”. When the motion compensation prediction error with the optimum motion vector at the time of the search is smaller than a predetermined threshold value, the detection is stopped at that point.

つまり、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えるようにし、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量低減を図るようにする。   That is, the search range is switched according to the prediction accuracy of the prediction vector MVPs, and the search range switching according to the prediction accuracy of the prediction vector MVPs is performed, so that motion vector detection can be performed without reducing the coding efficiency. Try to reduce the amount of calculation.

図5は、本具体例のフローチャートである。すなわち、予測ベクトルMVDsを"0"に初期化し(ステップS1)、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS2)。その結果、小さければ処理を終了し、大きければ"探索範囲1"内を探索する(ステップS3)。   FIG. 5 is a flowchart of this example. That is, the prediction vector MVDs is initialized to “0” (step S1), and then it is checked whether the MC (motion compensation) error is larger than a threshold (step S2). As a result, if it is small, the process is terminated, and if it is large, the search is made in “search range 1” (step S3).

そして、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS4)。その結果、小さければ処理を終了し、大きければ"探索範囲2−探索範囲1"内を探索する(ステップS5)。   Then, it is checked whether the MC (motion compensation) error is larger than a threshold value (step S4). As a result, if it is small, the process is terminated, and if it is large, the search is made within “search range 2—search range 1” (step S5).

そして、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS6)。その結果、小さければ処理を終了し、大きければ"探索範囲3−探索範囲2"内を探索し(ステップS7)、それが終われば処理を終了する。   Then, it is checked whether the MC (motion compensation) error is larger than a threshold value (step S6). As a result, if it is small, the process is terminated, and if it is large, the search is made within “search range 3—search range 2” (step S7), and when it is completed, the process is terminated.

このようにすることで、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えることができるようになり、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる。   In this way, the search range can be switched according to the prediction accuracy of the prediction vector MVPs, and encoding is performed by performing such search range switching according to the prediction accuracy of the prediction vector MVPs. The calculation amount of motion vector detection can be reduced without reducing the efficiency.

前述したように、ゼロベクトル近傍に差分ベクトルMVDsの最適値がある可能性が高いため、狭い探索範囲から段階的に探索範囲を拡張し、途中段階で所定の条件を満たした場合は探索を打ち切ることで、符号化効率の低下なしに、動きベクトル検出の計算量を低減することができる。   As described above, since there is a high possibility that there is an optimum value of the difference vector MVDs in the vicinity of the zero vector, the search range is expanded step by step from a narrow search range, and the search is terminated when a predetermined condition is satisfied in the middle step. Thus, it is possible to reduce the calculation amount of motion vector detection without lowering the encoding efficiency.

"具体例その1"、"具体例その2"共に、図11のMPEG4用モデルエンコーダと比較して、大きさの小さいベクトルが選択されるため、動きベクトルの符号量が低減されて結果として符号化効率が向上する場合もある。   In both “specific example 1” and “specific example 2”, a vector having a smaller size is selected as compared with the MPEG4 model encoder of FIG. In some cases, the conversion efficiency is improved.

なお、"具体例その1"と"具体例その2"に示した技術を組み合せれば、さらに動きベクトル検出の計算量の低減が可能になる。   If the techniques shown in “Specific Example 1” and “Specific Example 2” are combined, the calculation amount of motion vector detection can be further reduced.

以上は、MPEG4において、テクスチャ動きベクトルを利用して動きベクトル検出を行うことにより、動きベクトル検出に当たっての計算量を低減することができるようにした技術であった。   The above is a technique in which the amount of calculation for motion vector detection can be reduced by performing motion vector detection using texture motion vectors in MPEG4.

次に、"境界マクロブロック"におけるテクスチャ符号化について説明する。
<第2の具体例>
次に、本発明の第2の具体例を説明する。本具体例は、マクロブロック内の一部にオブジェクトを含む形態である"境界マクロブロック"におけるテクスチャ符号化に関わるものである。
Next, texture coding in the “boundary macroblock” will be described.
<Second specific example>
Next, a second specific example of the present invention will be described. This specific example relates to texture coding in a “boundary macroblock” which is a form in which an object is included in a part of a macroblock.

図6において、図に強調表記された構成要素である符号化領域(Bounding-Rectangle)検出手段301、参照画像パディング手段302、LPEパディング手段303a、ゼロパディング手段304、ベクトルパディング手段306および形状情報符号化手段500は、任意形状のオブジェクトを符号化するためだけに必要な構成要素である。従って、MPEG1やMPEG2のような旧来の符号化法と同様に、矩形のオブジェクトを符号化するためには、これ以外の構成要素、すなわち、図6における動きベクトル検出手段305、フレームメモリ307、動き補償手段308、切替スイッチ309,310、動きベクトル予測手段311、動きベクトル記憶手段312、差分回路313、第3の可変長符号化手段314、量子化手段315、逆量子化手段316、直交変換手段317、第4の可変長符号化手段318、逆直交変換手段319、加算回路320、スイッチ321、マルチプレクサ322とから構成される要素が備わっていればよい。   In FIG. 6, coding region (Bounding-Rectangle) detecting means 301, reference image padding means 302, LPE padding means 303a, zero padding means 304, vector padding means 306, and shape information code which are components highlighted in the figure. The converting unit 500 is a component necessary only for encoding an object having an arbitrary shape. Therefore, in order to encode a rectangular object as in the conventional encoding method such as MPEG1 or MPEG2, other components, that is, the motion vector detecting means 305, the frame memory 307, the motion in FIG. Compensation means 308, changeover switches 309 and 310, motion vector prediction means 311, motion vector storage means 312, difference circuit 313, third variable length coding means 314, quantization means 315, inverse quantization means 316, orthogonal transformation means 317, fourth variable length coding means 318, inverse orthogonal transform means 319, adding circuit 320, switch 321, and multiplexer 322 may be provided.

ここで、動きベクトル検出手段305は、LPEパディング手段303の出力するLPEパディング済みのマクロブロックデータと、形状情報符号化手段500の出力する形状情報の再生値データ54と、フレームメモリ307から供給される参照画像の輝度信号との間で動きベクトル検出を行う。そして、その結果、得られた動きベクトルは、動き補償手段(MC)308とベクトルパディング(Vector padding)手段306と差分回路313とに出力している。   Here, the motion vector detection means 305 is supplied from the LPE padded macroblock data output from the LPE padding means 303, the shape information reproduction value data 54 output from the shape information encoding means 500, and the frame memory 307. Motion vector detection is performed with the luminance signal of the reference image. As a result, the obtained motion vector is output to the motion compensation means (MC) 308, the vector padding means 306, and the difference circuit 313.

フレームメモリ307は、参照画像パディング手段302から出力されるパディング処理済みの参照画像の輝度信号を保持するためのものである。また、動き補償手段308は、動きベクトル検出手段305にて検出された動きベクトルと、形状情報符号化手段500の出力する形状情報の再生値データ54とを用いて動き補償予測のための動きベクトル情報を求めるためのものであり、切替スイッチ309,310は、LPEパディング手段303の出力をゼロパディング手段304に与えるか、迂回させるかを選択切り換えするための経路切り替えスイッチである。   The frame memory 307 is for holding a luminance signal of a reference image that has been padded and output from the reference image padding unit 302. Also, the motion compensation unit 308 uses the motion vector detected by the motion vector detection unit 305 and the reproduction value data 54 of the shape information output from the shape information encoding unit 500 to provide a motion vector for motion compensation prediction. The changeover switches 309 and 310 are path changeover switches for selectively switching whether the output of the LPE padding means 303 is given to the zero padding means 304 or to be bypassed.

直交変換手段317は、この切替スイッチ310を介して与えられる出力を直交変換(離散コサイン変換)して周波数成分に分解する処理をするためのものであり、量子化手段315は、この直交変換手段317の出力を量子化して出力するものであり、第4の可変長符号化手段318は、この量子化出力を可変長符号化処理してテクスチャストリームとしてマルチプレクサ322に出力するものである。   The orthogonal transform means 317 is for performing an orthogonal transform (discrete cosine transform) on the output given via the changeover switch 310 and decomposing the output into frequency components. The quantization means 315 is an orthogonal transform means. The fourth variable length coding means 318 performs variable length coding processing on the quantized output and outputs the quantized output to the multiplexer 322 as a texture stream.

また、動きベクトル予測手段311は、形状情報符号化手段500の出力する形状情報の再生値データ54と、動きベクトル記憶手段312の保持するデータとを用いて動きベクトルを予測するためのものであり、差分回路313は、この動きベクトル予測手段311の出力する動きベクトル予測値と動きベクトル検出手段305の出力する動きベクトルとの差分値を得るためのものであり、第3の可変長符号化手段314は、この差分回路313の出力を可変長符号化処理してモーションストリームとしてマルチプレクサ322に出力するものである。   The motion vector predicting means 311 is for predicting a motion vector using the reproduction value data 54 of the shape information output from the shape information encoding means 500 and the data held in the motion vector storage means 312. The difference circuit 313 is used to obtain a difference value between the motion vector prediction value output from the motion vector prediction means 311 and the motion vector output from the motion vector detection means 305. Third difference length encoding means 314 is a variable-length encoding process for the output of the difference circuit 313 and outputs it as a motion stream to the multiplexer 322.

逆量子化手段316は、量子化手段315の量子化出力を逆量子化してもとのデータに戻して出力するものであり、逆直交変換手段319は、この逆量子化手段316の出力するデータを逆直交変換(逆離散コサイン変換)して元のゼロパディング処理時点でのデータに戻すためのものである。   The inverse quantization means 316 returns the quantized output of the quantization means 315 to the original data after being inversely quantized, and the inverse orthogonal transform means 319 outputs the data output from the inverse quantization means 316. Is subjected to inverse orthogonal transform (inverse discrete cosine transform) to restore the original data at the time of zero padding processing.

マルチプレクサ322は、第3の可変長符号化手段314の出力する可変長符号化されたモーションストリームと、第4の可変長符号化手段318の出力する可変長符号化されたテクスチャストリームと、符号化領域(Bounding-Rectangle)検出手段301の出力する符号化領域の情報と、形状情報符号化手段500の出力する形状情報の再生値データ54とを受けてこれらを多重化して出力するものである。   The multiplexer 322 encodes the variable-length encoded motion stream output from the third variable-length encoding unit 314, the variable-length encoded texture stream output from the fourth variable-length encoding unit 318, and encoding. It receives the information of the coding area output from the region (Bounding-Rectangle) detection means 301 and the reproduction value data 54 of the shape information output from the shape information encoding means 500, multiplexes them and outputs them.

また、前記逆直交変換手段319は、この逆量子化手段316の出力するデータを逆直交変換(逆離散コサイン変換)して元のゼロパディング処理時点でのデータに戻すためのものである。   The inverse orthogonal transform unit 319 is for performing inverse orthogonal transform (inverse discrete cosine transform) on the data output from the inverse quantization unit 316 to restore the original data at the time of zero padding processing.

また、加算回路320は、スイッチ321を介して与えられる動き補償手段308からの動きベクトル情報と逆直交変換手段319から与えられる元のゼロパディング処理時点でのデータとを加算して参照画像パディング手段302に与えるためのものであり、動きベクトル記憶手段312は、ベクトルパディング手段306の出力する形状情報の再生値データ54に基づいて、動きベクトルの無い8×8画素単位のブロック(透明ブロックやイントラマクロブロック)に適切な動きベクトルを充填したデータを受けてこれを蓄積するものである。   Further, the adder circuit 320 adds the motion vector information from the motion compensation unit 308 given through the switch 321 and the original zero padding process data given from the inverse orthogonal transform unit 319 to add the reference image padding unit. The motion vector storage unit 312 is based on the reproduction value data 54 of the shape information output from the vector padding unit 306. Based on the reproduction value data 54 of the shape information, the motion vector storage unit 312 Macroblock) is received and stored with an appropriate motion vector.

ここで、本実施例でのエンコーダと従来のエンコーダの仕組みの違いに触れておく。従来のエンコーダは図12に示すように、動きベクトル検出手段305は入力されるテクスチャ情報(YUV)と符号化領域(Bounding-Rectangle)検出手段301からの検出出力とフレームメモリ307からの記憶情報とを用いて動きベクトル34を得るようにしていた。ここで、符号化領域(Bounding-Rectangle)検出手段301はフレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検出するためのものである。   Here, the difference in the mechanism between the encoder in the present embodiment and the conventional encoder will be mentioned. In the conventional encoder, as shown in FIG. 12, the motion vector detection means 305 includes input texture information (YUV), detection output from the coding area (Bounding-Rectangle) detection means 301, and storage information from the frame memory 307. Is used to obtain the motion vector 34. Here, the coding area (Bounding-Rectangle) detection means 301 is for detecting a coding area that is an area where a target object exists in a frame image.

また、LPEパディング手段303はゼロパディング手段304と並列におき、入力テクスチャ情報(YUV)を条件に応じていずれか一方に与えてパディングさせて、そのパディング処理済みの出力を直交変換手段317に与える構成であった。   Further, the LPE padding means 303 is placed in parallel with the zero padding means 304, and the input texture information (YUV) is given to one of them according to the condition for padding, and the padded output is given to the orthogonal transformation means 317. It was a configuration.

これを本発明では、図6に示す如く、LPEパディング手段303は初段において、入力テクスチャ情報(YUV)を条件に係わりなく、LPEパディング処理し、これを動きベクトル検出手段305と、そして、条件に応じてゼロパディング手段304に与える構成としている。ここで、LPEパディングとは、前述したように、イントラマクロブロック内のブロックをDCT(離散コサイン変換)する前に、オブジェクト外の画素(図13の白丸部)値をオブジェクト内部の画素(図13の黒丸部)値の平均値で置き換えた後、ローパスフィルタをかける処理であって、処理単位は、DCTの場合と同様、8×8画素である。また、ゼロパディングは、インターマクロブロック内のブロックをDCTする前に、動き補償予測誤差信号のオブジェクト外の画素(図13の白丸部)値をゼロ値で置き換える処理であって、処理単位は、DCTの場合と同様、8×8画素である。これらLPEパディングおよびゼロパディングは、MPEG4の規格において必須の処理ではないが、符号化効率向上のために実施するものである。   In the present invention, as shown in FIG. 6, the LPE padding means 303 performs the LPE padding process at the first stage regardless of the condition of the input texture information (YUV), and this is processed into the motion vector detection means 305 and the condition. Accordingly, the zero padding means 304 is provided. Here, as described above, LPE padding refers to pixel values outside an object (white circles in FIG. 13) values inside the object (FIG. 13) before DCT (Discrete Cosine Transform) of the block in the intra macroblock. The processing unit is 8 × 8 pixels, as in the case of DCT. Also, zero padding is a process of replacing pixel values outside the object (white circles in FIG. 13) of the motion compensated prediction error signal with zero values before DCTing the blocks in the inter macroblock. As in the case of DCT, it is 8 × 8 pixels. These LPE padding and zero padding are not indispensable processes in the MPEG4 standard, but are implemented to improve coding efficiency.

本具体例のブロック構成は図6に示す如きのものである。そして、本具体例の構成は、動きベクトル検出手段305の処理位置が図12に示した従来モデルの構成における動きベクトル検出手段305の位置と異なり、また、LPEパディング303の処理位置が従来モデルのLPEパディング303の位置と異なる。   The block configuration of this example is as shown in FIG. In the configuration of this specific example, the processing position of the motion vector detection unit 305 is different from the position of the motion vector detection unit 305 in the configuration of the conventional model shown in FIG. 12, and the processing position of the LPE padding 303 is the same as that of the conventional model. Different from the position of the LPE padding 303.

<LPEパディング手段>
まず、本実施例システムにおけるLPEパディング手段303aでの処理と、従来技術としてのシステムにおけるLPEパディング手段303での処理との相違点を説明する。
<LPE padding means>
First, the difference between the processing in the LPE padding means 303a in the system of this embodiment and the processing in the LPE padding means 303 in the system as the prior art will be described.

LPEパディング手段303aでのパディング処理は、信号線を介して供給されるテクスチャ画像の原信号(YUV)41の境界マクロブロックのみに施される。ここで、境界マクロブロックか否かは符号化領域(Bounding-Rectangle)検出手段301を介して供給される形状画像の原信号42を用いて判断する。つまり、LPEパディング手段303aでの処理は、符号化の前処理としてLPEパディングを施していることになる。   The padding process in the LPE padding unit 303a is performed only on the boundary macroblock of the original image (YUV) 41 of the texture image supplied via the signal line. Here, whether or not it is a boundary macroblock is determined using the original signal 42 of the shape image supplied via the coding region (Bounding-Rectangle) detection means 301. That is, the LPE padding means 303a performs LPE padding as a pre-coding process.

当該前処理を行ったことにより、LPEパディング手段303aから出力されるテクスチャ画像43は、符号化される前に符号化対象となるマクロブロック内の画素値が全て補填されることになる。   By performing the preprocessing, the texture image 43 output from the LPE padding unit 303a is compensated for all the pixel values in the macroblock to be encoded before being encoded.

なお、従来技術としてのモデルシステムにおけるLPEパディング手段303では、信号線35を介して形状情報符号化手段500より供給される形状画像の局部復号信号に基づき、8×8画素のブロックが境界ブロックであればパディングを施している。   In the LPE padding means 303 in the model system as the prior art, an 8 × 8 pixel block is a boundary block based on the local decoded signal of the shape image supplied from the shape information encoding means 500 via the signal line 35. If there is any padding.

本具体例では、8×8画素のブロック単位でパディングして、図14の左上のブロックのように、ブロック内にオブジェクト内の画素を含まない場合は、たとえば、周囲のブロックの平均値でパディングすることで、マクロブロック内の画素が全てパディングされるようにする。   In this specific example, when padding is performed in block units of 8 × 8 pixels and the pixel in the object is not included in the block as in the upper left block in FIG. 14, for example, padding is performed with the average value of surrounding blocks. As a result, all the pixels in the macroblock are padded.

以上、説明したように、本具体例と従来モデルシステムとでは、第1には、形状画像の原信号に基づきパディングするか、局部復号信号に基づきパディングするかという点が異なる。   As described above, the first specific example and the conventional model system differ in that padding is performed based on the original signal of the shape image or padding based on the local decoded signal.

ここで、本発明の手法である"形状画像の原信号に基づきパディング"する方式の効果を具体的に示すために、1次元信号のモデルに対してLPEパディングを施した例を示す。輝度信号をY、形状信号をA、形状の局部復号信号(その1)をA′、形状の局部復号信号(その2)をA″とする。そして、これらがそれぞれ以下のような信号であったとする。   Here, an example in which LPE padding is applied to a one-dimensional signal model will be shown in order to specifically show the effect of the method of “padding based on the original signal of the shape image” which is the technique of the present invention. The luminance signal is Y, the shape signal is A, the shape local decoded signal (Part 1) is A ', and the shape local decoded signal (Part 2) is A ". These are the following signals, respectively. Suppose.

以下の例では、簡単のため、形状信号を"0"(オブジェクト外)か、"1"(オブジェクト内)かで表現している。   In the following example, for simplicity, the shape signal is expressed by “0” (outside the object) or “1” (inside the object).

Y={50,50,50,50,180,190,200,210}
A={0,0,0,0,1,1,1,1,1}
A′={0,0,0,1,1,1,1,1}
A″={0,0,0,0,0,1,1,1}
ここで、輝度信号Yを上述のA、A′、A″でそれぞれLPEパディングした結果をYp、Yp′、Yp″とすると、例えば、以下のようになる。
Y = {50,50,50,50,180,190,200,210}
A = {0,0,0,0,1,1,1,1,1}
A ′ = {0,0,0,1,1,1,1,1}
A ″ = {0,0,0,0,0,1,1,1}
Here, assuming that the results of LPE padding of the luminance signal Y with the above-described A, A ′, A ″ are Yp, Yp ′, Yp ″, for example, the following results.

Yp={195,195,195,188,180,190,200,210}
Yp′={166,166,108,50,180,190,200,210}
Yp″={200,200,200,200,195,190,200,210}
すなわち、Ypの場合、もとのYなるデータの"50","50","50","50","180","190","200","210"なるデータ列がパディングの結果、"195","195","195","188","180","190","200","210"となったことを示しており、Yp′の場合にはデータ値が"166","166","108","50","180","190","200","210"となったことを示しており、Yp″の場合はデータ値が"200","200","200","200","195","190","200","210"となったことを示している。尚、ここに示した数値は下限値を"0"(白)、上限値を"255"(黒)とする256段階のグレースケール値である。
Yp = {195,195,195,188,180,190,200,210}
Yp ′ = {166,166,108,50,180,190,200,210}
Yp ″ = {200,200,200,200,195,190,200,210}
That is, in the case of Yp, the data string of “50”, “50”, “50”, “50”, “180”, “190”, “200”, “210” of the original Y data is padded. As a result, “195”, “195”, “195”, “188”, “180”, “190”, “200”, “210” are indicated, and in the case of Yp ′, the data value Indicates “166”, “166”, “108”, “50”, “180”, “190”, “200”, “210”, and in the case of Yp ″, the data value is “ 200, 200, 200, 200, 195, 190, 200, and 210. The numerical values shown here are lower limit values. It is a 256-step gray scale value where “0” (white) and the upper limit value are “255” (black).

一般に、オブジェクトの境界は、像のエッジ部であり、上記の例のように輝度信号Yが大きく変動する。形状情報符号化手段500での処理において、形状の局部復号信号に誤差が発生した場合には、上記の例(Yp)のように滑らかにパディングされない場合がある。そのため、"境界マクロブロック"におけるテクスチャ符号化をする場合に、このような誤差を含む信号を用いなければならなくなったときはエッジが不明確となってしまう問題が浮上することとなる。   In general, the boundary of an object is an edge portion of an image, and the luminance signal Y varies greatly as in the above example. When an error occurs in the shape local decoding signal in the processing by the shape information encoding unit 500, the padding may not be smoothly performed as in the above example (Yp). Therefore, when texture encoding is performed on the “boundary macroblock”, a problem that an edge becomes unclear becomes apparent when a signal including such an error must be used.

しかし、本発明方式の場合は、形状信号を"0"(オブジェクト外)、"1"(オブジェクト内)とすることで、このような心配が全くなくなる。   However, in the case of the method of the present invention, such a worry is completely eliminated by setting the shape signal to “0” (outside the object) and “1” (inside the object).

<動きベクトル検出手段>
次に、本実施例システムにおける動きベクトル検出手段305aの処理と従来モデルのシステムにおける動きベクトル検出手段305の処理との相違点を説明する。本システムにおける動きベクトル検出手段305aでは、形状情報符号化手段500から出力され、信号線44を介して供給される形状情報の再生値データ54と、LPEパディング手段303aの出力するパディング処理済みデータとに基づいて透過マクロブロック以外のマクロブロックに対する動きべクトルを検出する。
<Motion vector detection means>
Next, the difference between the processing of the motion vector detection means 305a in the system of this embodiment and the processing of the motion vector detection means 305 in the system of the conventional model will be described. In the motion vector detection unit 305a in this system, the reproduction value data 54 of the shape information output from the shape information encoding unit 500 and supplied via the signal line 44, and the padded processed data output from the LPE padding unit 303a Based on, motion vectors for macroblocks other than the transparent macroblock are detected.

LPEパディング手段303aより信号線45を介して供給される原画像データ(パディング処理済みデータ)と、フレームメモリ307から信号線46を介して供給される参照画像との間で動きベクトルを検出し、この検出した動きベクトルは、信号線47を介してベクトルパディング(Vector padding)手段306と、動き補償手段308と、差分回路313とに出力する。   A motion vector is detected between the original image data (padding processed data) supplied from the LPE padding means 303a via the signal line 45 and the reference image supplied from the frame memory 307 via the signal line 46; The detected motion vector is output to the vector padding means 306, the motion compensation means 308, and the difference circuit 313 via the signal line 47.

ここで、信号線45を介して供給される原画像は、すでにLPEパディング403により境界マクロブロックがパディングされている。そのため、オブジェクト境界部での画素値の不連続性がほとんど無い。   Here, the boundary macroblock is already padded by the LPE padding 403 in the original image supplied via the signal line 45. For this reason, there is almost no discontinuity of pixel values at the object boundary.

従って、従来モデルシステムにおける動きベクトル検出手段305の場合と異なり、本発明システムの動きベクトル検出手段305aにおいては、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、しかも、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。   Therefore, unlike the case of the motion vector detection unit 305 in the conventional model system, the motion vector detection unit 305a of the system of the present invention does not need to perform polygon matching with a large amount of processing in the “boundary macroblock”. Even when block matching is performed, a normal motion vector can be detected.

以上、種々の実施例を説明したが、要するに本発明は、第1には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から動き補償予測に用いるための形状動きベクトルおよびテクスチャ情報の動きベクトルとを検出する動きベクトル検出手段と、入力されるテクスチャ情報から当該テクスチャ情報の動きベクトルの利用の可否を識別する識別手段と、テクスチャ情報における前記検出された動きベクトルの信頼性を評価する評価手段と、形状動きベクトルの探索範囲を、テクスチャ情報の動きベクトル不可能時には利用可能時より広く設定され、テクスチャ情報の動きベクトルが利用可能な場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合より低い方が広く設定される設定手段とを有するものである。   As described above, various embodiments have been described. In short, the present invention firstly relates to a desired object constituting an image, and the desired shape object is formed of shape information and texture information in units of macroblocks. A motion vector detecting means for detecting a shape motion vector and a texture information motion vector to be used for motion compensation prediction from input object shape information, and an input device Identification means for identifying whether or not the motion vector of the texture information can be used from the texture information, an evaluation means for evaluating the reliability of the detected motion vector in the texture information, a search range of the shape motion vector, When information motion vector is not available, set wider than when it can be used. Is, in case the motion vector of texture information is available are those having a setting unit for lower than the reliability of the motion vector of texture information are set widely.

そして、この装置は、形状情報とテクスチャ情報とから構成される任意形状オブジェクトを符号化するにあたり、テクスチャ情報の動きベクトルも利用できるように動きベクトル検出手段にはテクスチャ情報の動きベクトルも検出できる機能を持たせ、入力されたオブジェクトの形状情報とテクスチャ情報のうち、テクスチャ情報の動きベクトルが利用できるか否かを識別手段にて識別させ、また、評価手段により、テクスチャ情報の動きベクトルの信頼性を評価し、また、符号化対象のマクロブロックの符号化にあたっては、そのマクロブロックの周辺のマクロブロックの形状動きベクトルを探索して形状動きベクトルを求めるが、その探索範囲はテクスチャ情報の動きベクトルが利用できる場合には狭く、また、テクスチャ情報の動きベクトルが利用できない場合には、利用できる場合よりも広くし、テクスチャ情報の動きベクトルが利用できる場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも信頼性の低い方が広く設定されるようにしてテクスチャ情報の動きベクトルの利用の可否と、信頼性の度合いに応じてマクロブロックの形状動きベクトル探索範囲を適正な範囲にするようにした。すなわち、この発明は、動きベクトル検出に関する発明であって、このようにした結果、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる技術が提供できる。   This device is also capable of detecting the motion vector of the texture information in the motion vector detection means so that the motion vector of the texture information can be used when encoding the arbitrary shape object composed of the shape information and the texture information. Of the input object shape information and texture information, the identification means identifies whether the motion vector of the texture information can be used, and the reliability of the motion vector of the texture information is determined by the evaluation means In addition, when encoding a macroblock to be encoded, a shape motion vector is obtained by searching for shape motion vectors of macroblocks around the macroblock, and the search range is a motion vector of texture information. Is narrower when available, and the motion If the texture information motion vector cannot be used, it is wider than when it is available. If the texture information motion vector is available, the lower reliability is set wider than when the texture information motion vector is highly reliable. Thus, the shape motion vector search range of the macroblock is set to an appropriate range according to the availability of the motion vector of the texture information and the degree of reliability. That is, the present invention relates to motion vector detection. As a result, it is possible to provide a technique capable of reducing the calculation amount of motion vector detection without reducing coding efficiency.

また、第2には、本発明は、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から形状動きベクトルおよびテクスチャ情報の動きベクトルを検出する動きベクトル検出手段を備えると共に、符号化時の誤差を指定するためのしきい値を設定するしきい値設定手段と、探索範囲内を複数の探索範囲に分割する分割手段と、検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する判定手段とを備え、前記動きベクトル検出手段は、前記分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差がしきい値よりも小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する機能を備える構成とした。   Second, the present invention relates to a moving image coding system that encodes a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. The encoding apparatus includes a motion vector detection means for detecting a shape motion vector and a texture information motion vector from the shape information of an input object, and sets a threshold value for specifying an error in encoding. A threshold value setting unit, a dividing unit that divides the search range into a plurality of search ranges, and a determination unit that determines whether the motion compensation prediction error due to the detected motion vector is larger than a threshold value, The motion vector detection means detects a motion vector from the narrowest search range among the divided search ranges. When the motion compensated prediction error due to the optimal motion vector detected within the search range is larger than the threshold, the optimal motion vector is detected in a wider search range, and the motion compensated prediction error is the threshold. When the value is smaller than the value, the motion vector detection is terminated, and the motion vector is output as a detection result.

MPEG4においては、予測ベクトルがゼロベクトルであった場合、予測ベクトルがゼロベクトルであることを表す情報をモード情報に組み込んで別途符号化することにより、符号化効率を向上させるが、このゼロベクトルを効率的に検出できるようにすることも演算量軽減に大きく寄与する。そこで、本発明では、しきい値設定手段を設けて、符号化時の誤差を指定するためのしきい値を設定しておき、また、分割手段にて探索範囲内を複数の探索範囲に分割する。そして、動きベクトル検出手段は、これら分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、判定手段はこの動きベクトル検出手段にて検出された動きベクトルを元に、当該検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する。そして、動きベクトル検出手段は、最も狭い探索範囲から動きベクトル検出を開始した結果、判定手段が、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きいと判定した場合は、より広い探索範囲で最適な動きベクトルを検出するように動作し、動き補償予測誤差がしきい値よりも小さいと判断した場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する。このように、探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差が大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差が小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力するようにした結果、誤差が小さければ少ない演算量でゼロベクトルを効率的に検出できるようになり、演算量軽減に大きく寄与する。   In MPEG4, when the prediction vector is a zero vector, information indicating that the prediction vector is a zero vector is incorporated into mode information and separately encoded, thereby improving the encoding efficiency. Making it possible to detect efficiently also greatly contributes to a reduction in the amount of calculation. Therefore, in the present invention, a threshold setting unit is provided to set a threshold for specifying an error during encoding, and the search unit is divided into a plurality of search ranges by the dividing unit. To do. Then, the motion vector detection means starts motion vector detection from the narrowest search range among the divided search ranges, and the determination means detects the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error due to the motion vector thus determined is larger than a threshold value. Then, as a result of starting motion vector detection from the narrowest search range, the motion vector detection means determines that the motion compensation prediction error due to the optimal motion vector detected within the search range is greater than the threshold value. If it is determined, it operates so as to detect an optimal motion vector in a wider search range, and if it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated and the motion vector is detected. Is output as a detection result. As described above, when the motion compensated prediction error due to the optimum motion vector detected within the search range is large, the optimum motion vector is detected within a wider search range, and when the motion compensated prediction error is small, the motion vector detection is performed. As a result of outputting the motion vector as a detection result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to the reduction of the amount of calculation.

また本発明は、第3には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理する手段を有し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行う構成としたものである。   In the third aspect of the present invention, there is provided a moving image coding method code that encodes a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. Before performing shape coding and texture coding in the coding device, the shape signal input to the coding means is referred to, and boundary macroblocks that include an object as a part of the macroblock are not processed. It has a means to compensate all the pixels in the macroblock to be texture encoded by performing padding processing to eliminate continuity, and shape coding and texture coding use the padded image. Thus, the configuration is performed.

この発明は、"境界マクロブロック"におけるテクスチャ符号化に関する発明であって、原画像は、境界マクロブロックについては、オブジェクト境界部での画素値の不連続性が解消できるパディング処理、すなわち、LPEパディングにてパディング処理してから、形状符号化およびテクスチャ符号化に供するようにした。そのため、オブジェクト境界部での画素値の不連続性がほとんど無くなることから、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。故に、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、計算時間の短縮を図ることができると共に、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。   The present invention relates to texture coding in a “boundary macroblock”, and the original image is a padding process that can eliminate the discontinuity of pixel values at the object boundary for the boundary macroblock, that is, LPE padding. After the padding process, the shape coding and texture coding are used. For this reason, since there is almost no discontinuity of pixel values at the object boundary, a normal motion vector can be detected even when normal block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, the calculation time can be shortened, and a normal motion vector can be detected even when normal block matching is performed. become able to.

なお、本発明は上述した実施例に限定されるものではなく、要旨を変更しない範囲内で適宜変形して実施可能である。   In addition, this invention is not limited to the Example mentioned above, In the range which does not change a summary, it can deform | transform suitably and can be implemented.

差分ベクトルMVDsの頻度分布の特徴を説明する図。The figure explaining the characteristic of frequency distribution of difference vector MVDs. 予測ベクトルMVPsを求める方法を説明する図。The figure explaining the method of calculating | requiring the prediction vector MVPs. 本発明の形状動きベクトルの探索範囲を説明する図。The figure explaining the search range of the shape motion vector of this invention. 本発明を説明するための図であって、本発明の第1の具体例その1での処理例示すフローチャート。It is a figure for demonstrating this invention, Comprising: The flowchart which shows the process example in the 1st specific example 1 of this invention. 本発明を説明するための図であって、本発明の第1の具体例その2での処理例示すフローチャート。It is a figure for demonstrating this invention, Comprising: The flowchart which shows the process example in the 1st specific example 2 of this invention. 本発明を説明するための図であって、本発明のエンコーダの構成例を示すブロック図。It is a figure for demonstrating this invention, Comprising: The block diagram which shows the structural example of the encoder of this invention. 画像を符号化する場合に、画面内を背景とオブジェクトに分割して符号化する方式の画像符号化装置のブロック構成図。The block block diagram of the image encoding apparatus of the system which divides | segments the inside of a screen into a background and an object, and encodes, when encoding an image. 復号化装置のブロック図。The block diagram of a decoding apparatus. 本発明を説明するための図であって、オブジェクトを含む符号化領域を説明する図。The figure for demonstrating this invention, Comprising: The figure explaining the encoding area | region containing an object. 本発明を説明するための図であって、各マクロブロックの属性を説明する図。It is a figure for demonstrating this invention, Comprising: The figure explaining the attribute of each macroblock. 従来技術としてのモデルシステムにおける形状符号化エンコーダ(Binary Shape encoder 500)部分のブロック構成図。The block block diagram of the shape encoding encoder (Binary Shape encoder 500) part in the model system as a prior art. 従来技術としてのモデルシステムにおけるエンコーダのブロック構成図。The block block diagram of the encoder in the model system as a prior art. オブジェクト内の画素とオブジェクト外の画素を説明する図。The figure explaining the pixel in an object, and the pixel outside an object. 本発明のLPEパディングを説明する図。The figure explaining the LPE padding of this invention.

符号の説明Explanation of symbols

301…符号化領域(Bounding-Rectangle)検出手段、302…参照画像パディング手段、303…LPEパディング手段、304…ゼロパディング手段、306…ベクトルパディング手段、500…形状情報符号化手段(Binary Shape encoder)、305,305a…動きベクトル検出手段、307…フレームメモリ、308,308a…動き補償手段309,310、…切替スイッチ、312…動きベクトル記憶手段、313…差分回路、314…第3の可変長符号化手段、315…量子化手段、316…逆量子化手段、317…直交変換手段(DCT)、318…第4の可変長符号化手段、319…逆直交変換手段、320…加算回路、321…スイッチ、322…マルチプレクサ   DESCRIPTION OF SYMBOLS 301 ... Coding area | region (Bounding-Rectangle) detection means, 302 ... Reference image padding means, 303 ... LPE padding means, 304 ... Zero padding means, 306 ... Vector padding means, 500 ... Shape information encoding means (Binary Shape encoder) 305, 305a ... motion vector detection means, 307 ... frame memory, 308, 308a ... motion compensation means 309, 310, ... changeover switch, 312 ... motion vector storage means, 313 ... difference circuit, 314 ... third variable length code 315 ... quantization means, 316 ... inverse quantization means, 317 ... orthogonal transform means (DCT), 318 ... fourth variable length coding means, 319 ... inverse orthogonal transform means, 320 ... adder circuit, 321 ... Switch, 322 ... Multiplexer

Claims (3)

画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理する手段を有し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行う構成とすることを特徴とする動画像符号化装置。 In a coding apparatus of a moving image coding method for coding a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks, shape coding and texture coding Prior to conversion, the shape signal input to the encoding means is referred to, and boundary macroblocks that include an object as a part are subjected to padding processing for eliminating discontinuities in the macroblock. It has a means for compensating all the pixels in the macroblock to be texture-encoded by rubbing, and shape encoding and texture encoding are performed using the padded image. A moving image encoding device. 請求項1記載の動画像符号化装置において、入力されるオブジェクトの形状情報から動き補償予測に用いるための形状動きベクトルおよびテクスチャ情報の動きベクトルとを検出する動きベクトル検出手段を備えると共に、当該動きベクトル検出手段は、テクスチャ情報の動きベクトルを検出するに際しては、前記パディング処理によりすでに補填されたマクロブロックと、参照画像パディングされた参照画像との間で検出する構成とすることを特徴とする動画像符号化装置。 2. The moving image encoding apparatus according to claim 1, further comprising motion vector detecting means for detecting a shape motion vector and a motion vector of texture information to be used for motion compensation prediction from the shape information of the input object. The moving image characterized in that the vector detection means detects between the macroblock already compensated by the padding process and the reference image padded reference image when detecting the motion vector of the texture information. Image encoding device. 画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化方法において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行うことを特徴とする動画像符号化方法。 Shape coding and texture coding in a coding method of a moving image coding method for coding a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macro blocks Prior to conversion, the shape signal input to the encoding means is referred to, and boundary macroblocks that include an object as a part are subjected to padding processing for eliminating discontinuities in the macroblock. A moving picture coding method characterized in that all pixels in a macroblock to be texture coded are compensated by rubbing, and shape coding and texture coding are performed using the padded image.
JP2004330956A 2004-11-15 2004-11-15 Apparatus and method for motion image coding Abandoned JP2005094803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004330956A JP2005094803A (en) 2004-11-15 2004-11-15 Apparatus and method for motion image coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004330956A JP2005094803A (en) 2004-11-15 2004-11-15 Apparatus and method for motion image coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11638399A Division JP3677165B2 (en) 1999-04-23 1999-04-23 Moving picture coding apparatus and moving picture coding method

Publications (1)

Publication Number Publication Date
JP2005094803A true JP2005094803A (en) 2005-04-07

Family

ID=34464353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004330956A Abandoned JP2005094803A (en) 2004-11-15 2004-11-15 Apparatus and method for motion image coding

Country Status (1)

Country Link
JP (1) JP2005094803A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169031A1 (en) * 2012-05-10 2013-11-14 엘지전자 주식회사 Method and apparatus for processing video signals
WO2018142596A1 (en) * 2017-02-03 2018-08-09 三菱電機株式会社 Encoding device, encoding method, and encoding program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169031A1 (en) * 2012-05-10 2013-11-14 엘지전자 주식회사 Method and apparatus for processing video signals
US10341677B2 (en) 2012-05-10 2019-07-02 Lg Electronics Inc. Method and apparatus for processing video signals using inter-view inter-prediction
WO2018142596A1 (en) * 2017-02-03 2018-08-09 三菱電機株式会社 Encoding device, encoding method, and encoding program
JPWO2018142596A1 (en) * 2017-02-03 2019-02-07 三菱電機株式会社 Encoding apparatus, encoding method, and encoding program

Similar Documents

Publication Publication Date Title
US11039136B2 (en) Moving image coding apparatus and moving image decoding apparatus
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
EP1528813B1 (en) Improved video coding using adaptive coding of block parameters for coded/uncoded blocks
US7444026B2 (en) Image processing apparatus and method of motion vector detection in a moving picture, and recording medium used therewith
US20140105295A1 (en) Moving image encoding method and apparatus, and moving image decoding method and apparatus
KR20110008653A (en) Method and apparatus for predicting motion vector and method and apparatus of encoding/decoding a picture using the same
US20050276331A1 (en) Method and apparatus for estimating motion
JP2001197501A (en) Motion vector searching device and motion vector searching method, and moving picture coder
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
KR20010030652A (en) Image encoding system
JP3677165B2 (en) Moving picture coding apparatus and moving picture coding method
JP2005094803A (en) Apparatus and method for motion image coding
JPH11122618A (en) Image coder
TWI853402B (en) Video coding methods and apparatuses
JP2001309388A (en) Error image supplementing method in image decoder
JP2004260251A (en) Apparatus and program of detecting motion vector
KR100657714B1 (en) Method for coding image data using of 3d scanning
KR0154948B1 (en) Motion vector search apparatus using the gradient and the intensity similarity of the moving picture
JPH0799645A (en) Motion vector detecting circuit
WO1999059342A1 (en) Method and system for mpeg-2 encoding with frame partitioning
JP2005210503A (en) Video signal coding device
JP2005012527A (en) Encoding device, encoding program, and encoding method
JP2004088309A (en) Motion vector detection method, motion vector detection apparatus, dynamic image coding method, dynamic image coding apparatus, and communication apparatus
JP2014239373A (en) Moving image encoding device and moving image encoding method
JP2003259373A (en) Moving picture compression/coding apparatus and motion vector detection method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20061222