JP2005094803A - Apparatus and method for motion image coding - Google Patents
Apparatus and method for motion image coding Download PDFInfo
- Publication number
- JP2005094803A JP2005094803A JP2004330956A JP2004330956A JP2005094803A JP 2005094803 A JP2005094803 A JP 2005094803A JP 2004330956 A JP2004330956 A JP 2004330956A JP 2004330956 A JP2004330956 A JP 2004330956A JP 2005094803 A JP2005094803 A JP 2005094803A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- shape
- information
- coding
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、ISO/IEC JTC/SC29/WG11において標準化作業が進行中である、動画像符号化の国際標準方式MPEG4で実現される、任意形状のオブジェクトを個別に符号化する機能を利用した動画像符号化装置および動画像符号化方法に関する。 The present invention is a moving picture using a function for individually encoding an object of arbitrary shape, which is realized by the MPEG4 international standard system for encoding moving images, which is being standardized in ISO / IEC JTC / SC29 / WG11. The present invention relates to an image encoding device and a moving image encoding method.
現在標準化作業が進行中であるMPEG4(Motion Picture Experts Groupphase 4)では、従来の動画像符号化の国際標準方式であるMPEG1(Motion Picture Experts Group phase 1)やMPEG2( Motion Picture Experts Group phase 2)では実現出来ない機能である、任意形状のオブジェクト(例えば、画面内に写っている人物)ごとに個別に符号化する機能が実現されることになっている。 In MPEG4 (Motion Picture Experts Group phase 4), where standardization work is currently in progress, in MPEG1 (Motion Picture Experts Group phase 1) and MPEG2 (Motion Picture Experts Group phase 2), which are international standard systems for conventional video coding, A function that cannot be realized, and a function that individually encodes each object of an arbitrary shape (for example, a person shown in the screen) is to be realized.
この機能を実現するためには、各オブジェクトの形や大きさを表わす情報(形状情報)が必要であり、この情報は、オブジェクト内部の輝度・色差の変化を表わすテクスチャ情報と共に符号化された後、伝送・蓄積される。 In order to realize this function, information (shape information) representing the shape and size of each object is required, and this information is encoded with texture information representing changes in luminance and color difference inside the object. , Transmitted and stored.
すなわち、背景とオブジェクトからなる画像があったとすると、この画像を背景とオブジェクトに分け、符号化する。そして、背景やオブジェクトを別々に符号化するために、各オブジェクトの形や大きさを表わす情報(形状情報)が別途与えられる。これがアルファマップ信号と呼ばれる形状情報信号である。 That is, if there is an image composed of a background and an object, the image is divided into a background and an object and encoded. In order to separately encode the background and the object, information (shape information) indicating the shape and size of each object is separately provided. This is a shape information signal called an alpha map signal.
このアルファマップ信号は、オブジェクトの形状や画面内の位置を表す例えば2値の副画像情報として与えられる(なお、背景のアルファマップ信号は、オブジェクトのアルファマップ信号から一意に求められる)。 This alpha map signal is given as, for example, binary sub-image information representing the shape of the object and the position in the screen (note that the alpha map signal of the background is uniquely obtained from the alpha map signal of the object).
このように、MPEG4では各オブジェクトの形や大きさを表わす情報(形状情報)を、オブジェクト内部の輝度・色差の変化を表わすテクスチャ情報と共に符号化することにより、情報量を小さくして、復号側ではこれを元にオブジェクトを再現できる機能が実現できるようになっている。 In this way, MPEG4 encodes information (shape information) representing the shape and size of each object together with texture information representing changes in luminance and color difference inside the object, thereby reducing the amount of information and decoding side. Based on this, a function that can reproduce an object can be realized.
ここで、MPEG4の画像符号化および画像復号化装置について概略を説明しておく。図7は、画像を符号化する場合に、画面内を背景とオブジェクトに分割して符号化する方式の画像符号化装置のブロック構成図である。この画像符号化装置は、図7に示すように、差分回路1100、動き補償予測回路(MC)1110、直交変換回路(DCT)1120、量子化回路1130、可変長符号化回路(VLC)1140、逆量子化回路(IQ)1150、逆直交変換回路(IDCT)1160、加算回路1170、多重化回路1180、アルファマップ符号化回路1200とから構成される。
Here, an outline of an MPEG4 image encoding and image decoding apparatus will be described. FIG. 7 is a block configuration diagram of an image coding apparatus that divides the screen into a background and an object and codes the image when coding the image. As shown in FIG. 7, the image coding apparatus includes a
アルファマップ符号化回路1200は、入力されたアルファマップを符号化し、この符号化された信号をアルファマップ信号として多重化回路1180に出力する機能と、このアルファマップ信号を復号して局部復号信号として出力する機能を有する。
The alpha
特に、本アルファマップ符号化回路1200は、入力されたアルファマップを符号化するにあたり、与えられた縮小率(倍率)で解像度を縮小する処理を行い、この解像度縮小処理されたものを符号化すると共に、この符号化したものと縮小率の情報(倍率情報)とを多重化してこれをアルファマップ信号として多重化回路1180に出力する機能を有する。そして、局部復号信号としては、解像度縮小処理されたものを元の解像度に戻す処理をして得たものを用いる構成である。
In particular, the present alpha
差分回路1100は、動き補償予測回路1110より供給される動き補償予測信号と入力画像信号との差分信号を算出するものであり、直交変換回路1120は、差分回路1100から供給された差分信号を、アルファマップの情報にしたがって、直交変換係数に変換して出力するものである。
The
量子化回路1130はこの直交変換回路1120により得られた直交変換係数を量子化する回路であり、可変長符号化回路1140はこの量子化回路1130の出力を符号化して出力するものである。多重化回路1180はこの可変長符号化回路1140により符号化されたものと、前記アルファマップ信号とを、動きベクトル情報等のサイド情報と共に多重化多重化してビットストリームとして出力するものである。
The
逆量子化回路1150は量子化回路1130の出力を逆量子化するものであり、逆直交変換回路1160はこの逆量子化回路1150の出力を前記アルファマップに基いて逆直交変換するものであり、加算回路1170はこの逆直交変換回路1160の出力と動き補償予測回路1110から与えられる予測信号(動き補償予測信号)とを加算して差分回路1100に出力するものである。
The
動き補償予測回路1110は、フレームメモリを有し、アルファマップ符号化回路1200から与えられる局部復号信号にもとづいて動作してオブジェクト領域の信号、背景領域の信号を蓄積する機能を有する。また、動き補償予測回路1110は蓄積したオブジェクト領域の画像から動き補償値を予測して予測値として出力し、また、蓄積した背景領域の画像から動き補償値を予測して予測値として出力する機能を有する。
The motion
このような構成の本装置の作用を説明する。本装置には、画像信号とその画像信号のアルファマップが入力される。そして、これらのうち、画像信号はフレーム毎にそれぞれ所定画素サイズ(例えば、M×N画素(M:水平方向の画素数、N:垂直方向の画素数))のブロックに分割された後、ブロック位置順に信号線1010を介して差分回路1100に供給される。そして、差分回路1100では、この入力(画像信号)と、予測信号(オブジェクト予測回路1110からの動き補償予測信号の出力)との差分信号が算出され、直交変換回路1120に供給される。
The operation of the apparatus having such a configuration will be described. The apparatus receives an image signal and an alpha map of the image signal. Of these, the image signal is divided into blocks each having a predetermined pixel size (for example, M × N pixels (M: number of pixels in the horizontal direction, N: number of pixels in the vertical direction)) for each frame, and then the blocks The signals are supplied to the
直交変換回路1120では、供給された差分信号を、信号線1040を介してアルファマップ符号化回路1200から供給されるアルファマップの情報にしたがって、直交変換係数に変換した後、量子化回路1130に供給する。そして、ここで量子化される。量子化回路1130にて量子化されて得られた変換係数は、可変長符号化回路1140において符号化されると共に、逆量子化回路1150に供給される。
In the
逆量子化回路1150に供給された変換係数は、ここで逆量子化された後、逆直交変換回路1160において逆変換される。そして、加算回路1170において動き補償予測回路1110より供給される動き補償予測値と加算され、局部復号画像として出力されて、再び動き補償予測回路1110に入力される。
The transform coefficient supplied to the
そして、この加算回路1170の出力である局部復号画像は、動き補償予測回路1110内のフレームメモリに蓄えられる。
Then, the locally decoded image that is the output of the addition circuit 1170 is stored in a frame memory in the motion
一方、この動き補償予測回路1110は、アルファマップ復号化回路1200から与えられる局部復号信号に基づいてオブジェクトの領域のブロックの処理のタイミングでは"オブジェクトの動き補償予測値"を、また、それ以外のタイミングでは"背景部分の動き補償予測値"を出力して差分回路1100に与える。
On the other hand, the motion
すなわち、動き補償予測回路1110ではアルファマップ信号の局部復号信号から現在、オブジェクトのブロック対応部分の画像信号が差分回路1100に入力されているのか、あるいは背景部分のブロック対応部分の画像信号が差分回路1100に入力されているのかを知り、オブジェクトのブロック対応部分の画像信号の入力期間中であれば、オブジェクトの動き補償予測信号を、そして、背景部分のブロック対応部分の画像信号入力期間中であれば、背景の動き補償予測信号を、差分回路1100に与える。
That is, in the motion
差分回路1100では、この入力された画像信号と、その画像の領域対応の予測信号との差を算出するので、その結果、入力画像がオブジェクト対応の領域のものであれば、そのオブジェクトの対応位置での予測値との差分信号が、また、入力画像が背景の領域のものであれば、その背景位置対応の予測値との差分信号が算出され、直交変換回路1120に供給される。
The
直交変換回路1120では、供給された差分信号を信号線1040を介して供給されるアルファマップの情報にしたがって、離散コサイン変換などの処理を施すことにより、直交変換係数に変換した後、量子化回路1130に供給する。そして、直交変換係数はこの量子化回路1130にて量子化される。
The
量子化回路1130にて量子化された変換係数は、可変長符号化回路1140において符号化されると共に、逆量子化回路1150に供給される。そして、逆量子化回路1150に供給された変換係数はここで逆量子化された後、逆直交変換回路1160において逆変換されて加算回路1170に供給される。そして、予測値切り換え回路1500を介して加算回路1170に供給される予測値と加算されることになる。
The transform coefficient quantized by the
加算回路1170の出力である局部復号画像の信号は、動き補償予測回路1110に供給される。そして、この動き補償予測回路1110ではアルファマップ信号の局部復号信号から現在、加算回路1170からオブジェクトのブロック対応の信号が出力されているのか、あるいは背景部分のブロック対応の信号が出力されているのかを知り、その結果、オブジェクトのブロック対応の信号の出力中であれば、オブジェクト用のフレームメモリに、また、背景部分のブロック対応の信号の出力中であれば、背景用のメモリに与えるべく動作して対応のメモリに蓄える。
The signal of the locally decoded image that is the output of the adder circuit 1170 is supplied to the motion
そして、これにより、オブジェクト用のフレームメモリにはオブジェクト画像のみが、また、背景用のメモリには背景画像のみの画像が得られることになる。これにより、動き補償予測回路1110はオブジェクト画像を利用してオブジェクト画像の予測値を求めることができ、また、背景部分の画像を利用して背景画像の予測値を求めることができる。
Thus, only the object image is obtained in the object frame memory, and only the background image is obtained in the background memory. Accordingly, the motion
上述したように、アルファマップ符号化回路1200では、入力されるアルファマップを符号化し、この符号化されたアルファマップ信号を信号線1030を介して多重化回路1180に供給している。
As described above, the alpha
また、多重化回路1180には、可変長符号化回路1140から出力された変換係数が線1040を介して供給されている。そして、多重化回路1180は供給されているこれらアルファマップ信号および変換係数の符号化値とを、動きベクトル情報等のサイド情報と共に多重化した後、信号線1050を介して出力して本画像符号化装置の最終出力としての符号化ビットストリームとなる。
Also, the transform coefficient output from the variable
一方、図8は復号化装置のブロック図である。復号化装置は、図8に示すように、分離化回路2300、可変長復号化回路2310、逆量子化回路2320、逆直交変換回路2330、加算回路2340、動き補償予測回路2350、アルファマップ復号化回路2400とより構成される。
On the other hand, FIG. 8 is a block diagram of the decoding apparatus. As shown in FIG. 8, the decoding apparatus includes a
分離化回路2300は入力される符号化ビットストリームを分離化処理してアルファマップ信号と画像の符号化信号等を得る回路であり、アルファマップ復号化回路2400はこの分離化回路2300にて分離されたアルファマップ信号を復号してアルファマップを再生する回路である。
The
可変長復号化回路2310は、分離化回路2300にて分離された画像の符号化信号を復号するものであり、逆量子化回路2320はこの復号されたものを逆量子化して元の係数に戻すものであり、逆直交変換回路2330はこの係数をアルファマップにしたがって逆直交変換して予測誤差信号に戻すものであり、加算回路2340は、この予測誤差信号に動き補償予測回路2350からの動き補償予測値を加算して再生画像信号として出力するものである。この再生画像信号が復号化装置の最終出力となる。
The variable
動き補償予測回路2350は、加算回路2340から出力された再生画像信号をアルファマップにしたがってフレームメモリに蓄積することによりオブジェクト画像と背景画像とを得ると共に、この蓄積されて得られた画像からオブジェクトの動き補償予測信号、背景の動き補償予測を得るものである。
The motion
このような構成の復号化装置においては、符号化ビットストリームは、線2070を介して分離化回路2300に供給され、分離化回路2300において各々の情報毎に分離されることにより、アルファマップ信号に関する符号と、画像信号の可変長符号とに分けられる。
In the decoding apparatus having such a configuration, the encoded bit stream is supplied to the
そして、アルファマップ信号に関する符号は、信号線2080を介してアルファマップ復号化回路2400に供給され、また、画像信号の可変長符号は可変長復号化回路2310にそれぞれ供給される。
The code relating to the alpha map signal is supplied to the alpha
アルファマップ信号に関する符号はアルファマップ復号化回路2400においてアルファマップ信号に再生され、信号線2090を介して逆直交変換回路2330と動き補償予測回路2350に出力される。
The code relating to the alpha map signal is reproduced as an alpha map signal by the alpha
一方、可変長復号化回路2310では、分離化回路2300から供給される符号を復号し、逆量子化回路2320に供給して、ここで逆量子化する。逆量子化された変換係数は、線2090を介して供給されるアルファマップにしたがって逆直交変換回路2330により逆変換され、加算回路2340に供給される。加算回路2340では、逆直交変換回路2330からの逆直交変換された信号と、動き補償予測回路2350より供給される動き補償予測信号とを加算し、再生画像を得る。
On the other hand, the variable
以上がMPEG4用の画像符号化装置および画像復号化装置の概要である。 The above is the outline of the MPEG4 image encoding device and image decoding device.
ここで、アルファマップの符号化について説明する。アルファマップ、すなわち、形状情報の画素値は2値信号であり、これは"0","1"あるいは"0","255"で表現される。 Here, encoding of the alpha map will be described. The alpha map, that is, the pixel value of the shape information is a binary signal, which is expressed by “0”, “1” or “0”, “255”.
アルファマップの符号化は、まずはじめに、図9に示されるように、画面(フレーム)内で符号化対象となるオブジェクト(MPEG4では、VOP(VideoObject Plane)と呼ばれている)を包含する符号化領域(Bounding-Rectangleと呼ばれる)を設定する。そして、この領域内を16×16画素のマクロブロックに分割して、各マクロブロック毎に該オブジェクトを符号化する。 First, as shown in FIG. 9, the alpha map is encoded including an object (called VOP (Video Object Plane) in MPEG4) to be encoded in a screen (frame). Set a region (called Bounding-Rectangle). The area is divided into 16 × 16 pixel macroblocks, and the object is encoded for each macroblock.
ここで、各VOP毎に、Bounding-Rcctangleの大きさ(vop-width,vop-height)と位置ベクトル(Spatial-refference(vop-horizontal-mc-spatial-ref,vop-vertical-mc-spatial-ref))の値が符号化される。 Here, for each VOP, the size (vop-width, vop-height) of the Bounding-Rcctangle and the position vector (Spatial-refference (vop-horizontal-mc-spatial-ref, vop-vertical-mc-spatial-ref )) Value is encoded.
図10は、各マクロブロックの属性を説明する図である。マクロブロックは分類すると、マクロブロック内にオブジェクトを含まない"透過マクロブロック"(オブジェクトの画素が一つもない)と、マクロブロックが全てオブジェクト内に含まれる"不透過マクロブロック"(全てがオブジェクトの画素で埋められている)と、マクロブロック内の一部がオブジェクトに含まれる"境界マクロブロック"(オブジェクトの画素が一部含まれる)とに分けられる。 FIG. 10 is a diagram for explaining the attributes of each macroblock. Macroblocks can be classified as "transparent macroblocks" (no object pixels) that do not contain objects in macroblocks, and "opaque macroblocks" (all objects that contain objects). And a “boundary macroblock” (a part of the pixel of the object is included) in which a part of the macroblock is included in the object.
従って、マクロブロックは"透過マクロブロック"、"不透過マクロブロック"、"境界マクロブロック"のうちのいずれかの属性を持つことになる。 Therefore, the macroblock has an attribute of “transparent macroblock”, “opaque macroblock”, or “boundary macroblock”.
各マクロブロックの符号化データには、形状情報とテクスチャ情報とが含まれる。なお、透過マクロブロックにはテクスチャ情報は含まれない。 The encoded data of each macroblock includes shape information and texture information. Note that the transparent macroblock does not include texture information.
参考文献(三木 編著、"MPEG−4のすべて"第3章、工業調査会、1998)を参照して、MPEG4検証(Verification)モデルのエンコーダにおける形状情報の符号化法と任意形状オブジェクトのテクスチャ情報の符号化法を説明する。 With reference to the reference (edited by Miki, "All about MPEG-4", Chapter 3, Industrial Research Committee, 1998), the encoding method of shape information in the encoder of the MPEG4 Verification model and the texture information of the arbitrary shape object The encoding method will be described.
<形状情報の符号化法>
形状情報(A)の符号化法を説明する。図11に従来技術としてのモデルシステムの構成例を示す。形状符号化は、図11に示す如き構成の形状符号化用エンコーダ(形状情報符号化手段(Binary Shape encoder)500)によって実施される。当該形状符号化用エンコーダ(形状情報符号化手段500)は、図11に示すように、モード判定手段501、形状動きベクトル検出手段502、動き補償手段503、算術符号化手段504、動きベクトル予測手段505、フレームメモリ506、セレクタ507、形状動きベクトル情報記憶手段508、差分回路509、縮小回路510,511、拡大回路512、可変長符号化回路513,514、マルチプレクサ515とから構成されている。
<Encoding method of shape information>
A coding method of the shape information (A) will be described. FIG. 11 shows a configuration example of a model system as a conventional technique. The shape encoding is performed by a shape encoding encoder (a shape information encoding means (Binary Shape encoder) 500) having a configuration as shown in FIG. As shown in FIG. 11, the shape encoding encoder (shape information encoding unit 500) includes a
形状動きベクトル検出手段502は、フレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検知する符号化領域検出手段(Bounding-rectangle)を介して入力されるアルファマップ信号(形状情報A)と動きベクトル予測手段505にて求められた予測ベクトルの情報とフレームメモリ506の形状情報信号とから形状動きベクトルを検出してこれを形状動きベクトル情報として出力するものであり、動き補償手段503はこの形状動きベクトル検出手段502で検出された形状動きベクトル情報とフレームメモリ506の形状情報信号と動きベクトル予測回路505の出力する予測ベクトルとから動き補償予測のための動きベクトル情報を求めるためのものである。
The shape motion vector detection means 502 is an alpha map signal (shape information) input via an encoding area detection means (Bounding-rectangle) that detects an encoding area that is an area where a target object exists in a frame image. A) a shape motion vector is detected from the prediction vector information obtained by the motion vector prediction means 505 and the shape information signal of the
また、形状動きベクトル情報記憶手段508は形状動きベクトル検出手段502で検出された形状動きベクトル情報を記憶するためのものであり、動きベクトル予測手段505は形状動きベクトル情報記憶手段508の保持した形状動きベクトル情報と輝度信号53とをもとに動きベクトルの予測値である予測ベクトルを求めるものである。
The shape motion vector information storage means 508 is for storing the shape motion vector information detected by the shape motion vector detection means 502, and the motion vector prediction means 505 is the shape held by the shape motion vector information storage means 508. Based on the motion vector information and the
また、差分回路509は、形状動きベクトル検出手段502の求めた形状動きベクトルと動きベクトル予測手段505にて求められた予測ベクトルとの差分を得るためのものであり、モード判定手段501は入力される形状情報と動き補償手段503の出力する動き補償予測のための動きベクトル情報と形状動きベクトル検出手段502の出力する形状動きベクトル情報とからモード判定するものである。
The
ここで、モード情報は次の7通りある。すなわち、
(モード1):透過(Transparent)
(モード2):不透過(Opaque)
(モード3):2値画像符号化(フレーム内)
(モード4):動き補償(MV=0)
(モード5):動き補償(MV=0)+算術符号化(フレーム間)
(モード6):動き補償(MV≠0)
(モード7):動き補償(MV≠0)+算術符号化(フレーム間)
である。
Here, there are the following seven types of mode information. That is,
(Mode 1): Transparent
(Mode 2): Opaque
(Mode 3): Binary image encoding (within frame)
(Mode 4): Motion compensation (MV = 0)
(Mode 5): Motion compensation (MV = 0) + arithmetic coding (between frames)
(Mode 6): Motion compensation (MV ≠ 0)
(Mode 7): Motion compensation (MV ≠ 0) + arithmetic coding (between frames)
It is.
これらのうち、"モード1"はマクロブロック内の全データが透過、すなわち、マクロブロック内にオブジェクトを一つも含まない場合であり、"モード2"はマクロブロック内の全データが不透過、すなわち、マクロブロック内が全てオブジェクトの場合であり、"モード3"は算術符号化(フレーム内)の場合である。また、"モード4"は動き補償ベクトルがゼロ(MV=0)の場合であり、"モード5"は動き補償ベクトルがゼロ(MV=0)で、且つ、算術符号化(フレーム間)を行っている場合であり、また、"モード6"は動き補償ベクトルがゼロではない(MV≠0)場合であり、また、"モード7"は動き補償ベクトルがゼロではなく(MV≠0)、しかも、算術符号化(フレーム間)を行っている場合である。
Among these, “
算術符号化手段504は、モード判定手段501のモード判定結果に応じて第1及び第2の縮小手段510,511の出力のうちの、いずれか一方を算術符号化してマルチプレクサ515に出力するものであり、また、セレクタ507は、動き補償手段503の出力する動き補償予測のための動きベクトル情報と拡大化手段512の出力と、予め設定された固定値である透過画素の値(Transparent pixel value;例えば、値"0")と、予め設定された固定値である不透過画素の値(Opaque pixel value;例えば、値"1")が与えられ、これらのうちのいずれか一つをモード判定手段501から与えられるモード情報が何であるかにより、選択して出力するものである。
The
また、フレームメモリ506は、セレクタ507の出力を形状情報信号として保持するメモリである。
The
第1の縮小化手段510は、アルファマップの2値化信号である形状情報入力を縮小化処理し、算術符号化手段504に出力するものであり、第2の縮小化手段511は、動き補償手段503の出力する動きベクトル情報を縮小化処理し、算術符号化手段504に出力するものであり、拡大回路512は、第1の縮小化手段510の出力をモード判定手段501のモード判定結果に応じてセレクタ507に出力するものである。
The
第1の可変長符号化回路513は、差分回路509の出力を可変長符号化して出力するものであり、第2の可変長符号化回路514は、モード判定手段501の判定結果を可変長符号化して出力するものであり、マルチプレクサ515は、第1及び第2の可変長符号化手段の出力と算術符号化手段504の出力を受けてこれらを多重化してこれを形状情報符号化出力52として出力するものである。
The first variable
このような構成において、アルファマップの2値化信号である形状情報信号51が入力される。すると、これを受けたモード判定手段501は、当該供給される形状情報と形状動きベクトル検出手段502の出力する形状動きベクトルと、動き補償手段503の出力する動きベクトル情報を元にモード判定する。そして、このモード判定手段501によるマクロブロック毎に決定された各マクロブロックのモードにしたがって、マクロブロック毎に情報が以下の如きに符号化されることになる。
In such a configuration, a
ここで、モード判定手段501による判定結果としてのモード情報は次の7通りのいずれかである。"モード1"(透過(Transparent))、"モード2" (不透過(Opaque))、"モード3"(算術符号化(フレーム内))、"モード4"(動き補償(MV=0))、"モード5"((動き補償(MV=0)+算術符号化(フレーム間))、"モード6"(動き補償(MV≠0))、"モード7"(動き補償(MV≠0)+算術符号化(フレーム間))、である。
Here, the mode information as a determination result by the
そして、セレクタ507では、モード判定手段501の判定したモードの情報にしたがって、マクロブロック毎に再生信号を出力する。そして、出力された各マクロブロックの再生信号はフレームメモリ(FM)506に蓄積されると共に、出力線54を介してテクスチャ情報の符号化手段に供給され、符号化されることになる。
The
ここで、モード判定手段501からセレクタ507に与えられるモード情報が何であるかにより、セレクタ507からの出力は次のようになる。
Here, the output from the
"モード1"の場合: 該マクロブロック内の形状情報の再生画素値を、全て"Transparent pixel"(例えば、各画素値を"255")にしたものを出力する。
In the case of “
"モード3,5,7"の場合: 供給されるマクロブロックの形状情報信号51を第1の縮小化手段510にて縮小処理して得た信号(算術符号化手段504の符号化対象)を更に拡大化手段512により拡大処理することにより元のサイズに戻して再生画素値にしたものを出力する。
In the case of “
"モード4,6"の場合: マクロブロック内の形状情報の再生画素値を、動き補償手段503により動き補償予測して得た値を出力する。
In the case of “
一方、形状動きベクトル検出手段502では、入力線51より入力された形状入力信号と、動きベクトル予測手段505にて求められた予測ベクトルと、フレームメモリ(FM)506に蓄積された形状情報信号とから形状動きベクトルの情報を得る。この形状動きベクトル検出手段502で検出された形状動きベクトル情報は、各マクロブロックの形状を動き補償手段503において動き補償予測するために用いられる動きベクトル情報であり、動き補償手段503に供給されると共に、形状動きベクトル情報記憶手段(MVmemory)508に蓄積される。
On the other hand, the shape motion
ここで、形状動きベクトル検出手段502では、動きベクトル予測手段505にて求められた予測ベクトルを中心に、その周囲±16画素の範囲で予測誤差ベクトルを検出している。
Here, the shape motion
従って、図3のようにゼロベクトルが検出される頻度が最も多いため、形状動きベクトルがゼロベクトルであるか否かの情報を、モード情報に含めるようにすることで、形状動きベクトル情報の符号量を削減している。また、この性質(ゼロベクトル近傍のベクトルが検出される確率が高い)を用いることで、動きベクトル検出の処理量を削減することも可能になる。 Accordingly, since the zero vector is detected most frequently as shown in FIG. 3, the information on whether or not the shape motion vector is the zero vector is included in the mode information. The amount is reduced. Further, by using this property (the probability that a vector near the zero vector is detected is high), it is possible to reduce the amount of motion vector detection processing.
動きベクトル予測手段505では、形状動きベクトル情報記憶手段(MVmemory)508に蓄積されている形状動きベクトルと、信号線53を介して供給されるテクスチャ動きベクトルから、形状動きベクトルの予測値を求めている。
The motion
"モード3,5,7"が選択された場合には、算術符号化手段504では、フレーム内符号化の場合では第1の縮小化手段510によって縮小化処理されて得た信号を算術符号化することになる。また、フレーム間符号化の場合、算術符号化手段504では、第1の縮小化手段510により縮小化処理されて得られた信号について、第2の縮小化手段511により縮小化された信号を参照しつつ算術符号化する。一方、"モード5,7"が選択された場合には、差分回路509により得られた予測誤差ベクトルが、可変長符号化手段513により可変長符号化されることになる。
When “
そして、算術符号化手段504より得られた算術符号あるいは可変長符号化手段513により得られた予測誤差ベクトルの可変長符号は、第2の可変長符号化手段514により可変長符号化されて得られたモード情報と共に、多重化手段(MUX)515に送られ、ここで多重化されて形状情報符号化出力52として出力される。
The arithmetic code obtained from the
ところで、算術符号化手段504で符号化された2値画像符号化情報は、各マクロブロック内の詳細な形状を2値画像として扱い、符号化した情報である。ここで、形状動きベクトルは、動きベクトル予測手段505にて求められた予測ベクトルの周囲16画素を探索して求められたものである。 By the way, the binary image encoding information encoded by the arithmetic encoding means 504 is information obtained by treating the detailed shape in each macroblock as a binary image and encoding it. Here, the shape motion vector is obtained by searching 16 pixels around the prediction vector obtained by the motion vector prediction means 505.
従って、図3のようにゼロベクトルが検出される頻度が最も多いため、形状動きベクトルがゼロベクトルか否かの情報をモード情報に含めることで、形状動きベクトル情報の符号量を削減している。 Accordingly, since the zero vector is detected most frequently as shown in FIG. 3, the code amount of the shape motion vector information is reduced by including information on whether or not the shape motion vector is the zero vector in the mode information. .
このようにして、形状情報符号化手段500による形状情報の符号化処理が行われる。なお、ここでの形状情報は、2階調化したアルファマップを対象としており、アルファマップには多階調グレースケールのものもあるので、これと区別して形状情報と称した。
In this way, the shape
<テクスチャ情報の符号化法>
アルファマップはオブジェクトの形や大きさを表す情報(形状情報)であるが、オブジェクトの内部の輝度や色差の変化を表す情報であるテクスチャ情報がないとオブジェクトの画像を再生できない。従って、MPEG4ではアルファマップと共に、テクスチャ情報も符号化されてアルファマップと対で利用される。
<Encoding method of texture information>
The alpha map is information (shape information) representing the shape and size of the object, but the image of the object cannot be reproduced without texture information that is information representing changes in luminance and color difference inside the object. Therefore, in MPEG4, texture information is also encoded together with the alpha map and used as a pair with the alpha map.
テクスチャ情報(図12のYUV)の符号化法を図12を用いて説明する。図12は従来技術のモデルシステムとして構成例を示すエンコーダ部分のブロック構成図である。図12において、図に強調表記された構成要素である符号化領域(Bounding-Rectangle)検出手段301、参照画像パディング手段302、LPEパディング手段303、ゼロパディング手段304、ベクトルパディング手段306および形状情報符号化手段500は、任意形状のオブジェクトを符号化するためだけに必要な構成要素である。従って、MPEG1やMPEG2のような旧来の符号化法と同様に、矩形のオブジェクトを符号化するためには、これ以外の構成要素、すなわち、図12における動きベクトル検出手段305、フレームメモリ307、動き補償手段308、切替スイッチ309,310、動きベクトル予測手段311、動きベクトル記憶手段312、差分回路313、第3の可変長符号化手段314、量子化手段315、逆量子化手段316、直交変換手段317、第4の可変長符号化手段318、逆直交変換手段319、加算回路320、スイッチ321、マルチプレクサ322とから構成される要素が備わっていればよい。
An encoding method of texture information (YUV in FIG. 12) will be described with reference to FIG. FIG. 12 is a block diagram of an encoder portion showing a configuration example as a model system of the prior art. In FIG. 12, coding region (Bounding-Rectangle) detection means 301, reference image padding means 302, LPE padding means 303, zero padding means 304, vector padding means 306, and shape information code which are components highlighted in the figure. The converting
ここで、符号化領域(Bounding-Rectangle)検出手段301はフレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検出するためのものであり(図9参照)、形状情報符号化手段500については、図11を用いて説明した通りである。 Here, the coding area (Bounding-Rectangle) detecting means 301 is for detecting a coding area which is an area where a target object is present in a frame image (see FIG. 9), and shape information coding. The means 500 is as described with reference to FIG.
図12の構成においては、"不透過マクロブロック"と"境界マクロブロック"に対して、テクスチャ情報(YUV)の符号化が行われることになるが、これらのうち、"不透過マクロブロック"に対しては、従来の符号化法と同様に、入力されたマクロブロックの信号をそのまま動き補償予測+DCT(離散コサイン変換)法で符号化する。 In the configuration of FIG. 12, the texture information (YUV) is encoded for the “opaque macroblock” and the “boundary macroblock”. On the other hand, as in the conventional encoding method, the input macroblock signal is directly encoded by the motion compensated prediction + DCT (discrete cosine transform) method.
一方、"境界マクロブロック"に対しては、オブジェクト外部の信号をパディング(補填処理)した後、動き補償予測+DCT法で符号化する。 On the other hand, for the “boundary macroblock”, a signal outside the object is padded (compensated) and then encoded by motion compensated prediction + DCT method.
そして、ここでのパディング(補填処理)には以下の3通りの手法がある。 There are the following three methods of padding (compensation processing) here.
[1] 参照画像パディング: これは参照画像パディング手段302による補充処理であって、動き補償予測の参照画像をパディングする。境界マクロブロックに対する処理と、透過マクロブロックに対する処理がある。 [1] Reference image padding: This is a replenishment process by the reference image padding means 302, and the reference image for motion compensation prediction is padded. There are processing for boundary macroblocks and processing for transparent macroblocks.
[2] LPEパディング: これはLPEパディング手段303による補充処理であって、イントラマクロブロック内のブロックをDCT(離散コサイン変換)する前に、オブジェクト外の画素(図13の白丸部)値をオブジェクト内部の画素(図13の黒丸部)値の平均値で置き換えた後、ローパスフィルタをかけるという処理である。処理単位は、DCTの場合と同じ8×8画素である。 [2] LPE padding: This is a replenishment process by the LPE padding means 303, and before DCT (discrete cosine transform) of the block in the intra macroblock, the pixel (white circle in FIG. 13) value outside the object is set to the object. This is a process of applying a low-pass filter after replacing the average value of the internal pixel (black circle portion in FIG. 13) value. The processing unit is the same 8 × 8 pixels as in the case of DCT.
[3] ゼロパディング: これはゼロパディング手段304による補充処理であって、インターマクロブロック内のブロックをDCTする前に、動き補償予測誤差信号のオブジェクト外の画素(図13の白丸部)値をゼロ値で置き換えると云う処理である。処理単位は、DCTと同じ8×8画素である。 [3] Zero padding: This is a replenishment process by the zero padding means 304, and before DCTing the block in the inter macro block, the value of the pixel outside the object (white circle in FIG. 13) of the motion compensated prediction error signal is set. This is a process of replacing with a zero value. The processing unit is 8 × 8 pixels, which is the same as DCT.
ここで、上記[1]のパディングはMPEG4の規格における必須の処理であるが、上記[2]と上記[3]のパディングは、符号化効率向上のために必要なものであって、規格上での必須の処理では無いため、上記構成要素による処理に限らず他の手段を用いて実施してもよい。 Here, the padding [1] is an indispensable process in the MPEG4 standard, but the padding [2] and [3] are necessary for improving the coding efficiency and are based on the standard. Therefore, the processing is not limited to the above-described components, and may be performed using other means.
また、動きベクトル検出手段305では、信号線31を介して符号化領域検出手段301より供給される形状信号に基づき、信号線32を介して供給される原画像の輝度信号(YUV)と、信号線33を介してフレームメモリ307から供給される参照画像の輝度信号との間で動きベクトル検出を行う。そして、その結果、得られた動きベクトル34は動き補償手段(MC)308とベクトルパディング手段(Vector padding)306に出力している。
Further, the motion
ベクトルパディング手段(Vector padding)306では、形状情報符号化手段500より出力されて供給される形状情報の再生値データ54に基づいて、動きベクトルの無い8×8画素単位のブロック(透明ブロックやイントラマクロブロック)に適切な動きベクトルを充填した後、動きベクトル記憶手段(MV memory)312に蓄積する。
In the
動きベクトルが検出される際に、参照画像はパディングによりオブジエクト内の画素値と滑らかにつながるように、オブジェクト外の画素値がパディングされている。 When the motion vector is detected, pixel values outside the object are padded so that the reference image is smoothly connected to the pixel values in the object by padding.
一方、原画像ではオブジェクト境界部の画素値はエッジの境界である場合が多いので、画素値変動が大きい。従って、境界マクロブロックで通常のブロックマッチングを行うと、オブジェクト外の画素値のミスマッチが大きく、正常な動きベクトルが検出されない場合が多い。 On the other hand, in the original image, the pixel value at the object boundary is often an edge boundary, and the pixel value variation is large. Therefore, when normal block matching is performed on the boundary macroblock, the mismatch of pixel values outside the object is large, and a normal motion vector is often not detected.
そこで、従来モデルでは境界マクロブロックに対しては、形状情報を参照してオブジェクト内部の画素値(図14の黒丸部)のみで誤差を評価して動きベクトルを検出するようにしている(これをポリゴンマッチングと言う)。しかし、この方法は画素毎に、それがオブジェクトの内部か否かを判定しながら動きベクトルを検出することとなるため、勢い処理量が多くなってしまう。 Therefore, in the conventional model, for the boundary macroblock, the motion vector is detected by evaluating the error only with the pixel value inside the object (black circle portion in FIG. 14) with reference to the shape information (this is the Polygon matching). However, since this method detects a motion vector for each pixel while determining whether or not it is inside an object, the amount of momentum processing increases.
上述したように、アルファマップはオブジェクトの形や大きさを表す情報(形状情報)であるが、オブジェクトの内部の輝度や色差の変化を表す情報であるテクスチャ情報がないとオブジェクトの画像を再生できない。従って、MPEG4ではアルファマップと共に、テクスチャ情報も符号化されてアルファマップと対で利用される。 As described above, an alpha map is information (shape information) that represents the shape and size of an object, but an object image cannot be reproduced without texture information that is information representing changes in luminance and color difference inside the object. . Therefore, in MPEG4, texture information is also encoded together with the alpha map and used as a pair with the alpha map.
そして、テクスチャ情報(YUV)の符号化は、"不透過マクロブロック"と"境界マクロブロック"に対して行われることになるが、これらのうち、"不透過マクロブロック"については、入力されたマクロブロックの信号をそのまま動き補償予測+DCT(離散コサイン変換)法で符号化し、"境界マクロブロック"については、オブジェクト外部の信号をパディング(補填処理)した後、動き補償予測+DCT法で符号化する。 The encoding of the texture information (YUV) is performed on the “opaque macroblock” and the “boundary macroblock”. Of these, the “opaque macroblock” is input. The macroblock signal is encoded as it is by the motion compensated prediction + DCT (discrete cosine transform) method, and the “boundary macroblock” is encoded by the motion compensated prediction + DCT method after padding the signal outside the object (compensation processing). .
すなわち、"境界マクロブロック"については、動き補償予測が行われるので、動きベクトル検出の際に、参照画像はオブジエクト内の画素値と滑らかにつながるようにオブジェク卜外の画素値をパディングしておくわけである。 That is, since motion compensation prediction is performed for the “boundary macroblock”, the pixel values outside the object are padded so that the reference image is smoothly connected to the pixel values in the object when the motion vector is detected. That is why.
しかし、原画像ではオブジェクト境界部の画素値は、エッジの境界である場合が多いので画素値変動が大きく、従って、境界マクロブロックで通常のブロックマッチングを行うと、オブジェクト外の画素値のミスマッチが大きく、正常な動きベクトルが検出されない場合が多い。 However, in the original image, the pixel value at the object boundary is often an edge boundary, so the pixel value fluctuates greatly. Therefore, when normal block matching is performed on the boundary macroblock, there is a mismatch between the pixel values outside the object. In many cases, a large and normal motion vector is not detected.
そこで、境界マクロブロックに対し、形状情報を参照してオブジェクト内部の画素値(図14の黒丸部)のみで誤差を評価して動きベクトルを検出する手法であるポリゴンマッチングを採用する。 Therefore, for the boundary macroblock, polygon matching, which is a method of detecting a motion vector by evaluating an error only with a pixel value (black circle portion in FIG. 14) inside the object with reference to shape information, is adopted.
しかし、この方法は画素毎にオブジェクトの内部か否かを判定しながら動きベクトルを検出することとなることから、処理量が多くなってしまう問題がある。 However, this method has a problem that the amount of processing increases because a motion vector is detected while determining whether or not each pixel is inside an object.
従って、本発明の目的とするところは、符号化効率向上を図りつつ、少ない演算量で動きベクトルの検出を行うことができるようにした動画像符号化装置および動画像符号化方法を提供することにある。 Accordingly, an object of the present invention is to provide a moving picture coding apparatus and a moving picture coding method capable of detecting a motion vector with a small amount of calculation while improving coding efficiency. It is in.
本発明は、上記目的を達成するため、次のように構成する。 In order to achieve the above object, the present invention is configured as follows.
[1] 第1には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、各マクロブロック毎にテクスチャ情報の動きベクトルを検出する手段と、該マクロブロックにおける形状情報の動きベクトルを検出するために、テクスチャ情報の動きベクトルの利用の可否を判定する判定手段と、前記マクロブロックにおける形状情報の動きベクトルを検出するために、テクスチャ情報の動きベクトルの信頼性を評価する評価手段と、形状情報の動きベクトル検出範囲を、テクスチャ情報の動きベクトルが利用不可能時には利用可能時より広く設定され、テクスチャ情報の動きベクトルが利用可能な場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも低い場合の方が広く設定される設定手段と、既に検出されているテクスチャ情報の動きベクトルを利用して前記マクロブロックにおける形状情報の動きベクトルを検出する動きベクトル検出手段とを備えて構成したものである。そして、この装置は、形状情報とテクスチャ情報とから構成される任意形状オブジェクトを符号化するにあたり、テクスチャ情報の動きベクトルも利用できるように動きベクトル検出手段にはテクスチャ情報の動きベクトルも検出できる機能を持たせ、入力されたオブジェクトの形状情報とテクスチャ情報のうち、テクスチャ情報の動きベクトルが利用できるか否かを識別手段にて識別させ、また、評価手段により、テクスチャ情報の動きベクトルの信頼性を評価し、また、符号化対象のマクロブロックの符号化にあたっては、そのマクロブロックの周辺のマクロブロックの形状動きベクトルを探索して形状動きベクトルを求めるが、その探索範囲はテクスチャ情報の動きベクトルが利用できる場合には狭く、また、テクスチャ情報の動きベクトルが利用できない場合には、利用できる場合よりも広くし、テクスチャ情報の動きベクトルが利用できる場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも信頼性の低い方が広く設定されるようにしてテクスチャ情報の動きベクトルの利用の可否と、信頼性の度合いに応じてマクロブロックの形状動きベクトル探索範囲を適正な範囲にするようにした。 [1] First, a coding apparatus of a moving image coding method for coding a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. A means for detecting a motion vector of the texture information for each macroblock, a determination means for determining whether or not the motion vector of the texture information can be used in order to detect a motion vector of the shape information in the macroblock, In order to detect the motion vector of shape information in a macro block, the evaluation means for evaluating the reliability of the motion vector of texture information and the motion vector detection range of the shape information can be used when the motion vector of texture information is not available It is set wider than the time and the motion information motion vector is In the case where the macroblock is available, setting means that is set more widely when the motion vector reliability of the texture information is lower than when the reliability of the motion vector is high, and the motion vector of the texture information that has already been detected is used in the macroblock. And a motion vector detecting means for detecting a motion vector of the shape information. This device is also capable of detecting the motion vector of the texture information in the motion vector detection means so that the motion vector of the texture information can be used when encoding the arbitrary shape object composed of the shape information and the texture information. Of the input object shape information and texture information, the identification means identifies whether the motion vector of the texture information can be used, and the reliability of the motion vector of the texture information is determined by the evaluation means In addition, when encoding a macroblock to be encoded, a shape motion vector is obtained by searching for shape motion vectors of macroblocks around the macroblock, and the search range is a motion vector of texture information. Is narrower when available, and the motion If the texture information motion vector cannot be used, it is wider than when it is available. If the texture information motion vector is available, the lower reliability is set wider than when the texture information motion vector is highly reliable. Thus, the shape motion vector search range of the macroblock is set to an appropriate range according to the availability of the motion vector of the texture information and the degree of reliability.
すなわち、この発明は、動きベクトル検出に関する発明であって、このようにした結果、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる技術が提供できる。 That is, the present invention relates to motion vector detection. As a result, it is possible to provide a technique capable of reducing the calculation amount of motion vector detection without reducing coding efficiency.
[2] また、本発明は、上記目的を達成するため、第2には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から形状動きベクトルおよびテクスチャ情報の動きベクトルを検出する動きベクトル検出手段を備えると共に、符号化時の誤差を指定するためのしきい値を設定するしきい値設定手段と、探索範囲内を複数の探索範囲に分割する分割手段と、検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する判定手段とを備え、前記動きベクトル検出手段は、前記分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差がしきい値よりも小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する機能を備える構成とする。 [2] In order to achieve the above object, according to the second aspect of the present invention, secondly, for a desired object constituting an image, the desired object is composed of shape information and texture information in units of macroblocks. In the coding apparatus of the moving image coding method, the motion vector detection means for detecting the shape motion vector and the motion vector of the texture information from the input object shape information is provided, and an error at the time of encoding is designated. Threshold value setting means for setting a threshold value for performing the search, dividing means for dividing the search range into a plurality of search ranges, and whether or not the motion compensation prediction error due to the detected motion vector is larger than the threshold value Determination means for determining whether the motion vector detection means is the narrowest of the divided search ranges When motion vector detection is started from the search range, and the motion compensation prediction error due to the optimal motion vector detected within the search range is larger than the threshold, the optimal motion vector is detected in a wider search range, When the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated, and the motion vector is output as a detection result.
MPEG4においては、予測ベクトルがゼロベクトルであった場合、予測ベクトルがゼロベクトルであることを表す情報をモード情報に組み込んで別途符号化することにより、符号化効率を向上させるが、このゼロベクトルを効率的に検出できるようにすることも演算量軽減に大きく寄与する。そこで、本発明では、しきい値設定手段を設けて、符号化時の誤差を指定するためのしきい値を設定しておき、また、分割手段にて探索範囲内を複数の探索範囲に分割する。そして、動きベクトル検出手段は、これら分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、判定手段はこの動きベクトル検出手段にて検出された動きベクトルを元に、当該検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する。そして、動きベクトル検出手段は、最も狭い探索範囲から動きベクトル検出を開始した結果、判定手段が、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きいと判定した場合は、より広い探索範囲で最適な動きベクトルを検出するように動作し、動き補償予測誤差がしきい値よりも小さいと判断した場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する。このように、探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差が大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差が小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力するようにした結果、誤差が小さければ少ない演算量でゼロベクトルを効率的に検出できるようになり、演算量軽減に大きく寄与する。 In MPEG4, when the prediction vector is a zero vector, information indicating that the prediction vector is a zero vector is incorporated into mode information and separately encoded, thereby improving the encoding efficiency. Making it possible to detect efficiently also greatly contributes to a reduction in the amount of calculation. Therefore, in the present invention, a threshold setting unit is provided to set a threshold for specifying an error during encoding, and the search unit is divided into a plurality of search ranges by the dividing unit. To do. Then, the motion vector detection means starts motion vector detection from the narrowest search range among the divided search ranges, and the determination means detects the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error due to the motion vector thus determined is larger than a threshold value. Then, as a result of starting motion vector detection from the narrowest search range, the motion vector detection means determines that the motion compensation prediction error due to the optimal motion vector detected within the search range is greater than the threshold value. If it is determined, it operates so as to detect an optimal motion vector in a wider search range, and if it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated and the motion vector is detected. Is output as a detection result. As described above, when the motion compensated prediction error due to the optimum motion vector detected within the search range is large, the optimum motion vector is detected within a wider search range, and when the motion compensated prediction error is small, the motion vector detection is performed. As a result of outputting the motion vector as a detection result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to the reduction of the amount of calculation.
[3] また本発明は、上記目的を達成するため、第3には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理する手段を有し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行う構成としたものである。 [3] In order to achieve the above object, according to the third aspect of the present invention, thirdly, regarding a desired object constituting an image, the desired object is an arbitrary shape object composed of shape information and texture information in units of macroblocks. In a coding apparatus of a moving image coding method to be coded, before performing shape coding and texture coding, a boundary of a form including an object as a part with reference to a shape signal input to the coding means For macroblocks, it has means to compensate all pixels in the macroblock to be texture encoded by performing padding processing for eliminating discontinuity in the macroblock, and shape coding and texture coding Is configured to use the padded image.
この発明は、"境界マクロブロック"におけるテクスチャ符号化に関する発明であって、原画像は、境界マクロブロックについては、オブジェクト境界部での画素値の不連続性が解消できるパディング処理、すなわち、LPEパディングにてパディング処理してから、形状符号化およびテクスチャ符号化に供するようにした。そのため、オブジェクト境界部での画素値の不連続性がほとんど無くなることから、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。故に、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、計算時間の短縮を図ることができると共に、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。 The present invention relates to texture coding in a “boundary macroblock”, and the original image is a padding process that can eliminate the discontinuity of pixel values at the object boundary for the boundary macroblock, that is, LPE padding. After the padding process, the shape coding and texture coding are used. For this reason, since there is almost no discontinuity of pixel values at the object boundary, a normal motion vector can be detected even when normal block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, the calculation time can be shortened, and a normal motion vector can be detected even when normal block matching is performed. become able to.
本発明によれば、任意形状オブジェクトの符号化に必要な構成要素の処理順序を変更することで、処理量の増加なしに符号化効率の向上が図れる。また、形状動きベクトルの検出処理を適応的に打ち切ることで、符号化効率の低下を招くことなく処理量の削減が可能となる。 According to the present invention, it is possible to improve the encoding efficiency without increasing the processing amount by changing the processing order of the components necessary for encoding the arbitrary shape object. In addition, by adaptively terminating the shape motion vector detection process, the processing amount can be reduced without causing a decrease in encoding efficiency.
以下、本発明具体例について、図面を参照して説明する。本発明は、MPEG4エンコーダ(動画像符号化装置)の構成要素の処理順序を変更することによる符号化効率向上と、形状動きベクトルの検出法を改良することで、符号化効率を低下させずに、少ない演算量で動きベクトルの検出を行うことができるようにするものであり、以下、詳細を説明する。 Hereinafter, specific examples of the present invention will be described with reference to the drawings. The present invention improves the encoding efficiency by changing the processing order of the components of the MPEG4 encoder (moving image encoding apparatus) and improves the shape motion vector detection method without reducing the encoding efficiency. The motion vector can be detected with a small amount of calculation, and the details will be described below.
<第1の具体例>
図を参照して本発明の第1の具体例を説明する。第1の具体例において説明する技術は、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようにする技術である。
<First specific example>
A first specific example of the present invention will be described with reference to the drawings. The technique described in the first specific example is a technique that can reduce the amount of calculation of motion vector detection without reducing the encoding efficiency.
前述した通り、図11に示した従来技術としてのモデルシステムの構成では、形状動きベクトル(MVs)は、動きベクトル予測手段505にて求められた予測ベクトル(MVPs)の周囲±16画素(図3の探索範囲3)を探索して求められる。つまり、予測ベクトルMVPsからの差分ベクトルMVDsを検出している(式1)。
MVDs=MVs−MVPs …(式1)
通常、予測誤差信号の頻度分布は、図1に示す如きに"0"近傍の頻度が高く、"0"から離れるにしたがって頻度が急激に小さくなる傾向がある。図1では、差分ベクトルMVDsの水平成分を"mvds_y"、垂直成分を"mvds_y"と表記している。
As described above, in the configuration of the model system as the prior art shown in FIG. 11, the shape motion vector (MVs) is ± 16 pixels around the prediction vector (MVPs) obtained by the motion vector prediction means 505 (FIG. 3). This is obtained by searching the search range 3). That is, the difference vector MVDs from the prediction vector MVPs is detected (Formula 1).
MVDs = MVs−MVPs (Formula 1)
Normally, the frequency distribution of the prediction error signal has a high frequency in the vicinity of “0” as shown in FIG. 1, and the frequency tends to decrease rapidly as the distance from “0” increases. In FIG. 1, the horizontal component of the difference vector MVDs is expressed as “mvds_y”, and the vertical component is expressed as “mvds_y”.
ここで、予測ベクトルMVPsの予測精度が低い場合は、頻度分布が緩慢となり、MVPsの予測精度が高い場合は頻度分布が急峻となる。図2は予測ベクトルMVPsを求める方法を説明する図である。図2(a)は形状信号成分に関して、そして、図2(b)は輝度信号成分に関しての情報をマクロブロック単位で示した図であり、符号化対象のマクロブロックMBとその近隣のマクロブロックとして形状動きベクトルMVs1、MVs2、MVs3を有するマクロブロックがあることを示している。また、図2(b)は符号化対象のマクロブロックMBとその近隣のマクロブロックとして、テクスチャ動きベクトルMV1、MV2、MV3を有するマクロブロックがあることを示している。 Here, when the prediction accuracy of the prediction vector MVPs is low, the frequency distribution is slow, and when the prediction accuracy of MVPs is high, the frequency distribution is steep. FIG. 2 is a diagram for explaining a method for obtaining the prediction vector MVPs. FIG. 2A is a diagram showing the shape signal component, and FIG. 2B is a diagram showing information on the luminance signal component in units of macroblocks. As the macroblock MB to be encoded and its neighboring macroblocks, FIG. It shows that there is a macroblock having shape motion vectors MVs1, MVs2, and MVs3. FIG. 2B shows that macroblocks having texture motion vectors MV1, MV2, and MV3 exist as macroblocks MB to be encoded and neighboring macroblocks.
そして、この場合、マクロブロックMBを符号化するにあたり、本発明システムでは、符号化対象のマクロブロックの符号化処理に際して、まず、はじめに、MVs1、MVs2、MVs3の順番でその符号化対象マクロブロックの周囲のマクロブロックについて、形状動きベクトルが存在するか否かを調べ、最初に存在する形状動きベクトルをMVPsとする。 In this case, in encoding the macroblock MB, in the system of the present invention, when encoding the macroblock to be encoded, first, in the order of the MVs1, MVs2, and MVs3, It is checked whether or not a shape motion vector exists for surrounding macroblocks, and the shape motion vector that exists first is defined as MVPs.
形状動きベクトルMVs1、MVs2、MVs3のいずれも存在しない場合には、今度はMV1、MV2、MV3の順番でテクスチャ動きベクトルが存在するか否かを調べ、最初に存在する動きべクトルを予測ベクトルMVPsとする。 When none of the shape motion vectors MVs1, MVs2, and MVs3 exist, it is checked whether or not the texture motion vector exists in the order of MV1, MV2, and MV3, and the motion vector that exists first is determined as the prediction vector MVPs. And
テクスチャ動きベクトルMV1、MV2、MV3いずれも存在しない場合は、予測ベクトルMVPsをゼロベクトルにする。 When none of the texture motion vectors MV1, MV2, and MV3 exists, the prediction vector MVPs is set to a zero vector.
本発明システムでは、動きベクトル予測手段505にはこのような機能を持たせる。
In the system of the present invention, the motion
なお、前記参考文献にも記載されている通り、テクスチャ動きベクトル(MV1、MV2、MV3)を利用できる場合とできない場合がある。例えば、テクスチャ情報を符号化せずに形状情報だけを符号化するモードや、符号化対象マクロブロックに対する、MV1、MV2、MV3何れも存在しない場合などである。つまり、テクスチャ動きベクトルが信頼できると仮定すれば、この手法においては、テクスチャ動きベクトルを利用できる場合には、利用できない場合と比べて予測ベクトルMVpsの予測精度が高いといえる。 Note that, as described in the above-mentioned reference, texture motion vectors (MV1, MV2, MV3) may or may not be used. For example, there is a mode in which only the shape information is encoded without encoding the texture information, or the case where none of MV1, MV2, and MV3 exists for the encoding target macroblock. That is, assuming that the texture motion vector is reliable, it can be said that in this method, when the texture motion vector can be used, the prediction accuracy of the prediction vector MVps is higher than when the texture motion vector cannot be used.
(第1の具体例その1)
そこで、本実施例では図3に示すように、探索範囲を数段階分用意し、テクスチャ動きベクトルを利用できる場合には、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えるようにする。例えば、探索範囲を"探索範囲1"、"探索範囲2"、"探索範囲3"と云った具合に数段分、用意し、"探索範囲1"の領域サイズは4×4画素、"探索範囲2"の領域サイズは8×8画素、"探索範囲3"の領域サイズは16×16画素、と云った具合にする。
(First specific example 1)
Therefore, in this embodiment, as shown in FIG. 3, the search range is prepared for several stages, and when the texture motion vector can be used, the search range is switched according to the prediction accuracy of the prediction vector MVPs. For example, the search range is prepared for several stages such as “
そして、図11に示した構成において、形状動きベクトル検出手段502の機能として、このように予測ベクトルMVPsの予測精度の検出と、この予測精度に応じて動きベクトル探索範囲を切り替える機能を付加した構成に改良することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができる。予測精度は、例えば、動きベクトル予測手段505の求めた予測ベクトルMVPsについての誤差の大きさで決めるようにすれば良い。
In the configuration shown in FIG. 11, as a function of the shape motion
動きベクトル探索範囲の具体例としては、テクスチャ動きベクトルが信頼できる場合には最小領域サイズとなる"探索範囲1"内を、そして、テクスチャ動きベクトルが信頼できない場合にはそれよりも幾分広い領域とした"探索範囲2"内を、探索範囲とする。また、テクスチャ動きベクトルが利用できない場合は最も広い領域とした"探索範囲3"を探索領域として探索するようにする。
As a specific example of the motion vector search range, if the texture motion vector is reliable, it is within the “
すなわち、形状動きベクトル検出手段502には、フレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検知する符号化領域検出手段(Bounding-rectangle)を介して入力されるアルファマップ信号(形状情報A)と動きベクトル予測手段505にて求められた予測ベクトルの情報とフレームメモリ506の形状情報信号とから動きベクトル検出するに当たり、予測ベクトルMVPsの予測精度を求めて、それに応じて切り替えた最適な動きベクトル探索範囲で形状動きベクトルを検出するように動作させる。そして、これにより検出したベクトルを形状動きベクトル情報として出力させる。
That is, an alpha map signal input to the shape motion
このようにすると、マクロブロックの符号化に当たり、テクスチャ動きベクトルの予測精度に基づく信頼度を調べた結果、その信頼度が高ければ、符号化しようとしているマクロブロックの周辺の狭い探索範囲を用いて動きベクトル検出の計算を済ませることが可能となり、動きベクトル検出に必要な計算量を低減することができることになる。また、テクスチャ動きベクトルが信頼できない場合やテクスチャ動きベクトルが利用できない場合は探索範囲を広げることで、動きベクトルの検出が可能になる。 In this way, when encoding the macroblock, as a result of examining the reliability based on the prediction accuracy of the texture motion vector, if the reliability is high, a narrow search range around the macroblock to be encoded is used. It becomes possible to complete the calculation of motion vector detection, and the amount of calculation required for motion vector detection can be reduced. If the texture motion vector is not reliable or the texture motion vector cannot be used, the motion vector can be detected by expanding the search range.
図4は本具体例のフローチャートである。すなわち、テクスチャ動きベクトルが利用できるか否かをチェックし(ステップS11)、その結果、利用できなければ探索範囲を"探索範囲3"とすることとする。ステップS11でのチェックの結果、利用できるのであれば、次にテクスチャ動きベクトルが信頼できるか否かをチェックし(ステップS12)、その結果、信頼できなければ探索範囲を"探索範囲2"とすることとする。ステップS12でのチェックの結果、信頼できるのであれば、探索範囲を"探索範囲1"とする。
FIG. 4 is a flowchart of this example. That is, it is checked whether or not the texture motion vector can be used (step S11). As a result, if the texture motion vector cannot be used, the search range is set to “search range 3”. If the texture motion vector can be used as a result of the check in step S11, it is next checked whether or not the texture motion vector is reliable (step S12). If the result is not reliable, the search range is set to "
なお、ここではテクスチャ動きクトルの信頼性は、テクスチャ動きベクトルの探索範囲によって判断している。つまり、テクスチャ動きベクトルの検出は、テクスチャ動きベクトルそのものを直接検出しているため、探索範囲が広い場合は大きな動きにも追従できることから、探索範囲が狭い場合よりも信頼性が高いと推測できる。なお、MPEG4では、テクスチャ動きベクトルの探索範囲は±1024まで拡張可能である。 Here, the reliability of the texture motion vector is determined by the search range of the texture motion vector. That is, the texture motion vector is detected directly because the texture motion vector itself is directly detected, and can follow a large motion when the search range is wide. Therefore, it can be estimated that the reliability is higher than that when the search range is narrow. In MPEG4, the search range of texture motion vectors can be extended to ± 1024.
このようにすることで、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えることができるようになり、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができる。 In this way, the search range can be switched according to the prediction accuracy of the prediction vector MVPs, and encoding is performed by performing such search range switching according to the prediction accuracy of the prediction vector MVPs. It is possible to reduce the calculation amount of motion vector detection without reducing efficiency.
(第1の具体例その2)
予測ベクトルMVDsがゼロベクトルであった場合、前述したように、当該予測ベクトルMVDsがゼロベクトルであることを表す情報は、符号化効率向上のためモード情報に組み込まれて別途符号化される。
(First specific example 2)
When the prediction vector MVDs is a zero vector, as described above, information indicating that the prediction vector MVDs is a zero vector is incorporated into mode information and separately encoded to improve encoding efficiency.
そこで、図12に示したMPEG4用の従来技術としてのモデルエンコードシステムでは、ゼロベクトルが検出され易いように、比較基準としての所定のしきい値を定め、ゼロベクトル時の動き補償予測誤差(MC誤差)をこのしきい値と比較すると共に、当該ゼロベクトル時の動き補償予測誤差(MC誤差)が前記しきい値よりも小さいときには、その時点で検出を打ち切り、予測ベクトルMVPsを形状動きベクトルMVsとしている。 Therefore, in the model encoding system as the prior art for MPEG4 shown in FIG. 12, a predetermined threshold value is set as a comparison reference so that the zero vector is easily detected, and a motion compensation prediction error (MC at the time of the zero vector is determined. Error) is compared with this threshold value, and when the motion compensated prediction error (MC error) at the time of the zero vector is smaller than the threshold value, detection is aborted at that time, and the predicted vector MVPs is converted into the shape motion vector MVs. It is said.
本具体例では、上記打ち切りを更に拡張したもので、たとえば、図3の"探索範囲1"まで検出した際の最適な動きベクトルでの動き補償予測誤差が、所定のしきい値よりも小さいときには、その時点で検出を打ち切るようにする。動き補償予測誤差が所定のしきい値よりも大きい場合には、探索範囲を"探索範囲2"まで拡張し、"探索範囲1"のときと同様に、"探索範囲2"の残りの範囲を探索した際の最適な動きベクトルでの動き補償予測誤差が所定のしきい値よりも小さいときには、その時点で検出を打ち切るようにする。
In this specific example, the above truncation is further expanded. For example, when the motion compensation prediction error with the optimum motion vector when detecting up to “
つまり、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えるようにし、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量低減を図るようにする。 That is, the search range is switched according to the prediction accuracy of the prediction vector MVPs, and the search range switching according to the prediction accuracy of the prediction vector MVPs is performed, so that motion vector detection can be performed without reducing the coding efficiency. Try to reduce the amount of calculation.
図5は、本具体例のフローチャートである。すなわち、予測ベクトルMVDsを"0"に初期化し(ステップS1)、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS2)。その結果、小さければ処理を終了し、大きければ"探索範囲1"内を探索する(ステップS3)。
FIG. 5 is a flowchart of this example. That is, the prediction vector MVDs is initialized to “0” (step S1), and then it is checked whether the MC (motion compensation) error is larger than a threshold (step S2). As a result, if it is small, the process is terminated, and if it is large, the search is made in “
そして、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS4)。その結果、小さければ処理を終了し、大きければ"探索範囲2−探索範囲1"内を探索する(ステップS5)。
Then, it is checked whether the MC (motion compensation) error is larger than a threshold value (step S4). As a result, if it is small, the process is terminated, and if it is large, the search is made within “
そして、次にMC(動き補償)誤差が閾値より大きいか否かをチェックする(ステップS6)。その結果、小さければ処理を終了し、大きければ"探索範囲3−探索範囲2"内を探索し(ステップS7)、それが終われば処理を終了する。
Then, it is checked whether the MC (motion compensation) error is larger than a threshold value (step S6). As a result, if it is small, the process is terminated, and if it is large, the search is made within “search range 3—
このようにすることで、予測ベクトルMVPsの予測精度に応じて探索範囲を切り替えることができるようになり、このような予測ベクトルMVPsの予測精度に応じた探索範囲切り替えを実施することで、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる。 In this way, the search range can be switched according to the prediction accuracy of the prediction vector MVPs, and encoding is performed by performing such search range switching according to the prediction accuracy of the prediction vector MVPs. The calculation amount of motion vector detection can be reduced without reducing the efficiency.
前述したように、ゼロベクトル近傍に差分ベクトルMVDsの最適値がある可能性が高いため、狭い探索範囲から段階的に探索範囲を拡張し、途中段階で所定の条件を満たした場合は探索を打ち切ることで、符号化効率の低下なしに、動きベクトル検出の計算量を低減することができる。 As described above, since there is a high possibility that there is an optimum value of the difference vector MVDs in the vicinity of the zero vector, the search range is expanded step by step from a narrow search range, and the search is terminated when a predetermined condition is satisfied in the middle step. Thus, it is possible to reduce the calculation amount of motion vector detection without lowering the encoding efficiency.
"具体例その1"、"具体例その2"共に、図11のMPEG4用モデルエンコーダと比較して、大きさの小さいベクトルが選択されるため、動きベクトルの符号量が低減されて結果として符号化効率が向上する場合もある。 In both “specific example 1” and “specific example 2”, a vector having a smaller size is selected as compared with the MPEG4 model encoder of FIG. In some cases, the conversion efficiency is improved.
なお、"具体例その1"と"具体例その2"に示した技術を組み合せれば、さらに動きベクトル検出の計算量の低減が可能になる。 If the techniques shown in “Specific Example 1” and “Specific Example 2” are combined, the calculation amount of motion vector detection can be further reduced.
以上は、MPEG4において、テクスチャ動きベクトルを利用して動きベクトル検出を行うことにより、動きベクトル検出に当たっての計算量を低減することができるようにした技術であった。 The above is a technique in which the amount of calculation for motion vector detection can be reduced by performing motion vector detection using texture motion vectors in MPEG4.
次に、"境界マクロブロック"におけるテクスチャ符号化について説明する。
<第2の具体例>
次に、本発明の第2の具体例を説明する。本具体例は、マクロブロック内の一部にオブジェクトを含む形態である"境界マクロブロック"におけるテクスチャ符号化に関わるものである。
Next, texture coding in the “boundary macroblock” will be described.
<Second specific example>
Next, a second specific example of the present invention will be described. This specific example relates to texture coding in a “boundary macroblock” which is a form in which an object is included in a part of a macroblock.
図6において、図に強調表記された構成要素である符号化領域(Bounding-Rectangle)検出手段301、参照画像パディング手段302、LPEパディング手段303a、ゼロパディング手段304、ベクトルパディング手段306および形状情報符号化手段500は、任意形状のオブジェクトを符号化するためだけに必要な構成要素である。従って、MPEG1やMPEG2のような旧来の符号化法と同様に、矩形のオブジェクトを符号化するためには、これ以外の構成要素、すなわち、図6における動きベクトル検出手段305、フレームメモリ307、動き補償手段308、切替スイッチ309,310、動きベクトル予測手段311、動きベクトル記憶手段312、差分回路313、第3の可変長符号化手段314、量子化手段315、逆量子化手段316、直交変換手段317、第4の可変長符号化手段318、逆直交変換手段319、加算回路320、スイッチ321、マルチプレクサ322とから構成される要素が備わっていればよい。
In FIG. 6, coding region (Bounding-Rectangle) detecting means 301, reference image padding means 302, LPE padding means 303a, zero padding means 304, vector padding means 306, and shape information code which are components highlighted in the figure. The converting
ここで、動きベクトル検出手段305は、LPEパディング手段303の出力するLPEパディング済みのマクロブロックデータと、形状情報符号化手段500の出力する形状情報の再生値データ54と、フレームメモリ307から供給される参照画像の輝度信号との間で動きベクトル検出を行う。そして、その結果、得られた動きベクトルは、動き補償手段(MC)308とベクトルパディング(Vector padding)手段306と差分回路313とに出力している。
Here, the motion vector detection means 305 is supplied from the LPE padded macroblock data output from the LPE padding means 303, the shape information
フレームメモリ307は、参照画像パディング手段302から出力されるパディング処理済みの参照画像の輝度信号を保持するためのものである。また、動き補償手段308は、動きベクトル検出手段305にて検出された動きベクトルと、形状情報符号化手段500の出力する形状情報の再生値データ54とを用いて動き補償予測のための動きベクトル情報を求めるためのものであり、切替スイッチ309,310は、LPEパディング手段303の出力をゼロパディング手段304に与えるか、迂回させるかを選択切り換えするための経路切り替えスイッチである。
The
直交変換手段317は、この切替スイッチ310を介して与えられる出力を直交変換(離散コサイン変換)して周波数成分に分解する処理をするためのものであり、量子化手段315は、この直交変換手段317の出力を量子化して出力するものであり、第4の可変長符号化手段318は、この量子化出力を可変長符号化処理してテクスチャストリームとしてマルチプレクサ322に出力するものである。
The orthogonal transform means 317 is for performing an orthogonal transform (discrete cosine transform) on the output given via the
また、動きベクトル予測手段311は、形状情報符号化手段500の出力する形状情報の再生値データ54と、動きベクトル記憶手段312の保持するデータとを用いて動きベクトルを予測するためのものであり、差分回路313は、この動きベクトル予測手段311の出力する動きベクトル予測値と動きベクトル検出手段305の出力する動きベクトルとの差分値を得るためのものであり、第3の可変長符号化手段314は、この差分回路313の出力を可変長符号化処理してモーションストリームとしてマルチプレクサ322に出力するものである。
The motion vector predicting means 311 is for predicting a motion vector using the
逆量子化手段316は、量子化手段315の量子化出力を逆量子化してもとのデータに戻して出力するものであり、逆直交変換手段319は、この逆量子化手段316の出力するデータを逆直交変換(逆離散コサイン変換)して元のゼロパディング処理時点でのデータに戻すためのものである。 The inverse quantization means 316 returns the quantized output of the quantization means 315 to the original data after being inversely quantized, and the inverse orthogonal transform means 319 outputs the data output from the inverse quantization means 316. Is subjected to inverse orthogonal transform (inverse discrete cosine transform) to restore the original data at the time of zero padding processing.
マルチプレクサ322は、第3の可変長符号化手段314の出力する可変長符号化されたモーションストリームと、第4の可変長符号化手段318の出力する可変長符号化されたテクスチャストリームと、符号化領域(Bounding-Rectangle)検出手段301の出力する符号化領域の情報と、形状情報符号化手段500の出力する形状情報の再生値データ54とを受けてこれらを多重化して出力するものである。
The
また、前記逆直交変換手段319は、この逆量子化手段316の出力するデータを逆直交変換(逆離散コサイン変換)して元のゼロパディング処理時点でのデータに戻すためのものである。
The inverse
また、加算回路320は、スイッチ321を介して与えられる動き補償手段308からの動きベクトル情報と逆直交変換手段319から与えられる元のゼロパディング処理時点でのデータとを加算して参照画像パディング手段302に与えるためのものであり、動きベクトル記憶手段312は、ベクトルパディング手段306の出力する形状情報の再生値データ54に基づいて、動きベクトルの無い8×8画素単位のブロック(透明ブロックやイントラマクロブロック)に適切な動きベクトルを充填したデータを受けてこれを蓄積するものである。
Further, the
ここで、本実施例でのエンコーダと従来のエンコーダの仕組みの違いに触れておく。従来のエンコーダは図12に示すように、動きベクトル検出手段305は入力されるテクスチャ情報(YUV)と符号化領域(Bounding-Rectangle)検出手段301からの検出出力とフレームメモリ307からの記憶情報とを用いて動きベクトル34を得るようにしていた。ここで、符号化領域(Bounding-Rectangle)検出手段301はフレーム画像中の対象とするオブジェクトの存在する領域である符号化領域を検出するためのものである。
Here, the difference in the mechanism between the encoder in the present embodiment and the conventional encoder will be mentioned. In the conventional encoder, as shown in FIG. 12, the motion vector detection means 305 includes input texture information (YUV), detection output from the coding area (Bounding-Rectangle) detection means 301, and storage information from the
また、LPEパディング手段303はゼロパディング手段304と並列におき、入力テクスチャ情報(YUV)を条件に応じていずれか一方に与えてパディングさせて、そのパディング処理済みの出力を直交変換手段317に与える構成であった。 Further, the LPE padding means 303 is placed in parallel with the zero padding means 304, and the input texture information (YUV) is given to one of them according to the condition for padding, and the padded output is given to the orthogonal transformation means 317. It was a configuration.
これを本発明では、図6に示す如く、LPEパディング手段303は初段において、入力テクスチャ情報(YUV)を条件に係わりなく、LPEパディング処理し、これを動きベクトル検出手段305と、そして、条件に応じてゼロパディング手段304に与える構成としている。ここで、LPEパディングとは、前述したように、イントラマクロブロック内のブロックをDCT(離散コサイン変換)する前に、オブジェクト外の画素(図13の白丸部)値をオブジェクト内部の画素(図13の黒丸部)値の平均値で置き換えた後、ローパスフィルタをかける処理であって、処理単位は、DCTの場合と同様、8×8画素である。また、ゼロパディングは、インターマクロブロック内のブロックをDCTする前に、動き補償予測誤差信号のオブジェクト外の画素(図13の白丸部)値をゼロ値で置き換える処理であって、処理単位は、DCTの場合と同様、8×8画素である。これらLPEパディングおよびゼロパディングは、MPEG4の規格において必須の処理ではないが、符号化効率向上のために実施するものである。 In the present invention, as shown in FIG. 6, the LPE padding means 303 performs the LPE padding process at the first stage regardless of the condition of the input texture information (YUV), and this is processed into the motion vector detection means 305 and the condition. Accordingly, the zero padding means 304 is provided. Here, as described above, LPE padding refers to pixel values outside an object (white circles in FIG. 13) values inside the object (FIG. 13) before DCT (Discrete Cosine Transform) of the block in the intra macroblock. The processing unit is 8 × 8 pixels, as in the case of DCT. Also, zero padding is a process of replacing pixel values outside the object (white circles in FIG. 13) of the motion compensated prediction error signal with zero values before DCTing the blocks in the inter macroblock. As in the case of DCT, it is 8 × 8 pixels. These LPE padding and zero padding are not indispensable processes in the MPEG4 standard, but are implemented to improve coding efficiency.
本具体例のブロック構成は図6に示す如きのものである。そして、本具体例の構成は、動きベクトル検出手段305の処理位置が図12に示した従来モデルの構成における動きベクトル検出手段305の位置と異なり、また、LPEパディング303の処理位置が従来モデルのLPEパディング303の位置と異なる。
The block configuration of this example is as shown in FIG. In the configuration of this specific example, the processing position of the motion
<LPEパディング手段>
まず、本実施例システムにおけるLPEパディング手段303aでの処理と、従来技術としてのシステムにおけるLPEパディング手段303での処理との相違点を説明する。
<LPE padding means>
First, the difference between the processing in the LPE padding means 303a in the system of this embodiment and the processing in the LPE padding means 303 in the system as the prior art will be described.
LPEパディング手段303aでのパディング処理は、信号線を介して供給されるテクスチャ画像の原信号(YUV)41の境界マクロブロックのみに施される。ここで、境界マクロブロックか否かは符号化領域(Bounding-Rectangle)検出手段301を介して供給される形状画像の原信号42を用いて判断する。つまり、LPEパディング手段303aでの処理は、符号化の前処理としてLPEパディングを施していることになる。
The padding process in the
当該前処理を行ったことにより、LPEパディング手段303aから出力されるテクスチャ画像43は、符号化される前に符号化対象となるマクロブロック内の画素値が全て補填されることになる。
By performing the preprocessing, the
なお、従来技術としてのモデルシステムにおけるLPEパディング手段303では、信号線35を介して形状情報符号化手段500より供給される形状画像の局部復号信号に基づき、8×8画素のブロックが境界ブロックであればパディングを施している。
In the LPE padding means 303 in the model system as the prior art, an 8 × 8 pixel block is a boundary block based on the local decoded signal of the shape image supplied from the shape information encoding means 500 via the
本具体例では、8×8画素のブロック単位でパディングして、図14の左上のブロックのように、ブロック内にオブジェクト内の画素を含まない場合は、たとえば、周囲のブロックの平均値でパディングすることで、マクロブロック内の画素が全てパディングされるようにする。 In this specific example, when padding is performed in block units of 8 × 8 pixels and the pixel in the object is not included in the block as in the upper left block in FIG. 14, for example, padding is performed with the average value of surrounding blocks. As a result, all the pixels in the macroblock are padded.
以上、説明したように、本具体例と従来モデルシステムとでは、第1には、形状画像の原信号に基づきパディングするか、局部復号信号に基づきパディングするかという点が異なる。 As described above, the first specific example and the conventional model system differ in that padding is performed based on the original signal of the shape image or padding based on the local decoded signal.
ここで、本発明の手法である"形状画像の原信号に基づきパディング"する方式の効果を具体的に示すために、1次元信号のモデルに対してLPEパディングを施した例を示す。輝度信号をY、形状信号をA、形状の局部復号信号(その1)をA′、形状の局部復号信号(その2)をA″とする。そして、これらがそれぞれ以下のような信号であったとする。 Here, an example in which LPE padding is applied to a one-dimensional signal model will be shown in order to specifically show the effect of the method of “padding based on the original signal of the shape image” which is the technique of the present invention. The luminance signal is Y, the shape signal is A, the shape local decoded signal (Part 1) is A ', and the shape local decoded signal (Part 2) is A ". These are the following signals, respectively. Suppose.
以下の例では、簡単のため、形状信号を"0"(オブジェクト外)か、"1"(オブジェクト内)かで表現している。 In the following example, for simplicity, the shape signal is expressed by “0” (outside the object) or “1” (inside the object).
Y={50,50,50,50,180,190,200,210}
A={0,0,0,0,1,1,1,1,1}
A′={0,0,0,1,1,1,1,1}
A″={0,0,0,0,0,1,1,1}
ここで、輝度信号Yを上述のA、A′、A″でそれぞれLPEパディングした結果をYp、Yp′、Yp″とすると、例えば、以下のようになる。
Y = {50,50,50,50,180,190,200,210}
A = {0,0,0,0,1,1,1,1,1}
A ′ = {0,0,0,1,1,1,1,1}
A ″ = {0,0,0,0,0,1,1,1}
Here, assuming that the results of LPE padding of the luminance signal Y with the above-described A, A ′, A ″ are Yp, Yp ′, Yp ″, for example, the following results.
Yp={195,195,195,188,180,190,200,210}
Yp′={166,166,108,50,180,190,200,210}
Yp″={200,200,200,200,195,190,200,210}
すなわち、Ypの場合、もとのYなるデータの"50","50","50","50","180","190","200","210"なるデータ列がパディングの結果、"195","195","195","188","180","190","200","210"となったことを示しており、Yp′の場合にはデータ値が"166","166","108","50","180","190","200","210"となったことを示しており、Yp″の場合はデータ値が"200","200","200","200","195","190","200","210"となったことを示している。尚、ここに示した数値は下限値を"0"(白)、上限値を"255"(黒)とする256段階のグレースケール値である。
Yp = {195,195,195,188,180,190,200,210}
Yp ′ = {166,166,108,50,180,190,200,210}
Yp ″ = {200,200,200,200,195,190,200,210}
That is, in the case of Yp, the data string of “50”, “50”, “50”, “50”, “180”, “190”, “200”, “210” of the original Y data is padded. As a result, “195”, “195”, “195”, “188”, “180”, “190”, “200”, “210” are indicated, and in the case of Yp ′, the data value Indicates “166”, “166”, “108”, “50”, “180”, “190”, “200”, “210”, and in the case of Yp ″, the data value is “ 200, 200, 200, 200, 195, 190, 200, and 210. The numerical values shown here are lower limit values. It is a 256-step gray scale value where “0” (white) and the upper limit value are “255” (black).
一般に、オブジェクトの境界は、像のエッジ部であり、上記の例のように輝度信号Yが大きく変動する。形状情報符号化手段500での処理において、形状の局部復号信号に誤差が発生した場合には、上記の例(Yp)のように滑らかにパディングされない場合がある。そのため、"境界マクロブロック"におけるテクスチャ符号化をする場合に、このような誤差を含む信号を用いなければならなくなったときはエッジが不明確となってしまう問題が浮上することとなる。
In general, the boundary of an object is an edge portion of an image, and the luminance signal Y varies greatly as in the above example. When an error occurs in the shape local decoding signal in the processing by the shape
しかし、本発明方式の場合は、形状信号を"0"(オブジェクト外)、"1"(オブジェクト内)とすることで、このような心配が全くなくなる。 However, in the case of the method of the present invention, such a worry is completely eliminated by setting the shape signal to “0” (outside the object) and “1” (inside the object).
<動きベクトル検出手段>
次に、本実施例システムにおける動きベクトル検出手段305aの処理と従来モデルのシステムにおける動きベクトル検出手段305の処理との相違点を説明する。本システムにおける動きベクトル検出手段305aでは、形状情報符号化手段500から出力され、信号線44を介して供給される形状情報の再生値データ54と、LPEパディング手段303aの出力するパディング処理済みデータとに基づいて透過マクロブロック以外のマクロブロックに対する動きべクトルを検出する。
<Motion vector detection means>
Next, the difference between the processing of the motion vector detection means 305a in the system of this embodiment and the processing of the motion vector detection means 305 in the system of the conventional model will be described. In the motion vector detection unit 305a in this system, the
LPEパディング手段303aより信号線45を介して供給される原画像データ(パディング処理済みデータ)と、フレームメモリ307から信号線46を介して供給される参照画像との間で動きベクトルを検出し、この検出した動きベクトルは、信号線47を介してベクトルパディング(Vector padding)手段306と、動き補償手段308と、差分回路313とに出力する。
A motion vector is detected between the original image data (padding processed data) supplied from the LPE padding means 303a via the
ここで、信号線45を介して供給される原画像は、すでにLPEパディング403により境界マクロブロックがパディングされている。そのため、オブジェクト境界部での画素値の不連続性がほとんど無い。
Here, the boundary macroblock is already padded by the LPE padding 403 in the original image supplied via the
従って、従来モデルシステムにおける動きベクトル検出手段305の場合と異なり、本発明システムの動きベクトル検出手段305aにおいては、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、しかも、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。
Therefore, unlike the case of the motion
以上、種々の実施例を説明したが、要するに本発明は、第1には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から動き補償予測に用いるための形状動きベクトルおよびテクスチャ情報の動きベクトルとを検出する動きベクトル検出手段と、入力されるテクスチャ情報から当該テクスチャ情報の動きベクトルの利用の可否を識別する識別手段と、テクスチャ情報における前記検出された動きベクトルの信頼性を評価する評価手段と、形状動きベクトルの探索範囲を、テクスチャ情報の動きベクトル不可能時には利用可能時より広く設定され、テクスチャ情報の動きベクトルが利用可能な場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合より低い方が広く設定される設定手段とを有するものである。 As described above, various embodiments have been described. In short, the present invention firstly relates to a desired object constituting an image, and the desired shape object is formed of shape information and texture information in units of macroblocks. A motion vector detecting means for detecting a shape motion vector and a texture information motion vector to be used for motion compensation prediction from input object shape information, and an input device Identification means for identifying whether or not the motion vector of the texture information can be used from the texture information, an evaluation means for evaluating the reliability of the detected motion vector in the texture information, a search range of the shape motion vector, When information motion vector is not available, set wider than when it can be used. Is, in case the motion vector of texture information is available are those having a setting unit for lower than the reliability of the motion vector of texture information are set widely.
そして、この装置は、形状情報とテクスチャ情報とから構成される任意形状オブジェクトを符号化するにあたり、テクスチャ情報の動きベクトルも利用できるように動きベクトル検出手段にはテクスチャ情報の動きベクトルも検出できる機能を持たせ、入力されたオブジェクトの形状情報とテクスチャ情報のうち、テクスチャ情報の動きベクトルが利用できるか否かを識別手段にて識別させ、また、評価手段により、テクスチャ情報の動きベクトルの信頼性を評価し、また、符号化対象のマクロブロックの符号化にあたっては、そのマクロブロックの周辺のマクロブロックの形状動きベクトルを探索して形状動きベクトルを求めるが、その探索範囲はテクスチャ情報の動きベクトルが利用できる場合には狭く、また、テクスチャ情報の動きベクトルが利用できない場合には、利用できる場合よりも広くし、テクスチャ情報の動きベクトルが利用できる場合においてはテクスチャ情報の動きベクトルの信頼性が高い場合よりも信頼性の低い方が広く設定されるようにしてテクスチャ情報の動きベクトルの利用の可否と、信頼性の度合いに応じてマクロブロックの形状動きベクトル探索範囲を適正な範囲にするようにした。すなわち、この発明は、動きベクトル検出に関する発明であって、このようにした結果、符号化効率を落とすことなく動きベクトル検出の計算量を低減することができるようになる技術が提供できる。 This device is also capable of detecting the motion vector of the texture information in the motion vector detection means so that the motion vector of the texture information can be used when encoding the arbitrary shape object composed of the shape information and the texture information. Of the input object shape information and texture information, the identification means identifies whether the motion vector of the texture information can be used, and the reliability of the motion vector of the texture information is determined by the evaluation means In addition, when encoding a macroblock to be encoded, a shape motion vector is obtained by searching for shape motion vectors of macroblocks around the macroblock, and the search range is a motion vector of texture information. Is narrower when available, and the motion If the texture information motion vector cannot be used, it is wider than when it is available. If the texture information motion vector is available, the lower reliability is set wider than when the texture information motion vector is highly reliable. Thus, the shape motion vector search range of the macroblock is set to an appropriate range according to the availability of the motion vector of the texture information and the degree of reliability. That is, the present invention relates to motion vector detection. As a result, it is possible to provide a technique capable of reducing the calculation amount of motion vector detection without reducing coding efficiency.
また、第2には、本発明は、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、入力されるオブジェクトの形状情報から形状動きベクトルおよびテクスチャ情報の動きベクトルを検出する動きベクトル検出手段を備えると共に、符号化時の誤差を指定するためのしきい値を設定するしきい値設定手段と、探索範囲内を複数の探索範囲に分割する分割手段と、検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する判定手段とを備え、前記動きベクトル検出手段は、前記分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差がしきい値よりも小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する機能を備える構成とした。 Second, the present invention relates to a moving image coding system that encodes a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. The encoding apparatus includes a motion vector detection means for detecting a shape motion vector and a texture information motion vector from the shape information of an input object, and sets a threshold value for specifying an error in encoding. A threshold value setting unit, a dividing unit that divides the search range into a plurality of search ranges, and a determination unit that determines whether the motion compensation prediction error due to the detected motion vector is larger than a threshold value, The motion vector detection means detects a motion vector from the narrowest search range among the divided search ranges. When the motion compensated prediction error due to the optimal motion vector detected within the search range is larger than the threshold, the optimal motion vector is detected in a wider search range, and the motion compensated prediction error is the threshold. When the value is smaller than the value, the motion vector detection is terminated, and the motion vector is output as a detection result.
MPEG4においては、予測ベクトルがゼロベクトルであった場合、予測ベクトルがゼロベクトルであることを表す情報をモード情報に組み込んで別途符号化することにより、符号化効率を向上させるが、このゼロベクトルを効率的に検出できるようにすることも演算量軽減に大きく寄与する。そこで、本発明では、しきい値設定手段を設けて、符号化時の誤差を指定するためのしきい値を設定しておき、また、分割手段にて探索範囲内を複数の探索範囲に分割する。そして、動きベクトル検出手段は、これら分割された探索範囲のうち、最も狭い探索範囲から動きベクトル検出を開始し、判定手段はこの動きベクトル検出手段にて検出された動きベクトルを元に、当該検出された動きベクトルによる動き補償予測誤差がしきい値よりも大きいか否かを判定する。そして、動きベクトル検出手段は、最も狭い探索範囲から動きベクトル検出を開始した結果、判定手段が、該探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差がしきい値よりも大きいと判定した場合は、より広い探索範囲で最適な動きベクトルを検出するように動作し、動き補償予測誤差がしきい値よりも小さいと判断した場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力する。このように、探索範囲内で検出された最適な動きベクトルによる動き補償予測誤差が大きい場合は、より広い探索範囲で最適な動きベクトルを検出し、動き補償予測誤差が小さい場合は、動きベクトル検出を終了し、該動きべクトルを検出結果として出力するようにした結果、誤差が小さければ少ない演算量でゼロベクトルを効率的に検出できるようになり、演算量軽減に大きく寄与する。 In MPEG4, when the prediction vector is a zero vector, information indicating that the prediction vector is a zero vector is incorporated into mode information and separately encoded, thereby improving the encoding efficiency. Making it possible to detect efficiently also greatly contributes to a reduction in the amount of calculation. Therefore, in the present invention, a threshold setting unit is provided to set a threshold for specifying an error during encoding, and the search unit is divided into a plurality of search ranges by the dividing unit. To do. Then, the motion vector detection means starts motion vector detection from the narrowest search range among the divided search ranges, and the determination means detects the detection based on the motion vector detected by the motion vector detection means. It is determined whether the motion compensation prediction error due to the motion vector thus determined is larger than a threshold value. Then, as a result of starting motion vector detection from the narrowest search range, the motion vector detection means determines that the motion compensation prediction error due to the optimal motion vector detected within the search range is greater than the threshold value. If it is determined, it operates so as to detect an optimal motion vector in a wider search range, and if it is determined that the motion compensation prediction error is smaller than the threshold value, the motion vector detection is terminated and the motion vector is detected. Is output as a detection result. As described above, when the motion compensated prediction error due to the optimum motion vector detected within the search range is large, the optimum motion vector is detected within a wider search range, and when the motion compensated prediction error is small, the motion vector detection is performed. As a result of outputting the motion vector as a detection result, if the error is small, the zero vector can be efficiently detected with a small amount of calculation, which greatly contributes to the reduction of the amount of calculation.
また本発明は、第3には、画像を構成する所望オブジェクトについて、その所望オブジェクトをマクロブロック単位で形状情報とテクスチャ情報とから構成される任意形状オブジェクトとして符号化する動画像符号化方式の符号化装置において、形状符号化およびテクスチャ符号化を行うに先立ち、該符号化手段に入力された形状信号を参照して、オブジェクトを一部に含む形態の境界マクロブロックについてはそのマクロブロック内を不連続性解消のためのパディング処理を施こすことによりテクスチャ符号化対象となるマクロブロック内の画素を全て補填処理する手段を有し、形状符号化およびテクスチャ符号化は当該パディング処理済みの画像を使用して行う構成としたものである。 In the third aspect of the present invention, there is provided a moving image coding method code that encodes a desired object constituting an image as an arbitrary shape object composed of shape information and texture information in units of macroblocks. Before performing shape coding and texture coding in the coding device, the shape signal input to the coding means is referred to, and boundary macroblocks that include an object as a part of the macroblock are not processed. It has a means to compensate all the pixels in the macroblock to be texture encoded by performing padding processing to eliminate continuity, and shape coding and texture coding use the padded image. Thus, the configuration is performed.
この発明は、"境界マクロブロック"におけるテクスチャ符号化に関する発明であって、原画像は、境界マクロブロックについては、オブジェクト境界部での画素値の不連続性が解消できるパディング処理、すなわち、LPEパディングにてパディング処理してから、形状符号化およびテクスチャ符号化に供するようにした。そのため、オブジェクト境界部での画素値の不連続性がほとんど無くなることから、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。故に、"境界マクロブロック"において処理量の多いポリゴンマッチングを行わずに済み、計算時間の短縮を図ることができると共に、通常のブロックマッチングを行った場合でも、正常な動きベクトルを検出することができるようになる。 The present invention relates to texture coding in a “boundary macroblock”, and the original image is a padding process that can eliminate the discontinuity of pixel values at the object boundary for the boundary macroblock, that is, LPE padding. After the padding process, the shape coding and texture coding are used. For this reason, since there is almost no discontinuity of pixel values at the object boundary, a normal motion vector can be detected even when normal block matching is performed. Therefore, it is not necessary to perform polygon matching with a large amount of processing in the “boundary macroblock”, the calculation time can be shortened, and a normal motion vector can be detected even when normal block matching is performed. become able to.
なお、本発明は上述した実施例に限定されるものではなく、要旨を変更しない範囲内で適宜変形して実施可能である。 In addition, this invention is not limited to the Example mentioned above, In the range which does not change a summary, it can deform | transform suitably and can be implemented.
301…符号化領域(Bounding-Rectangle)検出手段、302…参照画像パディング手段、303…LPEパディング手段、304…ゼロパディング手段、306…ベクトルパディング手段、500…形状情報符号化手段(Binary Shape encoder)、305,305a…動きベクトル検出手段、307…フレームメモリ、308,308a…動き補償手段309,310、…切替スイッチ、312…動きベクトル記憶手段、313…差分回路、314…第3の可変長符号化手段、315…量子化手段、316…逆量子化手段、317…直交変換手段(DCT)、318…第4の可変長符号化手段、319…逆直交変換手段、320…加算回路、321…スイッチ、322…マルチプレクサ
DESCRIPTION OF
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004330956A JP2005094803A (en) | 2004-11-15 | 2004-11-15 | Apparatus and method for motion image coding |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004330956A JP2005094803A (en) | 2004-11-15 | 2004-11-15 | Apparatus and method for motion image coding |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11638399A Division JP3677165B2 (en) | 1999-04-23 | 1999-04-23 | Moving picture coding apparatus and moving picture coding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005094803A true JP2005094803A (en) | 2005-04-07 |
Family
ID=34464353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004330956A Abandoned JP2005094803A (en) | 2004-11-15 | 2004-11-15 | Apparatus and method for motion image coding |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005094803A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169031A1 (en) * | 2012-05-10 | 2013-11-14 | 엘지전자 주식회사 | Method and apparatus for processing video signals |
WO2018142596A1 (en) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | Encoding device, encoding method, and encoding program |
-
2004
- 2004-11-15 JP JP2004330956A patent/JP2005094803A/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169031A1 (en) * | 2012-05-10 | 2013-11-14 | 엘지전자 주식회사 | Method and apparatus for processing video signals |
US10341677B2 (en) | 2012-05-10 | 2019-07-02 | Lg Electronics Inc. | Method and apparatus for processing video signals using inter-view inter-prediction |
WO2018142596A1 (en) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | Encoding device, encoding method, and encoding program |
JPWO2018142596A1 (en) * | 2017-02-03 | 2019-02-07 | 三菱電機株式会社 | Encoding apparatus, encoding method, and encoding program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11039136B2 (en) | Moving image coding apparatus and moving image decoding apparatus | |
KR100803611B1 (en) | Method and apparatus for encoding video, method and apparatus for decoding video | |
EP1528813B1 (en) | Improved video coding using adaptive coding of block parameters for coded/uncoded blocks | |
US7444026B2 (en) | Image processing apparatus and method of motion vector detection in a moving picture, and recording medium used therewith | |
US20140105295A1 (en) | Moving image encoding method and apparatus, and moving image decoding method and apparatus | |
KR20110008653A (en) | Method and apparatus for predicting motion vector and method and apparatus of encoding/decoding a picture using the same | |
US20050276331A1 (en) | Method and apparatus for estimating motion | |
JP2001197501A (en) | Motion vector searching device and motion vector searching method, and moving picture coder | |
US20070133689A1 (en) | Low-cost motion estimation apparatus and method thereof | |
KR20010030652A (en) | Image encoding system | |
JP3677165B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP2005094803A (en) | Apparatus and method for motion image coding | |
JPH11122618A (en) | Image coder | |
TWI853402B (en) | Video coding methods and apparatuses | |
JP2001309388A (en) | Error image supplementing method in image decoder | |
JP2004260251A (en) | Apparatus and program of detecting motion vector | |
KR100657714B1 (en) | Method for coding image data using of 3d scanning | |
KR0154948B1 (en) | Motion vector search apparatus using the gradient and the intensity similarity of the moving picture | |
JPH0799645A (en) | Motion vector detecting circuit | |
WO1999059342A1 (en) | Method and system for mpeg-2 encoding with frame partitioning | |
JP2005210503A (en) | Video signal coding device | |
JP2005012527A (en) | Encoding device, encoding program, and encoding method | |
JP2004088309A (en) | Motion vector detection method, motion vector detection apparatus, dynamic image coding method, dynamic image coding apparatus, and communication apparatus | |
JP2014239373A (en) | Moving image encoding device and moving image encoding method | |
JP2003259373A (en) | Moving picture compression/coding apparatus and motion vector detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061031 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20061222 |