JP2005323252A - Image encoding device and image decoding device - Google Patents

Image encoding device and image decoding device Download PDF

Info

Publication number
JP2005323252A
JP2005323252A JP2004140930A JP2004140930A JP2005323252A JP 2005323252 A JP2005323252 A JP 2005323252A JP 2004140930 A JP2004140930 A JP 2004140930A JP 2004140930 A JP2004140930 A JP 2004140930A JP 2005323252 A JP2005323252 A JP 2005323252A
Authority
JP
Japan
Prior art keywords
frame
image
motion
compensation
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004140930A
Other languages
Japanese (ja)
Other versions
JP4239894B2 (en
Inventor
Kunio Yamada
邦男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004140930A priority Critical patent/JP4239894B2/en
Publication of JP2005323252A publication Critical patent/JP2005323252A/en
Application granted granted Critical
Publication of JP4239894B2 publication Critical patent/JP4239894B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem in which inefficient encoding is performed when residual processing etc., is performed in inter-frame prediction in object encoding while a gap part (uncovered area) where a texture generated in a motion compensation result is not present is left as it is. <P>SOLUTION: A block area dividing means 8 divides the motion compensation result including the uncovered area into blocks. A motion estimating means 9 performs motion prediction from a frame on a non-compensation side (predicted side) to a frame on a compensation side (side divided and used for prediction) reversely to the beginning when the number of pixels of the uncovered area in a block is less than a nearly half of the number of pixels in the block. An uncovered area filling means 10 searches for a texture of a frame on a compensation side of a part most similar to the uncovered area through the motion prediction and fills the uncovered area with the texture. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像符号化装置及び画像復号化装置に係り、特にディジタル動画像信号を圧縮符号化するに際し、現フレームのセグメンテーションを行った後、その分割結果(セグメント)を用いて、次のフレームを予想する形態の画像符号化手法(以下“オブジェクトベース符号化”と呼ぶ)を採用した画像符号化装置及び画像復号化装置に関する。   The present invention relates to an image encoding device and an image decoding device, and in particular, when compressing and encoding a digital moving image signal, after performing segmentation of the current frame, the division result (segment) is used to determine the next frame. The present invention relates to an image encoding apparatus and an image decoding apparatus that employ an image encoding method (hereinafter referred to as “object-based encoding”) in an expected form.

現在の動画像信号の高能率圧縮符号化方法は、MPEG(Moving Picture Experts Group)に代表される、離散コサイン変換(DCT)による画像フレーム内の冗長度の削減と、動き補償を用いた画像間予測による画像フレーム間の冗長性の削減を組み合わせた波形符号化が主流であるということができる。この波形符号化方式の符号化の大部分においては、フレーム内・フレーム間の処理のどちらにおいても処理単位をブロックとしている。このため、“ブロックベース符号化”と呼ばれることも多い。   The current high-efficiency compression coding method for moving picture signals is represented by MPEG (Moving Picture Experts Group), which reduces the redundancy in an image frame by discrete cosine transform (DCT) and uses inter-image compensation using motion compensation. Waveform coding combined with reduction of redundancy between image frames by prediction can be said to be mainstream. In most of the coding of this waveform coding system, the processing unit is a block in both intra-frame and inter-frame processing. For this reason, it is often called “block-based encoding”.

一方、別の動画像信号の高能率圧縮符号化方法として、一般的に、シーンを被写体の形状に応じた任意形状に分割し、それらの相対的位置関係を変更してから再構成することにより動き補償を行う方法を基本とするオブジェクトベース符号化も知られている(例えば、非特許文献1及び非特許文献2参照)。このオブジェクトベース符号化では、一般的に、類似のテクスチャ特性を持つ部分や一つの閉輪郭に囲まれた部分をオブジェクト(セグメントともいう)として扱っている。   On the other hand, as another high-efficiency compression encoding method for moving image signals, generally, the scene is divided into arbitrary shapes according to the shape of the subject, and their relative positional relationships are changed before reconstruction. Object-based coding based on a method for performing motion compensation is also known (see, for example, Non-Patent Document 1 and Non-Patent Document 2). In this object-based encoding, a part having similar texture characteristics or a part surrounded by one closed contour is generally handled as an object (also referred to as a segment).

オブジェクトベース符号化は被写体の形状に即した領域単位で動き推定・補償を行うため、符号化効率に優れ、従来のMPEG1〜4などのブロックベース符号化で発生する、モスキート雑音やブロック歪の問題が回避できることを特徴とする。   Object-based coding performs motion estimation / compensation in units of regions that match the shape of the subject, so it has excellent coding efficiency, and problems with mosquito noise and block distortion that occur with block-based coding such as conventional MPEG1-4 Can be avoided.

H.G.Musmann,M.Hotter,J.Ostermann:“Object-Oriented Analysis Synthesis Coding of Moving Images”,Signal Process:Image Commun.,1,2,pp.117-138(Oct.1989).H. G. Musmann, M. Hotter, J. Ostermann: “Object-Oriented Analysis Synthesis Coding of Moving Images”, Signal Process: Image Commun., 1, 2, pp. 117-138 (Oct. 1989). J.Y.A.Wang,et.Al.“Applying Mid-level Vision Techniques for Video Data Compression and Manipulation”,M.I.T.Media Lab.Tech.Report No.263,(Feb.1994).(http://www-bcs.mit.edu/people/adelson/pub_pdfs/wang_tr263.pdf)J.Y.A.Wang, et. Al. “Applying Mid-level Vision Techniques for Video Data Compression and Manipulation”, M.I.T.Media Lab.Tech.Report No.263, (Feb.1994). (Http://www-bcs.mit.edu/people/adelson/pub_pdfs/wang_tr263.pdf)

オブジェクトベース符号化における動き補償は、現在のフレームの各ブロックと最も類似する過去のフレームの一部分を選択することによって行われ、どのような形であれ、フレーム全域に亘って漏れのない予測が行われるといって差し支えない。   Motion compensation in object-based coding is done by selecting the part of the past frame that is most similar to each block of the current frame, and in any way a leak-free prediction is made over the entire frame. You can say that.

しかし、このオブジェクトベース符号化では、あるフレーム内符号化画像(イントラ符号化画像;キーフレーム)が複数のオブジェクトに分割されており、このフレームを用いて他のフレームの動き補償を行おうとする場合、オブジェクトの移動に伴い、隠されていた背景が動き補償のされない空隙部分(uncovered area(uncovered background))として現れる。この部分をそのままにして後の残差処理等を行うと非効率的な符号化になってしまうという問題がある。   However, in this object-based encoding, a certain intra-frame encoded image (intra-encoded image; key frame) is divided into a plurality of objects, and motion compensation of other frames is performed using this frame. As the object moves, the hidden background appears as an uncovered area (uncovered background). If this portion is left as it is and the subsequent residual processing or the like is performed, there is a problem that the encoding becomes inefficient.

本発明は上記の点に鑑みなされたもので、精度の高い予測を実現し、その結果、残差処理の負担が軽減されて、全体の符号化効率を改善し得る画像符号化装置及び符号化信号を復号化する画像復号化装置を提供することを目的とする。   The present invention has been made in view of the above points, and realizes highly accurate prediction, and as a result, the burden of residual processing is reduced, and the image coding apparatus and the coding that can improve the overall coding efficiency An object of the present invention is to provide an image decoding apparatus for decoding a signal.

上記の目的を達成するため、第1の発明の画像信号符号化装置は、フレーム画像を任意形状領域に分割し、その領域分割結果の相対的位置関係を変更してから再構成することにより動き補償を行うオブジェクトベース符号化方式の画像符号化装置において、動画像における第1及び第2のフレームのうち、時間的に過去の第1のフレームの画像信号を任意形状領域に分割する第1の分割手段と、第1の分割手段により得られた任意形状領域の分割結果と、第1及び第2のフレームの画像信号とに基づき、任意形状領域の分割結果毎に第2のフレームを予測する動きベクトルを推定し、その動きベクトルから第2のフレームについての動き補償を行う動き推定・補償手段と、動き推定・補償手段により得られた、テクスチャが存在しない空隙部分を含む動き補償結果を、予め定められた特定形状のブロック毎に分割する第2の分割手段と、第2の分割手段により分割された動き補償結果の各ブロック毎に、そのブロック内の空隙部分について第1のフレーム内で最も類似したテクスチャ部分を、フレーム間予測により探索して、空隙部分を当該探索したテクスチャ部分で補填する補填手段と、補填手段から出力された補填後の画像信号と第2のフレームの画像信号との残差信号と、動き推定・補償手段により得られた動きベクトルとを符号化ビットストリームとして出力する符号化手段とを有することを特徴とする。   In order to achieve the above object, the image signal encoding apparatus according to the first aspect of the present invention divides a frame image into arbitrarily shaped regions, changes the relative positional relationship of the region dividing results, and reconstructs the motion. In the image coding apparatus of the object-based coding method for performing compensation, a first temporal frame image signal of the first frame that is temporally divided among first and second frames in a moving image is divided into arbitrary shape regions. Based on the dividing unit, the division result of the arbitrary shape region obtained by the first dividing unit, and the image signals of the first and second frames, the second frame is predicted for each division result of the arbitrary shape region. A motion estimation / compensation unit that estimates a motion vector and performs motion compensation for the second frame from the motion vector, and a void portion that is obtained by the motion estimation / compensation unit and has no texture A second division unit that divides a motion compensation result including each block having a predetermined shape, and a gap portion in the block for each block of the motion compensation result divided by the second division unit The most similar texture portion in the first frame is searched for by inter-frame prediction, and a gap portion is compensated with the searched texture portion, and the image signal after the compensation output from the compensation means And encoding means for outputting a residual signal of the image signal of the second frame and a motion vector obtained by the motion estimation / compensation means as an encoded bit stream.

また、上記の目的を達成するため、第2の発明の画像復号化装置は、第1の発明の画像符号化装置により得られた符号化ビットストリームと、動画像における第1及び第2のフレームのうち、既に復号済みの時間的に過去の第1のフレームの画像信号とから第2のフレームの画像信号を復号する画像復号化装置であって、符号化ビットストリームを入力として受け、その符号化ビットストリームを構成する第2のフレームの動きベクトルと残差信号とを復号化する復号化手段と、第1のフレームの画像信号を任意形状領域に分割する第1の分割手段と、第1の分割手段により分割して得られた任意形状領域結果毎に、復号化手段からの動きベクトルと第1のフレームの画像信号とから、第2のフレームの動き補償を行う動き補償手段と、動き補償手段により得られた、テクスチャが存在しない空隙部分を含む動き補償結果を、予め定められた特定形状のブロック毎に分割する第2の分割手段と、第2の分割手段により分割された動き補償結果の各ブロック毎に、そのブロック内の空隙部分について第1のフレーム内で最も類似したテクスチャ部分を、フレーム間予測により探索して、空隙部分を当該探索したテクスチャ部分で補填する補填手段と、補填手段から出力された補填後の画像信号と、復号化手段により得られた残差信号とに基づき、第2のフレームの復号化映像信号を出力する残差処理手段とを有することを特徴とする。   In order to achieve the above object, an image decoding apparatus according to a second aspect of the present invention includes an encoded bit stream obtained by the image encoding apparatus according to the first aspect of the present invention, and first and second frames in a moving image. Among these, an image decoding apparatus that decodes an image signal of a second frame from an image signal of a first frame that has been decoded in the past, receives an encoded bit stream as an input, Decoding means for decoding the motion vector and residual signal of the second frame constituting the coded bit stream, first dividing means for dividing the image signal of the first frame into arbitrary shape regions, Motion compensation means for performing motion compensation of the second frame from the motion vector from the decoding means and the image signal of the first frame, for each arbitrary shape region result obtained by dividing by the dividing means, The second compensation unit that divides the motion compensation result obtained by the compensation unit including the void portion where the texture does not exist for each block having a predetermined specific shape, and the motion compensation divided by the second division unit For each block of the result, a filling means for searching for the most similar texture portion in the first frame for the gap portion in the block by inter-frame prediction, and filling the gap portion with the searched texture portion; And a residual processing means for outputting a decoded video signal of the second frame based on the image signal after compensation outputted from the compensation means and the residual signal obtained by the decoding means, To do.

第1の発明の画像符号化装置及び第2の発明の画像復号化装置では、動画像シーケンスの第1及び第2のフレームのうち、時間的に未来の第2のフレームの動き補償結果をブロック毎に分割し、その各ブロック内のテクスチャが存在しない空隙部分について第1のフレーム内で最も類似したテクスチャ部分をフレーム間予測により探索し、上記の空隙部分を当該探索したテクスチャ部分で補填するようにしたため、被補償側(予測される側)の第2のフレームから補償側(分割されて予測に使われる側)の第1のフレームに対する動き予測を行う逆方向の動き推定の導入により、上記の動き補償結果に含まれるテクスチャの存在しない空隙部分を、ベストマッチとなる部分の補償側の第1のフレームのテクスチャを用いて補填することができる。   In the image coding device of the first invention and the image decoding device of the second invention, the motion compensation result of the second frame that is temporally future out of the first and second frames of the moving image sequence is blocked. It is divided every time, and the most similar texture part in the first frame is searched for by the inter-frame prediction for the gap part where the texture in each block does not exist, and the above-mentioned gap part is filled with the searched texture part. Therefore, the introduction of the backward direction motion estimation for performing motion prediction from the second frame on the compensated side (predicted side) to the first frame on the compensation side (side that is divided and used for prediction) It is possible to compensate for voids that do not exist in the texture included in the motion compensation result using the texture of the first frame on the compensation side of the best match part .

本発明によれば、オブジェクトベース符号化でのフレーム間予測において、被補償側(予測される側)の第2のフレームから補償側(分割されて予測に使われる側)の第1のフレームに対する動き予測を行う逆方向の動き推定の導入により、第2のフレームの動き補償結果に含まれるテクスチャの存在しない空隙部分を、ベストマッチとなる部分の補償側の第1のフレームのテクスチャを用いて補填するようにしたため、精度の高い予測をそのために新たにビット量を消費することなく実現でき、その結果、残差処理の負担が軽減されて、全体の符号化効率を改善することができる。   According to the present invention, in inter-frame prediction in object-based coding, from the second frame on the compensated side (predicted side) to the first frame on the compensating side (side divided and used for prediction). With the introduction of motion estimation in the reverse direction to perform motion prediction, the void portion without the texture included in the motion compensation result of the second frame is used by using the texture of the first frame on the compensation side of the portion that is the best match Since the compensation is made, it is possible to realize highly accurate prediction without consuming a new bit amount. As a result, the burden of residual processing can be reduced, and the overall coding efficiency can be improved.

次に、本発明の各実施の形態について図面と共に説明する。なお、本発明は動画像信号をオブジェクトベース符号化方式により符号化するものであるが、基本的にフレーム間予測が関わる部分に関するので、以下の各実施の形態ではフレーム内符号化画像信号(以下、キーフレームという)との間のフレーム間順方向予測符号化画像である所謂Pフレーム(Pピクチャ)の符号化方式を基本に考えるものとする。   Next, each embodiment of the present invention will be described with reference to the drawings. Note that the present invention encodes a moving image signal by an object-based encoding method, but basically relates to a part related to inter-frame prediction. It is assumed that a so-called P frame (P picture) encoding method, which is an inter-frame forward prediction encoded image between a frame and a key frame), is basically considered.

図1は本発明になる画像符号化装置の一実施の形態のブロック図を示す。同図において、フレームメモリ1及び2には、それぞれ動画像シーケンス中の2つのフレーム(動画像における2つのフレーム)の各々の動画像のディジタル画像信号が格納されるが、フレームメモリ1には、フレームメモリ2より1フレーム過去の、前フレームのディジタル画像信号が格納され、フレームメモリ2には現フレームのディジタル画像信号が格納される。ここで、フレームメモリ1に格納される前フレームのディジタル画像信号が、キーフレームでない場合以外は、この図の一連のプロセスを経た時間的に1フレーム前の画像信号が入力するものとする。   FIG. 1 shows a block diagram of an embodiment of an image encoding apparatus according to the present invention. In the figure, the frame memories 1 and 2 store digital image signals of moving images of two frames (two frames in the moving image) in the moving image sequence, respectively. The digital image signal of the previous frame that is one frame past from the frame memory 2 is stored, and the digital image signal of the current frame is stored in the frame memory 2. Here, unless the digital image signal of the previous frame stored in the frame memory 1 is not a key frame, it is assumed that the image signal of one frame before is input through a series of processes shown in FIG.

フレームメモリ1から読み出された前フレームの画像信号は、任意形状領域分割手段3に供給され、ここで前フレームの画像が任意形状に分割される。分割の規範については画像の画素値の統計的な性質を利用する、エッジの検出を行うなど基本的に自由である。任意形状領域分割手段3により分割された任意形状の分割画像信号(領域分割結果)は、フレームメモリ4により一時記憶される。   The image signal of the previous frame read out from the frame memory 1 is supplied to the arbitrary shape region dividing means 3, where the image of the previous frame is divided into arbitrary shapes. Regarding the norm of division, it is basically free to use the statistical property of the pixel value of the image or to detect the edge. The divided image signal of arbitrary shape (region division result) divided by the arbitrary shape region dividing means 3 is temporarily stored in the frame memory 4.

動き推定手段5は、フレームメモリ4から読み出された領域分割結果の各セグメントについて、フレームメモリ2から読み出した現フレームのディジタル画像信号を予測するような動きベクトルの推定を行う。この動き推定手段5で推定された動きベクトルは、ビットストリームとして伝送されるために、ビットストリーム符号化手段12に供給されて後述する残差信号とのビットストリームを生成する処理を施されるほか、符号化器内での動き補償手段6に供給されて、任意形状領域分割結果と共に利用される。   The motion estimation unit 5 estimates a motion vector for each segment of the region division result read from the frame memory 4 so as to predict the digital image signal of the current frame read from the frame memory 2. Since the motion vector estimated by the motion estimation unit 5 is transmitted as a bit stream, the motion vector is supplied to the bit stream encoding unit 12 and subjected to processing for generating a bit stream with a residual signal described later. , Supplied to the motion compensation means 6 in the encoder, and used together with the result of arbitrary region segmentation.

動き補償手段6は、動き推定手段5からの動きベクトルと、フレームメモリ4からの領域分割結果とに基づき、各領域分割結果毎に動き補償結果を得る。この動き補償結果には上記のように実質上の予測もれである、テクスチャが存在しない空隙部分(以下、アンカバードエリア(Uncovered Area)という)を含む。このアンカバードエリアを含む動き補償結果は、フレームメモリ7に一時記憶される。   The motion compensation unit 6 obtains a motion compensation result for each region division result based on the motion vector from the motion estimation unit 5 and the region division result from the frame memory 4. As described above, the motion compensation result includes a void portion (hereinafter referred to as an uncovered area) where there is no texture, which is a substantial prediction failure. The motion compensation result including this uncovered area is temporarily stored in the frame memory 7.

ブロック領域分割手段8は、フレームメモリ7から読み出されたアンカバードエリアを含む動き補償結果を、例えば縦横それぞれ8画素のブロックに分割し、その各ブロックを動き推定手段9に供給する。なお、通常は任意形状領域分割手段3で分割された任意形状の大きさが、ブロック領域分割手段8により分割されたブロック以上であるが、任意形状の方がブロックよりも小さいこともある。また、上記のブロックは縦横それぞれ8画素の矩形形状であるが、ブロックはこの形状に限定されるものではなく、予め定められた特定形状であればよく、三角形等他の形状でもよい。   The block area dividing unit 8 divides the motion compensation result including the uncovered area read from the frame memory 7 into, for example, blocks each having 8 pixels vertically and horizontally, and supplies each block to the motion estimating unit 9. In general, the size of the arbitrary shape divided by the arbitrary shape region dividing unit 3 is equal to or larger than the block divided by the block region dividing unit 8, but the arbitrary shape may be smaller than the block. In addition, the above-described block has a rectangular shape of 8 pixels in each of the vertical and horizontal directions, but the block is not limited to this shape, and may have a predetermined specific shape, and may have another shape such as a triangle.

動き推定手段9は、ブロック領域分割手段8により分割された各ブロックについて、アンカバードエリアの画素数がブロック内の画素数の半数程度以下の場合には、フレームメモリ1から読み出された前フレームの画像信号に対して、前記動き補償結果に基づき動き推定を行う。   For each block divided by the block area dividing unit 8, the motion estimation unit 9 determines that the previous frame read from the frame memory 1 when the number of pixels in the uncovered area is about half or less of the number of pixels in the block. Motion estimation is performed based on the motion compensation result.

これは、前述したように、アンカバードエリアは、実質上の予測もれであるテクスチャが存在しない空隙部分であるため、アンカバードエリアの画素数がブロック内の画素数の半数程度以下の場合のみ、ブロック内のテクスチャの信頼性を認めて動き推定するが、アンカバードエリアの画素数がブロック内の画素数の半数程度よりも多数あると、ブロック内のテクスチャの信頼性がないから、動き推定しない(動きベクトル(0,0)として処理する。)ことにより誤差の発生を防止するためである。   This is because, as described above, the uncovered area is a void portion where there is no texture that is substantially a prediction error, so only when the number of pixels in the uncovered area is about half or less of the number of pixels in the block. , Motion estimation is performed by recognizing the reliability of the texture in the block, but if the number of pixels in the uncovered area is larger than about half the number of pixels in the block, the texture in the block is not reliable. This is to prevent the occurrence of an error by not performing (processing as a motion vector (0, 0)).

また、動き推定手段9は、上記のように、各ブロック毎に前フレームから現フレームの画像情報の動き推定を行う通常の方向とは逆方向の、すなわち、被補償側の現フレームの動き補償結果に基づき補償側の前フレームへのフレーム間予測による動き推定をする。なお、ここでの動き推定の結果である動きベクトルについては、ビットストリームとして伝送する必要はない。   In addition, as described above, the motion estimation unit 9 performs the motion compensation of the current frame on the compensated side in the direction opposite to the normal direction in which the motion estimation of the image information of the current frame from the previous frame is performed for each block. Based on the result, motion estimation is performed by inter-frame prediction on the previous frame on the compensation side. Note that the motion vector as a result of the motion estimation here does not need to be transmitted as a bit stream.

アンカバードエリア補填手段10は、動き推定手段9による各ブロック毎の動き推定結果と、フレームメモリ7からの動き補償結果と、フレームメモリ1からの前フレームの画像信号とに基づき、各ブロック毎に動き推定結果でベストマッチである前フレームの画像の一部を補填に用いる。   The uncovered area compensation means 10 is based on the motion estimation result for each block by the motion estimation means 9, the motion compensation result from the frame memory 7, and the image signal of the previous frame from the frame memory 1. A part of the image of the previous frame that is the best match in the motion estimation result is used for compensation.

ここで、例えば、上記のアンカバードエリア補填手段10に供給される、動き補償され、かつ、ブロック分割されたある一ブロックの画像信号が図2(A)に14で模式的に示すように、円形と推定される画像15中にアンカバードエリア16が存在するフレーム画像であるものとすると、アンカバードエリア補填手段10は、図2(B)に模式的に示すように、逆方向の動き推定を行うことにより得られるアンカバードエリア16の部分に最も類似した前フレームの画像15bを補填することにより、予測側のフレームの画像15aと補填された前フレームの画像15bとにより、ほぼ現フレームの予測画像を得ることができる。   Here, for example, an image signal of one block which is supplied to the uncovered area compensation means 10 and is motion-compensated and divided into blocks is schematically shown at 14 in FIG. Assuming that the frame image is one in which the uncovered area 16 is present in the image 15 estimated to be circular, the uncovered area compensation means 10 performs the motion estimation in the reverse direction as schematically shown in FIG. By supplementing the image 15b of the previous frame most similar to the portion of the uncovered area 16 obtained by performing the process, the image 15a of the prediction side frame and the image 15b of the previous frame compensated are substantially the same as the current frame. A predicted image can be obtained.

このように、アンカバードエリア補填手段10によりアンカバードエリア補填された画像信号は、残差処理手段11に供給され、ここで、フレームメモリ2から読み出された現フレームの画像信号との差分が計算され、その差分値が残差信号としてビットストリーム符号化手段12に入力される。ビットストリーム符号化手段12は、動き推定手段5で推定された動きベクトルと、フレームメモリ2から読み出された上記残差信号とからビットストリームを生成して出力する。   Thus, the image signal that has been uncovered by the uncovered area compensation means 10 is supplied to the residual processing means 11 where the difference from the image signal of the current frame read from the frame memory 2 is obtained. The calculated difference value is input to the bit stream encoding means 12 as a residual signal. The bit stream encoding unit 12 generates a bit stream from the motion vector estimated by the motion estimation unit 5 and the residual signal read from the frame memory 2 and outputs the bit stream.

次に、以上の一連の処理の詳細について、実際の画像を例にして説明する。画像のサイズは640×480画素とする。図3に示す画像を前フレームの画像、図4に示す画像を現フレームの画像としたとき、任意形状領域分割手段3から出力される前フレームの任意形状領域分割結果は図5に示す画像のようになる。なお、図4に示す現フレームの画像中の左下の画像部分が、図3に示す前フレームの画像に比較して若干右へ移動している。   Next, details of the above series of processing will be described using an actual image as an example. The image size is 640 × 480 pixels. When the image shown in FIG. 3 is the image of the previous frame and the image shown in FIG. 4 is the image of the current frame, the result of the arbitrary shape area division of the previous frame output from the arbitrary shape area dividing means 3 is the result of the image shown in FIG. It becomes like this. Note that the lower left image portion in the current frame image shown in FIG. 4 has moved slightly to the right as compared to the previous frame image shown in FIG.

動き補償手段6は、図5に示す画像の任意形状領域分割結果をもとに図3に示す前フレームの画像(テクスチャ)を用いて、図4に示す現フレームの画像を予測した動きベクトルに基づき動き補償を行うが、その動き補償結果が図6に示す動き補償画像である。図6に示す画像中、黒く亀裂状になっているのがアンカバードエリアである。   The motion compensation unit 6 uses the image (texture) of the previous frame shown in FIG. 3 based on the result of the arbitrary shape region division of the image shown in FIG. 5 to convert the current frame image shown in FIG. The motion compensation is performed based on the motion compensation image shown in FIG. In the image shown in FIG. 6, the uncovered area is black and cracked.

この図6に示す動き補償画像をブロック領域分割手段8にて8×8画素のブロックで分割し、更にアンカバードエリア補填手段10により逆方向の動き推定を行ってアンカバードエリアの補填を行った結果の画像が図7である。この図7に示すアンカバードエリア補填後の画像は、図4に示した現フレームの画像とかなり近い予測がなされており、残差も小さくすることができたということができる。   The motion compensated image shown in FIG. 6 is divided into 8 × 8 pixel blocks by the block area dividing means 8 and the uncovered area is compensated by the uncovered area compensating means 10 to compensate for the uncovered area. The resulting image is shown in FIG. The image after covering the uncovered area shown in FIG. 7 is predicted to be quite close to the image of the current frame shown in FIG. 4, and the residual can be reduced.

このように、本実施の形態によれば、オブジェクトベース符号化でのフレーム間予測において、アンカバードエリア補填のために逆方向の動き推定を導入し、これによって、精度の高い予測をそのために新たにビット量を消費することなく実現し、その結果、残差処理の負担が軽減されて、全体の符号化効率を改善することができる。   As described above, according to the present embodiment, in the inter-frame prediction in the object-based coding, the backward direction motion estimation is introduced to compensate for the uncovered area. Therefore, it is possible to reduce the burden of residual processing and improve the overall coding efficiency.

次に、本発明の画像符号化方法について説明する。図8は本発明になる画像符号化方法の一実施の形態のフローチャートを示す。この実施の形態は、図1に示した画像符号化装置と同様のオブジェクトベース符号化方式によるフレーム間予測符号化動作を行う。まず、前フレームの画像が任意形状に分割される(ステップS1)。分割の規範については画像の画素値の統計的な性質を利用する、エッジの検出を行うなど基本的に自由である。   Next, the image coding method of the present invention will be described. FIG. 8 shows a flowchart of an embodiment of an image encoding method according to the present invention. In this embodiment, an inter-frame predictive encoding operation using an object-based encoding method similar to that of the image encoding device shown in FIG. 1 is performed. First, the image of the previous frame is divided into arbitrary shapes (step S1). Regarding the norm of division, it is basically free to use the statistical property of the pixel value of the image or to detect the edge.

次に、任意形状の領域分割結果の各セグメントについて、現フレームのディジタル画像信号を予測するような動きベクトルの推定を行う(ステップS2)。この動きベクトルはビットストリームとして伝送される一方、前フレーム画像、任意形状領域分割結果と共に利用されて動き補償結果が得られる(ステップS3)。この動き補償結果は上記のように実質上の予測もれであるアンカバードエリアを含む。   Next, for each segment obtained as a result of area division of an arbitrary shape, a motion vector is estimated so as to predict the digital image signal of the current frame (step S2). While this motion vector is transmitted as a bit stream, it is used together with the previous frame image and the arbitrarily shaped region segmentation result to obtain a motion compensation result (step S3). As described above, the motion compensation result includes an uncovered area that is a substantial prediction error.

続いて、この動き補償結果は、例えば8×8画素のブロックに分割された後(ステップS4)、各ブロックについてアンカバードエリアの画素数がブロック内の画素数の半数程度以下かどうか判定され(ステップS5)、アンカバードエリアの画素数がブロック内の画素数の半数程度以下のブロックについてのみ、前フレームに対して動き推定を行う(ステップS6)。アンカバードエリアの画素数がブロック内の画素数の半数程度より多いブロックについては、動き推定は行わず、動きベクトル(0,0)として処理する(ステップS7)。   Subsequently, after the motion compensation result is divided into, for example, blocks of 8 × 8 pixels (step S4), it is determined whether or not the number of pixels in the uncovered area for each block is about half or less of the number of pixels in the block ( In step S5), motion estimation is performed on the previous frame only for blocks in which the number of pixels in the uncovered area is about half or less of the number of pixels in the block (step S6). A block in which the number of pixels in the uncovered area is larger than about half the number of pixels in the block is processed as a motion vector (0, 0) without performing motion estimation (step S7).

ステップS6又はS7の処理に続いて、動き補償結果であるブロック内の、ステップS6での動き推定でベストマッチである部分の前フレームの画像の一部を、アンカバードエリアに補填するアンカバードエリア補填処理が行われる(ステップS8)。すなわち、アンカバードエリアは、前フレーム内の類似部分のテクスチャに挿げ替えられる。なお、ここでの動き推定の結果である動きベクトルについてはビットストリームとして伝送する必要はない。   Subsequent to the processing of step S6 or S7, an uncovered area in which a part of the image of the previous frame of the portion that is the best match in the motion estimation in step S6 in the block that is the motion compensation result is compensated in the uncovered area. Compensation processing is performed (step S8). That is, the uncovered area is replaced with the texture of the similar part in the previous frame. It is not necessary to transmit a motion vector as a result of motion estimation here as a bit stream.

アンカバードエリア補填された画像は、現フレームとの差分が計算される残差処理が行われた後、ステップS2での動き推定で得られた動きベクトルと共にビットストリームとして出力される(ステップS9)。   The image covered with the uncovered area is output as a bit stream together with the motion vector obtained by the motion estimation in step S2 after the residual processing in which the difference from the current frame is calculated (step S9). .

この符号化方法においても、図1に示した符号化装置と同様に、オブジェクトベース符号化でのフレーム間予測において、アンカバードエリア補填のために逆方向の動き推定を導入しているので、精度の高い予測をそのために新たにビット量を消費することなく実現し、その結果、残差処理の負担が軽減されて、全体の符号化効率を改善することができる。   Also in this encoding method, as in the encoding apparatus shown in FIG. 1, in the inter-frame prediction in the object-based encoding, the backward motion estimation is introduced to compensate for the uncovered area. Therefore, a high prediction can be realized without consuming a new bit amount. As a result, the burden of residual processing can be reduced, and the overall coding efficiency can be improved.

次に、本発明になる画像復号化装置の一実施の形態について説明する。図9は本発明になる画像復号化装置の一実施の形態のブロック図を示す。ここでは、基本的にフレーム間予測が関わる部分であるので、所謂Pフレームの復号化方式を基本に考えるものとする。図9において、フレームメモリ21においては、前フレームがキーフレームでない場合以外は、この図の一連のプロセスを経た時間的に1フレーム前の画像が保持される。   Next, an embodiment of an image decoding apparatus according to the present invention will be described. FIG. 9 shows a block diagram of an embodiment of an image decoding apparatus according to the present invention. Here, since this is basically a part related to inter-frame prediction, a so-called P frame decoding method is basically considered. In FIG. 9, in the frame memory 21, an image one frame before in time is held through a series of processes in this figure except when the previous frame is not a key frame.

一方、ビットストリーム復号化手段22には、図1に示したビットストリーム符号化手段12で生成されたビットストリームが、任意の伝送媒体を介して入力され、ここで、図1の動き推定手段5で得られた動きベクトルと、図1の残差処理手段11で生成された残差信号とに復号され、動きベクトルは動き補償手段25に供給され、残差信号は残差処理手段30に供給される。   On the other hand, the bit stream generated by the bit stream encoding unit 12 shown in FIG. 1 is input to the bit stream decoding unit 22 via an arbitrary transmission medium. Here, the motion estimation unit 5 of FIG. 1 is decoded into the residual signal generated by the residual processing means 11 of FIG. 1, the motion vector is supplied to the motion compensation means 25, and the residual signal is supplied to the residual processing means 30. Is done.

任意形状領域分割手段23は、フレームメモリ21から読み出された前フレームの画像信号を任意形状に分割し、その分割結果をフレームメモリ24に格納する。分割の規範については画像の画素値の統計的な性質を利用する、エッジの検出を行うなど基本的に自由である。   The arbitrary shape area dividing unit 23 divides the image signal of the previous frame read from the frame memory 21 into an arbitrary shape, and stores the division result in the frame memory 24. Regarding the norm of division, it is basically free to use the statistical property of the pixel value of the image or to detect the edge.

動き補償手段25は、フレームメモリ24から読み出された任意形状領域分割結果と、ビットストリーム復号化手段22により復号された各セグメントの動きベクトルと、フレームメモリ21から読み出された前フレームの画像信号とを入力として受け、各任意形状領域分割結果毎に、前フレームの画像の動き補償がなされる。これにより得られた動き補償結果は、前述した実質上の予測もれであるアンカバードエリアを含む。この動き補償結果は、フレームメモリ26に一時保持される。   The motion compensation means 25 is a result of the arbitrary shape area division read from the frame memory 24, the motion vector of each segment decoded by the bit stream decoding means 22, and the image of the previous frame read from the frame memory 21. A signal is received as an input, and the motion compensation of the image of the previous frame is performed for each result of dividing the arbitrarily shaped region. The motion compensation result obtained in this way includes the uncovered area which is the above-described substantial prediction error. This motion compensation result is temporarily stored in the frame memory 26.

ブロック領域分割手段27は、フレームメモリ26から読み出されたアンカバードエリアを含む動き補償結果を、例えば縦横それぞれ8画素のブロックに分割し、その各ブロックを動き推定手段28に供給する。なお、通常は任意形状領域分割手段23で分割された任意形状の大きさが、ブロック領域分割手段27により分割されたブロック以上であるが、任意形状の方がブロックよりも小さいこともある。   The block area dividing unit 27 divides the motion compensation result including the uncovered area read from the frame memory 26 into, for example, blocks each having 8 pixels vertically and horizontally, and supplies each block to the motion estimating unit 28. Normally, the size of the arbitrary shape divided by the arbitrary shape region dividing unit 23 is equal to or larger than the block divided by the block region dividing unit 27, but the arbitrary shape may be smaller than the block.

動き推定手段28は、ブロック領域分割手段27により分割された各ブロックについて、アンカバードエリアの画素数がブロック内の画素数の半数程度以下の場合には、フレームメモリ21から読み出された前フレームの画像信号に対して、上記動き補償結果に基づき動き推定を行う。前記動き推定手段9と同様の理由による。ここでも、アンカバードエリアの画素数がブロック内の画素数の半数程度より多いブロックについては、動き推定は行わず、動きベクトル(0,0)として処理する。   For each block divided by the block area dividing unit 27, the motion estimation unit 28 determines that the previous frame read from the frame memory 21 when the number of pixels in the uncovered area is about half or less of the number of pixels in the block. Motion estimation is performed on the image signal based on the motion compensation result. For the same reason as the motion estimation means 9. Again, for blocks where the number of pixels in the uncovered area is greater than about half the number of pixels in the block, motion estimation is not performed and processing is performed as a motion vector (0, 0).

アンカバードエリア補填手段29は、動き推定手段28からの動き推定結果と、フレームメモリ26からの動き補償結果と、フレームメモリ21からの前フレームの画像信号とに基づき、動き推定結果でベストマッチである部分の前フレームの画像の一部を補填に用いる。すなわち、このアンカバードエリア補填手段29は、前フレームから現フレームの画像情報の動き推定を行う通常の方向とは逆方向の、すなわち、現フレームの動き補償結果に基づき前フレームの動き推定してその結果に基づき、アンカバードエリアを前フレームの画像信号で補填する動作を行う。   The uncovered area compensation unit 29 is a best match based on the motion estimation result based on the motion estimation result from the motion estimation unit 28, the motion compensation result from the frame memory 26, and the image signal of the previous frame from the frame memory 21. A part of the image of the previous frame of a certain part is used for compensation. That is, the uncovered area compensation unit 29 estimates the motion of the previous frame based on the motion compensation result of the current frame in the direction opposite to the normal direction in which the motion estimation of the image information of the current frame from the previous frame is performed. Based on the result, an operation of filling the uncovered area with the image signal of the previous frame is performed.

アンカバードエリア補填手段29によりアンカバードエリア補填された画像信号は、残差処理手段30に供給され、ここでビットストリーム復号化手段22で受信ビットストリームから復号化された残差成分と加算されることにより、画像信号が再構成される。この再構成された画像信号は、復号化画像信号として出力されると共に、フレームメモリ21に前フレームの画像信号として供給されて格納される。   The image signal that has been uncovered by the uncovered area filling unit 29 is supplied to the residual processing unit 30 where it is added to the residual component decoded from the received bitstream by the bitstream decoding unit 22. As a result, the image signal is reconstructed. The reconstructed image signal is output as a decoded image signal and supplied to the frame memory 21 as an image signal of the previous frame and stored.

次に、本発明の画像復号化方法について説明する。図10は本発明になる画像復号化方法の一実施の形態のフローチャートを示す。この実施の形態は、図9に示した画像復号化装置と同様のオブジェクトベース符号化方式によるフレーム間予測復号化動作を行う。まず、図1に示したビットストリーム符号化手段12で生成されたビットストリームが、任意の伝送媒体を介して入力され、ここで、図1の動き推定手段5で得られた動きベクトルと、図1の残差処理手段11で生成された残差信号とに復号される(ステップS11)。 一方、前フレームの画像が任意形状に分割される(ステップS12)。分割の規範については画像の画素値の統計的な性質を利用する、エッジの検出を行うなど基本的に自由である。   Next, the image decoding method of the present invention will be described. FIG. 10 shows a flowchart of an embodiment of an image decoding method according to the present invention. In this embodiment, an inter-frame predictive decoding operation using an object-based encoding method similar to that of the image decoding apparatus shown in FIG. 9 is performed. First, the bit stream generated by the bit stream encoding means 12 shown in FIG. 1 is input via an arbitrary transmission medium, where the motion vector obtained by the motion estimation means 5 of FIG. The residual signal generated by the first residual processing means 11 is decoded (step S11). On the other hand, the image of the previous frame is divided into arbitrary shapes (step S12). Regarding the norm of division, it is basically free to use the statistical property of the pixel value of the image or to detect the edge.

次に、任意形状の領域分割結果の各セグメントについて、現フレームのディジタル画像信号を予測するような動きベクトルの推定を行う(ステップS13)。この動きベクトルは、前フレーム画像、任意形状領域分割結果と共に利用されて動き補償結果が得られる(ステップS14)。この動き補償結果は上記のように実質上の予測もれであるアンカバードエリアを含む。   Next, for each segment of the region division result having an arbitrary shape, a motion vector is estimated so as to predict the digital image signal of the current frame (step S13). This motion vector is used together with the previous frame image and the arbitrarily shaped region division result to obtain a motion compensation result (step S14). As described above, the motion compensation result includes an uncovered area that is a substantial prediction error.

続いて、この動き補償結果は、例えば8×8画素のブロックに分割された後(ステップS15)、各ブロックについてアンカバードエリアの画素数がブロック内の画素数の半数程度以下かどうか判定され(ステップS16)、アンカバードエリアの画素数がブロック内の画素数の半数程度以下のブロックについてのみ、前フレームに対して動き推定を行う(ステップS17)。アンカバードエリアの画素数がブロック内の画素数の半数程度より多いブロックについては、動き推定は行わず、動きベクトル(0,0)として処理する(ステップS18)。   Subsequently, after the motion compensation result is divided into, for example, blocks of 8 × 8 pixels (step S15), it is determined whether or not the number of pixels in the uncovered area for each block is about half or less of the number of pixels in the block ( Step S16) Motion estimation is performed on the previous frame only for blocks in which the number of pixels in the uncovered area is about half or less of the number of pixels in the block (step S17). A block in which the number of pixels in the uncovered area is larger than about half of the number of pixels in the block is processed as a motion vector (0, 0) without performing motion estimation (step S18).

ステップS17又はS18の処理に続いて、動き補償結果であるブロック内の、ステップS13での動き推定でベストマッチである部分の前フレームの画像の一部を、アンカバードエリアに補填するアンカバードエリア補填処理が行われる(ステップS19)。すなわち、アンカバードエリアは、前フレーム内の類似部分のテクスチャに挿げ替えられる。   Subsequent to the processing in step S17 or S18, an uncovered area in which a part of the image of the previous frame of the portion that is the best match in the motion estimation in step S13 in the block that is the motion compensation result is filled in the uncovered area. Compensation processing is performed (step S19). That is, the uncovered area is replaced with the texture of the similar part in the previous frame.

アンカバードエリア補填された画像信号は、ステップS11で受信ビットストリームから復号化された残差成分と加算されることにより、画像信号が再構成される(ステップS20)。この再構成された画像信号は、復号化画像信号として出力されると共に、前フレームの画像信号として次のステップS12で用いられる。   The uncovered area-compensated image signal is added to the residual component decoded from the received bit stream in step S11, thereby reconstructing the image signal (step S20). The reconstructed image signal is output as a decoded image signal and used as the image signal of the previous frame in the next step S12.

なお、本発明は以上の実施の形態に限定されるものではなく、以上の実施の形態の装置及び方法を、コンピュータにより実現するコンピュータプログラムも含む。すなわち、符号化のコンピュータプログラムと復号化のコンピュータプログラムを含む。このコンピュータプログラムは、記録媒体からコンピュータに取り込まれてもよいし、ネットワークを通して配信されてコンピュータに取り込まれてもよい。   The present invention is not limited to the above embodiment, and includes a computer program for realizing the apparatus and method of the above embodiment by a computer. That is, it includes an encoding computer program and a decoding computer program. This computer program may be taken into a computer from a recording medium, or may be distributed through a network and taken into a computer.

本発明の画像符号化装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of an image coding device of the present invention. 図1中のアンカバードエリア補填手段の動作説明用の一例の画像模式図である。It is an image schematic diagram of an example for description of operation | movement of the uncovered area compensation means in FIG. 前フレームの画像の一例を示す図である。It is a figure which shows an example of the image of a front frame. 現フレームの画像の一例を示す図である。It is a figure which shows an example of the image of the present flame | frame. 図1における前フレームの任意形状領域分割結果の一例の画像を示す図である。It is a figure which shows an example of the image of the arbitrary shape area | region division | segmentation result of the front frame in FIG. 図1における動き補償結果の一例の画像を示す図である。It is a figure which shows the image of an example of the motion compensation result in FIG. 図1におけるアンカバードエリア補填後の画像の一例を示す図である。It is a figure which shows an example of the image after uncovered area filling in FIG. 本発明の画像符号化方法の一実施の形態のフローチャートである。It is a flowchart of one Embodiment of the image coding method of this invention. 本発明の画像復号化装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of an image decoding device of the present invention. 本発明の画像復号化方法の一実施の形態のフローチャートである。It is a flowchart of one Embodiment of the image decoding method of this invention.

符号の説明Explanation of symbols

1、2、4、7、21、24、26 フレームメモリ
3、23 任意形状領域分割手段
5、9、28 動き推定手段
6、25 動き補償手段
8、27 ブロック領域分割手段
10、29 アンカバードエリア補填手段
11、30 残差処理手段
12 ビットストリーム符号化手段
14 ブロック
15a 予測されたフレームの画像
15b 補填された前フレームの画像
16 アンカバードエリア
22 ビットストリーム復号化手段


1, 2, 4, 7, 21, 24, 26 Frame memory 3, 23 Arbitrary shape area dividing means 5, 9, 28 Motion estimating means 6, 25 Motion compensating means 8, 27 Block area dividing means 10, 29 Uncovered area Compensation means 11, 30 Residual processing means 12 Bit stream encoding means 14 Block 15a Predicted frame image 15b Complemented previous frame image 16 Uncovered area 22 Bit stream decoding means


Claims (2)

フレーム画像を任意形状領域に分割し、その領域分割結果の相対的位置関係を変更してから再構成することにより動き補償を行うオブジェクトベース符号化方式の画像符号化装置において、
動画像における第1及び第2のフレームのうち、時間的に過去の第1のフレームの画像信号を任意形状領域に分割する第1の分割手段と、
前記第1の分割手段により得られた任意形状領域の分割結果と、前記第1及び第2のフレームの画像信号とに基づき、前記任意形状領域の分割結果毎に前記第2のフレームを予測する動きベクトルを推定し、その動きベクトルから前記第2のフレームについての動き補償を行う動き推定・補償手段と、
前記動き推定・補償手段により得られた、テクスチャが存在しない空隙部分を含む動き補償結果を、予め定められた特定形状のブロック毎に分割する第2の分割手段と、
前記第2の分割手段により分割された前記動き補償結果の各ブロック毎に、そのブロック内の前記空隙部分について前記第1のフレーム内で最も類似したテクスチャ部分を、フレーム間予測により探索して、前記空隙部分を当該探索したテクスチャ部分で補填する補填手段と、
前記補填手段から出力された補填後の画像信号と前記第2のフレームの画像信号との残差信号と、前記動き推定・補償手段により得られた前記動きベクトルとを符号化ビットストリームとして出力する符号化手段と
を有することを特徴とする画像符号化装置。
In an image coding apparatus of an object-based coding method that performs motion compensation by dividing a frame image into arbitrary shape regions and reconstructing after changing the relative positional relationship of the region division results.
A first dividing unit that divides the image signal of the first frame in the past among the first and second frames in the moving image into arbitrary-shaped regions;
Based on the division result of the arbitrary shape area obtained by the first division means and the image signals of the first and second frames, the second frame is predicted for each division result of the arbitrary shape area. Motion estimation / compensation means for estimating a motion vector and performing motion compensation for the second frame from the motion vector;
A second dividing unit that divides the motion compensation result obtained by the motion estimation / compensation unit, including a void portion where no texture exists, for each block having a predetermined specific shape;
For each block of the motion compensation result divided by the second dividing means, search for the most similar texture part in the first frame for the gap part in the block by inter-frame prediction, Filling means for filling the void portion with the searched texture portion;
Output a residual signal between the image signal after compensation output from the compensation means and the image signal of the second frame, and the motion vector obtained by the motion estimation / compensation means as an encoded bit stream. An image encoding apparatus comprising: an encoding unit.
請求項1記載の画像符号化装置により得られた前記符号化ビットストリームと、動画像における第1及び第2のフレームのうち、既に復号済みの時間的に過去の第1のフレームの画像信号とから前記第2のフレームの画像信号を復号する画像復号化装置であって、
前記符号化ビットストリームを入力として受け、その符号化ビットストリームを構成する前記第2のフレームの動きベクトルと残差信号とを復号化する復号化手段と、
前記第1のフレームの画像信号を任意形状領域に分割する第1の分割手段と、
前記第1の分割手段により分割して得られた前記任意形状領域結果毎に、前記復号化手段からの前記動きベクトルと前記第1のフレームの画像信号とから、前記第2のフレームの動き補償を行う動き補償手段と、
前記動き補償手段により得られた、テクスチャが存在しない空隙部分を含む動き補償結果を、予め定められた特定形状のブロック毎に分割する第2の分割手段と、
前記第2の分割手段により分割された前記動き補償結果の各ブロック毎に、そのブロック内の前記空隙部分について前記第1のフレーム内で最も類似したテクスチャ部分を、フレーム間予測により探索して、前記空隙部分を当該探索したテクスチャ部分で補填する補填手段と、
前記補填手段から出力された補填後の画像信号と、前記復号化手段により得られた前記残差信号とに基づき、前記第2のフレームの復号化映像信号を出力する残差処理手段と
を有することを特徴とする画像復号化装置。


The encoded bit stream obtained by the image encoding device according to claim 1, and an image signal of a first frame in the past that has already been decoded among the first and second frames in a moving image. An image decoding device for decoding the image signal of the second frame from:
Decoding means for receiving the encoded bitstream as an input and decoding the motion vector and residual signal of the second frame constituting the encoded bitstream;
First dividing means for dividing the image signal of the first frame into arbitrarily shaped regions;
For each of the arbitrary shape area results obtained by dividing by the first dividing means, the motion compensation of the second frame is performed from the motion vector from the decoding means and the image signal of the first frame. Motion compensation means for performing
A second dividing unit that divides a motion compensation result obtained by the motion compensating unit including a void portion where no texture exists, for each block having a predetermined specific shape;
For each block of the motion compensation result divided by the second dividing means, search for the most similar texture part in the first frame for the gap part in the block by inter-frame prediction, Filling means for filling the void portion with the searched texture portion;
Residual processing means for outputting the decoded video signal of the second frame based on the image signal after compensation output from the compensation means and the residual signal obtained by the decoding means; An image decoding apparatus characterized by that.


JP2004140930A 2004-05-11 2004-05-11 Image encoding apparatus and image decoding apparatus Expired - Fee Related JP4239894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004140930A JP4239894B2 (en) 2004-05-11 2004-05-11 Image encoding apparatus and image decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004140930A JP4239894B2 (en) 2004-05-11 2004-05-11 Image encoding apparatus and image decoding apparatus

Publications (2)

Publication Number Publication Date
JP2005323252A true JP2005323252A (en) 2005-11-17
JP4239894B2 JP4239894B2 (en) 2009-03-18

Family

ID=35470169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004140930A Expired - Fee Related JP4239894B2 (en) 2004-05-11 2004-05-11 Image encoding apparatus and image decoding apparatus

Country Status (1)

Country Link
JP (1) JP4239894B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011514773A (en) * 2008-03-04 2011-05-06 サムスン エレクトロニクス カンパニー リミテッド Video coding and decoding method and apparatus using continuous motion estimation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113338A (en) * 1992-09-30 1994-04-22 Fujitsu Ltd Motion compensation prediction method for multi-eye type stereoscopic video
JPH0799660A (en) * 1993-09-28 1995-04-11 Nec Corp Motion compensation predicting device
JPH07336688A (en) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> Uncoveered area detecting method
JPH08116540A (en) * 1994-10-14 1996-05-07 Sanyo Electric Co Ltd Image coder and image decoder using area division
JPH09214899A (en) * 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> Image prediction processing method an its device
JP2000308066A (en) * 1999-04-23 2000-11-02 Toshiba Corp Device and method for encoding moving picture
JP2003204558A (en) * 2003-01-10 2003-07-18 Mitsubishi Electric Corp Image encoding apparatus and image decoding apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113338A (en) * 1992-09-30 1994-04-22 Fujitsu Ltd Motion compensation prediction method for multi-eye type stereoscopic video
JPH0799660A (en) * 1993-09-28 1995-04-11 Nec Corp Motion compensation predicting device
JPH07336688A (en) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> Uncoveered area detecting method
JPH08116540A (en) * 1994-10-14 1996-05-07 Sanyo Electric Co Ltd Image coder and image decoder using area division
JPH09214899A (en) * 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> Image prediction processing method an its device
JP2000308066A (en) * 1999-04-23 2000-11-02 Toshiba Corp Device and method for encoding moving picture
JP2003204558A (en) * 2003-01-10 2003-07-18 Mitsubishi Electric Corp Image encoding apparatus and image decoding apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
八島由幸、小寺博: "フレーム内相関度と両方向動き補償予測効率の関係", 電子情報通信学会技術研究報告, vol. 第95巻、第182号, JPN6008022746, 24 July 1995 (1995-07-24), pages 55 - 62, ISSN: 0001195342 *
映像情報メディア学会編, 総合マルチメディア選書 MPEG, JPN6008022747, 20 April 1996 (1996-04-20), pages 253 - 278, ISSN: 0001195343 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011514773A (en) * 2008-03-04 2011-05-06 サムスン エレクトロニクス カンパニー リミテッド Video coding and decoding method and apparatus using continuous motion estimation

Also Published As

Publication number Publication date
JP4239894B2 (en) 2009-03-18

Similar Documents

Publication Publication Date Title
JP5580453B2 (en) Direct mode encoding and decoding apparatus
KR100888962B1 (en) Method for encoding and decoding video signal
KR100886191B1 (en) Method for decoding an image block
US8239766B2 (en) Multimedia coding techniques for transitional effects
KR20060088461A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
EP2178302A2 (en) Image coding apparatus and image decoding apparatus
US8428131B2 (en) Video encoder and decoder using region based coding and decoding techniques with sequential refresh
KR20060105409A (en) Method for scalably encoding and decoding video signal
KR20060109249A (en) Method and apparatus for predicting motion vector of a macro block using motion vectors of a picture of base layer when encoding/decoding video signal
JP2012502590A (en) Video coding system and method using configuration reference frame
KR20080055965A (en) Encoder assisted frame rate up conversion using various motion models
KR20060063613A (en) Method for scalably encoding and decoding video signal
US20080095239A1 (en) Method for video frame rate conversion
US20150365698A1 (en) Method and Apparatus for Prediction Value Derivation in Intra Coding
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
US20060120454A1 (en) Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer
US20060133677A1 (en) Method and apparatus for performing residual prediction of image block when encoding/decoding video signal
JP4518599B2 (en) 3: 2 pulldown detection and optimized video compression encoder in motion estimation phase
JP5512696B2 (en) Method and apparatus for predicting and encoding motion parameters of video picture sequences
KR20060069227A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
JP3621332B2 (en) Sprite encoding method and apparatus, sprite encoded data decoding method and apparatus, and recording medium
KR20060059774A (en) Method and apparatus for encoding/decoding a video signal using motion vectors of pictures at different temporal decomposition level
KR100587274B1 (en) method for concealing error in MPEG-2 decompression system
JP4239894B2 (en) Image encoding apparatus and image decoding apparatus
KR20060059770A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4239894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees