JP2005333569A - Image encoding apparatus and image decoding apparatus - Google Patents

Image encoding apparatus and image decoding apparatus Download PDF

Info

Publication number
JP2005333569A
JP2005333569A JP2004152165A JP2004152165A JP2005333569A JP 2005333569 A JP2005333569 A JP 2005333569A JP 2004152165 A JP2004152165 A JP 2004152165A JP 2004152165 A JP2004152165 A JP 2004152165A JP 2005333569 A JP2005333569 A JP 2005333569A
Authority
JP
Japan
Prior art keywords
frame
image
signal
motion compensation
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004152165A
Other languages
Japanese (ja)
Inventor
Kunio Yamada
邦男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004152165A priority Critical patent/JP2005333569A/en
Publication of JP2005333569A publication Critical patent/JP2005333569A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that it is difficult to encode a moving image in which shape information for each frame is not present, or a moving image in which an object concealing relationship is remarkably changed, in an object-based encoding system image encoding apparatus. <P>SOLUTION: A key frame which becomes a base of motion compensating prediction is divided into areas to create an initial area, and the initial area is disposed on a corresponding position in a plurality of frames different from the key frame (S1, S3). Characteristics of texture in the disposed initial area are compared with characteristics of peripheral adjacent texture (S4) and when a result of comparison closer than a threshold can be obtained, the area of peripheral adjacent texture is added to/integrated with the initial area to form a new area (S5, S6). Thus, accuracy of motion compensation is improved and the number of areas wherein motion compensation is not performed can be reduced. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像符号化装置及び画像復号化装置に係り、特にシーンを示す画像信号を被写体の形状に応じた任意形状に分割し、それらの相対的位置関係を変更してから再構成するような動き補償を行う画像符号化(以下、オブジェクトベース符号化という)方式の画像符号化装置及び画像復号化装置に関する。   The present invention relates to an image encoding device and an image decoding device, and in particular, an image signal indicating a scene is divided into arbitrary shapes according to the shape of a subject, and reconfiguration is performed after changing their relative positional relationship. The present invention relates to an image encoding apparatus and an image decoding apparatus of an image encoding (hereinafter referred to as object-based encoding) system that performs motion compensation.

現在の動画像信号の高能率圧縮符号化方法は、MPEG(Moving Picture Experts Group)に代表される、離散コサイン変換(DCT;Discrete Cosine Transform)による画像フレーム内の冗長度の削減と、動き補償を用いた画像間予測による画像フレーム間の冗長性の削減を組み合わせた波形符号化が主流であるということができる。この波形符号化方式の符号化の大部分においては、フレーム内・フレーム間の処理のどちらにおいても処理単位をブロックとしている。このため、“ブロックベース符号化”と呼ばれることも多い。   The current high-efficiency compression coding method for moving image signals is a reduction in redundancy in image frames and motion compensation by discrete cosine transform (DCT), represented by the Moving Picture Experts Group (MPEG). It can be said that waveform coding combined with reduction of redundancy between image frames by the inter-image prediction used is the mainstream. In most of the coding of this waveform coding system, the processing unit is a block in both intra-frame and inter-frame processing. For this reason, it is often called “block-based encoding”.

一方、別の動画像信号の高能率圧縮符号化方法として、一般的に、シーンを被写体の形状に応じた任意形状に分割し、それらの相対的位置関係を変更してから再構成することにより動き補償を行う方法を基本とするオブジェクトベース符号化も知られている(例えば、非特許文献1及び非特許文献2参照)。このオブジェクトベース符号化では、一般的に、類似のテクスチャ特性を持つ部分や一つの閉輪郭に囲まれた部分をオブジェクト(セグメントともいう)として扱っている。   On the other hand, as another high-efficiency compression encoding method for moving image signals, generally, the scene is divided into arbitrary shapes according to the shape of the subject, and their relative positional relationships are changed before reconstruction. Object-based coding based on a method for performing motion compensation is also known (see, for example, Non-Patent Document 1 and Non-Patent Document 2). In this object-based encoding, a part having similar texture characteristics or a part surrounded by one closed contour is generally handled as an object (also referred to as a segment).

オブジェクトベース符号化は被写体の形状に即した領域単位で動き推定・補償を行うため、符号化効率に優れ、従来のMPEG1〜4などのブロックベース符号化で発生する、モスキート雑音やブロック歪の問題が回避できることを特徴とする。   Object-based coding performs motion estimation / compensation in units of regions that match the shape of the subject, so it has excellent coding efficiency, and problems with mosquito noise and block distortion that occur with block-based coding such as conventional MPEG1-4 Can be avoided.

しかし、このオブジェクトベース符号化では、あるフレーム内符号化画像(イントラ符号化画像;キーフレーム)が複数のオブジェクトに分割されており、このフレームを用いて他のフレームの動き補償を行おうとする場合、オブジェクトの移動に伴い、隠されていた背景が動き補償のされない空隙部分であるアンカバードエリア(uncovered area(uncovered background))として現れる。   However, in this object-based encoding, a certain intra-frame encoded image (intra-encoded image; key frame) is divided into a plurality of objects, and motion compensation of other frames is performed using this frame. As the object moves, the hidden background appears as an uncovered area (uncovered background), which is a void that is not compensated for motion.

これを図17〜図20と共に説明する。図17は縦長の長方形のオブジェクト101と、横長の長方形のオブジェクト102aとが接する大略L字状の画像であるキーフレームであり、オブジェクト単位のセグメンテーションがなされているとし、図18の画像を予測対象画像とする。ここでは、図18に示すように、縦長の長方形のオブジェクト101は静止し、これに一部が隠蔽された横長の長方形のオブジェクトが右側に移動して2bで示す如くになっているものとする。   This will be described with reference to FIGS. FIG. 17 is a key frame that is a substantially L-shaped image in which a vertically long rectangular object 101 and a horizontally long rectangular object 102a are in contact with each other. Assume that segmentation in units of objects is performed. An image. Here, as shown in FIG. 18, it is assumed that a vertically long rectangular object 101 is stationary, and a horizontally long rectangular object partially concealed is moved to the right side as shown by 2b. .

キーフレームにおける横長の長方形に相当するオブジェクト102aは図19に示す形状であるので、これを用いて動き補償が行われ、その結果は図20に示すように、縦長の長方形のオブジェクト101と横長の長方形のオブジェクト102cと黒く示された部分103とからなる画像のようになる。図20において、黒く示された部分103は動き補償のされなかった空隙部分(アンカバードエリア)である。   Since the object 102a corresponding to the horizontally long rectangle in the key frame has the shape shown in FIG. 19, motion compensation is performed using the object 102a. As a result, as shown in FIG. It looks like an image made up of a rectangular object 102c and a portion 103 shown in black. In FIG. 20, a portion 103 shown in black is a void portion (uncovered area) that has not been subjected to motion compensation.

このような動き補償がされずに予測値(テクスチャ)が存在しない空隙部分103は、予測値と実際の画素値の差分を符号化するという予測符号化が基本的に適用できない部分ということになり、実際の画素値をそのまま符号化する必要がある。ゆえに補償のされない部分が大きな面積を占めることは符号化効率の悪化につながる。そこで、比較的単純なオブジェクトと背景からなるシーンについて、形状情報を利用して背景予測の効率の向上を図るようにした従来の画像符号化装置も知られている(例えば、特許文献1参照)。   The void portion 103 where no motion compensation is performed and no predicted value (texture) is present is a portion to which predictive coding for encoding the difference between the predicted value and the actual pixel value is basically not applicable. The actual pixel value needs to be encoded as it is. Therefore, the fact that the uncompensated portion occupies a large area leads to deterioration in coding efficiency. Therefore, a conventional image coding apparatus is known that improves the efficiency of background prediction using shape information for a scene composed of a relatively simple object and background (see, for example, Patent Document 1). .

H.G.Musmann,M.Hotter,J.Ostermann,“Object-Oriented Analysis Synthesis Coding of Moving Images”,Signal Process,Image Commun.,1,2,pp.117-138(Oct.1989).H. G. Musmann, M. Hotter, J. Ostermann, “Object-Oriented Analysis Synthesis Coding of Moving Images”, Signal Process, Image Commun., 1, 2, pp. 117-138 (Oct. 1989). J.Y.A.Wang,et.Al,“Applying Mid-level Vision Techniques for Video Data Compression and Manipulation”,M.I.T.Media Lab.Tech.Report No.263,(Feb.1994).(http://www-bcs.mit.edu/people/adelson/pub_pdfs/wang_tr263.pdf)J.Y.A.Wang, et. Al, “Applying Mid-level Vision Techniques for Video Data Compression and Manipulation”, M.I.T.Media Lab.Tech.Report No.263, (Feb.1994). (Http://www-bcs.mit.edu/people/adelson/pub_pdfs/wang_tr263.pdf) 特開平9−98425号公報JP-A-9-98425

しかるに、特許文献1記載の従来の画像符号化装置は、比較的大きな面積を持ち、かつ、時間的に大きな変化のない明示的に決定された背景に動き補償を用いて、アンカバードエリア(uncovered area(uncovered background))を予測するものであり、各フレームについての形状情報が存在しない動画像、オブジェクトの隠蔽関係が大きく変化する動画像については適用が困難である。   However, the conventional image encoding device described in Patent Document 1 has a relatively large area and uses motion compensation on an explicitly determined background that does not have a large change in time. area (uncovered background)), and is difficult to apply to a moving image in which shape information for each frame does not exist and a moving image in which the object concealment relationship changes greatly.

本発明は以上の点に鑑みなされたもので、各フレームについての形状情報が存在しない動画像、オブジェクトの隠蔽関係が大きく変化する動画像についても符号化効率を向上し得る画像符号化装置及び画像復号化装置を提供することを目的とする。   The present invention has been made in view of the above points, and an image coding apparatus and an image that can improve the coding efficiency even for moving images in which shape information about each frame does not exist and moving images in which the object concealment relationship changes greatly An object of the present invention is to provide a decoding device.

上記目的を達成するため、本発明の画像符号化装置は、シーンを示す画像信号を被写体の形状に応じた任意形状に分割し、その分割結果の相対的位置関係を変更してから分割結果を再構成する動き補償を行うオブジェクトベース符号化方式の画像符号化装置において、動き補償予測の基本となるキーフレームを領域分割して初期領域を作成する初期領域作成手段と、初期領域をキーフレームとは異なる複数のフレームにおける対応位置上に配置して、配置された初期領域のテクスチャの特性と周辺近傍のテクスチャの特性とを、それぞれ予め設定された類似の判断基準に基づいて類似するか否か比較照合する比較手段と、比較手段により類似の比較結果が得られたときに、周辺近傍のテクスチャの領域を初期領域に統合して新たな領域を形成する統合手段とを有し、統合手段により形成された新たな領域の信号を、画像符号化の動き補償の際に参照画像信号として利用することを特徴とする。   In order to achieve the above object, the image encoding device of the present invention divides an image signal indicating a scene into an arbitrary shape according to the shape of the subject, changes the relative positional relationship of the division result, and then calculates the division result. In an object-based coding image coding apparatus that performs motion compensation to be reconfigured, an initial region creating unit that creates an initial region by dividing a key frame that is a basis of motion compensated prediction, and an initial region as a key frame Is placed on the corresponding position in different frames, and whether the characteristics of the texture of the arranged initial area and the characteristics of the texture in the vicinity are similar based on similar preset criteria When a comparison result is obtained by the comparison means for comparison and comparison, and a similar comparison result is obtained, the texture area in the vicinity is integrated with the initial area to form a new area. And a that integrating means, a signal of a new region formed by integrating means, characterized in that use as a reference picture signal in motion compensation image coding.

この発明では、従来のオブジェクトベース符号化の動き補償で用いられるような、画像を領域分割した状態のオーバーラップ部分を持たないような領域でなく、動き補償予測の基本となるキーフレームを領域分割して作成した初期領域をキーフレームとは異なる複数のフレームにおける対応位置上に配置して、配置された初期領域のテクスチャの特性と、周辺近傍のテクスチャの特性とをそれぞれ予め設定された類似の判断基準に基づいて類似するか否か比較照合し、類似の比較結果が得られたときに、その周辺近傍のテクスチャの領域を初期領域に統合して新たな領域を形成するようにしたため、動き補償の精度の向上と施される領域の拡大が可能になる。   In the present invention, a key frame that is the basis of motion compensation prediction is not divided into regions that do not have an overlap portion in a state where an image is divided into regions as used in motion compensation of conventional object-based coding. The initial area created in this way is placed on the corresponding positions in a plurality of frames different from the key frame, and the texture characteristics of the arranged initial area and the characteristics of the texture in the vicinity are respectively set to similar Based on the judgment criteria, whether or not they are similar is compared, and when similar comparison results are obtained, the texture area in the vicinity is integrated into the initial area to form a new area. The accuracy of compensation can be improved and the area to be applied can be expanded.

また、上記の目的を達成するため、本発明の画像復号化装置は、本発明の画像符号化装置で得られた動き補償予測の基本となるキーフレームの新たな領域の信号と、復号化対象のフレームのオブジェクト形状データ及び動きベクトルと、キーフレームと復号化対象のフレームとの差分である残差信号とが入力され、これらの信号から元のシーンの画像信号を復元する画像復号化装置であって、復号化対象のフレームのオブジェクトの動きベクトルを基に、キーフレームの新たな領域の信号を移動し、復号化対象のフレームのオブジェクト形状データに基づいて、移動後のキーフレームの新たな領域の信号を切り出すことにより、そのキーフレームの新たな領域の信号のテクスチャを用いて、復号化対象のフレームの動き補償済みの復号信号を得る動き補償手段と、動き補償手段により得られた復号化対象のフレームの復号信号と、残差信号とを加算する残差処理を行い、復号画像信号を得る残差処理手段とを有することを特徴とする。   In order to achieve the above object, the image decoding apparatus of the present invention includes a signal of a new region of a key frame that is a basis of motion compensation prediction obtained by the image encoding apparatus of the present invention, and a decoding target. An image decoding device that receives object shape data and motion vectors of a frame and a residual signal that is a difference between a key frame and a decoding target frame and restores an image signal of the original scene from these signals Then, based on the motion vector of the object of the frame to be decoded, the signal of the new area of the key frame is moved, and based on the object shape data of the frame to be decoded, the new key frame is moved. By extracting the signal of the area, the motion compensated decoded signal of the frame to be decoded is used by using the texture of the signal of the new area of the key frame. Motion compensation means, and a residual processing means for performing a residual process for adding the decoded signal of the decoding target frame obtained by the motion compensation means and the residual signal to obtain a decoded image signal. Features.

本発明によれば、キーフレームを領域分割して作成した初期領域をキーフレームとは異なる複数のフレームにおける対応位置上に配置して、配置された初期領域のテクスチャの特性と、周辺近傍のテクスチャの特性とをそれぞれ比較照合して閾値より近い比較結果が得られたときに、その周辺近傍のテクスチャの領域を初期領域に統合して新たな領域を形成することにより、動き補償の精度の向上を図り、動き補償のされない領域を縮小でき、その結果、各フレームについての形状情報が存在しない動画像、オブジェクトの隠蔽関係が大きく変化する動画像についても符号化効率を向上することができる。   According to the present invention, the initial region created by dividing the key frame into regions is arranged at corresponding positions in a plurality of frames different from the key frame, and the texture characteristics of the arranged initial region and the texture in the vicinity When a comparison result closer to the threshold value is obtained by comparing and comparing with the characteristics of each, the texture area near the periphery is integrated into the initial area to form a new area, thereby improving motion compensation accuracy As a result, it is possible to reduce the area where motion compensation is not performed. As a result, it is possible to improve the coding efficiency for a moving image in which shape information for each frame does not exist and a moving image in which the object concealment relationship changes greatly.

次に、本発明の実施の形態について図面と共に説明する。本発明では、複数フレームを参照することによって拡張した、オーバーラップのあるレイヤ状の領域を用いて動き補償の精度の向上と施される領域の拡大を実現した。   Next, embodiments of the present invention will be described with reference to the drawings. In the present invention, the accuracy of motion compensation and the enlargement of the region to be performed are realized by using an overlapping layered region expanded by referring to a plurality of frames.

図1は本発明になる画像符号化方法の一実施の形態の概略説明用フローチャートを示す。同図において、まず、動き補償予測の基本となるキーフレームを、例えば輝度の平均・分散に基づき領域分割して初期領域を作成する(ステップS1)。なお、キーフレームの画像信号は通常、フレーム内符号化信号である。輝度の平均・分散に基づく領域分割の公知の手法の一例として、例えば文献(S.C.Zhu and A.Yuille:“Region competition:unifying snakes,region growing,and Bayes/MDL for multiband image segmentation".IEEE Transactions On Pattern Analysis and Machine Intelligence.Vol.18,No.9(1996))に記載されている領域競合法が存在する。   FIG. 1 is a flowchart for explaining the outline of an embodiment of an image encoding method according to the present invention. In the figure, first, an initial region is created by dividing a key frame, which is the basis of motion compensation prediction, into regions based on, for example, the average / dispersion of luminance (step S1). Note that the image signal of the key frame is usually an intra-frame encoded signal. As an example of a known method of region segmentation based on luminance average and variance, see, for example, the literature (SCZhu and A. Yuille: “Region competition: unifying snakes, region growing, and Bayes / MDL for multiband image segmentation”. IEEE Transactions On There is a region competition method described in Pattern Analysis and Machine Intelligence. Vol.18, No.9 (1996)).

この領域競合法は、エネルギー汎関数最適化法の一種であり、輝度の平均・分散といった正規分布統計量が似通った部分が一括りになるような領域の成長・競合を行う。また、この際に領域境界に不自然な凹凸が発生しないように、自動的に競合が調整される。   This area competition method is a kind of energy functional optimization method, and grows and competes for areas where normal distribution statistics such as average and variance of luminance are similar. At this time, the competition is automatically adjusted so that unnatural unevenness does not occur at the region boundary.

ここで、分割された領域を初期領域と呼ぶことにする。各初期領域につき、前後それぞれ2フレームずつについて以下のステップS3〜S5の処理を行う(ステップS2)。すなわち、初期領域をフレーム(frame)M(ただし、MはNを任意の自然数とすると、Nー2,N−1,N+1,N+2で表わされる4つの自然数)における対応位置上に配置した後(ステップS3)、配置された初期領域のテクスチャの特性と周辺近傍のテクスチャの特性を、予め設定された類似の判断基準に基づいて類似するか否か比較照合し(ステップS4)、テクスチャの特性が近い類似のテクスチャであると判定された場合、その近傍部分を同一領域として新たに初期領域に追加して統合する(ステップS5)。その後、統合により拡張された領域をレイヤとして保存する(ステップS6)。   Here, the divided area is referred to as an initial area. For each initial region, the following steps S3 to S5 are performed for two frames before and after (step S2). That is, after placing the initial region on the corresponding position in the frame M (where M is four natural numbers represented by N-2, N-1, N + 1, N + 2 where N is an arbitrary natural number) ( In step S3), the texture characteristics of the arranged initial region and the texture characteristics in the vicinity of the surroundings are compared and collated based on the similar criteria set in advance (step S4). If it is determined that the texture is close and similar, the neighboring portion is newly added to the initial region as the same region and integrated (step S5). Thereafter, the area expanded by integration is stored as a layer (step S6).

ここで、上記のステップS4のテクスチャ解析の手段の一例としては、各領域の輝度値の平均と標準偏差を用いる手法が挙げられる。また、このときのテクスチャの類似性の判断基準の一例として、例えば画像が8ビット(数値では0〜255)の場合、平均の差の絶対値が10以内、標準偏差の差の絶対値が35以内という数値を挙げることができる。   Here, as an example of the means for texture analysis in step S4 described above, there is a method using the average and standard deviation of the luminance values of each region. In addition, as an example of a criterion for determining the similarity of the texture at this time, for example, when the image is 8 bits (0 to 255 in the numerical value), the absolute value of the average difference is within 10 and the absolute value of the standard deviation difference is 35. A numerical value of within can be mentioned.

このように、本実施の形態では、分割されたキーフレームの各初期領域についてキーフレームの前後各2フレーム、計4フレームを参照して、上記の初期領域に対応する領域が最初に領域分割された初期領域とは別形状であり、かつ、その最初の領域分割で決定された初期領域に含まれなかった同質のテクスチャを含む場合には、この初期領域に含まれなかった部分を最初の領域分割で決定された初期領域と融合した新たな領域を形成し、この新たな領域を動き補償で利用するようにしたため、動き補償されない部分を減少させることができる。   As described above, in the present embodiment, with respect to each initial area of the divided key frame, the area corresponding to the initial area is first divided into areas by referring to two frames before and after the key frame, for a total of four frames. If the texture is of a different shape from the initial area and contains a texture of the same quality that was not included in the initial area determined by the initial area division, the part not included in the initial area is included in the initial area. Since a new area fused with the initial area determined by the division is formed and this new area is used for motion compensation, a portion where motion compensation is not performed can be reduced.

次に、上記のステップS5での統合について、図17で示した2つの長方形のオブジェクト101及び102aからなるシーンについて図2のシーケンスのようなオブジェクトの移動が行われるという前提で説明する。図2に示すフレーム(Frame)0をキーフレームとすると、キーフレームの長方形のオブジェクト102aの初期領域は前記図19のような形状になる。この初期領域を図2に示すFrame1の対応する部分に重ねたものが図3になる。   Next, the integration in step S5 will be described on the premise that the object is moved as shown in the sequence of FIG. 2 in the scene composed of the two rectangular objects 101 and 102a shown in FIG. Assuming that frame 0 shown in FIG. 2 is a key frame, the initial area of the rectangular object 102a of the key frame has a shape as shown in FIG. FIG. 3 shows the initial region overlapped with the corresponding part of Frame 1 shown in FIG.

図2に示すFrame1の長方形のオブジェクト102bは、図3に示すように初期領域の部分102aと、これに接する類似と評価された長方形のオブジェクトの部分104とからなる。ここで、上記のオブジェクトの部分104は、テクスチャの平均・標準偏差を評価すると、前記の基準で類似と評価された部分である。そして、これらの部分102aと104とを統合したレイヤとし、次のFrame2で同様の操作を行う。   A rectangular object 102b of Frame 1 shown in FIG. 2 includes an initial region portion 102a and a rectangular object portion 104 evaluated as similar to the initial region 102a as shown in FIG. Here, the part 104 of the object is a part that is evaluated as similar according to the above-mentioned criteria when the average / standard deviation of the texture is evaluated. Then, these portions 102a and 104 are integrated into a layer, and the same operation is performed in the next Frame2.

ここで、前記102aと104とを統合したレイヤを102bとして、図2に示すFrame2の相当部分102dに重ねると、図4に示すように、長方形のオブジェクトの部分105が類似と評価されるので、これら102bと105を統合したレイヤとする。この例では、キーフレ−ム後の2フレームについて示しているが、同様の操作を過去についても行う。これを初期領域すべてについて繰り返して得られたレイヤを動き補償に使用する。   Here, if the layer obtained by integrating 102a and 104 is set to 102b and overlapped with the corresponding portion 102d of Frame 2 shown in FIG. 2, the rectangular object portion 105 is evaluated as similar as shown in FIG. These layers 102b and 105 are integrated. In this example, two frames after the key frame are shown, but the same operation is performed for the past. A layer obtained by repeating this operation for all the initial regions is used for motion compensation.

次に、上記の画像符号化方法に基づく、本発明になる画像符号化装置について説明する。図5は本発明になる画像符号化装置の一実施の形態のブロック図を示す。本実施の形態は、シーンを示す画像信号を被写体の形状に応じた任意形状に分割し、その分割結果の相対的位置関係を変更してから分割結果を再構成する動き補償を行うオブジェクトベース符号化方式の画像符号化装置である。   Next, an image encoding apparatus according to the present invention based on the above image encoding method will be described. FIG. 5 shows a block diagram of an embodiment of an image encoding apparatus according to the present invention. This embodiment divides an image signal indicating a scene into an arbitrary shape according to the shape of the subject, changes the relative positional relationship of the division result, and then performs object compensation that reconstructs the division result. This is an encoding method image encoding apparatus.

図5において、動き補償予測の基本となるキーフレームをN番目のフレーム(frame N)とすると、フレームメモリ1、2、3、4には、キーフレームよりも2フレーム前(過去)のN−2番目のフレーム(frame N-2)、1フレーム前のN−1番目のフレーム(frame N-1)、1フレーム後(未来)のN+1番目のフレーム(frame N+1)、2フレーム後のN+2番目のフレーム(frame N+2)の画像信号がそれぞれ記憶されている。入力されたキーフレームの画像信号は、セグメンテーション手段5によりセグメンテーション(領域分割)され、そのセグメンテーション結果のある領域は、フレームメモリ6にレイヤの初期状態、すなわち初期レイヤとして保存される。   In FIG. 5, if the key frame that is the basis of motion compensation prediction is the Nth frame (frame N), the frame memories 1, 2, 3, and 4 store the N-frames 2 frames before (the past) the key frame. 2nd frame (frame N-2), N-1 frame before frame 1 (frame N-1), 1 frame after (future) N + 1 frame (frame N + 1), 2 frames after The image signals of the (N + 2) th frame (frame N + 2) are stored. The input image signal of the key frame is segmented (region division) by the segmentation means 5, and a region having the segmentation result is stored in the frame memory 6 as an initial state of the layer, that is, as an initial layer.

フレームメモリ6から読み出された初期レイヤの画像は、フレームメモリ1、2、3、4から読み出されたframe N-2、frame N-1、frame N+1、frame N+2の各画像との間の動きが、それぞれ動き推定手段7、8、9、10で評価され、それにより得られた各動き推定結果が、対応して設けられたテクスチャ照合手段11、12、13、14で、対応部分周辺のテクスチャと照合され、それらの各照合結果がそれぞれ追加・統合領域決定手段15、16、17、18に供給され、ここで照合結果に基づき初期レイヤに追加して統合すべきか否か互いに独立して決定される。   The initial layer images read from the frame memory 6 are the frame N-2, frame N-1, frame N + 1, and frame N + 2 images read from the frame memories 1, 2, 3, and 4, respectively. Motion estimation means 7, 8, 9, 10 are evaluated by motion estimation means 7, 8, 9, 10, respectively, and the motion estimation results obtained thereby are respectively obtained by texture matching means 11, 12, 13, 14. Are matched with the texture around the corresponding portion, and the respective matching results are supplied to the additional / integrated region determining means 15, 16, 17, 18 respectively, where it should be added to the initial layer based on the matching results or not. Are determined independently of each other.

追加・統合領域決定手段15により得られた追加・統合する領域のframe N-2の画像信号はフレームメモリ19内の追加・統合部20で初期レイヤの画像に追加・統合される。同様に、追加・統合領域決定手段16により得られた追加・統合する領域のframe N-1の画像信号はフレームメモリ19内の追加・統合部21で追加・統合部20からの画像に追加・統合される。また、追加・統合領域決定手段17により得られた追加・統合する領域のframe N+1の画像信号はフレームメモリ19内の追加・統合部22で追加・統合部21からの画像に追加・統合され、追加・統合領域決定手段18により得られた追加・統合する領域のframe N+2の画像信号はフレームメモリ19内の追加・統合部23で追加・統合部22からの画像に追加・統合される。   The image signal of the frame N-2 in the region to be added / integrated obtained by the addition / integration region determining means 15 is added / integrated to the image of the initial layer by the adding / integrating unit 20 in the frame memory 19. Similarly, the image signal of the frame N-1 of the region to be added / integrated obtained by the addition / integration region determining means 16 is added / added to the image from the integration unit 20 by the addition / integration unit 21 in the frame memory 19. Integrated. Further, the frame N + 1 image signal of the region to be added / integrated obtained by the addition / integration region determination means 17 is added / integrated to the image from the add / integration unit 21 by the addition / integration unit 22 in the frame memory 19. The image signal of the frame N + 2 of the area to be added / integrated obtained by the addition / integration area determining means 18 is added / integrated to the image from the add / integration section 22 by the addition / integration section 23 in the frame memory 19. Is done.

これにより、追加・統合部23からデコード動き補償用レイヤ24が得られ、これは画像符号化装置での動き補償に用いられる。なお、追加・統合部20〜23における追加・統合動作は、ハードウェア的には、初期レイヤを記憶しているフレームメモリ19を書き換えるという処理により実現される。   As a result, a decoding motion compensation layer 24 is obtained from the addition / integration unit 23, and this is used for motion compensation in the image coding apparatus. Note that the addition / integration operation in the addition / integration units 20 to 23 is realized by processing of rewriting the frame memory 19 storing the initial layer in terms of hardware.

次に、更に具体的な例を挙げて、画像符号化装置の動作について詳細に説明する。いま、図6のような長方形201と六角形202の背後を三角形が203a〜203eに示すように平行移動するような動画の一部を考え、上記と同様に、frame Nを領域分割されるカレントフレーム、かつ、キーフレームとする。   Next, the operation of the image coding apparatus will be described in detail with a more specific example. Consider a part of the moving image in which the triangle 201 and the hexagon 202 are translated behind the rectangle 201 and the hexagon 202 as shown in FIG. 6, and frame N is divided into regions as described above. Frame and key frame.

このとき、frame Nを領域分割した結果得られた三角形部分203cの初期領域は、長方形201と六角形203によって隠蔽されたことにより、図7に示すような形状になる。この三角形部分203cの初期領域をもとに動き補償した結果が図8であり、移動する三角形部分203a’〜203e’のうちの黒く示された部分は、実質上動き補償されなかった部分である。   At this time, the initial region of the triangular portion 203c obtained as a result of dividing the frame N into regions is concealed by the rectangle 201 and the hexagon 203, and thus has a shape as shown in FIG. FIG. 8 shows the result of motion compensation based on the initial region of the triangular portion 203c, and the black portions of the moving triangular portions 203a ′ to 203e ′ are portions that have not been substantially compensated for motion. .

これを防ぐため、上記の実施の形態の画像符号化装置では、過去及び未来のフレームを参照し、図9に示すようにキーフレームの初期領域の画像203cに対し、キーフレームに対し過去のframe N−2、frame N−1の画像を初期レイヤ(初期領域の画像)との間の動き推定、テクスチャ照合、統合領域決定を行うことで、図9に204で示す類似のテクスチャを持つ統合(融合)候補領域の画像を生成すると共に、キーフレームに対し未来のframe N+1、frame N+2の画像を初期レイヤ(初期領域の画像)との間の動き推定、テクスチャ照合、統合領域決定を行うことで、図9に205で示す類似のテクスチャを持つ統合(融合)候補領域の画像を生成し、これらを初期領域の画像と統合する。   In order to prevent this, the image coding apparatus of the above embodiment refers to the past and future frames, and as shown in FIG. N-2 and frame N-1 images are integrated with a similar texture indicated by 204 in FIG. 9 by performing motion estimation, texture matching, and integration region determination with the initial layer (initial region image). Fusion) Generates candidate area images, performs future frame N + 1, frame N + 2 images for key frames, performs motion estimation with initial layers (initial area images), texture matching, and integrated area determination Then, an image of the integration (fusion) candidate region having a similar texture indicated by 205 in FIG. 9 is generated, and these are integrated with the image of the initial region.

これにより、図10に示すような、欠けのない三角形の形状を持つレイヤをデコード動き補償用レイヤ24として構成する。このデコード動き補償用レイヤ24は、画像符号化装置内での動き補償に参照画像として用いることにより、図6の入力シーケンスと同様に穴のない動き補償が実現される。なお、上記の動き補償用レイヤ24は、例えば通常のキーフレームとは別にイントラ符号化して画像復号化装置へ伝送される。   As a result, a layer having a triangular shape as shown in FIG. 10 is configured as the decoded motion compensation layer 24. The decoded motion compensation layer 24 is used as a reference image for motion compensation in the image coding apparatus, thereby realizing motion compensation without a hole as in the input sequence of FIG. Note that the motion compensation layer 24 is intra-coded separately from a normal key frame, for example, and transmitted to the image decoding apparatus.

なお、この共通テクスチャ部分を統合するにあたり、セグメンテーションエラーのため、図11に301、302で示すように隣の領域の一部が残っている場合には、共通テクスチャ部分の統合後にも図12に示すように偽輪郭401、402が発生する。これを抑圧するため、図13に501、502で示すように、追加・統合部分(融合候補領域)をセグメンテーションエラー部分301、302を含むように大きく取り、混合度合いを連続的に変化させる方法が考えられる。この方法によれば、隣の領域の一部が残った初期領域503の混合率が少なくなり、結果的に偽輪郭が目立たなくなることが期待できる。   When the common texture portion is integrated, if a part of the adjacent area remains as shown by 301 and 302 in FIG. 11 due to a segmentation error, the common texture portion is also integrated in FIG. As shown, false contours 401 and 402 are generated. In order to suppress this, as shown by reference numerals 501 and 502 in FIG. 13, a method of taking the added / integrated portion (fusion candidate region) large so as to include the segmentation error portions 301 and 302 and continuously changing the mixing degree is available. Conceivable. According to this method, the mixing ratio of the initial region 503 in which a part of the adjacent region remains can be reduced, and as a result, it can be expected that the false contour becomes inconspicuous.

このように、複数フレーム参照の結果、初期領域に含まれなかった部分を初期領域と融合するにあたり、境界近傍で両テクスチャを連続的に変化する比率でブレンド(混合)することにより、領域分割のエラーなどによる偽輪郭などを軽減させることができる。   As described above, when merging a part that was not included in the initial region as a result of referring to multiple frames with the initial region, both textures are blended at a ratio that continuously changes in the vicinity of the boundary. False contours due to errors can be reduced.

次に、本発明の画像符号化装置に対応する画像符号化方法の一例について図14と共に説明する。エンコーダにおいて、キーフレーム(frame N)はセグメンテーション(領域分割)され(ステップS11)、そのセグメンテーション結果のある領域は、まずレイヤの初期状態、即ち初期レイヤとして保存される(ステップS12)。   Next, an example of an image encoding method corresponding to the image encoding device of the present invention will be described with reference to FIG. In the encoder, the key frame (frame N) is segmented (region division) (step S11), and the region having the segmentation result is first stored as the initial state of the layer, that is, the initial layer (step S12).

一方で、上記のセグメンテーション結果とframe N−2,frame N−1,frame N+1,frame N+2との間の動きがそれぞれ別々に推定される(ステップS13、S14、S15、S16)。これは図1のステップS3に相当し、初期領域をframe Mにおける対応位置上に配置したことと同じである。   On the other hand, the motions between the above segmentation results and frame N-2, frame N-1, frame N + 1, and frame N + 2 are estimated separately (steps S13, S14, S15, and S16). This corresponds to step S3 in FIG. 1 and is the same as placing the initial region on the corresponding position in frame M.

続いて、配置された初期領域のテクスチャの特性と対応部分周辺のテクスチャとの特性を比較するテクスチャ照合が行われ(ステップS17、S18、S19、S20)、その結果、追加・統合すべきかどうかの決定が、例えばテクスチャの特性の比較結果が閾値より近い場合、追加・統合すべきと決定される(ステップS21、S22、S23、S24)。これらは、図1のステップS4、S5に相当する。   Subsequently, texture matching is performed to compare the texture characteristics of the arranged initial region and the textures around the corresponding portion (steps S17, S18, S19, S20). For example, when the comparison result of the texture characteristics is closer than the threshold value, it is determined that addition and integration should be performed (steps S21, S22, S23, and S24). These correspond to steps S4 and S5 in FIG.

続いて、追加・統合の決定がなされた領域については、順次初期レイヤに追加・統合する(ステップS25、S26、S27、S28)。初期レイヤに追加・統合された領域を、一つのレイヤとし、デコーダでの動き補償に用いるためのデコード動き補償用レイヤとして出力する(ステップS29)。これは図1のステップS6に相当する。   Subsequently, the areas for which addition / integration is determined are sequentially added / integrated to the initial layer (steps S25, S26, S27, S28). The region added / integrated to the initial layer is set as one layer and output as a decoded motion compensation layer for use in motion compensation at the decoder (step S29). This corresponds to step S6 in FIG.

このように、本実施の形態によれば、従来のオブジェクトベース符号化の動き補償で用いられるような、画像を領域分割した領域をそのまま使うのでなく、各初期領域単位に複数フレームを参照することによって、その領域を拡張したレイヤ構成し、これを利用することにより、動き補償の精度の向上を図り、動き補償のされない領域を縮小し、その結果、符号化効率を向上することができる。   As described above, according to the present embodiment, a plurality of frames are referred to in units of each initial area, instead of using an area obtained by dividing an image as used in the conventional object-based coding motion compensation. Thus, by forming a layer in which the region is expanded and using this, it is possible to improve the accuracy of motion compensation, reduce the region where motion compensation is not performed, and consequently improve the coding efficiency.

次に、本発明になる画像復号化装置について説明する。図15は本発明になる画像復号化装置の一実施の形態のブロック図を示す。この画像復号化装置は、上記の画像符号化装置で得られた符号化信号を復号化する装置であり、上記の画像符号化装置で得られた動き補償予測の基本となるキーフレームのデコード動き補償用レイヤと、復号化対象のフレーム(カレントフレーム)のオブジェクト形状データ及び動きベクトルと、キーフレームと復号化対象のフレームとの差分である残差信号とが、伝送媒体を介して入力される。   Next, an image decoding apparatus according to the present invention will be described. FIG. 15 shows a block diagram of an embodiment of an image decoding apparatus according to the present invention. This image decoding device is a device that decodes the encoded signal obtained by the above image coding device, and decodes the key frame that is the basis of the motion compensated prediction obtained by the above image coding device. A compensation layer, object shape data and motion vectors of a decoding target frame (current frame), and a residual signal that is a difference between the key frame and the decoding target frame are input via a transmission medium. .

ここで、キーフレームのデコード動き補償用レイヤは、キーフレームの情報の一部として、例えば通常のキーフレームとは別にイントラ符号化して伝送されてフレームメモリ31に格納される。また、非キーフレームの復号化対象のフレーム(カレントフレーム)の対応するオブジェクトの形状情報がフレームメモリ32に格納される。   Here, the decoding motion compensation layer of the key frame is transmitted by being intra-coded separately from a normal key frame, for example, as a part of the key frame information and stored in the frame memory 31. Further, the shape information of the object corresponding to the decoding target frame (current frame) of the non-key frame is stored in the frame memory 32.

すなわち、非キーフレームのカレントフレームは、カレントフレームの画像がセグメンテーションされた後、MPEG−4の2値任意形状符号化などと同様に、算術符号化して伝送されており、これがフレームメモリ32に格納される。更に、カレントフレームのオブジェクト動きベクトルはフレームメモリ33に格納される。   In other words, the current frame of the non-key frame is transmitted after being subjected to arithmetic coding after the image of the current frame is segmented, and similar to MPEG-4 binary arbitrary shape coding, etc., and is stored in the frame memory 32. Is done. Further, the object motion vector of the current frame is stored in the frame memory 33.

これらフレームメモリ31及び32から読み出されたデコード動き補償用レイヤとカレントフレームのオブジェクト形状情報とは、それぞれカレントフレームのオブジェクトの動きベクトル33と共に動き補償手段34に供給され、ここでカレントフレームのオブジェクト動きベクトルを基に、キーフレームのデコード動き補償用レイヤを移動し、カレントフレームのオブジェクト形状情報に基づいて移動後のデコード動き補償用レイヤを切り出すことによって、キーフレームのデコード動き補償用レイヤのテクスチャを用いて、カレントフレームの動き補償済みの信号が復号される。   The decoded motion compensation layer and the current frame object shape information read from the frame memories 31 and 32 are supplied to the motion compensation means 34 together with the motion vector 33 of the object of the current frame. Based on the motion vector, the decoding motion compensation layer of the key frame is moved, and the decoded motion compensation layer after the movement is cut out based on the object shape information of the current frame. Is used to decode the motion-compensated signal of the current frame.

動き補償手段34により得られた動き補償済みの復号信号は、残差処理手段35に供給される。一方、画像符号化装置では、上記のフレームと実際のカレントフレームの差をとり、この差(残差)信号をDCTして伝送するようにしているため、画像復号化装置では、この信号をIDCTして残差信号を得るようにしている。上記の残差処理手段35では、この残差信号と動き補償手段34により得られた動き補償済みの復号信号とに基づいて、MPEG等と同様の両信号を加算する残差処理が施されて、フレームメモリ36に元のシーンの復号画像信号として格納され、復号化処理は終了する。   The motion-compensated decoded signal obtained by the motion compensation unit 34 is supplied to the residual processing unit 35. On the other hand, in the image coding apparatus, the difference between the above frame and the actual current frame is taken and this difference (residual) signal is transmitted by DCT. Therefore, in the image decoding apparatus, this signal is IDCT. Thus, a residual signal is obtained. In the residual processing means 35, residual processing for adding both signals similar to MPEG or the like is performed on the basis of the residual signal and the motion compensated decoded signal obtained by the motion compensation means 34. The frame memory 36 stores the decoded image signal of the original scene, and the decoding process ends.

次に、図15に示した本発明の画像復号化装置の一実施の形態に対応する画像復号化方法について図16と共に説明する。デコーダにおいて、キーフレームの情報の一部として入力されたデコード動き補償用レイヤは、非キーフレームのカレントフレームの対応するオブジェクトの形状情報及びカレントフレームのオブジェクト動き情報を基に、図15に示した動き補償手段34と同様の動き補償が行われる(ステップS31)。その後、動き補償済みの復号信号に残差信号を加算するMPEG等と同様の残差処理が施され(ステップS32)、その残差処理結果が復号画像信号としてメモリに格納される(ステップS33)。   Next, an image decoding method corresponding to an embodiment of the image decoding apparatus of the present invention shown in FIG. 15 will be described with reference to FIG. The decoding motion compensation layer input as a part of the key frame information in the decoder is shown in FIG. 15 based on the shape information of the corresponding object of the current frame of the non-key frame and the object motion information of the current frame. Motion compensation similar to that of the motion compensation means 34 is performed (step S31). Thereafter, residual processing similar to MPEG or the like for adding the residual signal to the motion compensated decoded signal is performed (step S32), and the residual processing result is stored in the memory as a decoded image signal (step S33). .

なお、本発明は以上の実施の形態に限定されるものではなく、本発明は、例えば、上記の実施の形態の画像符号化装置の各手段や画像復号化装置の各手段を、コンピュータにより実行させるコンピュータプログラムも含むものである。すなわち、符号化のコンピュータプログラムと復号化のコンピュータプログラムを含む。これらのプログラムは、記録媒体からコンピュータに取り込まれてもよいし、ネットワークを介して配信されてコンピュータに取り込まれてもよい。   Note that the present invention is not limited to the above-described embodiment, and the present invention executes, for example, each unit of the image encoding device and each unit of the image decoding device of the above-described embodiment by a computer. The computer program to be included is also included. That is, it includes an encoding computer program and a decoding computer program. These programs may be taken into a computer from a recording medium, or may be distributed via a network and taken into a computer.

本発明の画像符号化方法の一実施の形態の概略説明用フローチャートである。It is a flowchart for outline | summary description of one Embodiment of the image coding method of this invention. オブジェクトの移動が行われる2つの長方形からなるシーケンスの一例を示す図である。It is a figure which shows an example of the sequence which consists of two rectangles by which the movement of an object is performed. 図2のFrame1におけるレイヤ統合の説明図である。It is explanatory drawing of the layer integration in Frame1 of FIG. 図2のFrame2におけるレイヤ統合の説明図である。It is explanatory drawing of the layer integration in Frame2 of FIG. 本発明の画像符号化装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of an image coding device of the present invention. オブジェクトの移動が行われる図5の入力シーケンスの一例を示す図である。It is a figure which shows an example of the input sequence of FIG. 5 with which an object is moved. 図6中の三角形部分の初期領域である。It is an initial region of the triangular portion in FIG. 従来法による動き補償の結果の説明図である。It is explanatory drawing of the result of the motion compensation by a conventional method. 本発明装置による複数フレームを参照した追加・統合結果を示す図である。It is a figure which shows the addition and the integration result which referred the several flame | frame by this invention apparatus. 本発明装置により得られる欠けのない三角形レイヤを示す図である。It is a figure which shows the triangular layer without a chip | tip obtained by this invention apparatus. セグメンテーションのエラーの一例を示す図である。It is a figure which shows an example of the error of a segmentation. 偽輪郭の一例を示す図である。It is a figure which shows an example of a false outline. ブレンディングによる偽輪郭抑圧の説明図である。It is explanatory drawing of the false contour suppression by blending. 本発明の画像符号化方法の一実施の形態の説明図である。It is explanatory drawing of one Embodiment of the image coding method of this invention. 本発明の画像復号化装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of an image decoding device of the present invention. 本発明の画像符号化方法の一実施の形態の説明図である。It is explanatory drawing of one Embodiment of the image coding method of this invention. キーフレームの画像の一例を示す図である。It is a figure which shows an example of the image of a key frame. 予測対象のフレームの画像の一例を示す図である。It is a figure which shows an example of the image of the flame | frame of prediction object. 予測に用いられるオブジェクトの一例を示す図である。It is a figure which shows an example of the object used for prediction. 従来の画像符号化方法による予測結果の一例を示す図である。It is a figure which shows an example of the prediction result by the conventional image coding method.

符号の説明Explanation of symbols

1〜4、6、19、31、32、36 フレームメモリ
5 セグメンテーション手段
7〜10 動き推定手段
11〜14 テクスチャ照合手段
15〜18 追加・統合領域決定手段
20〜23 追加・統合部
24 デコード動き補償用レイヤ
34 動き補償手段
35 残差処理手段

1-4, 6, 19, 31, 32, 36 Frame memory 5 Segmentation means 7-10 Motion estimation means 11-14 Texture matching means 15-18 Addition / integration area determination means 20-23 Addition / integration section 24 Decoding motion compensation Layer 34 motion compensation means 35 residual processing means

Claims (2)

シーンを示す画像信号を被写体の形状に応じた任意形状に分割し、その分割結果の相対的位置関係を変更してから前記分割結果を再構成する動き補償を行うオブジェクトベース符号化方式の画像符号化装置において、
動き補償予測の基本となるキーフレームを領域分割して初期領域を作成する初期領域作成手段と、
前記初期領域を前記キーフレームとは異なる複数のフレームにおける対応位置上に配置して、配置された初期領域のテクスチャの特性と周辺近傍のテクスチャの特性とを、それぞれ予め設定された類似の判断基準に基づいて類似するか否か比較照合する比較手段と、
前記比較手段により類似の比較結果が得られたときに、前記周辺近傍のテクスチャの領域を前記初期領域に統合して新たな領域を形成する統合手段と
を有し、前記統合手段により形成された前記新たな領域の信号を、画像符号化の動き補償の際に参照画像信号として利用することを特徴とする画像符号化装置。
An image code of an object-based coding method that divides an image signal indicating a scene into an arbitrary shape according to the shape of the subject, changes the relative positional relationship of the division result, and performs motion compensation to reconstruct the division result In the conversion device,
An initial region creating means for creating an initial region by dividing a key frame serving as a basis for motion compensation prediction;
The initial area is arranged on corresponding positions in a plurality of frames different from the key frame, and the texture characteristics of the arranged initial area and the texture characteristics in the vicinity of the surrounding areas are set in advance as similar judgment criteria. Comparing means for comparing and collating based on
An integration unit that forms a new region by integrating the texture region in the vicinity of the periphery when a similar comparison result is obtained by the comparison unit, and formed by the integration unit. An image coding apparatus characterized in that the signal of the new area is used as a reference image signal in motion compensation of image coding.
請求項1記載の画像符号化装置で得られた動き補償予測の基本となるキーフレームの前記新たな領域の信号と、復号化対象のフレームのオブジェクト形状データ及び動きベクトルと、前記キーフレームと前記復号化対象のフレームとの差分である残差信号とが入力され、これらの信号から元のシーンの画像信号を復元する画像復号化装置であって、
前記復号化対象のフレームのオブジェクトの動きベクトルを基に、前記キーフレームの新たな領域の信号を移動し、前記復号化対象のフレームのオブジェクト形状データに基づいて、移動後の前記キーフレームの新たな領域の信号を切り出すことにより、前記キーフレームの新たな領域の信号のテクスチャを用いて、復号化対象のフレームの動き補償済みの復号信号を得る動き補償手段と、
前記動き補償手段により得られた前記復号化対象のフレームの復号信号と、前記残差信号とを加算する残差処理を行い、復号画像信号を得る残差処理手段と
を有することを特徴とする画像復号化装置。

The signal of the new area of the key frame that is the basis of motion compensated prediction obtained by the image encoding device according to claim 1, the object shape data and motion vector of the frame to be decoded, the key frame, and the key frame A residual signal that is a difference from a frame to be decoded is input, and an image decoding device that restores an image signal of an original scene from these signals,
Based on the motion vector of the object of the frame to be decoded, the signal of the new area of the key frame is moved, and based on the object shape data of the frame to be decoded, the new key frame is moved. A motion compensation unit that obtains a motion-compensated decoded signal of a frame to be decoded using a texture of a signal of a new region of the key frame by cutting out a signal of a new region;
And a residual processing unit that performs a residual process of adding the decoded signal of the decoding target frame obtained by the motion compensation unit and the residual signal to obtain a decoded image signal. Image decoding device.

JP2004152165A 2004-05-21 2004-05-21 Image encoding apparatus and image decoding apparatus Pending JP2005333569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004152165A JP2005333569A (en) 2004-05-21 2004-05-21 Image encoding apparatus and image decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004152165A JP2005333569A (en) 2004-05-21 2004-05-21 Image encoding apparatus and image decoding apparatus

Publications (1)

Publication Number Publication Date
JP2005333569A true JP2005333569A (en) 2005-12-02

Family

ID=35487886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004152165A Pending JP2005333569A (en) 2004-05-21 2004-05-21 Image encoding apparatus and image decoding apparatus

Country Status (1)

Country Link
JP (1) JP2005333569A (en)

Similar Documents

Publication Publication Date Title
US8239766B2 (en) Multimedia coding techniques for transitional effects
JP4034380B2 (en) Image encoding / decoding method and apparatus
Ma et al. Edge-directed error concealment
JP2015536092A (en) Standard-based model-based video encoding and decoding
US8428131B2 (en) Video encoder and decoder using region based coding and decoding techniques with sequential refresh
JP5306485B2 (en) Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof
KR100266124B1 (en) Methods, apparatuses and program recording media for image coding and image decoding
JPH1155672A (en) Dynamic image coder, dynamic image decoder, dynamic image coding method and dynamic image decoding method
WO2011099440A1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
WO2010016534A1 (en) Dynamic image encoding device and dynamic image decoding device
EP1584069B1 (en) Video frame correlation for motion estimation
JP5938424B2 (en) Method for reconstructing and encoding image blocks
US7397856B2 (en) Method and apparatus for storing and processing picture information of temporally successive pictures
KR100587274B1 (en) method for concealing error in MPEG-2 decompression system
JP2005333569A (en) Image encoding apparatus and image decoding apparatus
JP2007067552A (en) Method, apparatus and program for inter-layer prediction processing and recording medium thereof
JP4133581B2 (en) Telop synthesis device, telop synthesis method, and telop synthesis program
JP2007325206A (en) Apparatus and method for decoding motion picture
JP4239894B2 (en) Image encoding apparatus and image decoding apparatus
JPH11122619A (en) Moving image coding and decoding method
JP2005513842A (en) Shape-assisted padding for object-based coding
JP2008245311A (en) Method and apparatus for decoding image
TWI477152B (en) Method for determining size of adaptive window applied in motion estimation and application thereof
JP2005328457A (en) Moving image encoding apparatus, moving image decoding apparatus, codec device, and program
KR100203658B1 (en) Apparatus for estimating motion of contour in object based encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916