JP4245587B2 - Motion compensation prediction method - Google Patents

Motion compensation prediction method Download PDF

Info

Publication number
JP4245587B2
JP4245587B2 JP2005181790A JP2005181790A JP4245587B2 JP 4245587 B2 JP4245587 B2 JP 4245587B2 JP 2005181790 A JP2005181790 A JP 2005181790A JP 2005181790 A JP2005181790 A JP 2005181790A JP 4245587 B2 JP4245587 B2 JP 4245587B2
Authority
JP
Japan
Prior art keywords
prediction
image
unit
motion compensation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005181790A
Other languages
Japanese (ja)
Other versions
JP2005333663A (en
Inventor
裕之 堅田
寛 草尾
友子 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005181790A priority Critical patent/JP4245587B2/en
Publication of JP2005333663A publication Critical patent/JP2005333663A/en
Application granted granted Critical
Publication of JP4245587B2 publication Critical patent/JP4245587B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、動き補償予測方法に関し、より詳細には、予測画像の作成において、アフィン変換または動ベクトルの補間により予測画像を作成する第1の予測モードと、並行移動により予測画像を作成する第2の予測モードを求め、これら予測モードのいずれを予測モード情報に従ってブロック毎に選択し、予測効率を向上させるようにした動き補償予測方法に関する。例えば、ディジタル画像処理における画像データの高能率符号化に適用されるものである。   The present invention relates to a motion-compensated prediction method, and more specifically, in the generation of a prediction image, a first prediction mode in which a prediction image is generated by affine transformation or motion vector interpolation, and a prediction image is generated by parallel movement. The present invention relates to a motion-compensated prediction method in which two prediction modes are obtained, and any of these prediction modes is selected for each block in accordance with prediction mode information to improve prediction efficiency. For example, the present invention is applied to high-efficiency encoding of image data in digital image processing.

フレーム間予測の方式として、従来よりアフィン変換を用いた予測方法が検討されている。例えば、非特許文献1,2に述べられている方法では、図12に示すように格子の変形によって画像の動きを表現し、参照画像(通常、符号化装置では局所復号されフレームメモリに蓄えられている画像であり、復号装置ではすでに復号されフレームメモリに蓄えられている画像である)からの幾何学変換によって予測画像が作成される。ここで●は格子点(四角形ブロックの頂点)を表す。   As a method of inter-frame prediction, a prediction method using affine transformation has been studied conventionally. For example, in the methods described in Non-Patent Documents 1 and 2, as shown in FIG. 12, the motion of an image is expressed by lattice deformation, and a reference image (usually locally decoded by an encoding device and stored in a frame memory). The predicted image is created by geometric conversion from the image that has already been decoded by the decoding device and stored in the frame memory. Here, ● represents a lattice point (vertex of a rectangular block).

図13は、従来の画像符号化装置における予測画像作成回路の構成図で、図中、32は四角形ブロックの分割部、33は格子点動き推定部、34は動き補償予測部である。
四角形ブロックへの分割部32では参照画像を四角形に分割する。分割する際には、例えば、参照画像に無関係に正方格子などの一様格子によって分割する方法がとられる。あるいは、参照画像上のエッジにあわせて変形格子によって分割する方法が用いられることもある。格子点動き推定部33では参照画像の格子点の動きを推定し、各格子点の動ベクトルを求める。この動ベクトルによって予測画像上にあらたな変形格子が定められる。
FIG. 13 is a configuration diagram of a predicted image generation circuit in a conventional image encoding device, in which 32 is a rectangular block dividing unit, 33 is a lattice point motion estimation unit, and 34 is a motion compensation prediction unit.
In the rectangular block dividing unit 32, the reference image is divided into squares. When dividing, for example, a method of dividing by a uniform grid such as a square grid regardless of the reference image is used. Alternatively, a method of dividing by a deformation grid in accordance with the edge on the reference image may be used. The lattice point motion estimation unit 33 estimates the motion of the lattice points of the reference image and obtains a motion vector of each lattice point. A new deformation grid is defined on the predicted image by this motion vector.

図13に示す方法は「後方動き推定」と呼ばれるものであり、最初に参照画像上の格子を決め、その後で予測対象画像上の格子が決定される。これに対して「前方動き推定」という手法がとられることもある。これは、最初に予測対象画像上で格子(通常は一様格子)を定め、その格子点の動きを推定し、格子点の動ベクトルによって参照画像上にあらたに変形格子を定める。従来例及び本発明ともにいずれの場合にも用いることができるが、以後は簡単のため「後方動き推定」を例にとって説明を進めていく。   The method shown in FIG. 13 is called “backward motion estimation”. First, a grid on the reference image is determined, and then a grid on the prediction target image is determined. On the other hand, a technique called “forward motion estimation” may be used. First, a lattice (usually a uniform lattice) is defined on the prediction target image, the motion of the lattice point is estimated, and a deformed lattice is newly defined on the reference image by a motion vector of the lattice point. Both the conventional example and the present invention can be used in both cases, but for the sake of simplicity, the description will be made with “backward motion estimation” as an example.

次に、参照画像上の格子点が、原画像上のどの位置に動いたかを推定する場合(「後方動き推定」の場合)について説明する。
動き推定の方法としては、参照画像上の格子点とその近傍の画素からなる領域をとり、この領域が原画像上のどの領域と一致するかを調べる方法(「ブロックマッチング」と呼ぶ)が用いられる。具体的には参照画像上の格子点を中心としてM画素×N画素の領域を考え、原画像上で同じ大きさの領域との一致度を調べ、最も一致度の良い領域の中心を、格子点の移動先とする。このときの移動をあらわすベクトルを動ベクトルと呼ぶ。領域の一致度としては、領域内の画素値の誤差の絶対値和や誤差の絶対値加重和が用いられる。なお、格子点動き推定部33で求められた格子点の動ベクトルは、図示しない符号化部において符号化され、符号化データに組み込まれて伝送あるいは蓄積される。
Next, a case where it is estimated at which position the grid point on the reference image has moved on the original image (in the case of “backward motion estimation”) will be described.
As a method of motion estimation, a method of taking an area consisting of a lattice point on the reference image and its neighboring pixels and checking which area on the original image matches this area (referred to as “block matching”) is used. It is done. Specifically, considering an area of M pixels × N pixels centering on a lattice point on the reference image, the degree of coincidence with an area of the same size on the original image is examined, and the center of the region with the best degree of coincidence is The destination of the point. A vector representing the movement at this time is called a motion vector. As the degree of coincidence of regions, an absolute value sum of errors of pixel values in the region or an absolute value weighted sum of errors is used. Note that the motion vector of the lattice point obtained by the lattice point motion estimation unit 33 is encoded by an encoding unit (not shown), and is incorporated into encoded data for transmission or accumulation.

動き補償予測部34では、参照画像上の格子点とその動ベクトル及び参照画像を用いて予測画像を求める。予測画像を求める方法としては、三角形ブロックを用いたアフィン変換や、四角形ブロック内での動ベクトルの補間などによるものがある。これらについては非特許文献1に詳しく述べられている。   The motion compensated prediction unit 34 obtains a predicted image using the lattice points on the reference image, its motion vector, and the reference image. As a method for obtaining a predicted image, there are an affine transformation using a triangular block, a motion vector interpolation in a rectangular block, and the like. These are described in detail in Non-Patent Document 1.

符号化装置では、動き補償予測部34で求められた予測画像と原画像との差分データが、図示しない符号化部において符号化され、符号化データに組み込まれて伝送あるいは蓄積される。又、符号化データは図示しない復号部において復号され、予測画像と足し合わされて復号画像が得られる。復号画像はフレームメモリに蓄えられ、以後の符号化の際の参照画像として用いられる。   In the encoding device, difference data between the predicted image and the original image obtained by the motion compensation prediction unit 34 is encoded by an encoding unit (not shown), and is transmitted or stored by being incorporated into the encoded data. Also, the encoded data is decoded by a decoding unit (not shown) and added to the predicted image to obtain a decoded image. The decoded image is stored in the frame memory and used as a reference image for subsequent encoding.

次に、従来の画像復号装置について説明する。
図14は、従来の画像復号装置における予測画像作成回路の構成図で、図中、41は格子点動ベクトル復号部、42は動き補償予測部、43は四角形ブロックへの分割部である。
格子点動ベクトル復号部41は、符号化データ中に組み込まれている格子点の動ベクトルの符号を復号する部分である。出力は格子点の動ベクトルであり、動き補償予測部42に供給される。四角形ブロックへの分割部43及び動き補償予測部42は、図13の符号化装置と同様の働きをするので説明を省略する。
Next, a conventional image decoding apparatus will be described.
FIG. 14 is a configuration diagram of a predicted image generation circuit in a conventional image decoding apparatus, in which 41 is a lattice point motion vector decoding unit, 42 is a motion compensation prediction unit, and 43 is a division unit into rectangular blocks.
The lattice point motion vector decoding unit 41 is a part that decodes the code of the motion vector of the lattice point incorporated in the encoded data. The output is a motion vector of lattice points, and is supplied to the motion compensation prediction unit 42. Since the rectangular block dividing unit 43 and the motion compensation prediction unit 42 function in the same manner as the encoding apparatus in FIG. 13, description thereof is omitted.

復号装置では、符号化装置と同じ参照画像が得られており、また、格子点動ベクトル復号部41において得られる動ベクトルも、符号化装置で得られるものと同一である。従って、動き補償予測部42で得られる予測画像も、符号化装置で得られるものと同一となる。動き補償予測部34で求められた予測画像と、図示しない復号部で得られた差分データの復号値が足し合わされて、復号画像が得られる。復号画像は、ディスプレイなどに表示されると共に図示しないフレームメモリに蓄えられ、以後の復号の際の参照画像として用いられる。
「Very Low Bitrate Video Coder using Warping Prediction」(1993年画像符号化シンポジウム8-7,pp.167-168) 「A Novel Video Coding Scheme Based on Temporal Prediction Using Digital Image Warping」(IEEE International Conference on Consumer Electronics,1993)
In the decoding apparatus, the same reference image as that in the encoding apparatus is obtained, and the motion vector obtained in the lattice point motion vector decoding unit 41 is the same as that obtained in the encoding apparatus. Therefore, the prediction image obtained by the motion compensation prediction unit 42 is also the same as that obtained by the encoding device. A predicted image obtained by the motion compensation prediction unit 34 and a decoded value of difference data obtained by a decoding unit (not shown) are added to obtain a decoded image. The decoded image is displayed on a display or the like and stored in a frame memory (not shown), and is used as a reference image for subsequent decoding.
“Very Low Bitrate Video Coder using Warping Prediction” (1993 Image Coding Symposium 8-7, pp.167-168) “A Novel Video Coding Scheme Based on Temporal Prediction Using Digital Image Warping” (IEEE International Conference on Consumer Electronics, 1993)

図15(a),(b)及び図16(a)〜(c)は、従来の問題点を説明するための図である。
図15(a)は参照画像のある一部を表し、図15(b)は予測対象画像の一部を表すものとする。図15に示すように、斜めの縞模様を背景に長方形の物体が反時計周りに回転しながら左に移動している。●は格子点を表す。ここで、参照画像上の格子点a,b,c,d,e,fから形成される2つのブロック(四角形abdcと四角形befd)に注目すると、静止した背景上の四角形abdcが大きく変形し、四角形ABDCとなっている。これら2つのブロックを取り出して図16(a),(b)に示す。
FIGS. 15A and 15B and FIGS. 16A to 16C are diagrams for explaining conventional problems.
FIG. 15A represents a part of the reference image, and FIG. 15B represents a part of the prediction target image. As shown in FIG. 15, a rectangular object moves to the left while rotating counterclockwise against an oblique stripe pattern as a background. ● represents a grid point. Here, when attention is paid to two blocks (rectangle abdc and rectangle befd) formed from the lattice points a, b, c, d, e, and f on the reference image, the rectangle abdc on the stationary background is greatly deformed, It is a square ABDC. These two blocks are taken out and shown in FIGS.

図16(a)は、図15(a)の注目する2ブロックを示し、図16(b)は、図15(b)の注目する2ブロックを示したものである。このような場合に従来法によって予測画像を作成したものが、図16(c)である。左のブロックの斜めの模様が、幾何学変換によって変形し、図16(b)に示した予測対象画像(原画像)と異っていることが分かる。   16A shows the two blocks of interest in FIG. 15A, and FIG. 16B shows the two blocks of interest in FIG. 15B. FIG. 16C shows a case where a predicted image is created by the conventional method in such a case. It can be seen that the diagonal pattern of the left block is deformed by geometric transformation and is different from the prediction target image (original image) shown in FIG.

一般に、動物体に接する背景画像上のブロックは、動物体の動きに伴って形が変化する。従来法によれば、背景画像は静止、あるいは並行移動しているにもかかわらず、その予測画像は変形や回転などの幾何学変換によって作成される。このため、予測効率が低下するという問題点があった。なお、ここでいう並行移動とは各画素の動きが平行であることを示す。   In general, the shape of a block on a background image in contact with an animal body changes with the movement of the animal body. According to the conventional method, although the background image is stationary or moved in parallel, the predicted image is created by geometric transformation such as deformation and rotation. For this reason, there existed a problem that prediction efficiency fell. Here, the parallel movement means that the movement of each pixel is parallel.

図17(a)〜(c)は、従来の他の問題点を説明するための図である。
図17(a)は参照画像のある一部を表し、図17(b)は予測対象画像の一部を表すものとする。図17に示すように、物体1が左下方向に、物体2が右上方向に動いている。ここで、参照画像上の格子点a,b,c,d,e,fから形成される2つのブロックに注目する。これらの格子点のうち、c,eは物体の動きによって予測対象画像上のC,Eに移動しているが、a,b,d,fは移動しない。
このような場合、従来法によれば、図17(c)のようになる。物体は並行移動しているにも関わらず、幾何学変換を受けて歪んでしまう。一般に、隣接したブロック上の複数の物体が別々の方向に並行移動するとき、前述のような幾何学的な歪みが発生することになる。
FIGS. 17A to 17C are diagrams for explaining other conventional problems.
17A represents a part of the reference image, and FIG. 17B represents a part of the prediction target image. As shown in FIG. 17, the object 1 is moving in the lower left direction and the object 2 is moving in the upper right direction. Here, attention is focused on two blocks formed from lattice points a, b, c, d, e, and f on the reference image. Among these lattice points, c and e move to C and E on the prediction target image due to the movement of the object, but a, b, d, and f do not move.
In such a case, according to the conventional method, the result is as shown in FIG. Although the object is moving in parallel, it is distorted due to geometric transformation. Generally, when a plurality of objects on adjacent blocks are translated in different directions, the geometric distortion as described above occurs.

本発明は、このような実情に鑑みてなされたもので、動き補償予測方法に関し、より詳細には、予測画像の作成において、アフィン変換または動ベクトルの補間により予測画像を作成する第1の予測モードと、並行移動により予測画像を作成する第2の予測モードとを求め、これら予測モードのいずれを選択するかを示す予測モード情報に従って前記予測モードをブロック毎に選択することにより、予測効率を向上させるようにしたもので、例えば、ディジタル画像処理における画像データの高能率符号化に適用して好適なものである。   The present invention has been made in view of such a situation, and relates to a motion compensation prediction method. More specifically, in the creation of a prediction image, the first prediction for creating a prediction image by affine transformation or motion vector interpolation. Prediction efficiency is obtained by obtaining a mode and a second prediction mode for creating a prediction image by parallel movement, and selecting the prediction mode for each block according to prediction mode information indicating which of these prediction modes is selected. For example, it is suitable for high-efficiency encoding of image data in digital image processing.

本発明は、動き補償予測で用いられる予測モードのいずれかを選択する選択ステップと、画像を分割して得られる各ブロックに対して動き補償予測により予測画像を求める予測ステップとを有する動き補償予測方法であって、前記選択ステップは、前記予測モードのいずれを選択するかを示す予測モード情報に従って前記予測モードをブロック毎に選択し、前記予測ステップは、アフィン変換または動ベクトルの補間により予測画像を作成する第1の予測モードと、並行移動により予測画像を作成する第2の予測モードを有することを特徴としたものである。 The present invention is, motion compensation prediction and a prediction step of obtaining a selection step of selecting one of the prediction mode used in the motion compensated prediction, the predicted image by motion compensated prediction for each block obtained by dividing an image In the method, the selection step selects the prediction mode for each block according to prediction mode information indicating which of the prediction modes is selected, and the prediction step includes a prediction image by affine transformation or motion vector interpolation. a first prediction mode for creating, in which was characterized by have a second prediction mode for creating prediction image by translational movement.

画像を分割して得られる各ブロックに対して動き補償予測により予測画像を求める予測ステップに、アフィン変換または動ベクトルの補間により予測画像を作成する第1の予測モードと、並行移動により予測画像を作成する第2の予測モードを有し、これら予測モードのいずれを選択するかを予測モード情報に従ってブロック毎に選択するようにしたので、予測効率を向上することができる。   In the prediction step of obtaining a predicted image by motion compensation prediction for each block obtained by dividing an image, a first prediction mode for creating a predicted image by affine transformation or motion vector interpolation, and a predicted image by parallel movement Since the second prediction mode to be created is provided and which one of these prediction modes is selected is selected for each block in accordance with the prediction mode information, the prediction efficiency can be improved.

実施例について、図面を参照して以下に説明する。
まず、本発明の考え方を図11によって説明する。図11は、予測画像上の注目するブロック(四角形ABDC)の予測画像(1ブロック分)を、本発明の手法によって求める様子を示したものである。従来法と同様に、参照画像上の四角形abdcは、格子の変形による幾何学変換を用いて変形され、P1のような予測画像が得られる。一方、参照画像上の四角形a′b′d′c′の並行移動によって別の予測画像P2が得られる。本発明では、これら複数の予測画像をブロック毎に適応的に選択し、いずれかを実際の予測画像として用いる。ここで、並行移動とはブロック内画素が全て平行に移動することであり、ブロックの形状は変化せず、位置のみが移動することを意味する。
Embodiments will be described below with reference to the drawings.
First, the concept of the present invention will be described with reference to FIG. FIG. 11 shows how a predicted image (for one block) of a block of interest (rectangular ABDC) on the predicted image is obtained by the method of the present invention. Similar to the conventional method, the quadrangle abdc on the reference image is deformed using geometric transformation by deformation of the lattice, and a predicted image such as P1 is obtained. On the other hand, another predicted image P2 is obtained by parallel movement of the rectangle a′b′d′c ′ on the reference image. In the present invention, the plurality of predicted images are adaptively selected for each block, and one of them is used as an actual predicted image. Here, the parallel movement means that all the pixels in the block move in parallel, and means that only the position moves without changing the shape of the block.

図16(d)は、本発明によって作成した予測画像の例である。左側のブロックの予測方法として、図16(a)の四角形abdcを幾何学変換するものと図16(a)の点線で囲まれた部分を並行移動するものとがある。この場合は後者を適応的に選択し、図16(d)の予測画像を得ている。図から分かるように従来法の問題であった幾何学的な歪みは発生しない。
また、図17(d)は、本発明によって作成した予測画像の他の例である。左側のブロックの予測画像として図17(a)の点線で囲まれた部分を並行移動し、右側のブロックの予測画像として図17(a)の一点鎖線で囲まれた部分を並行移動することによって予測画像を得ている。図から分かるように従来法の問題であった幾何学的な歪み(図17(c)参照)は発生しない。
FIG. 16D is an example of a predicted image created according to the present invention. As a prediction method for the left block, there are a method of geometrically transforming the quadrangle abdc of FIG. 16A and a method of moving in parallel the portion surrounded by the dotted line of FIG. In this case, the latter is adaptively selected to obtain the predicted image of FIG. As can be seen from the figure, the geometric distortion that was a problem of the conventional method does not occur.
Moreover, FIG.17 (d) is another example of the estimated image produced by this invention. By moving in parallel the portion surrounded by the dotted line in FIG. 17A as the predicted image of the left block, and by moving in parallel the portion surrounded by the dashed line in FIG. 17A as the predicted image of the right block. A predicted image is obtained. As can be seen from the figure, the geometric distortion (see FIG. 17C), which was a problem of the conventional method, does not occur.

図1は、本発明が適用される画像符号化装置の一例を説明するための構成図で、図中、1は四角形ブロックへの分割部、2は格子点動き推定部、3は並行移動動き推定部、4は第1の動き補償予測部、5は第2の動き補償予測部、6は予測画像選択部である。
四角形ブロックへの分割部1及び格子点動き推定部2は、図13で述べたものと同様の働きによって、参照画像を四角形に分割し、格子点の動ベクトルを求める部分である。格子点の動ベクトルは第1の動き補償予測部4に供給される。なお、四角形ブロックへの分割部1は他の符号化装置の実施例でも使用するが、以後の図4〜図6では図示せず、説明を省略する。
FIG. 1 is a block diagram for explaining an example of an image encoding apparatus to which the present invention is applied. In the figure, 1 is a dividing unit into quadrangular blocks, 2 is a lattice point motion estimating unit, and 3 is parallel motion. An estimation unit, 4 is a first motion compensation prediction unit, 5 is a second motion compensation prediction unit, and 6 is a predicted image selection unit.
The quadrangular block dividing unit 1 and the lattice point motion estimating unit 2 are units that divide the reference image into quadrilaterals and obtain the motion vectors of the lattice points by the same operation as described in FIG. The motion vector of the lattice point is supplied to the first motion compensation prediction unit 4. In addition, although the division | segmentation part 1 to a rectangular block is used also in the Example of another encoding apparatus, it is not shown in subsequent FIGS. 4-6, and abbreviate | omits description.

並行移動動き推定部3は、参照画像上のブロックの移動方向をブロックマッチング等の手法によって求める部分である。前述したブロックマッチングは、格子点周りの領域が予測対象画像上の同一形状のどの領域とマッチするかを調べるものであった。しかし、ここではブロック自体を領域とみなし、この領域が予測対象画像上の同一形状のどの領域とマッチするかを調べる。これによって、ブロック自体が並行移動する場合の動ベクトル(並行移動ベクトル)が求められる。並行移動の動ベクトルは第2の動き補償予測部5に供給される。   The parallel movement motion estimation unit 3 is a part that obtains the movement direction of the block on the reference image by a technique such as block matching. The block matching described above is to check which region of the same shape on the prediction target image matches the region around the lattice point. However, here, the block itself is regarded as a region, and it is examined which region of the same shape on the prediction target image matches this region. Thereby, a motion vector (parallel movement vector) when the block itself moves in parallel is obtained. The motion vector of the parallel movement is supplied to the second motion compensation prediction unit 5.

第1の動き補償予測部4は、図13で説明した動き補償予測部34と同様の働きによって、幾何学変換による動き補償予測を行う。出力された予測画像は予測画像選択部6に供給される。第2の動き補償予測部5は並行移動によって動き補償予測を行う。出力された予測画像は予測画像選択部6に供給される。
予測画像選択部6は本発明の手法により、予測画像をブロック毎に適応的に選択し、予測画像と予測モード情報を出力する。予測モード情報は図示しない符号化部において符号化され、符号化データに組み込まれて伝送あるいは蓄積される。予測画像の選択方法としては、原画像との誤差を最小にするものや、原画像との重みつき誤差を最小にするものなどが考えられる。以下、これらについて説明する。
The first motion compensation prediction unit 4 performs motion compensation prediction by geometric transformation by the same function as the motion compensation prediction unit 34 described with reference to FIG. The output predicted image is supplied to the predicted image selection unit 6. The second motion compensation prediction unit 5 performs motion compensation prediction by parallel movement. The output predicted image is supplied to the predicted image selection unit 6.
The predicted image selection unit 6 adaptively selects the predicted image for each block by the method of the present invention, and outputs the predicted image and the prediction mode information. The prediction mode information is encoded by an encoding unit (not shown), and is transmitted or stored by being incorporated in encoded data. As a method for selecting a predicted image, a method for minimizing an error from the original image or a method for minimizing a weighted error from the original image can be considered. Hereinafter, these will be described.

図2は、図1における予測画像選択部の一例を示す構成図で、図中、7は第1の誤差算出部、8は第2の誤差算出部、9は選択部である。
ここでは予測画像を2種類としているが、もちろんこれに限るものではない。第1の誤差算出部7は、原画像と予測画像 のデータを1ブロック分入力し、予測誤差を算出する部分である。予測誤差は、原画像の画素値f(n)と予測画像の画素値f(n)′とを用いて、
FIG. 2 is a configuration diagram illustrating an example of the predicted image selection unit in FIG. 1, in which 7 is a first error calculation unit, 8 is a second error calculation unit, and 9 is a selection unit.
Here, there are two types of predicted images, but of course this is not restrictive. The first error calculation unit 7 is a part that inputs the data of the original image and the predicted image for one block and calculates the prediction error. The prediction error is calculated using the pixel value f (n) of the original image and the pixel value f (n) ′ of the prediction image,

Figure 0004245587
Figure 0004245587

によって計算される。ただし、nはブロック内での画素の番号、Nはブロック内の画素数である。ここでは2乗誤差による予測誤差を示したが、絶対値誤差を用いても良い。第2の誤差算出部8は第1の誤差算出部7と同様の働きによって、予測誤差を算出する部分である。選択部9は、各予測誤差を比較し予測誤差が最小となる予測画像及び、予測モード情報を出力する。例えば、第2の誤差算出部8の誤差が最小であれば、予測画像(2)を選択して出力する。また、予測モード情報として予測画像(2)を表す情報を出力する。予測方法が2種類ある場合、例えば、予測モード情報を固定長符号で表すと1ブロック当たり1ビット必要となる。 Calculated by Here, n is the number of pixels in the block, and N is the number of pixels in the block. Although the prediction error due to the square error is shown here, an absolute value error may be used. The second error calculation unit 8 is a part that calculates a prediction error by the same function as the first error calculation unit 7. The selection unit 9 compares each prediction error and outputs a prediction image that minimizes the prediction error and prediction mode information. For example, if the error of the second error calculation unit 8 is minimum, the predicted image (2) is selected and output. Moreover, the information showing a prediction image (2) is output as prediction mode information. When there are two types of prediction methods, for example, if the prediction mode information is represented by a fixed-length code, one bit is required per block.

図3は、図1における予測画像選択部の他の例を示す構成図で、図中、10は第1の直交変換部、11は第2の直交変換部、12は第3の直交変換部で、その他、図2と同じ作用をする部分は同一の符号を付してある。
第1の直交変換部10〜第3の直交変換部12は入力された1ブロック分の画素値を2次元直交変換し、周波数成分に変換する。図3の第1の誤差算出部7、第2の誤差算出部8は、原画像の直交変換係数g(k)と予測画像の直交変換係数g(k)′との重みつき誤差(予測誤差)を以下のようにして算出する部分である。
FIG. 3 is a configuration diagram illustrating another example of the predicted image selection unit in FIG. 1, in which 10 is a first orthogonal transform unit, 11 is a second orthogonal transform unit, and 12 is a third orthogonal transform unit. The other parts having the same functions as those in FIG.
The first orthogonal transformation unit 10 to the third orthogonal transformation unit 12 perform two-dimensional orthogonal transformation on the input pixel value for one block and convert it to a frequency component. The first error calculator 7 and the second error calculator 8 in FIG. 3 are weighted errors (prediction errors) between the orthogonal transform coefficient g (k) of the original image and the orthogonal transform coefficient g (k) ′ of the predicted image. ) Is calculated as follows.

Figure 0004245587
Figure 0004245587

ただし、kは直交変換係数の番号、Nはブロック内の画素数、w(k)はあらかじめ定められた重みである。ここでは2乗誤差による予測誤差を示したが、絶対値誤差を用いても良い。例えば、重みw(k)を低周波では大きく高周波では小さく設定することによって、人間の視覚特性に合致した予測誤差が計算される。図3の選択部9は、図2の選択部9と同様の働きによって予測画像を選択し、予測画像と予測モード情報とを出力する。   Here, k is the number of the orthogonal transform coefficient, N is the number of pixels in the block, and w (k) is a predetermined weight. Although the prediction error due to the square error is shown here, an absolute value error may be used. For example, by setting the weight w (k) at a low frequency and small at a high frequency, a prediction error that matches human visual characteristics is calculated. The selection unit 9 in FIG. 3 selects a prediction image by the same operation as the selection unit 9 in FIG. 2, and outputs a prediction image and prediction mode information.

以上のようにして、図1に示した符号化装置によって、複数の動き補償予測方式を切替えることができる。すなわち、幾何学変換を用いた動き予測方式と、並行移動による動き予測方式とをブロック毎に適応的に切替えることができる。この結果、予測効率を改善して符号化効率を向上させることができる。   As described above, a plurality of motion compensation prediction methods can be switched by the encoding apparatus shown in FIG. That is, the motion prediction method using geometric transformation and the motion prediction method using parallel movement can be adaptively switched for each block. As a result, the prediction efficiency can be improved and the encoding efficiency can be improved.

図4は、本発明が適用される画像符号化装置の他の例を説明するための構成図で、図中、13は第3の動き補償予測部、14は第4の動き補償予測部、15は第5の動き補償予測部で、その他、図1と同じ作用をする部分は同一の符号を付してある。
格子点動き推定部2は、図13で述べたものと同様の働きによって、格子点の動ベクトルを求める部分である。格子点の動ベクトルは第1の動き補償予測部4〜第5の動き補償予測部15に供給される。第1の動き補償予測部4は、図13で説明した動き補償予測部34と同様の働きによって、幾何学変換による動き補償予測を行う。出力された予測画像は予測画像選択部6に供給される。
FIG. 4 is a block diagram for explaining another example of an image coding apparatus to which the present invention is applied. In the figure, 13 is a third motion compensation prediction unit, 14 is a fourth motion compensation prediction unit, Reference numeral 15 denotes a fifth motion compensation prediction unit, and other parts having the same functions as those in FIG. 1 are denoted by the same reference numerals.
The lattice point motion estimation unit 2 is a part for obtaining a motion vector of a lattice point by the same function as described in FIG. The motion vector of the lattice point is supplied to the first motion compensation prediction unit 4 to the fifth motion compensation prediction unit 15. The first motion compensation prediction unit 4 performs motion compensation prediction by geometric transformation by the same function as the motion compensation prediction unit 34 described with reference to FIG. The output predicted image is supplied to the predicted image selection unit 6.

第2の動き補償予測部5〜第5の動き補償予測部15は、並行移動による動き補償予測を行う。予測に用いる動ベクトルは注目するブロックの4つの格子点の動ベクトルである。各格子点の動ベクトルをそれぞれV1,V2,V3,V4とすると、第2の動き補償予測部5では動ベクトルV1を、第3の動き補償予測部13では動ベクトルV2を、第4の動き補償予測部14では動ベクトルV3を、第5の動き補償予測部15では動ベクトルV4をそれぞれ用い、並行移動による動き補償予測を行う。作成された予測画像はそれぞれ予測画像選択部6に供給される。予測画像選択部6は本発明の手法により、予測画像を適応的に選択し、予測画像と予測モード情報を出力する。具体的には既に述べた手法(図2,図3)を用いる。ただし、ここでは予測画像は5種類となる。   The second motion compensation prediction unit 5 to the fifth motion compensation prediction unit 15 perform motion compensation prediction by parallel movement. The motion vector used for prediction is a motion vector of four lattice points of the block of interest. Assuming that the motion vectors at the respective grid points are V1, V2, V3, and V4, the second motion compensation prediction unit 5 uses the motion vector V1, the third motion compensation prediction unit 13 uses the motion vector V2, and the fourth motion. The compensation prediction unit 14 uses the motion vector V3, and the fifth motion compensation prediction unit 15 uses the motion vector V4 to perform motion compensation prediction by parallel movement. The created predicted images are respectively supplied to the predicted image selection unit 6. The predicted image selection unit 6 adaptively selects a predicted image by the method of the present invention, and outputs a predicted image and prediction mode information. Specifically, the method already described (FIGS. 2 and 3) is used. However, here, there are five types of predicted images.

以上のようにして、図4に示した符号化装置によって、複数の動き補償予測方式を切替えることができる。すなわち、幾何学変換を用いた動き予測方式と、並行移動による4つの動き予測方式とをブロック毎に適応的に切替えることができる。この結果、予測効率を改善し符号化効率を向上させることができる。また、ブロックの並行移動を示す動ベクトルを符号化しなくても良いので符号化データ量を小さくすることができる。   As described above, a plurality of motion compensation prediction methods can be switched by the encoding apparatus shown in FIG. That is, the motion prediction method using geometric transformation and the four motion prediction methods using parallel movement can be adaptively switched for each block. As a result, prediction efficiency can be improved and encoding efficiency can be improved. In addition, since it is not necessary to encode a motion vector indicating parallel movement of blocks, the amount of encoded data can be reduced.

図5は、本発明が適用される画像符号化装置の他の実施例を説明するための構成図で、図中、16は並列移動ベクトル決定部で、その他、図4と同じ作用をする部分は同一の符号を付してある。図4との違いは、並行移動による動き補償予測を行う部分(並行移動ベクトル決定部16及び第2の動き補償予測部5)である。   FIG. 5 is a block diagram for explaining another embodiment of the image coding apparatus to which the present invention is applied. In FIG. 5, reference numeral 16 denotes a parallel movement vector determination unit, and the other parts having the same operation as FIG. Are given the same reference numerals. The difference from FIG. 4 is a portion (parallel movement vector determination unit 16 and second motion compensation prediction unit 5) that performs motion compensation prediction by parallel movement.

並行移動ベクトル決定部16では、1つのブロックに属する4個の格子点の動ベクトルと参照画像(いずれも復号装置でも得られる情報である)をもとに、ブロック自体の並行移動を表す動ベクトルを決定する。ここで求められた並行移動ベクトルは第2の動き補償予測部5に供給される。例えば、4個の格子点動ベクトルの平均値を求める並行移動ベクトルとする。この場合は参照画像の情報を用いないので、並行移動ベクトル決定部16への参照画像の入力はない。
図5の実施例も図4の実施例と同様に、幾何学変換を用いた動き予測方式(動き補償予測部(1))と、並行移動による動き予測方式(動き補償予測部(2))とをブロック毎に適応的に切り替えることができる。この結果、予測効率を改善し符号化効率を向上させることができる。また、ブロックの並行移動を示す動ベクトルを符号化しなくても良いので符号化データ量を小さくすることができる。
さらに、幾何学変換に用いる4個の動ベクトルの平均値をブロック自体の並行移動を表す動ベクトルとすることで、並行移動を表す動ベクトルをより正確に予測することができ、符号量を削減することが可能となる。
また、新たにブロックマッチング処理を行うことなく並行移動を表す動ベクトルを求めるため、符号化装置の処理量を削減することも可能となる。
In the parallel movement vector determination unit 16, a motion vector representing the parallel movement of the block itself based on the motion vectors of the four lattice points belonging to one block and the reference image (both are information obtained by the decoding device). To decide. The parallel movement vector obtained here is supplied to the second motion compensation prediction unit 5. For example, a parallel movement vector for obtaining an average value of four lattice point motion vectors is used. In this case, since no reference image information is used, no reference image is input to the parallel movement vector determination unit 16.
As in the embodiment of FIG. 4, the embodiment of FIG. 5 also uses a motion prediction method using geometric transformation (motion compensation prediction unit (1)) and a motion prediction method using parallel movement (motion compensation prediction unit (2)). Can be adaptively switched for each block. As a result, prediction efficiency can be improved and encoding efficiency can be improved. In addition, since it is not necessary to encode a motion vector indicating parallel movement of blocks, the amount of encoded data can be reduced.
Furthermore, by using the average value of the four motion vectors used for geometric conversion as the motion vector that represents the parallel movement of the block itself, the motion vector that represents the parallel movement can be predicted more accurately, and the amount of code can be reduced. It becomes possible to do.
In addition, since a motion vector representing parallel movement is obtained without newly performing block matching processing, the processing amount of the encoding device can be reduced.

あるいは他の並行移動ベクトル決定方法として次のようなものが考えられる。すなわち、1フレーム前の参照画像と、2フレーム前の参照画像から注目するブロックの並行移動ベクトルを図1に示す実施例の説明で述べたようなブロックマッチングによって探索する。ここで求められた動ベクトルを求める並行移動ベクトルとする。又は、4個の格子点動ベクトル及びその平均ベクトルを、探索された動ベクトルと比較し、最も近いものを求める並行移動ベクトルとしてもよい。
この場合、実際にブロックマッチングによって探索されたベクトルに近いベクトルを並行移動ベクトルとして用いることができるため、予測効率を改善し符号化効率を向上させることができる。また、最も近いベクトルを示すための情報を付加情報として伝送する必要があるが、並行移動ベクトルそのものを直接伝送する必要はないため、符号化データ量を小さくすることができる。
Alternatively, the following methods can be considered as other parallel movement vector determination methods. That is, the parallel movement vector of the block of interest from the reference image one frame before and the reference image two frames before is searched by block matching as described in the description of the embodiment shown in FIG. The motion vector obtained here is a parallel movement vector to be obtained. Alternatively, the four lattice point motion vectors and the average vector thereof may be compared with the searched motion vector to obtain a parallel motion vector for obtaining the closest one.
In this case, since a vector close to a vector actually searched by block matching can be used as a parallel movement vector, prediction efficiency can be improved and encoding efficiency can be improved. Further, although information for indicating the nearest vector needs to be transmitted as additional information, it is not necessary to directly transmit the parallel movement vector itself, so that the amount of encoded data can be reduced.

図5における第2の動き補償予測部5は、入力された動ベクトルに基づき、並行移動によって動き補償予測を行う。予測画像選択部6は、2種類の予測画像の内、予測誤差の小さいものを選択し、選択された予測画像と予測モード情報を出力する。選択方法は、図2,図3に示したものと同様である。本実施例の符号化装置によれば、予測モード情報は1ブロック当たり1ビットですむので、予測モード情報にかかるデータ量が削減できる。   The second motion compensation prediction unit 5 in FIG. 5 performs motion compensation prediction by parallel movement based on the input motion vector. The predicted image selection unit 6 selects one of two types of predicted images with a small prediction error, and outputs the selected predicted image and prediction mode information. The selection method is the same as that shown in FIGS. According to the encoding apparatus of the present embodiment, the prediction mode information requires only 1 bit per block, so that the amount of data related to the prediction mode information can be reduced.

図6は、本発明が適用される画像符号化装置の他の実施例を説明するための構成図で、図中、17は制御部、18は予測モード選択部で、その他、図5と同じ作用をする部分は同一の符号を付してある。図5との違いは、予測画像選択部6をなくし、その代わりに予測モード選択部18と制御部17とスイッチ(1)及びスイッチ(2)を設けた点にある。   FIG. 6 is a block diagram for explaining another embodiment of the image coding apparatus to which the present invention is applied. In the figure, 17 is a control unit, 18 is a prediction mode selection unit, and others are the same as FIG. Parts that act are given the same reference numerals. The difference from FIG. 5 is that the prediction image selection unit 6 is eliminated, and a prediction mode selection unit 18, a control unit 17, a switch (1), and a switch (2) are provided instead.

予測モード選択部18では、動ベクトルや参照画像など復号装置でも得られる情報をもとに予測モードを決定する。モード0が幾何学変換による動き補償予測をあらわし、モード1が並行移動による動き補償予測をあらわすものとする。決定された予測モードは制御部17に供給される。   The prediction mode selection unit 18 determines a prediction mode based on information obtained by the decoding device such as a motion vector and a reference image. It is assumed that mode 0 represents motion compensation prediction by geometric transformation, and mode 1 represents motion compensation prediction by parallel movement. The determined prediction mode is supplied to the control unit 17.

例えば、動ベクトルから、注目するブロックの大きさの変化を知ることができる。ブロックが大きく変化する場合は、隣接したブロックの動きが原因であることが多く、注目するブロック自体は静止あるいは並行移動していることが多いので、並行移動による動き補償予測のモードを選択する。すなわち、ブロック中に含まれる画素数の変化を調べ、この変化がしきい値より大きな場合は並行移動による動き補償予測のモードを、それ以外の場合は幾何学変換による動き補償予測のモードを選択する。   For example, it is possible to know the change in the size of the block of interest from the motion vector. When a block changes greatly, it is often caused by the movement of an adjacent block, and the block of interest itself is often stationary or in parallel, so a mode for motion compensation prediction by parallel movement is selected. In other words, the change in the number of pixels included in the block is examined, and if this change is greater than the threshold value, the motion compensation prediction mode by parallel movement is selected, otherwise the motion compensation prediction mode by geometric transformation is selected. To do.

あるいは、他の予測モード選択方法として次のようなものが考えられる。
すなわち、1フレーム前の参照画像と、2フレーム前の参照画像から注目するブロックの動ベクトルをブロックマッチングによって探索する。この時のブロックマッチングの最小誤差が、しきい値より小さければ並行移動による動き補償予測のモードを、それ以外の場合は幾何学変換による動き補償予測のモードを選択する。なお、ここで述べたしきい値は理論的あるいは経験的に定められるものである。これらはあらかじめ定めておいても良いし、手動あるいは自動で適宜変化させてもよい。
Alternatively, the following may be considered as another prediction mode selection method.
That is, the motion vector of the block of interest is searched by block matching from the reference image one frame before and the reference image two frames before. If the minimum error of block matching at this time is smaller than a threshold value, a motion compensation prediction mode by parallel movement is selected, and a motion compensation prediction mode by geometric transformation is selected in other cases. Note that the threshold value described here is determined theoretically or empirically. These may be determined in advance, or may be changed as appropriate manually or automatically.

制御部17では、前述のように決定された予測モードをもとにスイッチ(1)及びスイッチ(2)を制御する。すなわち、予測モードが0の場合は、スイッチ(1)及びスイッチ(2)を第1の動き補償予測部4の側にして幾何学変換による動き補償予測を行う。予測モードが1の場合は、スイッチ(1)及びスイッチ(2)を第2の動き補償予測部5の側にして並行移動による動き補償予測を行う。このように、本実施例の符号化装置によれば、復号装置でも得られる情報をもとに予測モードを決定するので、予測モード情報を符号化する必要がなく、データ量が削減できる。   The control unit 17 controls the switch (1) and the switch (2) based on the prediction mode determined as described above. That is, when the prediction mode is 0, the motion compensation prediction by geometric transformation is performed with the switch (1) and the switch (2) on the first motion compensation prediction unit 4 side. When the prediction mode is 1, motion compensation prediction by parallel movement is performed with the switch (1) and the switch (2) on the second motion compensation prediction unit 5 side. Thus, according to the encoding apparatus of the present embodiment, the prediction mode is determined based on the information obtained also by the decoding apparatus, so that it is not necessary to encode the prediction mode information, and the data amount can be reduced.

図7は、本発明が適用される画像復号装置の一例を説明するための構成図で、図中、21は制御部、22は格子点動ベクトル復号部、23は並行移動ベクトル復号部、24は四角形ブロックへの分割部、25は第1の動き補償予測部、26は第2の動き補償予測部である。   FIG. 7 is a block diagram for explaining an example of an image decoding apparatus to which the present invention is applied. In the figure, 21 is a control unit, 22 is a lattice motion vector decoding unit, 23 is a parallel movement vector decoding unit, 24 Is a rectangular block dividing unit, 25 is a first motion compensation prediction unit, and 26 is a second motion compensation prediction unit.

格子点動ベクトル復号部22は、図14で述べたものと同様の働きによって、符号化データから格子点動ベクトルを復号する部分である。並行移動ベクトル復号部23は、符号化データから並行移動ベクトルを復号する部分である。四角形ブロックへの分割部24は、図14で述べたものと同様の働きによって、参照画像を四角形に分割する部分である。なお、四角形ブロックへの分割部24は、他の復号装置の実施例でも使用するが、以後の図8〜図10では図示せず、説明を省略する。   The lattice point motion vector decoding unit 22 is a part that decodes a lattice point motion vector from the encoded data by the same function as described in FIG. The parallel movement vector decoding unit 23 is a part that decodes the parallel movement vector from the encoded data. The rectangular block dividing unit 24 is a part that divides the reference image into squares by the same function as described in FIG. Note that the rectangular block dividing unit 24 is also used in other embodiments of the decoding device, but is not shown in FIGS. 8 to 10 and will not be described.

制御部21は、符号化データ中の予測モード情報をもとに、スイッチを制御する。すなわち、予測モード情報が幾何学変換による動き補償予測を表す場合はスイッチを第1の動き補償予測部25の側にし、予測モード情報が並行移動による動き補償予測を表す場合はスイッチを第2の動き補償予測部26の側に切替える。第1の動き補償予測部25と第2の動き補償予測部26の動きは、図1に示した符号化装置のものと全く同様である。   The control unit 21 controls the switch based on the prediction mode information in the encoded data. That is, when the prediction mode information represents motion compensation prediction by geometric transformation, the switch is on the first motion compensation prediction unit 25 side, and when the prediction mode information represents motion compensation prediction by parallel movement, the switch is set to the second motion compensation prediction. Switch to the motion compensation prediction unit 26 side. The motions of the first motion compensation prediction unit 25 and the second motion compensation prediction unit 26 are exactly the same as those of the encoding device shown in FIG.

以上のようにして、図7に示す復号装置において、符号化装置と同一の予測モードが選択され、同一の予測画像が得られる。この予測画像と図示しない復号部で得られた差分データの復号値が足し合わされて、復号画像が得られる。復号画像はディスプレイなどに表示されると共に図示しないフレームメモリに蓄えられ、以後の復号の際の参照画像として用いられる。   As described above, in the decoding apparatus shown in FIG. 7, the same prediction mode as that of the encoding apparatus is selected, and the same predicted image is obtained. The predicted image and the decoded value of the difference data obtained by a decoding unit (not shown) are added to obtain a decoded image. The decoded image is displayed on a display or the like and stored in a frame memory (not shown), and is used as a reference image for subsequent decoding.

図8は、本発明が適用される画像復号装置の他の例を説明するための構成図で、図中、27は第3の動き補償予測部、28は第4の動き補償予測部、29は第5の動き補償予測部で、その他、図7と同じ作用をする部分は同一の符号を付してある。本実施例は、図4に示した符号化装置で作成された符号化データを復号する復号装置である。   FIG. 8 is a block diagram for explaining another example of an image decoding apparatus to which the present invention is applied. In the figure, 27 is a third motion compensation prediction unit, 28 is a fourth motion compensation prediction unit, 29 Is a fifth motion compensation prediction unit, and other parts having the same functions as those in FIG. 7 are denoted by the same reference numerals. The present embodiment is a decoding apparatus that decodes encoded data created by the encoding apparatus shown in FIG.

格子点動ベクトル復号部22は、図14で述べたものと同様の働きによって、符号化データから格子点動ベクトルを復号する部分である。制御部21は本発明の手法により、符号化データ中の予測モード情報をもとに、スイッチ(1)及びスイッチ(2)を制御する。すなわち、予測モード情報が幾何学変換による動き補償予測を表す場合は、スイッチ(1)及びスイッチ(2)を第1の動き補償予測部25の側にし、予測モード情報が動ベクトルV1を用いた並行移動による動き補償予測を表す場合は、スイッチ(1)及びスイッチ(2)を第2の動き補償予測部26の側にするという具合にスイッチを切替える。第3の動き補償予測部27〜第5の動き補償予測部29への切替えも同様にして行われる。   The lattice point motion vector decoding unit 22 is a part that decodes a lattice point motion vector from the encoded data by the same function as described in FIG. The control unit 21 controls the switch (1) and the switch (2) based on the prediction mode information in the encoded data by the method of the present invention. That is, when the prediction mode information represents motion compensation prediction by geometric transformation, the switch (1) and the switch (2) are on the first motion compensation prediction unit 25 side, and the prediction mode information uses the motion vector V1. When representing motion compensation prediction by parallel movement, the switches are switched such that the switches (1) and (2) are on the second motion compensation prediction unit 26 side. Switching from the third motion compensation prediction unit 27 to the fifth motion compensation prediction unit 29 is performed in the same manner.

第1の動き補償予測部25〜第5の動き補償予測部29の働きは、図4に示した符号化装置のものと全く同様である。以上のようにして、図8に示す復号装置において、符号化装置と同一の予測モードが選択され、同一の予測画像が得られる。以後の動作は図7の例と同様である。   The functions of the first motion compensation prediction unit 25 to the fifth motion compensation prediction unit 29 are exactly the same as those of the encoding apparatus shown in FIG. As described above, in the decoding apparatus shown in FIG. 8, the same prediction mode as that of the encoding apparatus is selected, and the same predicted image is obtained. The subsequent operation is the same as in the example of FIG.

図9は、本発明が適用される画像復号装置の更に他の例を説明するための構成図で、図中、30は並行移動ベクトル決定部で、その他、図8と同じ作用をする部分は同一の符号を付してある。この例は、図5に示した符号化装置で作成された符号化データを復号する復号装置である。   FIG. 9 is a block diagram for explaining still another example of the image decoding apparatus to which the present invention is applied. In FIG. 9, reference numeral 30 denotes a parallel movement vector determination unit, and other parts that perform the same operations as in FIG. The same reference numerals are given. This example is a decoding apparatus that decodes encoded data created by the encoding apparatus shown in FIG.

格子点動ベクトル復号部22は、図14で述べたものと同様の働きによって、符号化データから格子点動ベクトルを復号する部分である。制御部21は本発明の手法により、符号化データ中の予測モード情報をもとに、スイッチ(1)及びスイッチ(2)を制御する。すなわち、予測モード情報が幾何学変換による動き補償予測を表す場合は、スイッチ(1)及びスイッチ(2)を第1の動き補償予測部25の側にし、予測モード情報が並行移動による動き補償予測を表す場合は、スイッチ(1)及びスイッチ(2)を第2の動き補償予測部26の側にする。   The lattice point motion vector decoding unit 22 is a part that decodes a lattice point motion vector from the encoded data by the same function as described in FIG. The control unit 21 controls the switch (1) and the switch (2) based on the prediction mode information in the encoded data by the method of the present invention. That is, when the prediction mode information represents motion compensation prediction by geometric transformation, the switch (1) and the switch (2) are on the first motion compensation prediction unit 25 side, and the prediction mode information is motion compensated prediction by parallel movement. , The switch (1) and the switch (2) are on the second motion compensation prediction unit 26 side.

並行移動ベクトル決定部30は、図5のものと同一の働きによって、第2の動き補償予測部26で使用する並行移動ベクトルを決定する。また、第1の動き補償予測部25と第2の動き補償予測部26の働きは、図5に示した符号化装置のものと全く同様である。
以上のようにして、図9に示す復号装置において、符号化装置と同一の予測モードが選択され、同一の予測画像が得られる。以後の動作は図7の例と同様である。
The parallel movement vector determination unit 30 determines the parallel movement vector used in the second motion compensation prediction unit 26 by the same function as that of FIG. The functions of the first motion compensation prediction unit 25 and the second motion compensation prediction unit 26 are exactly the same as those of the encoding apparatus shown in FIG.
As described above, in the decoding apparatus shown in FIG. 9, the same prediction mode as that of the encoding apparatus is selected, and the same predicted image is obtained. The subsequent operation is the same as in the example of FIG.

図10は、本発明が適用される画像復号装置の更に他の例を説明するための構成図で、図中、31は予測モード選択部で、その他、図9と同じ作用をする部分は同一の符号を付してある。この例は、図6に示した符号化装置で作成された符号化データを復号する復号装置である。   FIG. 10 is a block diagram for explaining still another example of an image decoding apparatus to which the present invention is applied. In the figure, 31 is a prediction mode selection unit, and the other parts having the same functions as those in FIG. The code | symbol is attached | subjected. This example is a decoding apparatus that decodes encoded data created by the encoding apparatus shown in FIG.

格子点動ベクトル復号部22は、図14で述べたものと同様の働きによって、符号化データから格子点動ベクトルを復号する部分である。予測モード選択部31は、図6のものと同様の働きにより、動ベクトルや参照画像などの情報をもとに予測モードを決定する。決定された予測モードは、制御部21に供給される。   The lattice point motion vector decoding unit 22 is a part that decodes a lattice point motion vector from the encoded data by the same function as described in FIG. The prediction mode selection unit 31 determines a prediction mode based on information such as a motion vector and a reference image by the same operation as that of FIG. The determined prediction mode is supplied to the control unit 21.

制御部21は、図6のものと同様の働きにより、符号化データ中の予測モード情報をもとに、スイッチ(1)及びスイッチ(2)を制御する。並行移動ベクトル決定部30は、図6のものと同一の働きによって、第2の動き補償予測部26で使用する並行移動ベクトルを決定する。また、第1の動き補償予測部25と第2の動き補償予測部26の働きは、図6に示した符号化装置のものと全く同様である。
以上のようにして、図10に示す復号装置において、符号化装置と同一の予測モードが選択され、同一の予測画像が得られる。以後の動作は図7の例と同様である。
The control unit 21 controls the switch (1) and the switch (2) based on the prediction mode information in the encoded data by the same operation as that of FIG. The parallel movement vector determination unit 30 determines the parallel movement vector used by the second motion compensation prediction unit 26 by the same function as that of FIG. The functions of the first motion compensation prediction unit 25 and the second motion compensation prediction unit 26 are exactly the same as those of the encoding apparatus shown in FIG.
As described above, in the decoding apparatus shown in FIG. 10, the same prediction mode as that of the encoding apparatus is selected, and the same predicted image is obtained. The subsequent operation is the same as in the example of FIG.

ここで説明した符号化装置及び復号装置の例は、おもに時間的に一方向のみに動ベクトルを求め、これによって動き補償予測を行うものであるが、もちろん、時間的に双方向に(すなわち、前後の参照画像から)動ベクトルを求め動き補償予測を行うようにしてもよい。幾何学変換による予測では、双方向動き補償予測を用いても、図16(c)に示したような問題は解決されない。本発明を用いて並行移動による動き補償と幾何学変換による動き補償を適応的に切替えれば、異る動きを持った複数の物体が重なり合う場合や、回転、変形などの働きを含む場合などでも良好な予測画像を得ることができる。   The example of the encoding device and the decoding device described here mainly obtains a motion vector in only one direction in time, and thereby performs motion compensation prediction. Motion compensation prediction may be performed by obtaining a motion vector (from previous and subsequent reference images). In the prediction by geometric transformation, the problem as shown in FIG. 16C is not solved even if bidirectional motion compensation prediction is used. By adaptively switching between motion compensation by parallel movement and motion compensation by geometric transformation using the present invention, even when multiple objects with different motions overlap or when functions such as rotation and deformation are included A good predicted image can be obtained.

本発明が適用される画像符号化装置の一例を説明するための構成図である。It is a block diagram for demonstrating an example of the image coding apparatus with which this invention is applied. 図1における予測画像選択部の一例を示す構成図である。It is a block diagram which shows an example of the estimated image selection part in FIG. 図1における予測画像選択部の他の例を示す構成図である。It is a block diagram which shows the other example of the estimated image selection part in FIG. 本発明が適用される画像符号化装置の他の例を説明するための構成図である。It is a block diagram for demonstrating the other example of the image coding apparatus with which this invention is applied. 本発明が適用される画像符号化装置の他の例を説明するための構成図である。It is a block diagram for demonstrating the other example of the image coding apparatus with which this invention is applied. 本発明が適用される画像符号化装置の他の例を説明するための構成図である。It is a block diagram for demonstrating the other example of the image coding apparatus with which this invention is applied. 本発明が適用される画像復号装置の一例を説明するための構成図である。It is a block diagram for demonstrating an example of the image decoding apparatus with which this invention is applied. 本発明が適用される画像復号装置の他の例を説明するための構成図である。It is a block diagram for demonstrating the other example of the image decoding apparatus with which this invention is applied. 本発明が適用される画像復号装置の更に他の例を説明するための構成図である。It is a block diagram for demonstrating the further another example of the image decoding apparatus with which this invention is applied. 本発明が適用される画像復号装置の更に他の例を説明するための構成図である。It is a block diagram for demonstrating the further another example of the image decoding apparatus with which this invention is applied. 動き補償予測を説明するための図である。It is a figure for demonstrating motion compensation prediction. 従来の幾何学変換による動き補償予測を説明するための図である。It is a figure for demonstrating the motion compensation prediction by the conventional geometric transformation. 従来の画像符号化装置における予測画像作成回路の構成図である。It is a block diagram of the estimated image production circuit in the conventional image coding apparatus. 従来の画像復号装置における予測画像作成回路の構成図である。It is a block diagram of the estimated image production circuit in the conventional image decoding apparatus. 参照画像と予測対象画像の例を示す図である。It is a figure which shows the example of a reference image and a prediction object image. 従来の本発明による予測画像の比較例を示す図である。It is a figure which shows the comparative example of the prediction image by the conventional this invention. 従来と本発明による予測画像の他の比較例を示す図である。It is a figure which shows the other comparative example of the prediction image by the past and this invention.

符号の説明Explanation of symbols

1…四角形ブロックへの分割部、2…格子点動き推定部、3…並行移動動き推定部、4…第1の動き補償予測部、5…第2の動き補償予測部、6…予測画像選択部、7…第1の誤差算出部、8…第2の誤差算出部、9…選択部、10…第1の直交変換部、11…第2の直交変換部、12…第3の直交変換部、13…第3の動き補償予測部、14…第4の動き補償予測部、15…第5の動き補償予測部、16…並列移動ベクトル決定部、17…制御部、18…予測モード選択部、21…制御部、22…格子点動ベクトル復号部、23…並行移動ベクトル復号部、24…四角形ブロックへの分割部、25…第1の動き補償予測部、26…第2の動き補償予測部、27…第3の動き補償予測部、28…第4の動き補償予測部、29…第5の動き補償予測部、30…並行移動ベクトル決定部、31…予測モード選択部。 DESCRIPTION OF SYMBOLS 1 ... Dividing part into square blocks, 2 ... Lattice point motion estimation part, 3 ... Parallel movement motion estimation part, 4 ... 1st motion compensation prediction part, 5 ... 2nd motion compensation prediction part, 6 ... Predictive image selection , 7... First error calculation unit, 8... Second error calculation unit, 9... Selection unit, 10... First orthogonal transformation unit, 11. , 13 ... third motion compensation prediction unit, 14 ... fourth motion compensation prediction unit, 15 ... fifth motion compensation prediction unit, 16 ... parallel motion vector determination unit, 17 ... control unit, 18 ... prediction mode selection , 21 ... control unit, 22 ... lattice motion vector decoding unit, 23 ... parallel motion vector decoding unit, 24 ... dividing unit into quadrangular blocks, 25 ... first motion compensation prediction unit, 26 ... second motion compensation Prediction unit, 27 ... third motion compensation prediction unit, 28 ... fourth motion compensation prediction unit, 29 ... fifth motion compensation Measuring unit, 30 ... parallel movement vector determination unit, 31 ... prediction mode selection unit.

Claims (1)

動き補償予測で用いられる予測モードのいずれかを選択する選択ステップと、画像を分割して得られる各ブロックに対して動き補償予測により予測画像を求める予測ステップと、を有する動き補償予測方法であって、
前記選択ステップは、前記予測モードのいずれを選択するかを示す予測モード情報に従って前記予測モードをブロック毎に選択し、前記予測ステップは、アフィン変換または動ベクトルの補間により予測画像を作成する第1の予測モードと、並行移動により予測画像を作成する第2の予測モードを有することを特徴とする動き補償予測方法。
There the selection step and the motion compensated prediction method having a prediction step of obtaining a predicted image by motion compensated prediction for each block obtained by dividing an image to select one of the prediction modes used in the motion compensated prediction And
The selection step selects the prediction mode for each block according to prediction mode information indicating which of the prediction modes is selected, and the prediction step creates a prediction image by affine transformation or motion vector interpolation. prediction mode and the motion compensation prediction method characterized by have a second prediction mode for creating prediction image by parallel movement of the.
JP2005181790A 2005-06-22 2005-06-22 Motion compensation prediction method Expired - Lifetime JP4245587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005181790A JP4245587B2 (en) 2005-06-22 2005-06-22 Motion compensation prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005181790A JP4245587B2 (en) 2005-06-22 2005-06-22 Motion compensation prediction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004231020A Division JP3734488B2 (en) 2004-08-06 2004-08-06 Image encoding device

Publications (2)

Publication Number Publication Date
JP2005333663A JP2005333663A (en) 2005-12-02
JP4245587B2 true JP4245587B2 (en) 2009-03-25

Family

ID=35487935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005181790A Expired - Lifetime JP4245587B2 (en) 2005-06-22 2005-06-22 Motion compensation prediction method

Country Status (1)

Country Link
JP (1) JP4245587B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1093299C (en) * 1995-05-11 2002-10-23 世雅企业股份有限公司 Image processing apparatus and image processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8665958B2 (en) 2008-01-29 2014-03-04 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding video signal using motion compensation based on affine transformation
CN108965871B (en) 2015-09-29 2023-11-10 华为技术有限公司 Image prediction method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1093299C (en) * 1995-05-11 2002-10-23 世雅企业股份有限公司 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2005333663A (en) 2005-12-02

Similar Documents

Publication Publication Date Title
TW201739252A (en) Method and apparatus of video coding with affine motion compensation
JP2009111691A (en) Image-encoding device and encoding method, and image-decoding device and decoding method
JPH09172644A (en) Moving image coding/decoding device using moving compensation inter-frame prediction system employing affine transformation
JP5216710B2 (en) Decryption processing method
JP2008154015A (en) Decoding method and coding method
EP2161937A1 (en) Video encoding method, decoding method, device thereof, program thereof, and recording medium containing the program
US9055293B2 (en) Prediction of an image by compensation during forward movement
US20090028241A1 (en) Device and method of coding moving image and device and method of decoding moving image
JP2000224593A (en) Method and device for interpolating frame and recording medium recording the method
JP3654664B2 (en) Image encoding apparatus and image decoding apparatus
JP4245587B2 (en) Motion compensation prediction method
JP4888919B2 (en) Moving picture encoding apparatus and moving picture decoding apparatus
JP3734488B2 (en) Image encoding device
JP4427553B2 (en) Video decoding device
CN110719489A (en) Motion vector correction method, motion vector prediction method, motion vector encoding device, and storage device
JP4580880B2 (en) Image encoding apparatus, image decoding apparatus, and image processing system
JP2009212667A (en) Moving image encoding apparatus and decoding apparatus
JP3746708B2 (en) Video encoding device
JP5880758B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2001224036A (en) Moving picture coder
WO2020059616A1 (en) Image encoding device, image decoding device, and program
JP3513277B2 (en) Video encoding device and video decoding device
JPH09200763A (en) Motion compensating method for moving image encoding
JP5067471B2 (en) Decoding method, decoding apparatus, and program
JPH10243401A (en) Method for predicting inter motion compensation frame by adaptive motion vector interpolation

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090106

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

EXPY Cancellation because of completion of term