JPH10271509A - Image encoder and image decoder - Google Patents

Image encoder and image decoder

Info

Publication number
JPH10271509A
JPH10271509A JP7251897A JP7251897A JPH10271509A JP H10271509 A JPH10271509 A JP H10271509A JP 7251897 A JP7251897 A JP 7251897A JP 7251897 A JP7251897 A JP 7251897A JP H10271509 A JPH10271509 A JP H10271509A
Authority
JP
Japan
Prior art keywords
motion vector
reference frame
frame
area
compensation prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7251897A
Other languages
Japanese (ja)
Inventor
Hiroyuki Katada
裕之 堅田
Hiroshi Kusao
寛 草尾
Tomoko Aono
友子 青野
Norio Ito
典男 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP7251897A priority Critical patent/JPH10271509A/en
Priority to PCT/JP1998/000758 priority patent/WO1998043435A1/en
Publication of JPH10271509A publication Critical patent/JPH10271509A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

PROBLEM TO BE SOLVED: To provide the reproducing image of excellent quality by obtaining a picture element value by motion compensation prediction from a picture element on the outside of a second area and obtaining the picture element value by interpolation from peripheral picture elements for the picture element for which the motion compensation prediction is not performed inside a first area. SOLUTION: A motion vector preparation part 101 for synthesis prepares a second motion vector by using the shape data of the first area and the second area and a first motion vector. In this case, the first motion vector indicates a motion vector used for predicting a first reference frame from a second reference frame at the time of encoding a low-order layer frame. A motion compensation prediction part 103 predicts the picture element value inside the first area from the second reference frame by using the second motion vector by second motion compensation prediction. A controller 104 connects a switch 105 to the side of the first reference frame when the picture element value on a synthesis frame is on the outside of the first area. The controller 104 also controls an interpolation part 106 and performs the interpolation of an area incapable of correctly predicting the picture element value in the prediction part 103.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はディジタル画像処理
の分野に属し、画像データを高能率に符号化する動画像
符号化及びこの動画像符号化装置で作成された符号化デ
ータを復号する動画像復号装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the field of digital image processing, and more particularly to moving picture coding for efficiently coding image data and moving picture decoding for coded data created by this moving picture coding apparatus. The present invention relates to a decoding device.

【0002】[0002]

【従来の技術】画像符号化において、異なる動画像シー
ケンスを重畳する方式が検討されている。
2. Description of the Related Art In image coding, a method of superimposing different moving image sequences has been studied.

【0003】文献「階層表現と多重テンプレートを用い
た画像符号化」(信学技報IE94−159,pp99
−106(1995))では、背景となる動画像シーケ
ンスと前景となる部品動画像の動画像シーケンス(例え
ばクロマキー技術によって切り出された人物画像や魚の
映像など)を重畳して新たなシーケンスを作成する手法
が述べられている。
[0003] Document "Image coding using hierarchical representation and multiple templates" (IEICE IE 94-159, pp. 99)
In -106 (1995)), a new sequence is created by superimposing a moving image sequence as a background and a moving image sequence of a component moving image as a foreground (for example, a human image or a video of a fish cut out by the chroma key technique). The method is described.

【0004】また文献「画像内容に基づく時間階層符号
化」(”Temporal Scalability
based on image content”,I
SO/IEC JTC1/SC29/WG11 MPE
G95/211(1995))では、フレームレートの
低い動画像シーケンスにフレームレートの高い部品動画
像の動画像シーケンスを重畳して新たなシーケンスを作
成する手法が述べられている。
[0004] In addition, the document "Time hierarchical coding based on image contents"("TemporalScalability")
based on image content ", I
SO / IEC JTC1 / SC29 / WG11 MPE
G95 / 211 (1995)) describes a technique for creating a new sequence by superimposing a moving image sequence of a component moving image having a high frame rate on a moving image sequence having a low frame rate.

【0005】この方式では図18に示すように、下位レ
イヤでは画像全体を低いフレームレートで動き補償予測
符号化し、上位レイヤでは、下位レイヤで符号化されて
いないフレームの選択領域(網点部)だけを動き補償予
測符号化する。上位レイヤの動き補償予測に用いる参照
フレームは下位レイヤの復号フレーム及び上位レイヤの
復号フレームである。選択領域としては例えば人物部分
など視聴者の注目が集まる部分が選ばれているものとす
る。
In this method, as shown in FIG. 18, the entire image is motion-compensated and predictively coded at a low frame rate in the lower layer, and a selected area (dotted portion) of a frame not coded in the lower layer is processed in the upper layer. Is subjected to motion compensation prediction coding. Reference frames used for motion compensation prediction of an upper layer are a decoded frame of a lower layer and a decoded frame of an upper layer. It is assumed that a part that attracts the viewer's attention, such as a person part, is selected as the selected area.

【0006】この方式では下位レイヤだけを復号する
と、画像全体が低いフレームレートで再生される。一
方、下位レイヤと上位レイヤを両方復号すると、選択領
域のみが高いフレームレートで再生される。この時、下
位レイヤ復号画像が存在しないフレームについては、2
枚の復号された下位レイヤフレームを用いて下位レイヤ
の合成を行なう。そして合成された下位レイヤフレーム
に、上位レイヤの復号画像(選択領域)を重畳し、再生
画像を得る。
In this method, if only the lower layer is decoded, the entire image is reproduced at a low frame rate. On the other hand, if both the lower layer and the upper layer are decoded, only the selected area is reproduced at a high frame rate. At this time, for a frame in which the lower layer decoded image does not exist, 2
The lower layer is synthesized using the decoded lower layer frames. Then, the decoded image (selected area) of the upper layer is superimposed on the synthesized lower layer frame to obtain a reproduced image.

【0007】次に、従来方式における下位レイヤの合成
手法について説明する。図16は従来方式のブロック図
である。
Next, a method of synthesizing the lower layer in the conventional method will be described. FIG. 16 is a block diagram of a conventional system.

【0008】遅延部1601は入力された下位レイヤ復
号画像を遅延させ、第2参照フレームを出力する。第2
参照フレームは遅延されない下位レイヤ復号画像(第1
参照フレーム)と共にスイッチ1603に入力される。
[0008] Delay section 1601 delays the input lower layer decoded image and outputs a second reference frame. Second
The reference frame is an undelayed lower layer decoded image (first
A reference frame) is input to the switch 1603.

【0009】コントローラ1602には第1参照フレー
ム上の選択領域(以後第1領域と呼ぶ)の形状データが
入力され、合成フレーム上の画素が、第1領域内である
かどうかを調べる。合成フレーム上の画素が第1領域内
であれば、コントローラはスイッチを左側に接続し、第
2参照フレームの画素値を合成フレームの画素値とす
る。そうでなければ、コントローラはスイッチを右側に
接続し、第1参照フレームの画素値を合成フレームの画
素値とする。
The controller 1602 receives shape data of a selected area (hereinafter referred to as a first area) on a first reference frame, and checks whether or not a pixel on the synthesized frame is within the first area. If the pixel on the composite frame is in the first area, the controller connects the switch to the left side and sets the pixel value of the second reference frame as the pixel value of the composite frame. Otherwise, the controller connects the switch to the right and sets the pixel value of the first reference frame as the pixel value of the composite frame.

【0010】重畳部1604は、上位レイヤの復号画像
を合成フレーム上に重畳する。上位レイヤの復号形状デ
ータから求めた重み画像をW、合成された下位レイヤフ
レームをB、上位レイヤフレームをEとすると、重畳フ
レームSは次式によって求められる。
[0010] Superimposing section 1604 superimposes the decoded image of the upper layer on the composite frame. Assuming that the weighted image obtained from the decoded shape data of the upper layer is W, the synthesized lower layer frame is B, and the upper layer frame is E, the superimposed frame S is obtained by the following equation.

【0011】 S(x,y)=[1-W(x,y)]B(x,y)+ E(x,y)W(x,y) (1) ここで、(x,y)は空間内の画素位置を表す座標であ
る。形状データは選択領域内で1、選択領域外で0の値
をとる2値画像であり、この画像に低域通過フィルタを
複数回施す事によって重み画像W(x,y)を得る事が
できる。すなわち重み画像W(x,y)は選択領域内内
部1、選択領域外部で0、選択領域の境界部で0〜1の
値をとる。
S (x, y) = [1-W (x, y)] B (x, y) + E (x, y) W (x, y) (1) where (x, y) Is coordinates representing a pixel position in space. The shape data is a binary image having a value of 1 inside the selected region and a value of 0 outside the selected region, and a weighted image W (x, y) can be obtained by applying a low-pass filter to the image a plurality of times. . That is, the weighted image W (x, y) takes a value of 1 inside the selected area, 0 outside the selected area, and 0 to 1 at the boundary of the selected area.

【0012】例えば、図18のフレームaとフレームd
を下位レイヤ合成に用いる2枚のフレームとし、フレー
ムbにおける上位レイヤ復号画像を重畳するものとす
る。この時、図16の第1参照フレームはフレームd、
第2参照フレームはフレームaとなる。
For example, frame a and frame d in FIG.
Are two frames used for lower layer synthesis, and the upper layer decoded image in frame b is superimposed. At this time, the first reference frame in FIG.
The second reference frame is frame a.

【0013】コントローラは、合成フレーム上の画素が
第1領域内あれば、スイッチを左側に接続し、そうでな
ければ右側に接続する。このようにして、第1領域と第
2参照フレームa上の選択領域(第2領域)とが重なる
領域(交差領域)を除いては、2枚の下位レイヤフレー
ムの選択領域外の画素値が、合成フレームにコピーされ
る。
[0013] The controller connects the switch to the left if the pixel on the composite frame is in the first area, and connects the switch to the right if not. In this way, the pixel values outside the selection areas of the two lower layer frames are excluded, except for the area (intersection area) where the first area and the selection area (second area) on the second reference frame a overlap. , Copied to the composite frame.

【0014】また、交差領域についてはフレームdの選
択領域内の画素値がコピーされるが、重畳部にて上位レ
イヤの復号画像(フレームbの復号画像)が合成フレー
ムに重畳されるため、選択領域の動きが大きくなければ
交差領域はほとんど上位レイヤの復号画像に隠される。
In the intersection area, the pixel values in the selected area of the frame d are copied. However, since the decoded image of the upper layer (the decoded image of the frame b) is superimposed on the synthesized frame by the superimposing unit, the selection is not performed. If the motion of the area is not large, the intersection area is almost hidden by the decoded image of the upper layer.

【0015】[0015]

【発明が解決しようとする課題】従来の技術では、選択
領域以外の領域が時間的に変化する時、前述の交差領域
以外の領域でも合成画像に不連続な境界が現れ、画質が
劣化するという問題がある。次に図17を用いてこの問
題を説明する。
In the prior art, when an area other than the selected area changes with time, a discontinuous boundary appears in the synthesized image even in an area other than the above-mentioned intersection area, and the image quality is deteriorated. There's a problem. Next, this problem will be described with reference to FIG.

【0016】図17の2枚の下位レイヤフレーム(第1
参照フレーム、第2参照フレーム)では、選択領域(網
点部の人物)が右に上半身を振り、その背景で自動車が
左に移動している。これらのフレームを用いて合成フレ
ームを作成するとき、第1領域内の画素値は第2参照フ
レームから、第1領域外の画素値は第1参照フレームか
らコピーされる。
In FIG. 17, two lower layer frames (first
In the reference frame (second reference frame), the selected area (the halftone dot person) swings his upper body to the right, and the car moves to the left in the background. When creating a composite frame using these frames, pixel values in the first region are copied from the second reference frame, and pixel values outside the first region are copied from the first reference frame.

【0017】背景の自動車が移動しているため、合成フ
レームでは図示するように自動車が2つに分離し第1領
域の境界部にエッジが現れる。この例では選択領域外で
特定の物体が移動しているが、カメラのパニングなどで
背景全体に動きがある場合は、合成フレームの背景全体
が2つに分離し、第1領域の境界部分で画素値が不連続
に変化してしまう。このような画素値の不連続な変化
は、視覚上非常に大きな劣化となる。
Since the background vehicle is moving, the vehicle is separated into two in the composite frame as shown in the drawing, and an edge appears at the boundary of the first area. In this example, the specific object moves outside the selected area. However, when the entire background moves due to panning of the camera or the like, the entire background of the composite frame is separated into two parts, and the boundary of the first area is divided into two parts. The pixel value changes discontinuously. Such a discontinuous change in the pixel value results in a very large visual deterioration.

【0018】本発明の目的は上記の問題を解決し、合成
フレームの品質を劣化させないような符号化装置、及び
復号装置を提供することにある。
An object of the present invention is to solve the above problems and to provide an encoding device and a decoding device that do not degrade the quality of a synthesized frame.

【0019】[0019]

【課題を解決するための手段】本発明は、上記目的を達
成するために (1) 動画像シーケンスを低いフレームレートで符号
化する下位レイヤ符号化と、前記動画像シーケンスの一
つ以上の特定領域を高いフレームレートで符号化する上
位レイヤ符号化を行ない、下位レイヤの復号は低いフレ
ームレートの下位レイヤのみを復号し、上位レイヤまで
の復号は下位レイヤと、上位レイヤを復号して下位レイ
ヤと上位レイヤを重畳し、前記特定領域について下位レ
イヤより高いフレームレートを得る階層符号化装置及び
復号装置であって、復号の際に上位レイヤと同じフレー
ム位置に対応する下位レイヤフレームが存在しない場合
に、復号された2枚の下位レイヤフレームを用いて前記
存在しない下位レイヤフレームの合成を行い、前記合成
に当たっては、前記2枚の下位レイヤフレーム中の一方
の下位レイヤフレームを第1参照フレーム、他方を第2
参照フレームとし、前記第1参照フレーム上の前記特定
領域を第1領域、前記第2参照フレーム上の前記特定領
域を第2領域とし、合成フレームにおいて、前記第1領
域外の画素については、前記第1参照フレームの同一位
置の画素から画素値をコピーし、前記第1領域内の画素
については、前記第2参照フレームにおける第2領域外
の画素から動き補償予測によって画素値を求め、前記第
1領域内で前記動き補償予測がなされない画素について
は、既に画素値が求められている周辺の画素から補間に
よって画素値を求める。
To achieve the above object, the present invention provides: (1) lower layer coding for coding a moving picture sequence at a low frame rate; Performs upper layer coding to encode the region at a higher frame rate, decodes the lower layer only the lower layer of the lower frame rate, and decodes up to the upper layer by decoding the lower layer and the upper layer. Layer coding apparatus and decoding apparatus that superimpose the upper layer with the upper layer to obtain a higher frame rate than the lower layer for the specific area, wherein there is no lower layer frame corresponding to the same frame position as the upper layer during decoding Then, the nonexistent lower layer frame is synthesized using the two decoded lower layer frames, and What is the two one first reference frame lower layer frames in the lower layer frame, and the other second
A reference frame, the specific area on the first reference frame is a first area, the specific area on the second reference frame is a second area, and in a composite frame, pixels outside the first area are: A pixel value is copied from a pixel at the same position in the first reference frame, and for a pixel in the first region, a pixel value is obtained by motion compensation prediction from a pixel outside the second region in the second reference frame, For a pixel in which motion compensation prediction is not performed in one area, a pixel value is obtained by interpolation from peripheral pixels for which a pixel value has already been obtained.

【0020】(2) (1)において、下位レイヤフレ
ームを第1の動き補償予測手段によって符号化し、前記
合成における動き補償予測を第2の動き補償予測手段に
よって行ない、前記第1の動き補償予測にて用いた第1
の動ベクトルを前記第2の動き補償予測に利用して、前
記合成を行なう。
(2) In (1), the lower layer frame is encoded by the first motion compensation prediction means, and the motion compensation prediction in the synthesis is performed by the second motion compensation prediction means. The first used in
Is used for the second motion compensation prediction to perform the synthesis.

【0021】(3) (2)において、第1参照フレー
ムを、第2参照フレームから前記第1の動き補償予測に
よって符号化し、前記第1領域に対して第2の動ベクト
ルを求め、前記第2の動ベクトルを求めるに当たって
は、周囲に存在する前記第1の動ベクトル及び既に求め
られた第2の動ベクトルから、所定の予測式に基づいて
第2の動ベクトルを求め、前記第2の動き補償予測を行
なう。
(3) In (2), the first reference frame is encoded from the second reference frame by the first motion compensation prediction, and a second motion vector is obtained for the first region. In obtaining the second motion vector, a second motion vector is obtained based on a predetermined prediction equation from the first motion vector existing around and the second motion vector already obtained, and the second motion vector is obtained. Perform motion compensation prediction.

【0022】(4) (3)において、第2参照フレー
ムを、第1参照フレームから前記第1の動き補償予測に
よって符号化し、前記第2の動ベクトルを反転させて、
第2参照フレームから第1参照フレームへの動ベクトル
(第3の動ベクトル)を求め、前記第3の動ベクトルを
用いて前記第2の動き補償予測を行ない、前記第2の動
き補償予測の際に合成フレーム上の一つの画素が、第2
参照フレーム上の複数の画素を参照する場合には前記複
数の画素値の平均値を予測画素値とする。
(4) In (3), a second reference frame is encoded from the first reference frame by the first motion compensation prediction, and the second motion vector is inverted.
A motion vector (third motion vector) from the second reference frame to the first reference frame is obtained, the second motion compensation prediction is performed using the third motion vector, and the second motion compensation prediction is performed. When one pixel on the composite frame is
When referring to a plurality of pixels on the reference frame, the average value of the plurality of pixel values is used as a predicted pixel value.

【0023】(5) (3)において、第1参照フレー
ムを、第2参照フレーム以外の下位レイヤフレーム(他
の下位レイヤフレーム)から前記第1の動き補償予測に
よって符号化し、前記第2の動ベクトルから所定の内挿
式及び外挿式によって、第2参照フレームから第1参照
フレームへの動ベクトル(第4の動ベクトル)を求め、
前記第4の動ベクトルを用いて前記第2の動き補償予測
を行なう。
(5) In (3), the first reference frame is encoded from a lower layer frame other than the second reference frame (another lower layer frame) by the first motion compensation prediction, and the second reference frame is encoded. A motion vector (fourth motion vector) from the second reference frame to the first reference frame is obtained from the vector by a predetermined interpolation formula and extrapolation formula,
The second motion compensation prediction is performed using the fourth motion vector.

【0024】(6) (3)又は(4)において、前記
周囲に存在する第1の動ベクトルとして、前記第2領域
及び前記第1領域に位置するものを除外する。
(6) In (3) or (4), as the first motion vectors existing in the periphery, those located in the second area and the first area are excluded.

【0025】(7) (5)において、前記周囲に存在
する第1の動ベクトルとして、前記他の下位レイヤフレ
ーム上の前記特定領域及び前記第1領域に位置するもの
を除外する。
(7) In (5), as the first motion vectors existing around, those located in the specific area and the first area on the another lower layer frame are excluded.

【0026】(8) (1)、(2)、(3)、
(4)、(5)、(6)又は(7)において、復号され
た2枚の下位レイヤフレームを用いる代わりに復号され
た3枚の下位レイヤフレームを用い、前記存在しない下
位レイヤフレームの合成をするに当たっては、前記3枚
の下位レイヤフレームをそれぞれ第1参照フレーム、第
2参照フレーム及び第3参照フレームとし、各参照フレ
ーム上の前記特定領域をそれぞれ第1領域、第2領域及
び第3領域とし、合成フレームにおいて、前記第1領域
外の画素については、前記第1参照フレームの同一位置
の画素から画素値をコピーし、前記第1領域内の画素に
ついては、前記第2参照フレームにおける第2領域外の
画素から動き補償予測によって画素値を求める場合と、
前記第3参照フレームにおける第3領域外の画素から動
き補償予測によって画素値を求める場合と、前記2つの
動き補償予測で得られる画素値の加重平均によって画素
値を求める場合とを適応的に切替えて画素値を求め、前
記第1領域内で前記動き補償予測がなされない画素につ
いては、既に画素値が求められている周辺の画素から補
間によって画素値を求める。
(8) (1), (2), (3),
(4), (5), (6) or (7), using the three decoded lower layer frames instead of using the two decoded lower layer frames, and combining the non-existent lower layer frames. In performing the above, the three lower layer frames are respectively referred to as a first reference frame, a second reference frame, and a third reference frame, and the specific regions on each reference frame are referred to as a first region, a second region, and a third region, respectively. Region, and in the composite frame, for pixels outside the first region, copy pixel values from pixels at the same position in the first reference frame, and for pixels in the first region, copy the pixel values in the second reference frame. Obtaining a pixel value by motion compensation prediction from pixels outside the second area;
Adaptively switching between a case where a pixel value is obtained from pixels outside the third region in the third reference frame by motion compensation prediction and a case where a pixel value is obtained by a weighted average of pixel values obtained by the two motion compensation predictions. A pixel value is obtained by interpolation, and for a pixel in which the motion compensation prediction is not performed in the first area, a pixel value is obtained by interpolation from peripheral pixels for which a pixel value has already been obtained.

【0027】(9) (1)、(2)、(3)、
(4)、(5)、(6)、(7)又は(8)において、
符号化装置にて前記第2の動き補償に用いる動ベクトル
を求め、前記動ベクトルを符号化し、復号装置において
前記動ベクトルを復号し、前記合成時に行なう第2の動
き補償予測に用いる。
(9) (1), (2), (3),
In (4), (5), (6), (7) or (8),
An encoding device obtains a motion vector used for the second motion compensation, encodes the motion vector, decodes the motion vector, and uses it for a second motion compensation prediction performed at the time of the synthesis.

【0028】[0028]

【発明の実施の形態】まず、図9を用いて本発明の概念
を説明する。図9の第1参照フレーム、第2参照フレー
ムは、図17で説明したものと同じである。また図17
と同様、合成フレーム上の第1領域外の画素は、第1参
照フレームからコピーされる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, the concept of the present invention will be described with reference to FIG. The first reference frame and the second reference frame in FIG. 9 are the same as those described in FIG. FIG.
Similarly to the above, pixels outside the first area on the composite frame are copied from the first reference frame.

【0029】合成フレーム上の第1領域内の画素につい
ては、第2参照フレームから動き補償予測にて画素値を
求める。すなわち、図9の自動車の動きを考慮し、第2
参照フレームの自動車の後部領域を合成フレーム上の第
1領域内にコピーする。図9の斜線で示した領域は、第
1領域内で、動き補償予測によって画素値が正しく予測
できない領域である。
For the pixels in the first area on the composite frame, the pixel values are obtained from the second reference frame by motion compensation prediction. That is, considering the movement of the automobile shown in FIG.
The rear area of the vehicle in the reference frame is copied into the first area on the composite frame. The shaded region in FIG. 9 is a region in which the pixel value cannot be correctly predicted by the motion compensation prediction in the first region.

【0030】このような領域では画素値のコピーを行な
わず、周囲の画素から補間によって画素値を求める。以
上のようにして選択領域の背景が動いている場合でも、
不連続な画素値変化による歪みが発生しないように、下
位レイヤフレームを合成することができる。
In such an area, the pixel value is not copied, and the pixel value is obtained by interpolation from surrounding pixels. Even if the background of the selected area is moving as described above,
The lower layer frame can be synthesized so that distortion due to discontinuous pixel value changes does not occur.

【0031】次に、本発明の第1の実施の形態を説明す
る。図1は第1の実施の形態を示すブロック図である。
遅延部102、スイッチ105、重畳部107は図16
と同様の働きをする。
Next, a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the first embodiment.
The delay unit 102, the switch 105, and the superposition unit 107 are shown in FIG.
Works the same as.

【0032】図1の合成用動ベクトル作成部101は、
第1領域と第2領域の形状データ及び第1の動ベクトル
を用いて合成用の動ベクトル(第2の動ベクトル)を作
成する。ここで、第1の動ベクトルとは、下位レイヤフ
レームを符号化する際、第2参照フレームから第1参照
フレームを予測するために用いた動ベクトルを示す。以
後、下位レイヤ符号化で行なわれる動き補償を第1の動
き補償、下位レイヤ合成で行なわれる動き補償を第2の
動き補償と呼ぶ。
The synthesizing motion vector creating unit 101 in FIG.
A motion vector for synthesis (second motion vector) is created using the shape data of the first area and the second area and the first motion vector. Here, the first motion vector indicates a motion vector used to predict the first reference frame from the second reference frame when encoding the lower layer frame. Hereinafter, the motion compensation performed in lower layer coding is referred to as first motion compensation, and the motion compensation performed in lower layer combining is referred to as second motion compensation.

【0033】図1で、動き補償予測部103は、第2の
動ベクトルを用いて第2参照フレームから第1領域内の
画素値を第2の動き補償予測によって予測する。コント
ローラ104は、合成フレーム上の画素値が第1領域外
であれば、スイッチを第1参照フレーム側に接続し、そ
うでない場合は反対側に接続するよう制御する。コント
ローラはまた、補間部106を制御し、動き補償予測部
にて画素値が正しく予測できない領域の補間を行なう。
In FIG. 1, the motion compensation prediction unit 103 predicts the pixel value in the first area from the second reference frame by the second motion compensation prediction using the second motion vector. The controller 104 controls the switch to be connected to the first reference frame if the pixel value on the composite frame is outside the first area, and to the opposite side if not. The controller also controls the interpolation unit 106 to perform interpolation on an area where the pixel value cannot be correctly predicted by the motion compensation prediction unit.

【0034】以下、図5及び図10を用いて第1の実施
の形態を詳細に説明する。図10では円形の選択領域が
右に、背景が左に動いているものとする。第1参照フレ
ームは、下位レイヤ符号化時にブロックに分割され、各
ブロックは第1の動ベクトルにて動き補償予測によって
符号化されている。
Hereinafter, the first embodiment will be described in detail with reference to FIGS. In FIG. 10, it is assumed that the circular selection area moves to the right and the background moves to the left. The first reference frame is divided into blocks during lower layer coding, and each block is coded by motion compensation prediction using a first motion vector.

【0035】図1の合成用動ベクトル作成部101で
は、第1領域を含むブロックに対して第2の動ベクトル
が求められる。この時、ブロックが例えば左上から右下
方向にラスタスキャン順に走査され、第1領域を含むか
どうかがチェックされる。図10ではまず、ブロックa
について第2の動ベクトルが求められ、次にブロックb
について第2の動ベクトルが求められ、同様の処理がフ
レームの右下のブロックまで続けられる。
In the synthesis motion vector creation unit 101 shown in FIG. 1, a second motion vector is obtained for a block including the first area. At this time, the block is scanned, for example, from the upper left to the lower right in the raster scan order, and it is checked whether the block includes the first area. In FIG. 10, first, block a
, A second motion vector is determined, and then block b
, A second motion vector is determined, and the same processing is continued up to the lower right block of the frame.

【0036】図5は第1の実施の形態で用いられる合成
用動ベクトル作成部のブロック図を示す。候補動ベクト
ル決定部501は、対象ブロックの周辺に存在する第1
の動ベクトルあるいは第2の動ベクトルを候補動ベクト
ルとして選択する。例えば、図14に示すように対象ブ
ロックの上、左、右上の3個のブロック上の動ベクトル
MV1,MV2,MV3を候補動ベクトルとする。
FIG. 5 is a block diagram of a synthesizing motion vector creating unit used in the first embodiment. The candidate motion vector determination unit 501 determines whether the first motion vector
Or the second motion vector is selected as a candidate motion vector. For example, as shown in FIG. 14, the motion vectors MV1, MV2, MV3 on the three blocks on the upper, left, and upper right of the target block are set as candidate motion vectors.

【0037】図10に示した3本の第1の動ベクトルは
ブロックaに対する候補動ベクトルである。また、ブロ
ックbに対しては上と右上にある第1の動ベクトル及び
左にある第2の動ベクトルが候補動ベクトルとなる。画
像端では候補ベクトルのブロック位置にブロックが存在
しない場合がある。また、下位レイヤ符号化時にイント
ラモードとなったために第1の動ベクトルが存在しない
場合もある。これらの場合には候補動ベクトルを特定の
値(例えば0)とする。
The three first motion vectors shown in FIG. 10 are candidate motion vectors for the block a. For block b, the first and second motion vectors at the upper and upper right and the second motion vector at the left are candidate motion vectors. In some cases, no block exists at the block position of the candidate vector at the image end. Further, there is a case where the first motion vector does not exist because the mode is set to the intra mode during lower layer coding. In these cases, the candidate motion vector is set to a specific value (for example, 0).

【0038】図5の動ベクトル予測部502は、候補動
ベクトルから所定の予測式によって第2の動ベクトルを
求める。例えば候補動ベクトルの成分毎にメディアンを
求め、第2の動ベクトルとする。あるいは、候補動ベク
トルの成分毎に平均を求め、第2の動ベクトルとしても
良い。
The motion vector predictor 502 in FIG. 5 obtains a second motion vector from a candidate motion vector by a predetermined prediction formula. For example, a median is obtained for each component of the candidate motion vector, and is set as a second motion vector. Alternatively, an average may be obtained for each component of the candidate motion vector, and the average may be used as the second motion vector.

【0039】図1の動き補償予測部103では、合成フ
レーム上で第1領域に位置する部分を、第2の動ベクト
ルを用いて動き補償予測する。例えば図10のブロック
aに含まれる第1領域部分は、第2参照フレーム上の領
域cから、ブロックbに含まれる第1領域部分は、第2
参照フレーム上の領域dからそれぞれ予測される。
The motion compensation prediction unit 103 shown in FIG. 1 performs motion compensation prediction on a portion located in the first area on the synthesized frame using the second motion vector. For example, the first area part included in the block a in FIG. 10 is different from the area c in the second reference frame from the area c on the second reference frame.
Each is predicted from the region d on the reference frame.

【0040】図10では、簡単のために領域cや領域d
は第2領域と重複していないが、もしも重複する場合に
は、重複領域に対応する画素値は後に述べるように補間
処理によって埋められる。
In FIG. 10, for simplicity, the regions c and d
Does not overlap with the second region, but if it does, the pixel value corresponding to the overlap region is filled by interpolation as described later.

【0041】図1の補間部106では、コントローラか
らの制御により、第1領域中で第2の動き補償予測がな
されない画素の画素値を補間によって求める。すなわ
ち、第1領域の画素位置から、第2の動ベクトルによっ
て対応づけられた画素位置が第2領域に含まれる場合、
この画素を補間対象画素とする。
The interpolation unit 106 shown in FIG. 1 obtains, by interpolation, the pixel value of the pixel in the first area where the second motion compensation prediction is not performed under the control of the controller. That is, when the pixel position associated with the second motion vector is included in the second region from the pixel position of the first region,
This pixel is set as an interpolation target pixel.

【0042】この処理を1フレームにわたって行ない、
補間対象領域を得る。次に補間対象領域の画素値を、周
辺の画素値から補間によって求める。例えば周辺の画素
値の平均値を求め、平均値で補間領域内を一様に埋め
る。あるいは、周辺から補間領域内部に向かって画素値
を徐々に補間していく手法をとっても良い。
This processing is performed for one frame,
Obtain the interpolation target area. Next, the pixel value of the interpolation target area is obtained by interpolation from peripheral pixel values. For example, an average value of peripheral pixel values is obtained, and the interpolation area is uniformly filled with the average value. Alternatively, a method of gradually interpolating pixel values from the periphery toward the inside of the interpolation area may be used.

【0043】上で説明した図5の候補ベクトル決定部5
01では、対象ブロックの周辺に存在する第1の動ベク
トルとして、第1領域上のものを除外することが望まし
い。これは、例えば第1領域上の第1の動ベクトルは選
択領域の動きを表しているので、第2の動ベクトルを予
測するための候補動ベクトルとしては適切ではないから
である。また、また背景の動きが小さい場合は第2領域
上の第1の動ベクトルは背景の動きを正しく表していな
い可能性があるため、第2領域上の第1の動ベクトル
も、候補動ベクトルから除外しても良い。
The above-described candidate vector determination unit 5 of FIG.
In 01, it is desirable to exclude those on the first area as the first motion vectors existing around the target block. This is because, for example, the first motion vector on the first area represents the motion of the selected area, and is not appropriate as a candidate motion vector for predicting the second motion vector. When the background motion is small, the first motion vector on the second area may not correctly represent the background motion. Therefore, the first motion vector on the second area is also a candidate motion vector. May be excluded.

【0044】さらに図1の補間部106では補間対象領
域の代わりに、第1領域の内部に位置するブロックで、
その周辺に第1の動ベクトルが存在しない場合は、その
ブロック内の画素全てを補間対象画素として補間対象領
域を求めても良い。これは、ブロック周辺に背景のブロ
ックが存在しない時は、第2の動ベクトルを精度良く求
めることができず、補間を用いた方が良い場合があるた
めである。
Further, the interpolation unit 106 shown in FIG. 1 is a block located inside the first area instead of the interpolation target area.
If the first motion vector does not exist in the vicinity of the first motion vector, all the pixels in the block may be used as the interpolation target pixels to obtain the interpolation target area. This is because when there is no background block around the block, the second motion vector cannot be obtained with high accuracy, and it may be better to use interpolation.

【0045】以上のように、第1の実施の形態では第2
参照フレームから第1参照フレームへの第1の動ベクト
ルから背景の動ベクトル(第2の動ベクトル)を予測
し、第2の動ベクトルに基づいて合成フレームを作成す
る。
As described above, in the first embodiment, the second
A background motion vector (second motion vector) is predicted from a first motion vector from the reference frame to the first reference frame, and a combined frame is created based on the second motion vector.

【0046】次に、本発明の第2の実施の形態を説明す
る。第2の実施の形態では、図11に示すように下位レ
イヤ符号化の第1の動き補償予測にて第1参照フレーム
から第2参照フレームへの予測を行なう。図2に第2の
実施の形態のブロック図を示す。遅延部202と重畳部
207は図1と同様の働きをする。
Next, a second embodiment of the present invention will be described. In the second embodiment, as shown in FIG. 11, prediction from a first reference frame to a second reference frame is performed by first motion compensation prediction of lower layer coding. FIG. 2 shows a block diagram of the second embodiment. The delay unit 202 and the superposition unit 207 perform the same operation as in FIG.

【0047】図2の合成用動ベクトル作成部201で
は、第1領域と第2領域の形状データ及び第1の動ベク
トルを用い、第2の動き補償に用いる動ベクトル(第3
の動ベクトル)を求める。図6にそのブロック図を示
す。候補動ベクトル決定部601、動ベクトル予測部6
02は図5と同様の働きをして第2の動ベクトルを求め
る。次に動ベクトル反転部603では第2の動ベクトル
を反転し、第3の動ベクトルを求める。
The synthetic motion vector creating unit 201 shown in FIG. 2 uses the shape data of the first and second areas and the first motion vector to generate a motion vector (third motion vector) used for the second motion compensation.
Is obtained. FIG. 6 shows a block diagram thereof. Candidate motion vector determination unit 601, motion vector prediction unit 6
02 obtains the second motion vector by performing the same operation as in FIG. Next, the motion vector inversion unit 603 inverts the second motion vector to obtain a third motion vector.

【0048】図2の動き補償予測部203では第3の動
ベクトルに基づき、第2参照フレームの画素から第1参
照フレームの第1領域内の画素への動き補償予測が行な
われる。図11に示すように、予測の方向が通常の動き
補償と逆であるため、一般に合成フレーム上で予測ブロ
ックが重なりあう。
The motion compensation prediction unit 203 shown in FIG. 2 performs motion compensation prediction from pixels of the second reference frame to pixels in the first area of the first reference frame based on the third motion vector. As shown in FIG. 11, since the direction of prediction is opposite to that of normal motion compensation, predicted blocks generally overlap each other on a synthesized frame.

【0049】このような重複部の画素については、各予
測ブロックの画素値を累積し、それらの平均値を画素値
とする。また、予測ブロックが重複するために合成フレ
ーム中で予測されない画素が発生するが、これについて
は後に説明する図2の補間部206にて補間を行なう。
With respect to the pixels in such an overlapping portion, the pixel values of each prediction block are accumulated, and the average value thereof is used as the pixel value. In addition, pixels that are not predicted occur in the synthesized frame due to overlapping prediction blocks, and this is interpolated by the interpolation unit 206 of FIG. 2 described later.

【0050】図2のコントローラ204は、合成フレー
ム上の画素値が第1領域外であれば、スイッチ205を
第1参照フレーム側に接続し、そうでない場合は反対側
に接続するよう制御する。コントローラはまた、補間部
206を制御し、動き補償予測部にて画素値が正しく予
測できない領域の補間を行なう。補間部206は、コン
トローラからの制御により、第1領域中で第2の動き補
償予測がなされない画素の画素値を補間によって求め
る。
The controller 204 of FIG. 2 controls the switch 205 to be connected to the first reference frame if the pixel value on the composite frame is outside the first area, and to the opposite side if not. The controller also controls the interpolation unit 206 to perform interpolation on an area where the pixel value cannot be correctly predicted by the motion compensation prediction unit. The interpolation unit 206 obtains, by interpolation, the pixel value of the pixel in the first area where the second motion compensation prediction is not performed under the control of the controller.

【0051】補間画素としては第1の実施の形態と同
様、第3の動ベクトルによって対応づけられた画素位置
が第2領域に含まれる画素が選択される。また、予測ブ
ロックが重複するために、第3の動ベクトルによって第
2参照画像に対応づけられない画素も補間領域となる。
補間手法は第1の実施の形態と同様である。
As in the first embodiment, a pixel whose pixel position associated with the third motion vector is included in the second area is selected as the interpolation pixel. Further, pixels that cannot be associated with the second reference image by the third motion vector due to the overlap of the prediction blocks also become the interpolation area.
The interpolation method is the same as in the first embodiment.

【0052】以上のように、第2の実施の形態では第1
参照フレームから第2参照フレームへの第1の動ベクト
ルから、背景の動ベクトルを予測し、これを反転して第
2参照フレームから第1参照フレームへの第3の動ベク
トルをもとめ、第3の動ベクトルに基づいて合成フレー
ムを作成する。
As described above, in the second embodiment, the first
A motion vector of the background is predicted from the first motion vector from the reference frame to the second reference frame, and is inverted to obtain a third motion vector from the second reference frame to the first reference frame. A composite frame is created based on the motion vector of.

【0053】次に、本発明の第3の実施の形態を説明す
る。第3の実施の形態では図12に示すように、下位レ
イヤ符号化の第1の動き補償予測にて、予測に用いる2
枚の下位レイヤフレームとは別のフレーム(他の下位レ
イヤフレーム)から第1参照フレームへの予測を行な
う。図3に第3の実施の形態のブロック図を示す。遅延
部302、動き補償予測部303、コントローラ30
4、スイッチ305、重畳部307は図1と同様の働き
をする。
Next, a third embodiment of the present invention will be described. In the third embodiment, as shown in FIG. 12, in the first motion compensation prediction of lower layer coding, 2 bits used for prediction are used.
The prediction from the frame different from the one lower layer frame (another lower layer frame) to the first reference frame is performed. FIG. 3 shows a block diagram of the third embodiment. Delay section 302, motion compensation prediction section 303, controller 30
4, the switch 305, and the superimposing unit 307 operate in the same manner as in FIG.

【0054】図3の合成用動ベクトル作成部301で
は、第1領域と他の下位レイヤフレーム上の選択領域
(他の領域)及び第1の動ベクトルを用い、第2の動き
補償に用いる動ベクトル(第4の動ベクトル)を求め
る。ここで、第1の動ベクトルは他の下位レイヤフレー
ムから第1参照画像への予測を示すものである。
The synthesis motion vector creating unit 301 shown in FIG. 3 uses the first area, the selected area (other area) on another lower layer frame, and the first motion vector to generate a motion vector used for the second motion compensation. A vector (a fourth motion vector) is obtained. Here, the first motion vector indicates prediction from another lower layer frame to the first reference image.

【0055】図7に合成用動ベクトル作成部のブロック
図を示す。候補動ベクトル決定部701、動ベクトル予
測部702は図5と同様の働きをして第2の動ベクトル
を求める。次に動ベクトル外挿部703は、第2の動ベ
クトルを外挿して、第2参照画像から第1参照画像への
予測を示す第4の動ベクトルを求める。
FIG. 7 is a block diagram of the synthesizing motion vector creating section. The candidate motion vector determination unit 701 and the motion vector prediction unit 702 obtain the second motion vector by performing the same operation as in FIG. Next, the motion vector extrapolation unit 703 extrapolates the second motion vector to obtain a fourth motion vector indicating prediction from the second reference image to the first reference image.

【0056】図15(a)に外挿処理の例を示す。ここ
れは、各フレームを横から見た図である。実線で示す第
2の動ベクトルは、図15(a)のフレーム間隔の比t
1:t2に基づいて点線で示す第4の動ベクトルを求め
る。本実施の形態では図15(a)のような外挿処理が
行なわれるが、各フレームの位置関係によって、外挿処
理は図15(b)〜(d)のようになる。ただし、図1
5(d)では外挿の代わりに内挿が用いられる。
FIG. 15A shows an example of the extrapolation process. Here, each frame is viewed from the side. The second motion vector indicated by the solid line is the ratio t of the frame intervals in FIG.
1: A fourth motion vector indicated by a dotted line is obtained based on t2. In the present embodiment, extrapolation processing as shown in FIG. 15A is performed, but the extrapolation processing is as shown in FIGS. 15B to 15D depending on the positional relationship of each frame. However, FIG.
In 5 (d), interpolation is used instead of extrapolation.

【0057】以上のように、第3の実施の形態では他の
下位レイヤフレームから第1参照フレームへの第1の動
ベクトルから、背景の動ベクトルを予測し、これを外挿
して第2参照フレームから第1参照フレームへの第4の
動ベクトルをもとめ、第4の動ベクトルに基づいて合成
フレームを作成する。
As described above, in the third embodiment, the motion vector of the background is predicted from the first motion vector from another lower layer frame to the first reference frame, and extrapolated to predict the second motion vector. A fourth motion vector from the frame to the first reference frame is obtained, and a combined frame is created based on the fourth motion vector.

【0058】次に、本発明の第4の実施の形態を説明す
る。第4の実施の形態では図13に示すように、第1の
動き補償予測において、第2参照フレームと第3参照フ
レームの2枚のフレームから第1参照フレームを予測す
る。図4に第4の実施の形態のブロック図を示す。重畳
部408は図1と同様の働きをする。
Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, as shown in FIG. 13, in the first motion compensation prediction, a first reference frame is predicted from two frames, a second reference frame and a third reference frame. FIG. 4 shows a block diagram of the fourth embodiment. The superimposition unit 408 operates in the same manner as in FIG.

【0059】図4の合成用動ベクトル作成部401で
は、第1の動ベクトル及び既に求めた第2の動ベクトル
から、所定の予測式によって第2の動ベクトルを求め
る。本実施の形態では各ブロックの第1の動ベクトル
は、1本(前方予測用ベクトルあるいは後方予測用ベク
トル)の場合と2本(前方予測用ベクトルと後方予測用
ベクトル)の場合がある。
The synthesis motion vector creation unit 401 shown in FIG. 4 obtains a second motion vector from the first motion vector and the already obtained second motion vector by a predetermined prediction formula. In the present embodiment, the first motion vector of each block may be one (forward prediction vector or backward prediction vector) or two (forward prediction vector and backward prediction vector).

【0060】例えば、図13のブロックaの周辺ブロッ
ク(図14に示した3個のブロック)は、全て前方予測
用ベクトルだけを持つ。このような場合は第2の動ベク
トルとしても前方予測用ベクトルを求める。図13のブ
ロックbについては、周辺ブロックに前方ベクトルが2
本(第1の動ベクトルと第2の動ベクトル)、後方ベク
トルが2本(第1の動ベクトル)が存在するので、ブロ
ックbの第2の動ベクトルとして、前方予測用と後方予
測用の2本の動ベクトルを求める。
For example, all the blocks around the block a in FIG. 13 (three blocks shown in FIG. 14) have only forward prediction vectors. In such a case, a forward prediction vector is also obtained as the second motion vector. As for the block b in FIG.
(First motion vector and second motion vector) and two backward vectors (first motion vector), the second motion vector of block b is used for forward prediction and backward prediction. Find two motion vectors.

【0061】個々の第2の動ベクトルの求め方は、第1
の実施の形態と同様である。一般に、周辺ブロックにつ
いて前方ベクトルと後方ベクトルの数を調べ、多い方の
予測方向を第2の動き補償に用いる。また、ベクトル数
が同一である場合には、両方向予測を第2の動き補償に
用いる。
The method of obtaining each of the second motion vectors is as follows.
This is the same as the embodiment. Generally, the number of forward vectors and backward vectors is checked for peripheral blocks, and the larger prediction direction is used for the second motion compensation. When the number of vectors is the same, bidirectional prediction is used for the second motion compensation.

【0062】図4の動き補償予測部404では、第2の
動ベクトルを用いて第1参照フレームの第1領域の画素
値を、第2参照フレームと第3参照フレームから両方向
動き補償予測によって求める。第1参照フレームは第1
の遅延部402からの出力、第2参照フレームは第2の
遅延部403からの出力である。
The motion compensation prediction unit 404 in FIG. 4 obtains the pixel value of the first region of the first reference frame from the second and third reference frames by using the second motion vector by bidirectional motion compensation prediction. . The first reference frame is the first
And the second reference frame is the output from the second delay unit 403.

【0063】例えば図13のブロックaは第2参照フレ
ームの領域cから前方向予測され、ブロックbは第2参
照フレームの領域dと第3参照フレームの領域eから両
方向予測される。ただし両方向予測の場合、いずれかの
予測ブロックが選択領域の画素を含む場合、その予測ブ
ロックの画素を用いず、片方向予測を行なう。
For example, the block a in FIG. 13 is forward predicted from the area c of the second reference frame, and the block b is bidirectional predicted from the area d of the second reference frame and the area e of the third reference frame. However, in the case of bidirectional prediction, when one of the prediction blocks includes a pixel in the selected area, unidirectional prediction is performed without using the pixel of the prediction block.

【0064】例えば、図13ではブロックbが領域dと
領域eから予測されるが、領域dのうち第2領域と重な
る部分については両方向予測を行なわず、領域eからの
後方向予測を用いる。
For example, in FIG. 13, although the block b is predicted from the region d and the region e, the portion of the region d that overlaps the second region is not subjected to the bidirectional prediction, and the backward prediction from the region e is used.

【0065】図4のコントローラ405は、第1の実施
の形態と同様にスイッチ406を制御し、第1参照フレ
ームの画素値と動き補償予測部からの画素値を切替え
る。コントローラはまた、第1、第2及び第3領域の形
状データと第2の動ベクトルを用いて補間部407を制
御し、補間部では第2の動き補償予測にて予測されない
画素の画素値を補間する。
The controller 405 in FIG. 4 controls the switch 406 as in the first embodiment, and switches the pixel value of the first reference frame and the pixel value from the motion compensation prediction unit. The controller also controls the interpolation unit 407 using the shape data of the first, second, and third regions and the second motion vector, and the interpolation unit calculates a pixel value of a pixel that is not predicted by the second motion compensation prediction. Interpolate.

【0066】以上のように、第4の実施の形態では下位
レイヤの両方向予測に用いる第1の動ベクトルから、背
景の動ベクトルを予測し、第2参照フレーム及び第3参
照フレームから第1参照フレームへの両方向予測を行な
って合成フレームを作成する。なお、ここでは下位レイ
ヤフレームが両方向される場合について述べたが、下位
レイヤフレームが片方向予測される場合でも、下位レイ
ヤ合成において両方向予測を用いることができる。
As described above, in the fourth embodiment, the background motion vector is predicted from the first motion vector used for the bidirectional prediction of the lower layer, and the first reference is used from the second and third reference frames. A combined frame is created by performing bidirectional prediction on the frame. Here, the case where the lower layer frame is bidirectional is described. However, even when the lower layer frame is unidirectionally predicted, the bidirectional prediction can be used in the lower layer synthesis.

【0067】例えば下位レイヤの符号化で、第2参照フ
レームから第1参照フレームへの前方方向予測と、第1
参照フレームから第3参照フレームへの前方方向予測と
が用いられる場合、第2参照フレームから第1の実施の
形態の手法で第2の動ベクトルを求め、第3参照フレー
ムから第2の実施の形態の手法で第3の動ベクトルを求
めれば、第2参照フレームと第3参照フレームから、両
方向予測を用いて合成フレームが作成できる。
For example, in the encoding of the lower layer, the forward prediction from the second reference frame to the first reference frame and the first prediction
When forward prediction from a reference frame to a third reference frame is used, a second motion vector is obtained from the second reference frame by the method of the first embodiment, and the second motion vector is obtained from the third reference frame. If the third motion vector is obtained by the method of the embodiment, a combined frame can be created from the second reference frame and the third reference frame using bidirectional prediction.

【0068】次に、本発明の第5の実施の形態を説明す
る。第5の実施の形態では、合成フレームを作成するた
めに用いる動ベクトルの一部を、符号化装置にて求め、
符号化する。図8に第5の実施の形態のブロック図を示
す。
Next, a fifth embodiment of the present invention will be described. In the fifth embodiment, a part of a motion vector used to create a composite frame is obtained by an encoding device,
Encode. FIG. 8 shows a block diagram of the fifth embodiment.

【0069】図8の符号化装置側では、まず、候補動ベ
クトル決定部801と動ベクトル予測部802にて、第
1の実施の形態と同様の手法によって第2の動ベクトル
を求める。次に、第2の動ベクトルを初期ベクトルとし
て、動ベクトル探索部803にてブロックマッチングに
よってベクトル探索を行ない、第1領域の背景部につい
てより正確な動ベクトル(補正動ベクトル)を求める。
On the encoding apparatus side in FIG. 8, first, a candidate motion vector determination unit 801 and a motion vector prediction unit 802 obtain a second motion vector by the same method as in the first embodiment. Next, using the second motion vector as an initial vector, the motion vector search unit 803 performs a vector search by block matching to obtain a more accurate motion vector (corrected motion vector) for the background portion of the first area.

【0070】ただし、補正動ベクトルを求めるブロック
は、第1領域とそれ以外の領域を両方含むブロックに制
限する。またこの時、ブロック内で第1領域外に相当す
る画素だけをベクトルマッチングに用いる。補正動ベク
トルは候補動ベクトル決定部にフィードバックされ、次
回の動ベクトル予測に利用される。
However, the blocks for obtaining the corrected motion vector are limited to blocks including both the first area and other areas. At this time, only pixels corresponding to areas outside the first area in the block are used for vector matching. The corrected motion vector is fed back to the candidate motion vector determination unit and used for the next motion vector prediction.

【0071】図8の動ベクトル符号化部804では、動
ベクトル探索部803にて求められた補正動ベクトルを
符号化する。補正動ベクトルの符号化では、対応する第
2の動ベクトル(初期ベクトルとして用いたもの)との
差分のみを符号化する。
The motion vector encoding unit 804 of FIG. 8 encodes the corrected motion vector obtained by the motion vector search unit 803. In the encoding of the corrected motion vector, only the difference from the corresponding second motion vector (used as the initial vector) is encoded.

【0072】図8の復号装置側では、候補動ベクトル決
定部805と動ベクトル予測部806にて、第1の実施
の形態と同様の手法によって第2の動ベクトルを求め
る。これらの動作は符号化装置側と同一である。
On the decoding apparatus side in FIG. 8, the candidate motion vector determination unit 805 and the motion vector prediction unit 806 determine the second motion vector in the same manner as in the first embodiment. These operations are the same as those on the encoding device side.

【0073】次に補正動ベクトル復号部807では、第
2の動ベクトルと、補正動ベクトルの符号化データから
補正動ベクトルを復号する。復号された補正ベクトルは
候補動ベクトル決定部805に供給され、次回の動ベク
トル予測に利用される。
Next, the corrected moving vector decoding unit 807 decodes the corrected moving vector from the second moving vector and the encoded data of the corrected moving vector. The decoded correction vector is supplied to the candidate motion vector determination unit 805, and is used for the next motion vector prediction.

【0074】図8のコントローラ808はスイッチ80
9を制御し、現在のブロックが第1領域のみを含む場合
にはスイッチを動ベクトル予測部に接続し、第1領域と
それ以外の領域を含む場合にはスイッチを逆側に接続し
て、第2の動ベクトルあるいは補正動ベクトルを動き補
償予測部に出力する。図示しない動き補償予測部は、第
1の実施の形態で用いたものと同様の働きにより、第2
参照フレームから第1参照フレームの第1領域内の背景
画素を予測する。
The controller 808 in FIG.
9 if the current block includes only the first region, the switch is connected to the motion vector predictor, and if the current block includes the first region and other regions, the switch is connected to the opposite side, The second motion vector or the corrected motion vector is output to the motion compensation prediction unit. The motion compensation prediction unit (not shown) performs the second operation by the same operation as that used in the first embodiment.
A background pixel in the first region of the first reference frame is predicted from the reference frame.

【0075】以上のようにして、第5の実施の形態では
選択領域の境界に相当するブロックについて、第2の動
ベクトルの補正を行ない、より画質の良い合成フレーム
を得る。
As described above, in the fifth embodiment, the second motion vector is corrected for the block corresponding to the boundary of the selected area, and a higher-quality composite frame is obtained.

【0076】[0076]

【発明の効果】【The invention's effect】

(1)本発明の動画像符号化装置及び動画像復号装置に
よれば、復号された下位レイヤから、符号化されなかっ
た下位レイヤを合成する際に、上位レイヤの選択領域の
背景が動いている場合でも良好な合成フレームを作成す
ることが出来、上位レイヤまでの復号で選択領域のみを
高いフレームレートで再生する際に、品質の良い再生画
像を得ることが出来る。
(1) According to the moving picture coding apparatus and the moving picture decoding apparatus of the present invention, when combining an uncoded lower layer from a decoded lower layer, the background of the selected area of the upper layer moves. In this case, it is possible to create a good synthesized frame and to reproduce a high quality image when only the selected area is reproduced at a high frame rate by decoding up to the upper layer.

【0077】(2)また、下位レイヤ合成用の動き補償
予測を下位レイヤの画素値の動き補償予測を利用して行
う場合には、前者の動き補償予測を効率良く行うことが
可能となる。
(2) When the motion compensation prediction for lower layer synthesis is performed using the motion compensation prediction of the pixel value of the lower layer, the former motion compensation prediction can be performed efficiently.

【0078】(3)また、下位レイヤ合成用の動き補償
予測と下位レイヤの画素値の動き補償予測が同一方向の
場合には、前者の動き補償予測で用いる動ベクトルから
前者の動き補償予測で用いる動ベクトルを求めるため
に、簡単な処理で前者の動き補償予測を行うことが可能
となる。
(3) If the motion compensation prediction for lower layer synthesis and the motion compensation prediction of the pixel value of the lower layer are in the same direction, the motion vector used for the former motion compensation prediction is used for the former motion compensation prediction. In order to obtain a motion vector to be used, the former motion compensation prediction can be performed by simple processing.

【0079】(4)また、下位レイヤ合成用の動き補償
予測と下位レイヤの画素値の動き補償予測が逆方向の場
合には、後者の動き補償予測で用いる動ベクトルを反転
させたものから前者の動き補償予測で用いる動ベクトル
を求めるために、簡単な処理で前者の動き補償予測を行
うことが可能となる。
(4) When the motion compensation prediction for lower layer synthesis and the motion compensation prediction of the pixel value of the lower layer are in the opposite directions, the motion vector used in the latter motion compensation prediction is inverted to the former. In order to obtain a motion vector to be used in the motion compensation prediction, it is possible to perform the former motion compensation prediction by a simple process.

【0080】(5)また、下位レイヤの画素値の動き補
償予測が、下位レイヤの合成に用いるフレームとは別の
フレームを参照画像としてなされる場合には、動ベクト
ルの内挿及び外挿によって下位レイヤ合成用の動き補償
予測で用いる動ベクトルを求め、合成用の動き補償予測
を効率良く行うことが可能となる。
(5) When the motion compensation prediction of the pixel value of the lower layer is performed using a frame different from the frame used for the synthesis of the lower layer as a reference image, interpolation and extrapolation of the motion vector are performed. A motion vector used for motion compensation prediction for lower layer synthesis is obtained, and motion compensation prediction for synthesis can be performed efficiently.

【0081】(6)また、上記(3)または(4)で下
位レイヤ合成用の動き補償予測を行う対象領域の周囲第
1の動ベクトル(下位レイヤの画素値の動き補償予測用
動ベクトル)として、合成に用いる下位レイヤ上の特定
領域に位置するものを除外する場合には、良好な合成画
像を得ることが可能となる。
(6) A first motion vector around a target area for which motion compensation prediction for lower layer synthesis is performed in (3) or (4) (a motion vector for motion compensation prediction of the pixel value of the lower layer) In the case of excluding those located in a specific area on the lower layer used for composition, a good composite image can be obtained.

【0082】(7)また、上記(5)で下位レイヤ合成
用の動き補償予測を行う対象領域の周囲の第1の動ベク
トルとして、前記別のフレーム上の特定領域に位置する
ものを除外する場合には、良好な合成画像を得ることが
可能となる。
(7) Also, as the first motion vector around the target area for which the motion compensation prediction for lower layer synthesis is performed in (5), a vector located in a specific area on the another frame is excluded. In this case, it is possible to obtain a good composite image.

【0083】(8)また、上記(1)、(2)、
(3)、(4)、(5)、(6)又は(7)で、下位レ
イヤ合成用の動き補償予測として両方向の動き補償予測
を用いる場合には、より品質の良い合成画像を得ること
が可能となる。
(8) The above (1), (2),
In (3), (4), (5), (6) or (7), when using bidirectional motion compensation prediction as motion compensation prediction for lower layer synthesis, a higher quality composite image is obtained. Becomes possible.

【0084】(9)また、上記(1)、(2)、
(3)、(4)、(5)、(6)、(7)又は(8)
で、符号化側で補正動ベクトルを符号化する場合には、
選択領域の周辺における合成を正確に行うことで、より
品質の良い再生画像を得ることが可能となる。
(9) The above (1), (2),
(3), (4), (5), (6), (7) or (8)
Then, when encoding the corrected motion vector on the encoding side,
By accurately performing synthesis in the vicinity of the selected area, it is possible to obtain a higher quality reproduced image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態の符号化装置を示す
ブロック図である。
FIG. 1 is a block diagram illustrating an encoding device according to a first embodiment of the present invention.

【図2】本発明の第2の実施の形態の符号化装置を示す
ブロック図である。
FIG. 2 is a block diagram illustrating an encoding device according to a second embodiment of the present invention.

【図3】本発明の第3の実施の形態の符号化装置を示す
ブロック図である。
FIG. 3 is a block diagram illustrating an encoding device according to a third embodiment of the present invention.

【図4】本発明の第4の実施の形態の符号化装置を示す
ブロック図である。
FIG. 4 is a block diagram illustrating an encoding device according to a fourth embodiment of the present invention.

【図5】第1の実施の形態の合成用動ベクトル作成部を
示す図である。
FIG. 5 is a diagram illustrating a compositing motion vector creating unit according to the first embodiment;

【図6】第2の実施の形態の合成用動ベクトル作成部を
示す図である。
FIG. 6 is a diagram illustrating a synthesis motion vector creation unit according to a second embodiment.

【図7】第3の実施の形態の合成用動ベクトル作成部を
示す図である。
FIG. 7 is a diagram illustrating a compositing motion vector creating unit according to a third embodiment;

【図8】本発明の第5の実施の形態の符号化装置を示す
ブロック図である。
FIG. 8 is a block diagram illustrating an encoding device according to a fifth embodiment of the present invention.

【図9】本発明の概念を説明する図である。FIG. 9 is a diagram illustrating the concept of the present invention.

【図10】第1の実施の形態を説明する図である。FIG. 10 is a diagram illustrating a first embodiment.

【図11】第2の実施の形態を説明する図である。FIG. 11 is a diagram illustrating a second embodiment.

【図12】第3の実施の形態を説明する図である。FIG. 12 is a diagram illustrating a third embodiment.

【図13】第4の実施の形態を説明する図である。FIG. 13 is a diagram illustrating a fourth embodiment.

【図14】本発明における動ベクトルの予測を説明する
図である。
FIG. 14 is a diagram illustrating prediction of a motion vector according to the present invention.

【図15】本発明の動ベクトル外挿及び内挿を説明する
図である。
FIG. 15 is a diagram illustrating extrapolation and interpolation of a motion vector according to the present invention.

【図16】従来の下位レイヤ合成手法について説明する
図である。
FIG. 16 is a diagram illustrating a conventional lower layer combining method.

【図17】従来の技術の問題点を説明する図である。FIG. 17 is a diagram illustrating a problem of the conventional technique.

【図18】時間階層化の概念を説明する図である。FIG. 18 is a diagram illustrating the concept of time stratification.

【符号の説明】[Explanation of symbols]

101 合成用動ベクトル作成部 102 遅延部 103 動き補償予測部 104 コントローラ 105 スイッチ 106 補間部 107 重畳部 101 Synthetic motion vector creation unit 102 Delay unit 103 Motion compensation prediction unit 104 Controller 105 Switch 106 Interpolation unit 107 Superposition unit

フロントページの続き (72)発明者 伊藤 典男 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内Continued on the front page (72) Inventor Norio Ito 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 動画像シーケンスを低いフレームレート
で符号化する下位レイヤ符号化と、前記動画像シーケン
スの一つ以上の特定領域を高いフレームレートで符号化
する上位レイヤ符号化を行ない、下位レイヤの復号は低
いフレームレートの下位レイヤのみを復号し、上位レイ
ヤまでの復号は下位レイヤと、上位レイヤを復号して下
位レイヤと上位レイヤを重畳し、前記特定領域について
下位レイヤより高いフレームレートを得る階層符号化装
置及び復号装置であって、 復号の際に上位レイヤと同じフレーム位置に対応する下
位レイヤフレームが存在しない場合に、復号された2枚
の下位レイヤフレームを用いて前記存在しない下位レイ
ヤフレームの合成を行い、前記合成に当たっては、前記
2枚の下位レイヤフレーム中の一方の下位レイヤフレー
ムを第1参照フレーム、他方を第2参照フレームとし、
前記第1参照フレーム上の前記特定領域を第1領域、前
記第2参照フレーム上の前記特定領域を第2領域とし、
合成フレームにおいて、前記第1領域外の画素について
は、前記第1参照フレームの同一位置の画素から画素値
をコピーし、前記第1領域内の画素については、前記第
2参照フレームにおける第2領域外の画素から動き補償
予測によって画素値を求め、前記第1領域内で前記動き
補償予測がなされない画素については、既に画素値が求
められている周辺の画素から補間によって画素値を求め
ることを特徴とする動画像符号化装置及び動画像復号装
置。
1. A lower layer encoding method for encoding a moving image sequence at a low frame rate, and an upper layer encoding method for encoding one or more specific regions of the moving image sequence at a high frame rate. Decoding only the lower layer having a lower frame rate, and decoding up to the upper layer, decoding the lower layer and the upper layer, superimposing the lower layer and the upper layer, and setting a higher frame rate than the lower layer for the specific area. A hierarchical encoding device and a decoding device for obtaining, when decoding, when there is no lower layer frame corresponding to the same frame position as the upper layer, using the two lower layer frames thus decoded. Layer frames are synthesized, and in the synthesizing, one lower layer of the two lower layer frames is used. Frame first reference frame, the other as a second reference frame,
The specific area on the first reference frame is a first area, the specific area on the second reference frame is a second area,
In the composite frame, for pixels outside the first area, pixel values are copied from pixels at the same position in the first reference frame, and for pixels in the first area, the second area in the second reference frame is copied. A pixel value is obtained from outside pixels by motion compensation prediction, and for a pixel in which the motion compensation prediction is not performed in the first area, a pixel value is obtained by interpolation from peripheral pixels for which a pixel value has already been obtained. A moving picture encoding apparatus and a moving picture decoding apparatus, which are characterized.
【請求項2】 請求項1記載の動画像符号化装置及び動
画像復号装置において、下位レイヤフレームを第1の動
き補償予測手段によって符号化し、前記合成における動
き補償予測を第2の動き補償予測手段によって行ない、
前記第1の動き補償予測にて用いた第1の動ベクトルを
前記第2の動き補償予測に利用して、前記合成を行なう
ことを特徴とする動画像符号化装置及び動画像復号装
置。
2. The moving picture encoding apparatus and the moving picture decoding apparatus according to claim 1, wherein the lower layer frame is encoded by a first motion compensation prediction means, and the motion compensation prediction in the synthesis is performed by a second motion compensation prediction. By means,
A moving picture coding apparatus and a moving picture decoding apparatus, wherein the synthesis is performed by using a first motion vector used in the first motion compensation prediction for the second motion compensation prediction.
【請求項3】 請求項2記載の動画像符号化装置及び動
画像復号装置において、第1参照フレームを、第2参照
フレームから前記第1の動き補償予測によって符号化
し、前記第1領域に対して第2の動ベクトルを求め、前
記第2の動ベクトルを求めるに当たっては、周囲に存在
する前記第1の動ベクトル及び既に求められた第2の動
ベクトルから、所定の予測式に基づいて第2の動ベクト
ルを求め、前記第2の動き補償予測を行なうことを特徴
とする動画像符号化装置及び動画像復号装置。
3. The moving picture encoding apparatus and the moving picture decoding apparatus according to claim 2, wherein a first reference frame is encoded from a second reference frame by the first motion compensation prediction, and In obtaining the second motion vector, and obtaining the second motion vector, a second motion vector is obtained based on a predetermined prediction formula from the surrounding first motion vector and the already obtained second motion vector. 2. A moving picture encoding apparatus and a moving picture decoding apparatus, wherein two moving vectors are obtained and the second motion compensation prediction is performed.
【請求項4】 請求項3記載の動画像符号化装置及び動
画像復号装置において、第2参照フレームを、第1参照
フレームから前記第1の動き補償予測によって符号化
し、前記第2の動ベクトルを反転させて、第2参照フレ
ームから第1参照フレームへの動ベクトル(第3の動ベ
クトル)を求め、前記第3の動ベクトルを用いて前記第
2の動き補償予測を行ない、前記第2の動き補償予測の
際に合成フレーム上の一つの画素が、第2参照フレーム
上の複数の画素を参照する場合には前記複数の画素値の
平均値を予測画素値とすることを特徴とする動画像符号
化装置及び動画像復号装置。
4. The moving picture encoding apparatus and the moving picture decoding apparatus according to claim 3, wherein a second reference frame is encoded from the first reference frame by the first motion compensation prediction, and the second motion vector is encoded. To obtain a motion vector (a third motion vector) from the second reference frame to the first reference frame, perform the second motion compensation prediction using the third motion vector, and perform the second motion compensation prediction. When one pixel on the synthesized frame refers to a plurality of pixels on the second reference frame at the time of the motion compensation prediction, an average value of the plurality of pixel values is used as a predicted pixel value. A video encoding device and a video decoding device.
【請求項5】 請求項3記載の動画像符号化装置及び動
画像復号装置において、第1参照フレームを、第2参照
フレーム以外の下位レイヤフレーム(他の下位レイヤフ
レーム)から前記第1の動き補償予測によって符号化
し、前記第2の動ベクトルから所定の内挿式及び外挿式
によって、第2参照フレームから第1参照フレームへの
動ベクトル(第4の動ベクトル)を求め、前記第4の動
ベクトルを用いて前記第2の動き補償予測を行なうこと
を特徴とする動画像符号化装置及び動画像復号装置。
5. The moving picture encoding apparatus and the moving picture decoding apparatus according to claim 3, wherein a first reference frame is converted from a lower layer frame other than a second reference frame (another lower layer frame) to the first motion. Encoding is performed by compensated prediction, and a motion vector (fourth motion vector) from the second reference frame to the first reference frame is obtained from the second motion vector by a predetermined interpolation formula and extrapolation formula. A video encoding device and a video decoding device, wherein the second motion compensation prediction is performed using the motion vector of
【請求項6】 請求項3又は4記載の動画像符号化装置
及び動画像復号装置において、前記周囲に存在する第1
の動ベクトルとして、前記第2領域及び前記第1領域に
位置するものを除外することを特徴とする動画像符号化
装置及び動画像復号装置。
6. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 3 or 4, wherein the first and the second surroundings exist.
A moving vector encoding apparatus and a moving image decoding apparatus, wherein a moving vector located in the second area and the first area is excluded.
【請求項7】 請求項5記載の動画像符号化装置及び動
画像復号装置において、前記周囲に存在する第1の動ベ
クトルとして、前記他の下位レイヤフレーム上の前記特
定領域及び前記第1領域に位置するものを除外すること
を特徴とする動画像符号化装置及び動画像復号装置。
7. The moving image encoding device and the moving image decoding device according to claim 5, wherein the specific region and the first region on the another lower layer frame are used as the first moving vector existing around the moving image encoding device and the moving image decoding device. A video encoding device and a video decoding device, characterized in that the video coding device and the video decoding device are characterized by excluding those located in the video data.
【請求項8】 請求項1、2、3、4、5、6又は7記
載の動画像符号化装置及び動画像復号装置において、復
号された2枚の下位レイヤフレームを用いる代わりに復
号された3枚の下位レイヤフレームを用い、前記存在し
ない下位レイヤフレームの合成をするに当たっては、前
記3枚の下位レイヤフレームをそれぞれ第1参照フレー
ム、第2参照フレーム及び第3参照フレームとし、各参
照フレーム上の前記特定領域をそれぞれ第1領域、第2
領域及び第3領域とし、合成フレームにおいて、前記第
1領域外の画素については、前記第1参照フレームの同
一位置の画素から画素値をコピーし、前記第1領域内の
画素については、前記第2参照フレームにおける第2領
域外の画素から動き補償予測によって画素値を求める場
合と、前記第3参照フレームにおける第3領域外の画素
から動き補償予測によって画素値を求める場合と、前記
2つの動き補償予測で得られる画素値の加重平均によっ
て画素値を求める場合とを適応的に切替えて画素値を求
め、前記第1領域内で前記動き補償予測がなされない画
素については、既に画素値が求められている周辺の画素
から補間によって画素値を求めることを特徴とする動画
像符号化装置及び動画像復号装置。
8. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 1, wherein decoding is performed instead of using the two decoded lower layer frames. In synthesizing the nonexistent lower layer frames using three lower layer frames, the three lower layer frames are referred to as a first reference frame, a second reference frame, and a third reference frame, respectively. The above specific areas are respectively referred to as a first area and a second area.
In the combined frame, pixel values of pixels outside the first region are copied from pixels at the same position in the first reference frame, and pixels in the first region are copied in the first frame. A case where a pixel value is obtained by motion compensation prediction from a pixel outside the second region in the second reference frame; a case where a pixel value is obtained by motion compensation prediction from a pixel outside the third region in the third reference frame; The pixel value is obtained by adaptively switching between the case where the pixel value is obtained by the weighted average of the pixel value obtained by the compensation prediction, and the pixel value for which the motion compensation prediction is not made in the first area is already obtained. A moving image encoding device and a moving image decoding device, wherein a pixel value is obtained by interpolation from neighboring pixels that have been set.
【請求項9】 請求項1、2、3、4、5、6、7又は
8記載の動画像符号化装置及び動画像復号装置におい
て、符号化装置にて前記第2の動き補償に用いる動ベク
トルを求め、前記動ベクトルを符号化し、復号装置にお
いて前記動ベクトルを復号し、前記合成時に行なう第2
の動き補償予測に用いることを特徴とする動画像符号化
装置及び動画像復号装置。
9. The moving picture coding apparatus and the moving picture decoding apparatus according to claim 1, 2, 3, 4, 5, 6, 7, or 8, wherein a moving picture used for the second motion compensation by the coding apparatus. Vector, the motion vector is encoded, and the decoding device decodes the motion vector,
A moving picture coding apparatus and a moving picture decoding apparatus, which are used for motion compensation prediction.
JP7251897A 1997-03-26 1997-03-26 Image encoder and image decoder Pending JPH10271509A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7251897A JPH10271509A (en) 1997-03-26 1997-03-26 Image encoder and image decoder
PCT/JP1998/000758 WO1998043435A1 (en) 1997-03-26 1998-02-25 Image coding device and image decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7251897A JPH10271509A (en) 1997-03-26 1997-03-26 Image encoder and image decoder

Publications (1)

Publication Number Publication Date
JPH10271509A true JPH10271509A (en) 1998-10-09

Family

ID=13491638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7251897A Pending JPH10271509A (en) 1997-03-26 1997-03-26 Image encoder and image decoder

Country Status (2)

Country Link
JP (1) JPH10271509A (en)
WO (1) WO1998043435A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007100187A1 (en) * 2006-01-09 2007-09-07 Lg Electronics Inc. Inter-layer prediction method for video signal
WO2018135321A1 (en) * 2017-01-19 2018-07-26 ソニー株式会社 Image processing device and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070074451A (en) * 2006-01-09 2007-07-12 엘지전자 주식회사 Method for using video signals of a baselayer for interlayer prediction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255056A (en) * 1994-03-15 1995-10-03 Nec Corp Moving picture reproducing method and device therefor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007100187A1 (en) * 2006-01-09 2007-09-07 Lg Electronics Inc. Inter-layer prediction method for video signal
KR100904441B1 (en) 2006-01-09 2009-06-26 엘지전자 주식회사 Inter-layer prediction method for video signal
US8264968B2 (en) 2006-01-09 2012-09-11 Lg Electronics Inc. Inter-layer prediction method for video signal
US8345755B2 (en) 2006-01-09 2013-01-01 Lg Electronics, Inc. Inter-layer prediction method for video signal
US8494060B2 (en) 2006-01-09 2013-07-23 Lg Electronics Inc. Inter-layer prediction method for video signal
US8619872B2 (en) 2006-01-09 2013-12-31 Lg Electronics, Inc. Inter-layer prediction method for video signal
US9497453B2 (en) 2006-01-09 2016-11-15 Lg Electronics Inc. Inter-layer prediction method for video signal
WO2018135321A1 (en) * 2017-01-19 2018-07-26 ソニー株式会社 Image processing device and method
US10944975B2 (en) 2017-01-19 2021-03-09 Sony Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
WO1998043435A1 (en) 1998-10-01

Similar Documents

Publication Publication Date Title
CN113612993B (en) Motion compensation method and device for video data
US5689305A (en) System for deinterlacing digitally compressed video and method
US6466622B2 (en) Motion picture coding and decoding apparatus
JP3224514B2 (en) Video encoding device and video decoding device
JPS61114677A (en) Adaptability prediction coding decoding system and device for animation signal
JP2000224593A (en) Method and device for interpolating frame and recording medium recording the method
JPH10271509A (en) Image encoder and image decoder
JP2875549B2 (en) Video encoding device and video decoding device
JP3866946B2 (en) Video encoding device
JP3148751B2 (en) Video encoding device and video decoding device
JP2002051336A (en) Image-coding apparatus and image-decoding apparatus
JP3148752B2 (en) Video encoding device
JP2828096B2 (en) Image signal encoding apparatus and image signal encoding method
JP3526258B2 (en) Image encoding device and image decoding device
JP3101195B2 (en) Image encoding device and image decoding device
JP2695244B2 (en) Image signal coding apparatus, image signal decoding apparatus, image signal coding method, and image signal decoding method
JP3148734B2 (en) Image encoding device and image decoding device
JPH0865679A (en) Moving image encoding device and moving image decoding device
JP3101262B2 (en) Image encoding device and image decoding device
JPH07107465A (en) Moving picture frame reproducing system
BR112021014711A2 (en) ENCODER, DECODER, ENCODING METHOD AND DECODING METHOD
JP2005333569A (en) Image encoding apparatus and image decoding apparatus