JPH08172631A - Image prediction coding method - Google Patents

Image prediction coding method

Info

Publication number
JPH08172631A
JPH08172631A JP31662394A JP31662394A JPH08172631A JP H08172631 A JPH08172631 A JP H08172631A JP 31662394 A JP31662394 A JP 31662394A JP 31662394 A JP31662394 A JP 31662394A JP H08172631 A JPH08172631 A JP H08172631A
Authority
JP
Japan
Prior art keywords
image
predicted
encoded
small area
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP31662394A
Other languages
Japanese (ja)
Other versions
JP3334384B2 (en
Inventor
Chiyun Sen Bun
チュン セン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP31662394A priority Critical patent/JP3334384B2/en
Priority to EP95120198A priority patent/EP0719049B1/en
Priority to DE69535007T priority patent/DE69535007T2/en
Priority to DE69530908T priority patent/DE69530908T2/en
Priority to US08/575,870 priority patent/US5767911A/en
Priority to EP02017887A priority patent/EP1271957B1/en
Publication of JPH08172631A publication Critical patent/JPH08172631A/en
Priority to US09/015,056 priority patent/US5969765A/en
Priority to US09/015,055 priority patent/US6167158A/en
Priority to US09/015,058 priority patent/US5999219A/en
Priority to US09/566,626 priority patent/US6510249B1/en
Priority to US10/268,902 priority patent/US6560364B2/en
Application granted granted Critical
Publication of JP3334384B2 publication Critical patent/JP3334384B2/en
Priority to US10/387,566 priority patent/US6687408B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE: To prevent deterioration in a predicted image when a large deformation or a large luminance change takes place in an object in the low bit rate image coding. CONSTITUTION: An image series comprising a luminance signal 321 representing a picture element value and a transmission signal 33 representing a transparent state of the picture element is received and stored in an input frame memory 30. A representative image is stored in a representative image frame memory 42. A prediction device 44 predicts an image being a coding object from the representative image representing the image signal to form a 1st predicted image, predicts an image being a coding object from the image displayed early timewise from the image of the coding object to form a 2nd predicted image, obtains a weight mean of the luminance signal and the transmission signal corresponding to the 1st predicted image and the 2nd predicted image respectively to form a 3rd predicted image. An optimum predicted image is selected among the 1st to 3rd predicted images and the selected image is given to an adder 32. A coder 34 encodes the image from the adder 32.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、デジタル画像データを
蓄積もしくは伝送するための予測符号化方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a predictive coding method for storing or transmitting digital image data.

【0002】[0002]

【従来の技術】ワンとエデルソン(J. Wang and E. Ade
lson)により、動画像を効率的に伝送記録することを目
的として、動画像を物体ごとに異なるレイヤーに分解し
て符号化する方式が提案されており、次の文献 J. Wang
and E. Adelson, "Layered Representation for Image
Sequence Coding", Proc. IEEE Int. Conf. AcousticS
peech Signal Processing , 1993, pp.V221〜V224; J.
Wang and E. Adelson,"Layered Representation for Mo
tion Analysis", Proc. Computer Vision andPattern R
ecognition, pp. 361--366, 1993. に開示されている。
[Prior Art] J. Wang and E. Ade
Lson) proposed a method to decompose and encode a moving image into different layers for each object for the purpose of efficiently transmitting and recording the moving image.
and E. Adelson, "Layered Representation for Image
Sequence Coding ", Proc. IEEE Int. Conf. AcousticS
peech Signal Processing, 1993, pp.V221 ~ V224; J.
Wang and E. Adelson, "Layered Representation for Mo
Analysis Analysis ", Proc. Computer Vision and Pattern R
ecognition, pp. 361--366, 1993.

【0003】この方式を以下に簡単に説明する。木、建
物と空から構成される画像で、木が最も手前にあり、木
の後ろに建物があり、空が背景となっている例について
説明する。 カメラが移動すると、木の背景にある建物
と空が木によって隠されたりすることがある。ワンらは
この一連の動画像を解析し、木と建物と空を抽出し、三
つのレイヤーに分離し、それぞれのレイヤーを圧縮符号
化する手法を提案している。この手法によれば、圧縮効
率を向上するために、各レイヤーに対しそれぞれ代表と
なる画像(木、建物、空)を定める。代表画像は一連の
画像系列のすべてのフレームに最も近いものが用いられ
る。
This method will be briefly described below. An example of an image composed of trees, buildings, and the sky, with the trees in the foreground, the buildings behind the trees, and the sky as the background will be described. When the camera moves, trees may obscure buildings and the sky behind them. Wan et al. Have proposed a method that analyzes this series of moving images, extracts trees, buildings, and sky, separates them into three layers, and compresses and encodes each layer. According to this method, a representative image (tree, building, sky) is defined for each layer in order to improve compression efficiency. The representative image is the one closest to all the frames in the series of images.

【0004】ワンらは次の方法で上記代表画像を求めて
いる。まず一枚の基準画像を定め、その他の画像がこの
基準画像からどれくらい変位変形したかを示すパラメー
タを検出し、次に検出された変形変位パラメータを用い
て画像を変形変位させ、基準画像にフィッティングす
る。すなわち、フィッティングしたすべての物体は空間
的に同じ位置で同じ形をするわけである。最後にフィッ
ティングしたすべての画像にメディアンフィルタをかけ
て中央値を選び代表画像を形成する。
Wan et al. Obtain the representative image by the following method. First, determine one reference image, detect the parameter indicating how much the other images are displaced and deformed from this reference image, then deform and displace the image using the detected displacement parameters, and fit to the reference image. To do. That is, all fitted objects have the same shape at the same spatial position. Finally, a median filter is applied to all the fitted images to select a median value and form a representative image.

【0005】代表画像は予め圧縮符号化し、再生した代
表画像から変位や変形により各フレームにおける物体を
近似する。具体的にはアフィン変換が用いられる。アフ
ィン変換は六つのパラメータからなるので、一つのレイ
ヤーにある物体が六つのパラメータで近似されるので、
ビット数が少なく非常に高い圧縮率を実現することがで
きる。復号化部では各フレームに対応するレイヤーを再
生して、各レイヤーの物体を決まった順番に重ねて画像
を合成し表示する。なお、各フレームの物体をどれぐら
いの割合で重ね合わせるかを示す透過度信号が必要で、
それも一緒に符号化し伝送もしくは記録する。
The representative image is compression-coded in advance, and the object in each frame is approximated by displacement or deformation from the reproduced representative image. Specifically, affine transformation is used. Since the affine transformation consists of 6 parameters, the object in one layer can be approximated by 6 parameters.
It is possible to realize a very high compression rate with a small number of bits. The decoding unit reproduces the layer corresponding to each frame, superimposes the objects in each layer in a predetermined order, and synthesizes and displays the image. It is necessary to have a transparency signal that indicates the rate at which the objects in each frame are superimposed.
It is also encoded and transmitted or recorded.

【0006】一方、国際標準化組織のMPEG1または
MPEG2規格のような画像系列の相互参照による動き
補償予測方法がある。これを図7に示す。例えば、フレ
ーム214はその前のフレーム212から予測する。ま
たフレーム220のように二フレーム前のフレーム21
6から予測する場合もある。さらに、フレーム218の
ようにその前にあるフレーム216とその後にあるフレ
ーム220からの予測方法もあり、フレーム216とフ
レーム220の平均でフレーム218を予測する場合も
ある。
On the other hand, there is a motion-compensated prediction method by cross-reference of image series such as the MPEG1 or MPEG2 standard of the international standardization organization. This is shown in FIG. For example, frame 214 predicts from previous frame 212. Also, like the frame 220, the frame 21 two frames before
It may be predicted from 6. Further, there is a prediction method from the frame 216 that is before the frame 218 and the frame 220 that is after the frame 218, and the frame 218 may be predicted by the average of the frames 216 and 220.

【0007】[0007]

【発明が解決しようとする課題】ところが、上述したよ
うな代表画像を用いて物体を近似する方法では、物体に
大きな変形または大きな輝度変化が生じる場合には誤差
が大きくなり近似が悪くなる。一方、MPEG1/MP
EG2規格の相互参照による動き補償予測では、誤差が
蓄積し、時間経過とともに予測誤差が大きくなり画質の
低下につながる。これを軽減するために、予測を伴わな
いフレーム内符号化を高いビット数のもとで行うことに
より誤差の蓄積を防ぐ方法がとられているが、フレーム
内符号化は高いビット数を要するために低ビットレート
での伝送や記録には適切ではない。
However, in the method of approximating an object using the representative image as described above, when the object undergoes a large deformation or a large change in luminance, the error becomes large and the approximation becomes poor. On the other hand, MPEG1 / MP
In the motion-compensated prediction based on the EG2 standard cross-reference, errors are accumulated, and the prediction error increases with the passage of time, leading to deterioration in image quality. In order to reduce this, there is a method to prevent error accumulation by performing intra-frame coding without prediction under a high number of bits, but intra-frame coding requires a high number of bits. It is not suitable for low bit rate transmission and recording.

【0008】また、予測画像と対象画像の輪郭部が不一
致となる場合が多く、輪郭部の不一致によって差分値が
増大し、効率的に輪郭部を符号化できない。
Further, the contour portion of the predicted image and the target image often do not match, and the difference value increases due to the mismatch of the contour portions, so that the contour portion cannot be efficiently coded.

【0009】[0009]

【課題を解決するための手段】上記の問題点を解決する
ために、本発明の画像予測符号化方法は、符号化対象と
なる画像に対し、少なくとも一つの代表画像と、符号化
対象となる画像より時間的に前または後に表示される画
像とから、所定の変換方法のもとで変換し予測画像を形
成し、符号化対象となる画像に最も誤差の小さい予測画
像を最適予測画像として用いる。
In order to solve the above problems, the image predictive coding method of the present invention uses at least one representative image and an encoding target for an image to be encoded. The image displayed before or after the image temporally is converted under a predetermined conversion method to form a predicted image, and the predicted image with the smallest error is used as the optimal predicted image for the image to be encoded. .

【0010】また、複数の予測画像を平均化することに
より形成される新たな予測画像を候補に加えて、符号化
対象となる画像に最も誤差の小さい予測画像を最適予測
画像として用いる。
Further, a new predicted image formed by averaging a plurality of predicted images is added as a candidate, and the predicted image with the smallest error in the image to be encoded is used as the optimum predicted image.

【0011】さらに、最適予測画像を複数の予測小領域
に、符号化対象となる画像を複数の対象小領域に分割
し、少なくとも一つの符号化すべきでない画素値が含ま
れる対象小領域と対応する予測小領域に対し、予測小領
域に含まれる符号化すべき画素値を所定の関数で演算
し、その演算値を対象小領域と予測領域に含まれる符号
化すべきでない画素値に代入してから、対象小領域と予
測小領域の差分を求め符号化する。
Further, the optimum predicted image is divided into a plurality of predicted small regions, the image to be coded is divided into a plurality of target small regions, and at least one target small region containing a pixel value which should not be coded corresponds to the target small region. For the prediction small area, the pixel value to be encoded included in the prediction small area is calculated by a predetermined function, and the calculated value is substituted for the pixel value that should not be encoded included in the target small area and the prediction area, The difference between the target small area and the predicted small area is calculated and encoded.

【0012】[0012]

【作用】本発明は、少なくとも一つの代表画像と符号化
対象となる画像より時間的に前または後に表示される画
像とを適応的に選択することにより、物体に大きな変形
または大きな輝度変化が生じる場合における近似の劣化
を防ぐとともに、時間経過とともに予測誤差の蓄積を軽
減することができる。また、予測を伴わないフレーム内
符号化フレームを定期的に挿入する必要がないために低
ビットレートでの伝送や記録が可能になる。さらに、二
つの予測画像を平均化することにより予測画像内に含ま
れる歪み信号も平均化され、歪みが軽減できる。
The present invention adaptively selects at least one representative image and an image displayed before or after the image to be coded, thereby causing a large deformation or a large luminance change in the object. In this case, it is possible to prevent the deterioration of the approximation and reduce the accumulation of the prediction error over time. Further, since it is not necessary to periodically insert the intra-frame coded frame without prediction, it is possible to perform transmission and recording at a low bit rate. Furthermore, by averaging the two predicted images, the distortion signals included in the predicted images are also averaged, and the distortion can be reduced.

【0013】また、最適予測画像と符号化対象となる画
像とをそれぞれ複数の予測小領域と対象小領域に分割し
て対応する予測小領域と対象小領域の差分を求める前
に、少なくとも一つの符号化すべきでない画素値が含ま
れる対象小領域と対応する予測小領域に対し、予測小領
域に含まれる符号化すべき画素値を所定の関数で演算し
て、その演算値を対象小領域と予測領域に含まれる符号
化すべきでない画素値に代入することにより差分値が小
さくなり符号化ビット数を削減することができる。
Further, before dividing the optimum predicted image and the image to be coded into a plurality of prediction small areas and a target small area, respectively, and obtaining a difference between the corresponding predicted small area and the target small area, at least one of them is calculated. For a predicted small area corresponding to a target small area containing a pixel value that should not be coded, the pixel value to be coded included in the predicted small area is calculated by a predetermined function, and the calculated value is predicted as the target small area. By substituting the pixel values that should not be encoded included in the area, the difference value becomes small and the number of encoded bits can be reduced.

【0014】[0014]

【実施例】以下、本発明を具体的な実施例を用いて説明
する。
EXAMPLES The present invention will be described below with reference to specific examples.

【0015】本発明の入力画像としては、画素値を表す
輝度信号とそれぞれの画素値の透過状態を表す透過度信
号とから構成されている。輝度信号のほかに色差信号が
含まれる場合も同じである。透過度信号は複数の画像を
合成するときに、各画像の画素値をどれぐらいの割合で
合成するかを表す信号である。透過度0%は、不透明な
物体が存在し背景が見えない状態であり、画素値は符号
化すべきものである。透過度100%は、物体が存在せ
ず背景がそのまま見える状態であり、画素値は符号化す
る必要がないものである。中間レベル値が現れるのは、
ガラス等の半透明な物体が存在する場合と物体の境界部
分である。図1には輝度信号31と透過度信号33の例
が示されている。以下では、特に断らない限り、画像は
輝度信号と透過度信号とから構成し、画素値は輝度信号
の値を意味する。
The input image of the present invention is composed of a luminance signal representing a pixel value and a transparency signal representing a transmissive state of each pixel value. The same applies when a color difference signal is included in addition to the luminance signal. The transparency signal is a signal indicating at what ratio the pixel values of each image are combined when a plurality of images are combined. The transparency of 0% means that there is an opaque object and the background cannot be seen, and the pixel value should be encoded. A transparency of 100% means that the background is visible as it is without any object, and the pixel value does not need to be encoded. The intermediate level value appears
This is the case where a translucent object such as glass exists and the boundary between the objects. FIG. 1 shows an example of the luminance signal 31 and the transparency signal 33. Hereinafter, unless otherwise specified, an image is composed of a luminance signal and a transparency signal, and the pixel value means the value of the luminance signal.

【0016】請求項1から請求項6の画像予測符号化方
法に係る実施例のブロック図を図1から図3に示し、ま
た、本発明の画像予測符号化方法に係る実施例の模式図
を図4に示す。
1 to 3 are block diagrams of embodiments of the image predictive coding method of claims 1 to 6, and schematic diagrams of embodiments of the image predictive coding method of the present invention. As shown in FIG.

【0017】図1に示すように、まず、輝度信号31と
透過度信号33とが端子46から入力され、これらの信
号を入力フレームメモリ30に格納する。入力フレーム
メモリ30に入力された輝度信号と透過度信号は予測器
44に入力され、これらの信号をもとに予測器44で
は、再生画フレームメモリ40に格納されている再生し
た画像と、代表画フレームメモリ42に格納されている
代表画像とから最適な予測画像を生成する。次に、入力
フレームメモリ30から出力される入力画像と予測器4
4から出力される予測画像とから加算器32にて差分画
像を求め、この画像を符号化器34にて符号化する。符
号化器34では、差分画像をブロック化し、各ブロック
について離散コサイン変換(DCT)やその他の直交変
換で変換し、量子化する。符号化器34の出力は端子4
8から出力されると同時に、一方では局部復号化器36
にて逆量子化し、逆DCTを施す。この逆変換した差分
画像は加算器38にて、予測器44からの予測画像に加
算されて再生画像を生成し、再生画フレームメモリ40
に格納する。ここでは、輝度信号だけでなく、透過度信
号も符号化することに注意されたい。本実施例では、透
過度信号は輝度信号と同じようにDCT変換するが、異
なる変換方法で変換してもよい。なお、符号化器34で
はDCTではなく、ウェーブレット変換やベクトル量子
化を行ってもよい。但し、局部復号化器36は対応する
逆変換を行わなければならない。
As shown in FIG. 1, first, the luminance signal 31 and the transparency signal 33 are input from the terminal 46, and these signals are stored in the input frame memory 30. The luminance signal and the transparency signal input to the input frame memory 30 are input to the predictor 44. Based on these signals, the predictor 44 displays the reproduced image stored in the reproduced image frame memory 40 and the representative image. An optimum predicted image is generated from the representative image stored in the image frame memory 42. Next, the input image output from the input frame memory 30 and the predictor 4
The difference image is obtained by the adder 32 from the prediction image output from No. 4, and this image is encoded by the encoder 34. In the encoder 34, the difference image is divided into blocks, and each block is transformed by discrete cosine transform (DCT) or other orthogonal transform and quantized. The output of the encoder 34 is terminal 4
8 and at the same time the local decoder 36
Inverse quantization and inverse DCT are performed. This inversely transformed difference image is added by the adder 38 to the predicted image from the predictor 44 to generate a reproduced image, and the reproduced image frame memory 40 is generated.
To be stored. Note that we encode not only the luminance signal but also the transparency signal here. In this embodiment, the transparency signal is DCT-converted like the luminance signal, but may be converted by a different conversion method. Note that the encoder 34 may perform wavelet transform or vector quantization instead of DCT. However, the local decoder 36 must perform the corresponding inverse transform.

【0018】代表画像は一連の画像系列のすべてのフレ
ームに最も近いものを用いる。一つの画像系列に対し、
複数の代表画像を設けてもよい。また、従来技術のとこ
ろで説明したワンらと同じ方法で代表画像を求めてもよ
い。代表画像も輝度信号と透過度信号を有しており、予
め圧縮符号化して伝送しておき、再生した代表画像を代
表画フレームメモリ42に格納しておく。また、代表画
像は完全な画像からなる必要性はなく、画像の中に一部
(例えば、耳、目、口)から構成してもよい。また、代
表画像を伝送しなくても、予め受信部に格納しておいて
もよい。
The representative image is the one closest to all the frames in the series of images. For one image series,
A plurality of representative images may be provided. Further, the representative image may be obtained by the same method as the one described in the prior art. The representative image also has a luminance signal and a transparency signal, and is compression encoded in advance and transmitted, and the reproduced representative image is stored in the representative image frame memory 42. Further, the representative image does not have to be a complete image, and may be a part (eg, ear, eye, mouth) in the image. Further, the representative image may be stored in the receiving unit in advance without being transmitted.

【0019】以下、図2と図4を用いて予測器44の動
作を説明する。まず、図4に示したフレーム14を予測
する場合を考える(請求項1に対応)。フレーム14が
符号化対象となる画像、フレーム10が代表画像、フレ
ーム12がフレーム14より時間的に前に表示される画
像である。これらの画像を図2の予測器に入力する。す
なわち、符号化対象となる画像であるフレーム14(輝
度信号と透過度信号)を端子72に、代表画像10を端
子68に、再生画像であるフレーム12を端子70に入
力する。フレーム12は図1の再生画フレームメモリ4
0に格納してある伸張再生したものである。
The operation of the predictor 44 will be described below with reference to FIGS. 2 and 4. First, consider the case of predicting the frame 14 shown in FIG. 4 (corresponding to claim 1). The frame 14 is an image to be encoded, the frame 10 is a representative image, and the frame 12 is an image displayed temporally before the frame 14. These images are input to the predictor of FIG. That is, the frame 14 (luminance signal and transparency signal) that is the image to be encoded is input to the terminal 72, the representative image 10 is input to the terminal 68, and the frame 12 that is the reproduced image is input to the terminal 70. The frame 12 is the reproduced image frame memory 4 of FIG.
It is a decompressed reproduction stored in 0.

【0020】対象画像(フレーム14)と代表画像10
は変形・変位計算器50に入力される。変形・変位計算
器50では、代表画像が対象画像を最も近似できる変形
・変位パラメータを求める。好ましくはアフィン変換を
用いて変形・変位パラメータを求めるが、二次の項を含
む変換を用いてもよい。アフィン変換については公知で
あるが、例えば上述したワンらの文献に開示されてい
る。変形・変位計算器50で求められたアフィン係数
は、代表画像とともに、予測画像生成器52に入力さ
れ、アフィン変換変換により第一の予測画像(輝度信号
と透過度信号)を生成する。この第一の予測画像と対象
画像は誤差計算器54に入力され、符号化すべき画素値
のみに対し第一の二乗誤差の和を求め、比較器66に出
力する。
Target image (frame 14) and representative image 10
Is input to the deformation / displacement calculator 50. The deformation / displacement calculator 50 obtains a deformation / displacement parameter that allows the representative image to most approximate the target image. Although the affine transformation is preferably used to obtain the deformation / displacement parameter, a transformation including a quadratic term may be used. Although the affine transformation is known, it is disclosed in, for example, the above-mentioned Wan et al. The affine coefficient calculated by the deformation / displacement calculator 50 is input to the predicted image generator 52 together with the representative image, and the first predicted image (luminance signal and transparency signal) is generated by affine transformation. The first predicted image and the target image are input to the error calculator 54, the sum of the first squared error is calculated only for the pixel value to be encoded, and the sum is output to the comparator 66.

【0021】同じように、再生画像(フレーム12)と
対象画像(フレーム14)から変形・変位計算器56に
てアフィン係数を求め、予測画像生成器58にて第二の
予測画像を生成し、誤差計算器60にて第二の二乗誤差
の和を求め、比較器66に出力する。比較器66では第
一と第二の二乗誤差の和を比較して、小さい方に対応す
る予測画像を出力するようにスイッチ76を制御する。
すなわち、例えば第一予測画像の誤差が小さい場合には
スイッチ76が端子82に接続し、第一予測画像を端子
74に出力する。
Similarly, the deformation / displacement calculator 56 calculates the affine coefficient from the reproduced image (frame 12) and the target image (frame 14), and the predicted image generator 58 generates a second predicted image. The error calculator 60 calculates the sum of the second squared errors and outputs the sum to the comparator 66. The comparator 66 compares the sum of the first and second squared errors and controls the switch 76 to output the predicted image corresponding to the smaller one.
That is, for example, when the error of the first predicted image is small, the switch 76 connects to the terminal 82 and outputs the first predicted image to the terminal 74.

【0022】さらに、第一の予測画像と第二の予測画像
とは平均化器62に入力され、対応する輝度信号及び透
過信号の重みつき平均をそれぞれ求め、第三の予測画像
を生成する。誤差計算器64にてこの第三の予測画像と
対象画像とから第三の二乗誤差の和を計算し、比較器6
6に出力する。比較器66では、第一、第二と第三の二
乗誤差の和を比較して、小さい方に対応する予測画像を
出力するようにスイッチ76を制御する(請求項2に対
応)。なお、誤差計算器では二乗誤差の和を求めたが、
誤差の絶対値の和を求めてもよい。
Further, the first predicted image and the second predicted image are input to the averaging unit 62, and the weighted averages of the corresponding luminance signal and transmission signal are respectively obtained to generate the third predicted image. The error calculator 64 calculates the sum of the third squared error from the third predicted image and the target image, and the comparator 6
6 is output. The comparator 66 compares the sums of the first, second and third squared errors and controls the switch 76 so as to output the predicted image corresponding to the smaller one (corresponding to claim 2). Although the error calculator calculated the sum of squared errors,
You may obtain the sum of the absolute value of an error.

【0023】次に図4に示したフレーム18を予測する
場合を考える(請求項3に対応)。フレーム18が符号
化対象となる画像、フレーム10が代表画像、フレーム
20がフレーム18より時間的に後に表示される画像で
ある。これらの画像を図2の予測器に入力する。すなわ
ち、符号化対象画像であるフレーム18(輝度信号と透
過度信号)を端子72に、代表画像10を端子68に、
再生画像であるフレーム20を端子70に入力する。フ
レーム20は図1の再生画フレームメモリ40に格納し
てある伸張再生したものであり、上述の方法でフレーム
16と代表画像10から適応的に予測画像を選択し圧縮
符号化したものである。
Next, consider the case of predicting the frame 18 shown in FIG. 4 (corresponding to claim 3). The frame 18 is an image to be encoded, the frame 10 is a representative image, and the frame 20 is an image displayed temporally after the frame 18. These images are input to the predictor of FIG. That is, the frame 18 (luminance signal and transparency signal), which is the image to be encoded, is connected to the terminal 72, the representative image 10 is connected to the terminal 68,
The frame 20 which is a reproduced image is input to the terminal 70. The frame 20 is a decompressed image stored in the reproduced image frame memory 40 of FIG. 1, and is a compressed image that is obtained by adaptively selecting a predictive image from the frame 16 and the representative image 10 by the method described above.

【0024】上述と同じように、対象画像と代表画像と
から、変形・変位計算器50と予測画像生成器52を経
由して、第一の予測画像(輝度信号と透過度信号)が生
成される。この第一の予測画像と対象画像とが誤差計算
器54に入力され、符号化すべき画素値のみに対し第一
の二乗誤差の和を求め、比較器66に出力する。同じよ
うに、フレーム20と対象画像とから、変形・変位計算
器56と予測画像生成器58を経由して、第二の予測画
像が生成され、誤差計算器60にて第二の二乗誤差の和
を求め、比較器66に出力する。比較器66は、上記第
一と第二の二乗誤差の和を比較して、小さい方に対応す
る予測画像を出力するようにスイッチ76を制御する。
すなわち、例えば第一予測画像の誤差が小さい場合には
スイッチ76が端子82に接続し、第一予測画像を端子
74に出力する。
In the same manner as described above, the first predicted image (luminance signal and transparency signal) is generated from the target image and the representative image via the deformation / displacement calculator 50 and the predicted image generator 52. It The first predictive image and the target image are input to the error calculator 54, and the sum of the first squared error is calculated only for the pixel value to be encoded and output to the comparator 66. Similarly, a second predicted image is generated from the frame 20 and the target image via the deformation / displacement calculator 56 and the predicted image generator 58, and the error calculator 60 calculates the second squared error of the second squared error. The sum is calculated and output to the comparator 66. The comparator 66 compares the sum of the first and second squared errors and controls the switch 76 to output the predicted image corresponding to the smaller one.
That is, for example, when the error of the first predicted image is small, the switch 76 connects to the terminal 82 and outputs the first predicted image to the terminal 74.

【0025】さらに、第一の予測画像と第二の予測画像
とは平均化器62に入力され、対応する輝度信号及び透
過信号の重みつき平均をそれぞれ求め、第三の予測画像
を生成する。第三の予測画像と対象画像とから第三の二
乗誤差の和を誤差計算器64にて計算し、比較器66に
出力する。比較器66は、上記第一、第二と第三の二乗
誤差の和を比較して、小さい方に対応する予測画像を出
力するようにスイッチ76を制御する(請求項4に対
応)。なお、誤差計算器では二乗誤差の和を求めたが、
誤差の絶対値の和を求めてもよい。
Further, the first predicted image and the second predicted image are input to the averaging unit 62, and the weighted averages of the corresponding luminance signal and transmission signal are respectively obtained to generate the third predicted image. The error calculator 64 calculates the sum of the third squared error from the third predicted image and the target image, and outputs the sum to the comparator 66. The comparator 66 compares the sum of the first, second and third squared errors, and controls the switch 76 so as to output the predicted image corresponding to the smaller one (corresponding to claim 4). Although the error calculator calculated the sum of squared errors,
You may obtain the sum of the absolute value of an error.

【0026】次に、図4に示したフレーム22を予測す
る場合を考える(請求項5に対応)。フレーム22が符
号化対象となる画像、フレーム10が代表画像、フレー
ム20がフレーム22より時間的に前に表示される画
像、フレーム24がフレーム22より時間的に後に表示
される画像である。これらの画像を図3の予測器44に
入力される。すなわち、フレーム22(輝度信号と透過
度信号)を端子72に、代表画像10を端子68に、フ
レーム20を端子70に、フレーム24を端子86に入
力する。フレーム20は、フレーム16とフレーム10
から適応的に予測画像を選択し圧縮符号化し再生された
もので、フレーム24はフレーム20とフレーム10か
ら適応的に予測画像を選択し圧縮符号化し再生されたも
のである。上述と同じように、対象画像と代表画像とか
ら、変形・変位計算器50と予測画像生成器52を経由
して、第一の予測画像(輝度信号と透過度信号)が生成
される。この第一の予測画像と対象画像は誤差計算器5
4に入力され、符号化すべき画素値のみに対し第一の二
乗誤差の和を求め、比較器66に出力する。同じよう
に、フレーム20と対象画像とから、変形・変位計算器
56と予測画像生成器58を経由して、第二の予測画像
を生成し、誤差計算器60にて第二の二乗誤差の和を求
め、比較器66に出力する。さらに、フレーム24と対
象画像とから、変形・変位計算器88と予測画像生成器
90を経由して、第三の予測画像を生成し、誤差計算器
92にて第三の二乗誤差の和を求め、比較器66に出力
する。比較器66は、上記第一、第二と第三の二乗誤差
の和を比較して、小さい方に対応する予測画像を出力す
るようにスイッチ76を制御する。
Next, consider the case of predicting the frame 22 shown in FIG. 4 (corresponding to claim 5). The frame 22 is an image to be encoded, the frame 10 is a representative image, the frame 20 is an image displayed temporally before the frame 22, and the frame 24 is an image displayed temporally after the frame 22. These images are input to the predictor 44 of FIG. That is, the frame 22 (luminance signal and transparency signal) is input to the terminal 72, the representative image 10 is input to the terminal 68, the frame 20 is input to the terminal 70, and the frame 24 is input to the terminal 86. The frame 20 is the frame 16 and the frame 10.
The prediction image is adaptively selected, compression coded, and reproduced, and the frame 24 is a prediction image adaptively selected, compressed, coded, and reproduced from the frame 20 and the frame 10. Similarly to the above, the first predicted image (luminance signal and transparency signal) is generated from the target image and the representative image via the deformation / displacement calculator 50 and the predicted image generator 52. This first predicted image and the target image are the error calculator 5
4, the sum of the first squared errors is calculated only for the pixel value to be encoded, and the sum is output to the comparator 66. Similarly, a second predicted image is generated from the frame 20 and the target image via the deformation / displacement calculator 56 and the predicted image generator 58, and the error calculator 60 calculates the second squared error. The sum is calculated and output to the comparator 66. Further, a third predicted image is generated from the frame 24 and the target image via the deformation / displacement calculator 88 and the predicted image generator 90, and the error calculator 92 calculates the sum of the third squared errors. Obtained and output to the comparator 66. The comparator 66 compares the sum of the first, second and third squared errors, and controls the switch 76 so as to output the predicted image corresponding to the smaller one.

【0027】さらに、第二の予測画像と第三の予測画像
とは平均化器62に入力され、対応する輝度信号及び透
過信号の重みつき平均を求め、第四の予測画像を生成す
る。誤差計算器64にて第四の予測画像と対象画像とか
ら第四の二乗誤差の和を計算し、比較器66に出力す
る。比較器66は、上記第一、第二、第三と第四の二乗
誤差の和を比較して、小さい方に対応する予測画像を出
力するようにスイッチ76を制御する(請求項6に対
応)。なお、誤差計算器では二乗誤差の和を求めたが、
誤差の絶対値の和を求めてもよい。
Further, the second predicted image and the third predicted image are input to the averaging unit 62, and the weighted average of the corresponding luminance signal and transmission signal is obtained to generate the fourth predicted image. The error calculator 64 calculates the sum of the fourth squared errors from the fourth predicted image and the target image, and outputs the sum to the comparator 66. The comparator 66 compares the sums of the first, second, third and fourth squared errors, and controls the switch 76 so as to output the predicted image corresponding to the smaller one (corresponding to claim 6). ). Although the error calculator calculated the sum of squared errors,
You may obtain the sum of the absolute value of an error.

【0028】次に、図5と図6とを用いて請求項7に対
応する実施例を説明する。図5は図1の符号化装置と殆
ど同じであるが、加算器32の入力側が異なるだけであ
る。すなわち、加算器32にて差分を求める前に、ブロ
ック化と画素代入の操作が組み込まれている。
Next, an embodiment corresponding to claim 7 will be described with reference to FIGS. 5 and 6. FIG. 5 is almost the same as the encoding device of FIG. 1, but only the input side of the adder 32 is different. That is, the operations of blocking and pixel substitution are incorporated before the difference is obtained by the adder 32.

【0029】まず、入力フレームメモリ30の出力(輝
度信号と透過度信号)は、ブロック化器41にて小さい
領域に分割される。ここでは4×4の画素からなるブロ
ックに分割するものとするが、これに限るものではな
い。また、予測器44の出力(輝度信号と透過度信号)
もブロック化器35にて4×4のブロックに分割され
る。ブロック化器35の出力は輝度信号のブロックと透
過度信号のブロックからなる。この輝度信号のブロック
と透過度信号のブロックは画素値生成器37に入力され
る。画素値生成器37では、透過度が100%以外の画
素(符号化すべき画素に対応、すなわち透過度信号33
の黒い部分に対応)を所定の関数で演算し、代入画素値
を生成する。ここでは透過度が100%以外のすべての
画素の平均値を用いるが、これに限るものではない。こ
の代入画素値は画素代入器39と43に入力され、代入
画素値を透過度が100%の(輝度信号の)画素値に代
入し、画素代入器39と43から出力された輝度信号の
ブロックを加算器32にて差分信号を求める。透過度信
号のブロックの値は代入されずに差分信号を求める。
First, the output (luminance signal and transparency signal) of the input frame memory 30 is divided into small areas by the blocker 41. Here, the block is divided into blocks of 4 × 4 pixels, but the present invention is not limited to this. The output of the predictor 44 (luminance signal and transparency signal)
Is also divided into 4 × 4 blocks by the blocker 35. The output of the blocker 35 consists of a block of luminance signals and a block of transparency signals. The block of the luminance signal and the block of the transparency signal are input to the pixel value generator 37. In the pixel value generator 37, pixels having a transparency other than 100% (corresponding to the pixel to be encoded, that is, the transparency signal 33
(Corresponding to the black portion of) is calculated by a predetermined function to generate an assigned pixel value. Here, the average value of all pixels having a transparency other than 100% is used, but the present invention is not limited to this. This substitution pixel value is input to the pixel substitution devices 39 and 43, and the substitution pixel value is substituted for the pixel value (of the luminance signal) with the transparency of 100%, and the block of the luminance signal output from the pixel substitution devices 39 and 43. Is calculated by the adder 32. The difference signal is obtained without substituting the block value of the transparency signal.

【0030】図6(a)から(c)は一つの数値例を示
している。図6(a)は透過度信号のブロックを示す。
ブロック110はブロック化器41の出力で、ブロック
112はブロック化器35の出力である。ブロック11
0とブロック112において、値が1の画素は符号化す
べきでない画素値(透過度100%)を示す。透過度の
情報を保存するためにブロック110と112とをその
まま差分をとり、ブロック114を生成し、符号化器3
4に送る。一方、図6(b)は輝度信号のブロックを示
す。ブロック116はブロック化器41の出力で、ブロ
ック118はブロック化器35の出力である。この二つ
のブロックをそのまま差分をとるとブロック120が得
られる。符号化すべき画素の輪郭部は一致していないた
めにブロック120には大きな差分値が生じる。本発明
によれば、ブロック112とブロック118を画素値生
成器37に入力し、ブロック112にて値がゼロに対応
するブロック118の画素値の平均値を求める。この数
値例では平均値は48である。代入画素値48を画素代
入器43と39に入力し、透過度信号の値が1に対応す
る画素に数値48を代入したものがそれぞれブロック1
22と124である。この二つのブロックの差分を求め
るとブロック126が得られ、ブロック120と比べて
差分値が小さいことがわかる。ブロック120のかわり
にブロック126を符号化器34に入力し、符号化する
と所要ビット数が少なくなる。再生側では透過度の情報
に基づいて、代入した画素値をもとに戻すことができ
る。
FIGS. 6A to 6C show an example of one numerical value. FIG. 6A shows a block of the transparency signal.
Block 110 is the output of blocker 41 and block 112 is the output of blocker 35. Block 11
At 0 and block 112, pixels with a value of 1 indicate pixel values that should not be encoded (100% transparency). In order to store the transparency information, the blocks 110 and 112 are directly subtracted to generate a block 114, and the encoder 3
Send to 4. On the other hand, FIG. 6B shows a block of the luminance signal. Block 116 is the output of blocker 41 and block 118 is the output of blocker 35. A block 120 is obtained by taking the difference between these two blocks as they are. A large difference value occurs in the block 120 because the contours of the pixels to be encoded do not match. According to the present invention, the block 112 and the block 118 are input to the pixel value generator 37, and the average value of the pixel values of the block 118 whose value corresponds to zero is calculated in the block 112. In this numerical example, the average value is 48. The substitution pixel value 48 is input to the pixel substitution devices 43 and 39, and the numerical value 48 is substituted into the pixel corresponding to the value of the transparency signal of 1 is block 1 respectively.
22 and 124. When the difference between these two blocks is obtained, block 126 is obtained, and it can be seen that the difference value is smaller than that of block 120. When the block 126 is input to the encoder 34 instead of the block 120 and is encoded, the number of required bits is reduced. On the reproducing side, the substituted pixel value can be restored based on the transparency information.

【0031】請求項8から14に対応する実施例につい
て以下に説明する。上述した実施例は画像の全領域に対
し、予測画像を適応的に選択し符号化した。本実施例に
おいては、画像の全領域のかわりに、符号化すべき領域
を複数の小領域に分割し、各小領域に対し最適な予測小
領域を適応的に選択し符号化するものである。小領域は
16×16もしくは8×8のブロックが好ましいが、任
意の大きさや形の小領域に分割してもよい。本実施例を
適用し得るブロック図は図5と同じであるが、端子72
の前にブロック化器を挿入し、入力画像をブロックに分
割してから入力する必要がある。予測器44は図2また
は図3と同じであるが、この場合アフィン係数は各ブロ
ックについて求める必要がある。なお、回転などの変換
を中止し、単なる平行移動による動き検出と動き補償で
置き換えてもよい。請求項8の実施例は請求項1の実施
例に、請求項9の実施例は請求項2の実施例に、請求項
10の実施例は請求項3の実施例に、請求項11の実施
例は請求項4の実施例に、請求項12の実施例は請求項
5の実施例に、請求項13の実施例は請求項6の実施例
に、請求項14の実施例は請求項7の実施例に対応し、
ブロック単位での予測以外は全く同じであるため、その
詳細な説明は省略する。
An embodiment corresponding to claims 8 to 14 will be described below. In the above-described embodiment, the predicted image is adaptively selected and encoded for the entire area of the image. In this embodiment, instead of the entire area of the image, the area to be encoded is divided into a plurality of small areas, and the optimum predicted small area is adaptively selected and encoded for each small area. The small region is preferably a 16 × 16 or 8 × 8 block, but may be divided into small regions of arbitrary size and shape. The block diagram to which this embodiment can be applied is the same as that of FIG.
It is necessary to insert a blocker in front of and divide the input image into blocks before inputting. The predictor 44 is the same as in FIG. 2 or FIG. 3, but in this case the affine coefficient must be obtained for each block. It should be noted that conversion such as rotation may be stopped and replaced by motion detection and motion compensation based on simple parallel movement. The embodiment of claim 8 is the embodiment of claim 1, the embodiment of claim 9 is the embodiment of claim 2, the embodiment of claim 10 is the embodiment of claim 3, and the embodiment of claim 11. An example is the embodiment of claim 4, an embodiment of claim 12 is the embodiment of claim 5, an embodiment of claim 13 is the embodiment of claim 6, and an embodiment of claim 14 is the embodiment of claim 7. Corresponding to the example of
The details are the same except for the prediction in block units, and thus detailed description thereof will be omitted.

【0032】[0032]

【発明の効果】以上の説明より明らかなように、本発明
の画像予測符号化方法によれば、少なくとも一つの代表
画像と、符号化対象画像により時間的に前または後に表
示される画像とを適応的に選択することにより、物体に
大きな変形または大きな輝度変化が生じる場合において
も、その近似の劣化を防ぐとともに、時間経過とともに
予測誤差の蓄積を軽減することができる。また、予測を
伴わないフレーム内符号化フレームを定期的に挿入する
必要がないため、低ビットレートでの伝送や記録が可能
になる。さらに、二つの予測画像を平均化することによ
り、予測画像内に含まれる歪み信号も平均化され、歪み
が軽減できる。
As is clear from the above description, according to the image predictive coding method of the present invention, at least one representative image and an image displayed temporally before or after the image to be coded are displayed. By adaptively selecting, even when a large deformation or a large brightness change occurs in the object, it is possible to prevent the approximation from being deteriorated and reduce the accumulation of prediction errors over time. Further, since it is not necessary to periodically insert the intra-coded frame without prediction, it is possible to perform transmission and recording at a low bit rate. Furthermore, by averaging the two predicted images, the distortion signals included in the predicted images are also averaged, and the distortion can be reduced.

【0033】また、最適予測画像と符号化対象となる画
像とをそれぞれ複数の予測小領域と対象小領域に分割し
て、対応する予測小領域と対象小領域の差分を求める前
に、少なくとも一つの符号化すべきでない画素値が含ま
れる対象小領域と対応する予測小領域に対し、予測小領
域に含まれる符号化すべき画素値を所定の関数で演算し
て、その演算値を対象小領域と予測領域に含まれる符号
化すべきでない画素に代入することにより、差分値が小
さくなり、符号化ビット数を削減することができる。
Further, at least one of the optimum predicted image and the image to be coded is divided into a plurality of prediction small areas and a target small area, and the difference between the corresponding predicted small area and the target small area is calculated. For a predicted small area corresponding to a target small area containing pixel values that should not be coded, the pixel value to be coded included in the predicted small area is calculated by a predetermined function, and the calculated value is set as the target small area. By substituting the pixels in the prediction region that should not be encoded, the difference value becomes smaller and the number of encoded bits can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像符号化方法を適用可能な装置の一
実施例のブロック図
FIG. 1 is a block diagram of an embodiment of an apparatus to which an image coding method of the present invention can be applied.

【図2】本発明に係る予測器の一実施例のブロック図FIG. 2 is a block diagram of an embodiment of a predictor according to the present invention.

【図3】本発明に係る予測器の他の実施例のブロック図FIG. 3 is a block diagram of another embodiment of the predictor according to the present invention.

【図4】本発明の予測方法を示す模式図FIG. 4 is a schematic diagram showing a prediction method of the present invention.

【図5】本発明の画像符号化方法を適用可能な装置の他
の実施例のブロック図
FIG. 5 is a block diagram of another embodiment of an apparatus to which the image coding method of the present invention can be applied.

【図6】本発明による画素値代入による差分値低減の効
果を説明するための図
FIG. 6 is a diagram for explaining the effect of difference value reduction by substituting pixel values according to the present invention.

【図7】従来例の予測方法の模式図FIG. 7 is a schematic diagram of a conventional prediction method.

【符号の説明】[Explanation of symbols]

30 入力フレームメモリ 31 輝度信号 32 加算器 33 透過度信号 34 符号化器 36 局部復号化器 38 加算器 40 再生画フレームメモリ 42 代表画フレームメモリ 44 予測器 30 Input Frame Memory 31 Luminance Signal 32 Adder 33 Transparency Signal 34 Encoder 36 Local Decoder 38 Adder 40 Playback Image Frame Memory 42 Representative Image Frame Memory 44 Predictor

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】画素値を表す輝度信号と前記画素値の透過
状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域について、 前記画像系列を代表する少なくとも一つの代表画像から
前記符号化対象となる画像を予測して、第一の予測画像
を生成し、 前記符号化対象となる画像より時間的に前に表示される
画像から前記符号化対象となる画像を予測して、第二の
予測画像を生成し、 前記第一と第二の予測画像から、前記符号化対象となる
画像に誤差の小さい方を最適予測画像として選択するこ
とを特徴とする画像予測符号化方法。
1. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transmissive state of the pixel value should be encoded by the transparency signal of an image to be encoded. For all regions, the image to be encoded is predicted from at least one representative image representing the image sequence to generate a first predicted image, and the image to be encoded is temporally preceded by the image. The image to be encoded is predicted from the displayed image to generate a second predicted image, and from the first and second predicted images, the one with a smaller error in the image to be encoded is selected. An image predictive coding method characterized by selecting as an optimum predicted image.
【請求項2】前記第一と第二の予測画像を重み付けによ
って平均化して、第三の予測画像を生成し、前記第一、
第二と第三の予測画像から、前記符号化対象となる画像
に誤差の小さい方を最適予測画像として選択することを
特徴とする請求項1記載の画像予測符号化方法。
2. The first and second predicted images are weighted and averaged to generate a third predicted image, and the first and second predicted images are generated.
2. The image predictive coding method according to claim 1, wherein one of the second and third predicted images having a smaller error in the image to be coded is selected as the optimum predicted image.
【請求項3】画素値を表す輝度信号と前記画素値の透過
状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域について、 前記画像系列を代表する少なくとも一つの代表画像から
前記符号化対象となる画像を予測して、第一の予測画像
を生成し、 前記符号化対象となる画像より時間的に後に表示される
画像から前記符号化対象となる画像を予測して、第二の
予測画像を生成し、 前記第一と第二の予測画像から、前記符号化対象となる
画像に誤差の小さい方を最適予測画像として選択するこ
とを特徴とする画像予測符号化方法。
3. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transparency state of the pixel value, to be encoded specified by the transparency signal of an image to be encoded. For all regions, the image to be coded is predicted from at least one representative image that represents the image sequence to generate a first predicted image, and is displayed later in time than the image to be coded. The image to be encoded is predicted from the image to be generated, and a second predicted image is generated. From the first and second predicted images, the image with the smaller error is optimal for the image to be encoded. An image predictive coding method characterized by selecting as a predicted image.
【請求項4】前記第一と第二の予測画像を重み付けによ
って平均化して、第三の予測画像を生成し、前記第一、
第二と第三の予測画像から、前記符号化対象となる画像
に誤差の小さい方を最適予測画像として選択することを
特徴とする請求項3記載の画像予測符号化方法。
4. The first and second predicted images are weighted and averaged to generate a third predicted image, and the first and second predicted images are generated.
4. The image predictive coding method according to claim 3, wherein one of the second and third predicted images having a smaller error in the image to be coded is selected as the optimum predicted image.
【請求項5】画素値を表す輝度信号と前記画素値の透過
状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域について、 前記画像系列を代表する少なくとも一つの代表画像から
前記符号化対象となる画像を予測して、第一の予測画像
を生成し、 前記符号化対象となる画像より時間的に前に表示される
画像から前記符号化対象となる画像を予測して、第二の
予測画像を生成し、 前記符号化対象となる画像より時間的に後に表示される
画像から前記符号化対象となる画像を予測して、第三の
予測画像を生成し、 前記第一、第二と第三の予測画像から、前記符号化対象
となる画像に誤差の小さい方を最適予測画像として選択
することを特徴とする画像予測符号化方法。
5. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transmissive state of the pixel value should be encoded by the transparency signal of an image to be encoded. For all regions, the image to be encoded is predicted from at least one representative image representing the image sequence to generate a first predicted image, and the image to be encoded is temporally preceded by the image. The image to be coded is predicted from the displayed image to generate a second predicted image, and the image to be coded is selected from the image displayed after the image to be coded temporally. , A third predicted image is generated, and one of the first, second and third predicted images having a smaller error in the image to be coded is selected as the optimum predicted image. Image predictive coding method .
【請求項6】前記第二と第三の予測画像を重み付けによ
って平均化して、第四の予測画像を生成し、前記第一、
第二、第三と第四の予測画像から、前記符号化対象とな
る画像に誤差の小さい方を最適予測画像として選択する
ことを特徴とする請求項5記載の画像予測符号化方法。
6. The second and third predicted images are weighted and averaged to generate a fourth predicted image, and the first and second predicted images are generated.
The image predictive coding method according to claim 5, wherein one of the second, third and fourth predicted images having a smaller error in the image to be coded is selected as an optimum predicted image.
【請求項7】最適予測画像を複数の予測小領域に分割
し、符号化対象となる画像を複数の対象小領域に分割
し、少なくとも一つの符号化すべきでない画素値が含ま
れる対象小領域と対応する予測小領域に対し、前記予測
小領域に含まれる符号化すべき画素値を所定の関数で演
算し、前記演算値を前記対象小領域と予測領域に含まれ
る符号化すべきでない画素に代入してから、前記対象小
領域と前記予測小領域の差分を求め符号化することを特
徴とする請求項1から6のいずれかに記載の画像予測符
号化方法。
7. An optimum predicted image is divided into a plurality of predicted small areas, an image to be coded is divided into a plurality of target small areas, and a target small area containing at least one pixel value that should not be coded. For a corresponding prediction small area, a pixel value to be coded included in the prediction small area is calculated by a predetermined function, and the calculated value is assigned to a pixel that should not be coded included in the target small area and the prediction area. The image predictive coding method according to any one of claims 1 to 6, wherein the difference between the target small area and the predicted small area is obtained and then coded.
【請求項8】画素値を表す輝度信号と前記画素値の透過
状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域を複数の対象小領域に分割し、 前記画像系列を代表する少なくとも一つの代表画像から
前記対象小領域を予測して、第一の予測小領域を生成
し、 前記符号化対象となる画像より時間的に前に表示される
画像から前記対象小領域を予測して、第二の予測小領域
を生成し、 前記第一と第二の予測小領域から、前記対象小領域に誤
差の小さい方を最適予測小領域として選択することを特
徴とする画像予測符号化方法。
8. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transparency state of the pixel value should be encoded by the transparency signal of an image to be encoded. The entire area is divided into a plurality of target small areas, the target small area is predicted from at least one representative image representing the image series, and a first predicted small area is generated, and the image to be encoded is the image. The target small area is predicted from an image displayed earlier in time, a second predicted small area is generated, and the target small area has a small error from the first and second predicted small areas. An image predictive coding method, characterized in that one is selected as the optimum prediction small area.
【請求項9】前記第一と第二の予測小領域を重み付けに
よって平均化して、第三の予測小領域を生成し、前記第
一、第二と第三の予測小領域から、前記対象小領域に誤
差の小さい方を最適予測小領域として選択することを特
徴とする請求項8記載の画像予測符号化方法。
9. The first and second prediction sub-regions are averaged by weighting to generate a third prediction sub-region, and the target sub-regions are extracted from the first, second and third prediction sub-regions. 9. The image predictive coding method according to claim 8, wherein one of the regions having a smaller error is selected as the optimum prediction small region.
【請求項10】画素値を表す輝度信号と前記画素値の透
過状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域を複数の対象小領域に分割し、 前記画像系列を代表する少なくとも一つの代表画像から
前記対象小領域を予測して、第一の予測小領域を生成
し、 前記符号化対象となる画像より時間的に後に表示される
画像から前記対象小領域を予測して、第二の予測小領域
を生成し、 前記第一と第二の予測小領域から、前記対象小領域に誤
差の小さい方を最適予測小領域として選択することを特
徴とする画像予測符号化方法。
10. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transmissive state of the pixel value should be encoded by the transparency signal of an image to be encoded. The entire area is divided into a plurality of target small areas, the target small area is predicted from at least one representative image representing the image series, and a first predicted small area is generated, and the image to be encoded is the image. The target small area is predicted from an image displayed later in time, a second predicted small area is generated, and the one having a smaller error from the first and second predicted small areas to the target small area. An image predictive coding method, characterized in that is selected as the optimum prediction small area.
【請求項11】前記第一と第二の予測小領域を重み付け
によって平均化して、第三の予測小領域を生成し、前記
第一、第二と第三の予測小領域から、前記対象小領域に
誤差の小さい方を最適予測小領域として選択することを
特徴とする請求項10記載の画像予測符号化方法。
11. The first and second prediction sub-regions are weighted and averaged to generate a third prediction sub-region, and the target sub-regions are extracted from the first, second and third prediction sub-regions. 11. The image predictive coding method according to claim 10, wherein one having a smaller error in the area is selected as the optimum prediction small area.
【請求項12】画素値を表す輝度信号と前記画素値の透
過状態を表す透過度信号とから構成される画像系列に対
し、符号化対象となる画像の透過度信号によって特定さ
れた符号化すべき全領域を複数の対象小領域に分割し、 前記画像系列を代表する少なくとも一つの代表画像から
前記対象小領域を予測して、第一の予測小領域を生成
し、 前記符号化対象となる画像より時間的に前に表示される
画像から前記対象小領域を予測して、第二の予測小領域
を生成し、 前記符号化対象となる画像より時間的に後に表示される
画像から前記対象小領域を予測して、第三の予測小領域
を生成し、 前記第一、第二と第三の予測小領域から、前記対象小領
域に誤差の小さい方を最適予測小領域として選択するこ
とを特徴とする画像予測符号化方法。
12. An image sequence composed of a luminance signal representing a pixel value and a transparency signal representing a transparency state of the pixel value should be encoded by the transparency signal of an image to be encoded. The entire area is divided into a plurality of target small areas, the target small area is predicted from at least one representative image representing the image series, and a first predicted small area is generated, and the image to be encoded is the image. The target small area is predicted from an image displayed earlier in time, a second predicted small area is generated, and the target small area is displayed from an image displayed later in time than the image to be encoded. Predict a region, generate a third prediction small region, and select one of the first, second and third prediction small regions with a smaller error in the target small region as the optimum prediction small region. Characteristic image predictive coding method.
【請求項13】前記第二と第三の予測小領域を重み付け
によって平均化して、第四の予測小領域を生成し、前記
第一、第二、第三と第四の予測小領域から、前記対象小
領域に誤差の小さい方を最適予測小領域として選択する
ことを特徴とする請求項12記載の画像予測符号化方
法。
13. The second and third prediction sub-regions are averaged by weighting to generate a fourth prediction sub-region, and from the first, second, third and fourth prediction sub-regions, The image predictive coding method according to claim 12, wherein one of the target small areas having a smaller error is selected as the optimum prediction small area.
【請求項14】少なくとも一つの符号化すべきでない画
素値が含まれる前記対象小領域と対応する前記最適予測
小領域に対し、前記最適予測小領域に含まれる符号化す
べき画素値を所定の関数で演算し、前記演算値を前記対
象小領域と最適予測領域に含まれる符号化すべきでない
画素値に代入してから、前記対象小領域と前記最適予測
小領域の差分を求め符号化することを特徴とする請求項
8から13のいずれかに記載の画像予測符号化方法。
14. A pixel function to be coded included in the optimum prediction small area is defined by a predetermined function with respect to the optimum prediction small area corresponding to the target small area including at least one pixel value that should not be coded. The calculation is performed, the calculated value is substituted into a pixel value that should not be encoded included in the target small area and the optimum prediction area, and then the difference between the target small area and the optimum prediction small area is obtained and encoded. The image predictive coding method according to any one of claims 8 to 13.
JP31662394A 1994-12-20 1994-12-20 Picture prediction coding method Expired - Fee Related JP3334384B2 (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP31662394A JP3334384B2 (en) 1994-12-20 1994-12-20 Picture prediction coding method
EP95120198A EP0719049B1 (en) 1994-12-20 1995-12-20 Method and apparatus for image coding
DE69535007T DE69535007T2 (en) 1994-12-20 1995-12-20 Method and device for object-based predictive coding and transmission of digital images and decoding device
DE69530908T DE69530908T2 (en) 1994-12-20 1995-12-20 Image coding method and apparatus
US08/575,870 US5767911A (en) 1994-12-20 1995-12-20 Object-based digital image predictive coding transfer method and apparatus, and decoding apparatus
EP02017887A EP1271957B1 (en) 1994-12-20 1995-12-20 Object-based digital image predictive coding and transfer method and apparatus, and decoding apparatus
US09/015,056 US5969765A (en) 1994-12-20 1998-01-28 Object-based digital image predictive coding transfer method and apparatus, and decoding apparatus
US09/015,055 US6167158A (en) 1994-12-20 1998-01-28 Object-based digital image predictive method
US09/015,058 US5999219A (en) 1994-12-20 1998-01-28 Object-based digital image predictive coding transfer method and apparatus, and decoding apparatus
US09/566,626 US6510249B1 (en) 1994-12-20 2000-05-08 Object-base digital image predictive coding transfer method and apparatus, and decoding apparatus
US10/268,902 US6560364B2 (en) 1994-12-20 2002-10-11 Object-based digital image predictive coding transfer method and apparatus, and decoding apparatus
US10/387,566 US6687408B2 (en) 1994-12-20 2003-03-14 Object-based digital image predictive coding transfer method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31662394A JP3334384B2 (en) 1994-12-20 1994-12-20 Picture prediction coding method

Publications (2)

Publication Number Publication Date
JPH08172631A true JPH08172631A (en) 1996-07-02
JP3334384B2 JP3334384B2 (en) 2002-10-15

Family

ID=18079120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31662394A Expired - Fee Related JP3334384B2 (en) 1994-12-20 1994-12-20 Picture prediction coding method

Country Status (1)

Country Link
JP (1) JP3334384B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998021895A1 (en) * 1996-11-08 1998-05-22 Matsushita Electric Industrial Co., Ltd. Image coder and image coding method, and image decoder and image decoding method, and quantization control method and inverse quantization control method, and data recording medium
WO1998036576A1 (en) * 1997-02-13 1998-08-20 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
KR100609614B1 (en) * 1996-09-20 2006-12-07 소니 컴퓨터 엔터테인먼트 인코포레이티드 Method and apparatus for transmitting picture data, processing pictures and recording medium therefor

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100609614B1 (en) * 1996-09-20 2006-12-07 소니 컴퓨터 엔터테인먼트 인코포레이티드 Method and apparatus for transmitting picture data, processing pictures and recording medium therefor
WO1998021895A1 (en) * 1996-11-08 1998-05-22 Matsushita Electric Industrial Co., Ltd. Image coder and image coding method, and image decoder and image decoding method, and quantization control method and inverse quantization control method, and data recording medium
US6275530B1 (en) 1996-11-08 2001-08-14 Matsushita Electric Industrial Co., Ltd. Image coder and image coding method, and image decoder and image decoding method, and quantization control method and inverse quantization control method, and data recording medium
JP2009071877A (en) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp Moving image prediction device and moving image predicting method
US6775326B2 (en) 1997-02-13 2004-08-10 Mitsubishi Denki Kabushiki Kaisha Moving image estimating system
CN101026762A (en) * 1997-02-13 2007-08-29 三菱电机株式会社 Moving image coding device and method
WO1998036576A1 (en) * 1997-02-13 1998-08-20 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
JP2009071879A (en) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp Moving image prediction device and moving image predicting method
JP2009071878A (en) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp Moving image prediction device and moving image predicting method
JP2011250470A (en) * 1997-02-13 2011-12-08 Mitsubishi Electric Corp Moving image predicting method
JP2012120244A (en) * 1997-02-13 2012-06-21 Mitsubishi Electric Corp Moving image encoder, moving image encoding method, and moving image prediction device
US8553772B2 (en) 1997-02-13 2013-10-08 Mitsubishi Electric Corporation Moving picture prediction system
US9225945B2 (en) 1997-02-13 2015-12-29 Mitsubishi Electric Corporation Moving picture encoder and encoding method
US9232198B2 (en) 1997-02-13 2016-01-05 Mitsubishi Electric Corporation Moving picture prediction system

Also Published As

Publication number Publication date
JP3334384B2 (en) 2002-10-15

Similar Documents

Publication Publication Date Title
KR100587280B1 (en) apparatus and method for concealing error
KR0178231B1 (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
JP5134001B2 (en) Scalable video coding with lower layer filtering
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
KR20060109249A (en) Method and apparatus for predicting motion vector of a macro block using motion vectors of a picture of base layer when encoding/decoding video signal
JPH08307873A (en) Video signal coding method
JPH08242453A (en) Movement vector presumption device
JPH08214318A (en) Method and apparatus for region-based approach to encoding of video signal sequence
JPH08307874A (en) Video signal encoding device
JPH0818977A (en) Dynamic image encoder/decoder
JP3778960B2 (en) Video coding method and apparatus
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
KR0159370B1 (en) Method and apparatus for encoding a video signals using a boundary of an object
KR100212559B1 (en) The contour coding system and motion prediction method for object
JP3681784B2 (en) Video signal encoding device
KR100587274B1 (en) method for concealing error in MPEG-2 decompression system
JPH08172631A (en) Image prediction coding method
JP3732760B2 (en) Object recognition apparatus and object recognition method
JPH08154250A (en) Moving image coder
JP2001268581A (en) Image predictive decoding method, image predictive decoder, image predictive encoding method, image predictive encoder and data storage medium
KR100203658B1 (en) Apparatus for estimating motion of contour in object based encoding
KR0174455B1 (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
KR100229791B1 (en) Adaptive image coding system having functions for controlling bandpath of video signals
KR100212560B1 (en) Apparatus for determinating coding mode of contour in hybrid contour coding system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees