JPH0818975A - Encoder/decoder for dynamic image - Google Patents

Encoder/decoder for dynamic image

Info

Publication number
JPH0818975A
JPH0818975A JP14427594A JP14427594A JPH0818975A JP H0818975 A JPH0818975 A JP H0818975A JP 14427594 A JP14427594 A JP 14427594A JP 14427594 A JP14427594 A JP 14427594A JP H0818975 A JPH0818975 A JP H0818975A
Authority
JP
Japan
Prior art keywords
data
motion
area
outputting
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14427594A
Other languages
Japanese (ja)
Inventor
Yoshihiro Miyamoto
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP14427594A priority Critical patent/JPH0818975A/en
Publication of JPH0818975A publication Critical patent/JPH0818975A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To provide an encoding system and a decoding system with superior encoding efficiency even in a part where a motion is changing discontinuously by analyzing the object structure of an image and performing motion detection and motion compensation at every object area. CONSTITUTION:An analysis circuit 101 performs the area division of an input image 121, and outputs before and behind relational data 125 and motion data 124 at every area. A circuit 102 applies motion compensation to the composite image data 122 of a preceding frame by referring to the data 124, and outputs inter-motion compensation frame data 126 at every area. A differentiator 103 outputs the differential data 127 of input image data 123 and the data 126. An adder 106 adds data 128 in which the data 127 is quantized 104 on the data 128, and outputs composite image data 130. A decoder part performs the inverse code conversion 109 of encoded data 131 from a circuit 108, and performs the inverse quantization 110 of quantized data 132, and adds 112 it on inter-motion compensation frame predictive data from a circuit 111, and outputs a composite image 139 by synthesizing 114 image data 138 composited at every area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は動画像の符号化および復
号に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to coding and decoding of moving images.

【0002】[0002]

【従来の技術】従来の動画像の符号化および復号方式を
実現する一実施例のブロック構成を図9に示す。図9の
符号化部では、まず動き検出回路901で入力画像92
1と前フレームで局部復号した復号画像922とのフレ
ーム間での動きを検出する。次に検出した動きデータ9
23を参照し、前フレームの局部復号画像922から動
き補償フレーム間予測データ924を生成する。前記の
動き検出および動き補償の一連の処理は、様々な大きさ
のデータ単位で行うことができるが、一般的には予め定
めた大きさのブロック単位で行うことが多い。例えば、
ITU−T/H.261やISO−IEC/MPEGな
どの国際標準符号化方式では、入力画像を16画素×1
6ライン単位のブロックに分割し、ブロック毎に独立し
た動き検出および動き補償処理を行っている。図9で
は、次にこの動き補償処理と同じデータ単位で、入力画
像921と動き補償フレーム間予測データ924との差
分を求める。差分データ925は量子化し、動きデータ
923と併せて符号変換して復号部へ伝送する。また量
子化データ926は逆量子化し、動き補償フレーム間予
測データ924に加算して局部復号画像928を得る。
局部復号画像928はメモリ907に保持し、次のフレ
ームの入力画像の符号化に際し、参照データとして出力
する。復号部では供給されたデータ929を逆符号変換
し、このデータを用いて符号化部と同じ動き補償処理と
逆量子化処理および加算処理を行い、復号画像935を
得る。復号画像935は一枚の画像データとしてメモリ
913に保持し、次フレームの画像の復号に際しての参
照データとして利用する。
2. Description of the Related Art FIG. 9 shows a block configuration of an embodiment for realizing a conventional moving picture encoding and decoding system. In the encoding unit of FIG. 9, the motion detection circuit 901 first inputs the input image 92
The motion between frames of 1 and the decoded image 922 locally decoded in the previous frame is detected. Next detected motion data 9
23, the motion-compensated interframe prediction data 924 is generated from the locally decoded image 922 of the previous frame. The series of processes of motion detection and motion compensation described above can be performed in data units of various sizes, but in general, they are often performed in block units of a predetermined size. For example,
ITU-T / H. In the international standard encoding method such as H.261 or ISO-IEC / MPEG, the input image is 16 pixels x 1
It is divided into blocks of 6 line units, and independent motion detection and motion compensation processing is performed for each block. In FIG. 9, next, the difference between the input image 921 and the motion-compensated inter-frame prediction data 924 is calculated in the same data unit as this motion compensation processing. The difference data 925 is quantized, code-converted together with the motion data 923, and transmitted to the decoding unit. The quantized data 926 is dequantized and added to the motion-compensated interframe prediction data 924 to obtain a locally decoded image 928.
The locally decoded image 928 is held in the memory 907, and is output as reference data when the input image of the next frame is encoded. In the decoding unit, the supplied data 929 is subjected to inverse code conversion, and the same motion compensation processing, dequantization processing and addition processing as in the encoding unit are performed using this data, and a decoded image 935 is obtained. The decoded image 935 is held in the memory 913 as one piece of image data, and is used as reference data when decoding the image of the next frame.

【0003】ところで前記ブロック単位に動き補償を行
った場合に、隣接ブロック間で動きが大きく異なると復
号画像上にブロック歪みが発生することがある。そこで
近年ではこのブロック歪みを除去する為に、動きデータ
を隣接画素間で連続的に変化するように補正し、動き補
償に用いる方式も知られている。例えば電子情報通信学
会技術研究報告IE90−106「3角形パッチによる
動き補償の基礎検討」に記載の方式では、まず画像上に
予め定めた間隔で代表点を定め、代表点上でフレーム間
の動きベクトルを検出する。次に全ての画素毎に複数の
近傍代表点から動きベクトルを内挿計算して求める。算
出した動きベクトルを参照し、動き補償フレーム間予測
を画素毎に行う。なお、この方法においても復号画像は
一枚の画像データとしてメモリに保持し、次フレームの
画像の符号化および復号に際しての参照データとして利
用している。
When motion compensation is performed on a block-by-block basis, block distortion may occur in a decoded image if the motions of adjacent blocks differ greatly. Therefore, in recent years, in order to remove this block distortion, a method of correcting motion data so that it continuously changes between adjacent pixels and using it for motion compensation is also known. For example, in the method described in IEICE Technical Report IE90-106 “Basic Study of Motion Compensation Using Triangular Patches”, first, representative points are set on an image at predetermined intervals, and movements between frames on the representative points are performed. Detect a vector. Next, a motion vector is interpolated and calculated from a plurality of neighboring representative points for every pixel. The motion-compensated inter-frame prediction is performed for each pixel with reference to the calculated motion vector. Even in this method, the decoded image is stored in the memory as one piece of image data and is used as reference data when encoding and decoding the image of the next frame.

【0004】[0004]

【発明が解決しようとする課題】従来の動画像の符号化
および復号方式では、一枚の復号画像データを参照して
動き検出および動き補償を行っている。このため動きの
異なる被写体同士の境界付近で符号化効率が低下するこ
とがあった。
In the conventional moving picture coding and decoding methods, motion detection and motion compensation are performed by referring to one piece of decoded picture data. For this reason, the coding efficiency may be reduced near the boundary between subjects having different movements.

【0005】例えば、ブロック単位で動き検出を行う場
合に、動きの異なる複数の被写体に跨るブロックではい
ずれの被写体領域の動きとも異なる誤った動きベクトル
を検出することがある。該ブロックでは実際の動きとは
異なる動き補償が行われ、動き補償フレーム間予測の効
果が十分に発揮できない。また該ブロックでは隣接ブロ
ックとは不連続な動き補償が行われるため、復号画像上
にブロック歪みが発生し、視覚的にも著しい劣化を引き
起こす。あるいは、動きの異なる複数の被写体に跨るブ
ロックで、ブロックの中のいずれか一つの被写体領域の
動きを正確に検出できた場合にも、残りの領域について
は正確な動き補償を実現することができず、前記同様の
問題を引き起こすことがある。
For example, when motion detection is performed in block units, an erroneous motion vector different from the motion of any subject region may be detected in a block spanning a plurality of subjects having different motions. In this block, motion compensation different from the actual motion is performed, and the effect of motion-compensated interframe prediction cannot be fully exerted. Further, in this block, motion compensation which is discontinuous with that of the adjacent block is performed, so that block distortion occurs in the decoded image, causing a noticeable deterioration. Alternatively, in a block that spans multiple subjects with different movements, even if the movement of any one subject area in the block can be accurately detected, accurate motion compensation can be realized for the remaining areas. However, the same problem as described above may occur.

【0006】従来の動き補償方式の別の例として、予め
定めた代表点上で動きベクトルを検出し、全ての画素毎
に動きベクトルを近傍代表点から内挿計算して求める方
法においても問題が生じることがある。この方法では、
画像の内容によらず全ての画素で動きベクトルを内挿計
算する。このため動きの異なる被写体の境界付近では、
注目画素とは異なる領域の近傍代表点を参照して内挿計
算が行われ、実際の動きとは異なるベクトルが与えられ
る。結果として、動き補償フレーム間予測の効果が十分
に発揮できなかったり、被写体の境界部分に不自然な変
形歪みを発生することがある。
As another example of the conventional motion compensation method, there is a problem in a method of detecting a motion vector on a predetermined representative point and interpolating and calculating the motion vector from every neighboring representative point for every pixel. May occur. in this way,
The motion vector is interpolated at all pixels regardless of the content of the image. Therefore, in the vicinity of the boundaries of subjects with different movements,
The interpolation calculation is performed with reference to the neighboring representative points in a region different from the pixel of interest, and a vector different from the actual motion is given. As a result, the effects of motion-compensated inter-frame prediction may not be fully exerted, or unnatural deformation distortion may occur at the boundary portion of the subject.

【0007】本発明の目的は、画像の被写体構造を考慮
した動き検出および動き補償を行うことで、動きが不連
続に変化している画像部分でも優れた符号化効率を持っ
た装置を実現することにある。
An object of the present invention is to realize a device having excellent coding efficiency even in an image portion in which the motion changes discontinuously, by performing motion detection and motion compensation in consideration of the subject structure of the image. Especially.

【0008】[0008]

【課題を解決するための手段】本発明の第1の動画像の
符号化・復号装置は、符号化部は、前フレームで局部復
号した復号画像データを参照して入力画像を解析し、入
力画像を領域分割して出力するとともに、前記分割した
領域相互の前後関係を示すデータと領域毎のフレーム間
での動きを示すデータとを検出して出力する手段と、前
記動きデータを参照し、前記復号画像データから動き補
償フレーム間予測データを生成して出力する手段と、前
記前後関係データを参照し、前記領域分割した入力画像
と前記動き補償フレーム間予測データとの適応的な差分
を領域毎に求め、差分データを出力する手段と、前記差
分データを量子化し、量子化データを出力する手段と、
前記量子化データを逆量子化し、逆量子化データを出力
する手段と、前記逆量子化データと前記動き補償フレー
ム間予測データとを領域毎に加算し、領域毎に局部復号
した復号画像データを出力する手段と、前記復号画像デ
ータを領域毎に別々に保持し、次フレームの符号化時に
参照データとして出力する手段と、前記前後関係データ
と前記動きデータおよび前記量子化データとを符号変換
し、出力する手段とを備え、復号部は、符号化部から供
給された符号化データを逆符号変換し、領域毎の量子化
データおよび動きデータと領域相互の前後関係データと
を出力する手段と、前記量子化データを逆量子化し、逆
量子化データを出力する手段と、前記動きデータを参照
し、前フレームで復号した復号画像データから動き補償
フレーム間予測データを生成して出力する手段と、前記
逆量子化データと前記動き補償フレーム間予測データと
を領域毎に加算し、領域毎に復号した復号画像データを
出力する手段と、前記復号画像データを領域毎に別々に
保持し、次フレームの復号時に参照データとして出力す
る手段と、前記前後関係データを参照し、前記領域毎に
復号した復号画像データを合成し、一枚の復号画像を生
成して出力する手段とを備えることを特徴とする。
In the first moving picture coding / decoding apparatus of the present invention, the coding section analyzes the input image with reference to the decoded image data locally decoded in the previous frame, and inputs it. While dividing the image into regions and outputting the divided regions, reference is made to the motion data, and means for detecting and outputting the data indicating the front-rear relationship between the divided regions and the data indicating the movement between the frames for each region, A unit for generating and outputting motion-compensated interframe prediction data from the decoded image data, and referring to the contextual data, an adaptive difference between the region-divided input image and the motion-compensated interframe prediction data For each, the means for outputting the difference data, the means for quantizing the difference data, and outputting the quantized data,
Dequantized the quantized data, a unit for outputting the dequantized data, the dequantized data and the motion compensation inter-frame prediction data is added for each region, the decoded image data locally decoded for each region A means for outputting, a means for holding the decoded image data separately for each area, and outputting as reference data at the time of encoding the next frame, a code conversion of the contextual data, the motion data and the quantized data. And a means for outputting, the decoding unit inverse-code-converts the encoded data supplied from the encoding unit, and outputs the quantized data and motion data for each area and the contextual data of the areas. , Means for dequantizing the quantized data and outputting the inverse quantized data, and motion-compensated inter-frame prediction data from the decoded image data decoded in the previous frame with reference to the motion data. A unit for generating and outputting the data, a unit for adding the dequantized data and the motion-compensated interframe prediction data for each region, and a unit for outputting decoded image data decoded for each region, and a unit for outputting the decoded image data. A unit for holding each area separately and outputting it as reference data when decoding the next frame and the context data are referred to, and the decoded image data decoded for each area is combined to generate one decoded image. And means for outputting.

【0009】また本発明の第2の動画像の符号化・復号
装置は、符号化部は、前フレームで局部復号した復号画
像データを参照して入力画像を解析し、入力画像を動領
域と背景領域とに領域分割して出力するとともに、前記
分割した領域毎のフレーム間での動きを示すデータを検
出して出力する手段と、前記動きデータを参照し、前記
復号画像データから動き補償フレーム間予測データを生
成して出力する手段と、前記領域分割した入力画像と前
記動き補償フレーム間予測データとの適応的な差分を領
域毎に求め、差分データを出力する手段と、前記差分デ
ータを量子化し、量子化データを出力する手段と、前記
量子化データを逆量子化し、逆量子化データを出力する
手段と、前記逆量子化データと前記動き補償フレーム間
予測データとを領域毎に加算し、領域毎に局部復号した
復号画像データを出力する手段と、前記復号画像データ
を動領域と背景領域とで別々に保持し、次フレームの符
号化時に参照データとして出力する手段と、前記動きデ
ータおよび前記量子化データとを符号変換し、出力する
手段とを備え、復号部は、符号化部から供給された符号
化データを逆符号変換し、動領域と背景領域との領域毎
の量子化データおよび動きデータとを出力する手段と、
前記量子化データを逆量子化し、逆量子化データを出力
する手段と、前記動きデータを参照し、前フレームで復
号した復号画像データから動き補償フレーム間予測デー
タを生成して出力する手段と、前記逆量子化データと前
記動き補償フレーム間予測データとを領域毎に加算し、
領域毎に復号した復号画像データを出力する手段と、前
記復号画像データを動領域と背景領域とで別々に保持
し、次フレームの復号時に参照データとして出力する手
段と、背景領域の復号画像データの上に動領域の復号画
像データを合成し、一枚の復号画像を生成して出力する
手段とを備えることを特徴とする。
In the second moving picture coding / decoding apparatus of the present invention, the coding section analyzes the input image with reference to the decoded image data locally decoded in the previous frame, and sets the input image as the moving area. A unit for dividing and outputting the background region and a unit for detecting and outputting data indicating the movement between frames in each of the divided regions, and a motion compensation frame from the decoded image data with reference to the motion data. Means for generating and outputting inter-prediction data, means for obtaining an adaptive difference between the region-divided input image and the motion-compensated inter-frame prediction data for each area, and outputting difference data, and the difference data Means for quantizing and outputting quantized data; means for dequantizing the quantized data and outputting dequantized data; and means for storing the dequantized data and the motion-compensated interframe prediction data. Means for outputting the decoded image data that is locally decoded for each area, and means for holding the decoded image data separately in the moving area and the background area and outputting as reference data when encoding the next frame A decoding unit that reverse-codes the coded data supplied from the coding unit to convert the motion data and the quantized data, and outputs the motion data and the quantized data. Means for outputting quantized data and motion data for each;
Means for dequantizing the quantized data and outputting the dequantized data; means for referring to the motion data and generating and outputting motion-compensated interframe prediction data from the decoded image data decoded in the previous frame; The dequantized data and the motion-compensated inter-frame prediction data are added for each area,
Means for outputting the decoded image data decoded for each area, means for holding the decoded image data separately in the moving area and the background area, and outputting as reference data when decoding the next frame, and decoded image data in the background area And means for synthesizing the decoded image data of the moving area and generating and outputting one decoded image.

【0010】[0010]

【実施例】本発明の第1の動画像の符号化・復号装置の
実施例を図1を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the first moving picture coding / decoding apparatus of the present invention will be described with reference to FIG.

【0011】図1は、本発明の第1の動画像の符号化・
復号装置の一実施例のブロック図である。この動画像の
符号化・復号装置は符号化部と復号部とから構成され
る。
FIG. 1 shows a first moving image encoding /
It is a block diagram of one Example of a decoding device. The moving picture coding / decoding apparatus is composed of a coding unit and a decoding unit.

【0012】符号化部は、前フレームで局部復号した復
号画像データ122を参照して入力画像121を解析
し、領域分割した入力画像データ123を出力するとと
もに、分割した領域相互の前後関係と領域毎のフレーム
間での動きを検出し、各々検出したデータを出力する動
画像解析回路101と、動きデータ124を参照して前
フレームの復号画像データ122を領域毎に動き補償
し、動き補償フレーム間予測データ126を出力する動
き補償予測回路102と、入力画像データ123と動き
補償フレーム間予測データ126との適応的な差分を領
域毎に求め、差分データ127を出力する差分器103
と、差分データ127を量子化し、量子化データ128
を出力する量子化回路104と、量子化データ128を
逆量子化し、逆量子化データ129を出力する逆量子化
回路105と、逆量子化データ129と動き補償フレー
ム間予測データ126とを領域毎に加算し、領域毎に局
部復号した復号画像データ130を出力する加算器10
6と、復号画像データ130を領域毎に別々に保持し、
次フレームの符号化時に領域毎に別々の参照データとし
て出力する領域別メモリ107と、前後関係データ12
5と動きデータ124および量子化データ128とを符
号変換し、符号化データ131を復号部へ出力する符号
変換回路108とからなる。
The encoding unit analyzes the input image 121 by referring to the decoded image data 122 locally decoded in the previous frame, outputs the input image data 123 divided into regions, and the context and regions of the divided regions. A motion image analysis circuit 101 which detects a motion between each frame and outputs the detected data, and motion data of the decoded image data 122 of the previous frame is compensated for each region by referring to the motion data 124. The motion compensation prediction circuit 102 that outputs the inter prediction data 126, and the difference unit 103 that obtains the adaptive difference between the input image data 123 and the motion compensation inter prediction data 126 for each region and outputs the difference data 127.
And the difference data 127 is quantized to obtain the quantized data 128.
A dequantization circuit 104 that outputs the dequantized data 128 and dequantized the quantized data 128 and outputs the dequantized data 129, the dequantized data 129, and the motion-compensated interframe prediction data 126 for each region. Adder 10 that outputs the decoded image data 130 locally decoded for each area
6 and the decoded image data 130 are held separately for each area,
A region-by-region memory 107 that outputs as reference data that is different for each region when the next frame is encoded, and contextual data 12
5 and the motion data 124 and the quantized data 128 are code-converted, and the code conversion circuit 108 that outputs the coded data 131 to the decoding unit.

【0013】復号部は符号化部から供給された符号化デ
ータ131を逆符号変換し、前後関係データ134と動
きデータ133および量子化データ132とを出力する
逆符号変換回路109と、量子化データ132を逆量子
化し、逆量子化データ135を出力する逆量子化回路1
10と、動きデータ133を参照して前フレームの復号
画像データ136を領域毎に動き補償し、動き補償フレ
ーム間予測データ137を出力する動き補償予測回路1
11と、逆量子化データ135と動き補償フレーム間予
測データ137とを領域毎に加算し、領域毎に復号した
復号画像データ138を出力する加算器112と、復号
画像データ138を領域毎に別々に保持し、次フレーム
の復号時に領域毎に別々の参照データとして出力する領
域別メモリ113と、前後関係データ134を参照して
領域毎の復号画像データ138を合成し、一枚の復号画
像139を生成して外部へ出力する領域合成回路114
とからなる。
The decoding unit inverse-codes the encoded data 131 supplied from the encoding unit, and outputs the context data 134, the motion data 133, and the quantized data 132, and the quantized data. Dequantization circuit 1 for dequantizing 132 and outputting dequantized data 135
10 and the motion data 133, the motion-compensated prediction circuit 1 that performs motion compensation on the decoded image data 136 of the previous frame for each region and outputs the motion-compensated inter-frame prediction data 137.
11, the dequantized data 135, and the motion-compensated interframe prediction data 137 are added for each area, and the adder 112 that outputs the decoded image data 138 decoded for each area, and the decoded image data 138 are separated for each area. , And the decoded image data 138 for each area is synthesized by referring to the contextual data 134 and the area-based memory 113 that outputs separate reference data for each area when decoding the next frame, and one decoded image 139 Area synthesis circuit 114 for generating and outputting
Consists of

【0014】本実施例の動作を説明する。The operation of this embodiment will be described.

【0015】図1の符号化部では、まず動画像解析回路
101で入力画像121を領域分割して出力する。ここ
で入力画像121と前フレームで領域毎に局部復号した
復号画像データ122とのフレーム間相関を利用するこ
とで、より正確な分割を実現できる。分割した領域はそ
れぞれ復号画像データ122の領域と対応づけて出力す
る。例えば、符号化部と復号部とで同じ方法を用い、前
フレームの復号画像データの領域毎に番号付けを行う。
領域分割した現フレームの入力画像データは、この番号
順に対応する領域を並び変えて出力する。こうすれば領
域毎の符号化データが、いずれの領域に対応するかを別
途符号化伝送する必要が無い。入力画像上で復号画像デ
ータ122のいずれの領域とも対応関係の無い新たな領
域が検出された場合には、出力順序の最後に追加する。
また動画像解析回路101では、分割した領域相互の前
後関係と、領域毎のフレーム間での動きも検出し、各々
を前後関係データ125および動きデータ124として
出力する。
In the encoding unit of FIG. 1, the moving image analysis circuit 101 first divides the input image 121 into regions and outputs the divided regions. Here, more accurate division can be realized by using the inter-frame correlation between the input image 121 and the decoded image data 122 locally decoded in each region in the previous frame. The divided areas are output in association with the areas of the decoded image data 122. For example, the same method is used in the encoding unit and the decoding unit, and numbering is performed for each area of the decoded image data of the previous frame.
The area-divided input image data of the current frame is output by rearranging the areas corresponding to the numbers. In this way, it is not necessary to separately encode and transmit which area the encoded data for each area corresponds to. When a new area that does not correspond to any area of the decoded image data 122 is detected on the input image, it is added to the end of the output order.
The moving image analysis circuit 101 also detects the front-back relationship between the divided areas and the movement between frames of each area, and outputs each as the front-back relationship data 125 and the movement data 124.

【0016】図2は図1の動画像解析回路の内部構成の
一例を説明するブロック図である。図2では、領域分割
回路201において入力画像221を領域分割する。こ
の領域分割の一連の処理の例を次に説明する。まず入力
画像221から輝度あるいは色度が急激に変化している
エッジを検出し、このエッジを領域分割の境界線として
初期領域分割を実現する。次に前記分割で得た多数の領
域のうち、復号画像データ222上の一つの領域に重な
り合う複数の領域を統合し、最終的な領域分割結果とし
て出力する。このとき入力画像221上のある一つの領
域が復号画像データ222上の複数の領域に跨る場合に
は、重なり合う画素数が最も多い領域同士を対応付け
る。図2の動き検出回路202では、前記分割した領域
毎にフレーム間での動きを検出する。動き検出は従来技
術であるブロックマッチング法や輝度勾配法により容易
に実施できる。このとき領域毎の画像データは、注目領
域の画素データのみを有し、その他の周囲の画素データ
は含んでいない。あるいは注目領域の外部の画素データ
は予め定めた一つの値、例えばゼロなどに固定してお
く。こうすることで、注目領域の外周付近で動き検出す
る場合にも、隣接領域の画像内容による影響で誤検出を
引き起こすことが無く、より正確な動き検出を実現でき
る。また注目領域の一部分が他の隣接領域の後ろに隠れ
たり逆に背後から現れた為にフレーム間相関が無く、正
確な動きが検出できないことがある。この様な部分に
は、同一の注目領域上で動きデータが正確に検出できた
部分から動きデータを外挿して与える。あるいはゼロベ
クトルを該部分の動きデータとして与えても良い。図2
の前後関係検出回路203では、前記分割した複数の領
域が重なり合う場合に、領域相互の前後関係を検出す
る。この検出手順の一例を、図3と図4を用いて説明す
る。図3は2つの領域Aと領域Bが重なり合う場合を示
している。このような場合には、フレーム間で領域形状
の変化の少ない方、すなわち領域Aがより前面にあると
判定できる。あるいは各々の領域に対し、動き補償フレ
ーム間予測誤差を測定することでも判定できる。図4は
領域Aと領域Bの各々が前面にあると仮定し、動き補償
フレーム間予測を行った場合の各々の予測誤差を示して
いる。領域Bを前面と仮定すると大きな誤差が発生する
が、領域Aを前面と仮定すれば誤差は少ない。従って領
域Aが入力画像上でより前面にあると判定できる。
FIG. 2 is a block diagram for explaining an example of the internal configuration of the moving picture analysis circuit of FIG. In FIG. 2, the area dividing circuit 201 divides the input image 221 into areas. An example of a series of processes for this area division will be described below. First, an edge in which the brightness or chromaticity is rapidly changing is detected from the input image 221, and the initial area division is realized by using this edge as a boundary line of the area division. Next, of the many areas obtained by the division, a plurality of areas overlapping one area on the decoded image data 222 are integrated and output as a final area division result. At this time, when a certain area on the input image 221 spans a plurality of areas on the decoded image data 222, the areas having the largest number of overlapping pixels are associated with each other. The motion detection circuit 202 of FIG. 2 detects the motion between frames for each of the divided areas. Motion detection can be easily performed by a block matching method or a brightness gradient method, which are conventional techniques. At this time, the image data for each region has only the pixel data of the region of interest, and does not include the other surrounding pixel data. Alternatively, the pixel data outside the attention area is fixed to one predetermined value, such as zero. By doing so, even when the motion is detected near the outer periphery of the attention area, more accurate motion detection can be realized without causing erroneous detection due to the influence of the image content of the adjacent area. In addition, since a part of the attention area is hidden behind another adjacent area or appears from the back on the contrary, there is no correlation between frames, and an accurate motion may not be detected. The motion data is extrapolated to such a portion from the portion where the motion data can be accurately detected in the same attention area. Alternatively, a zero vector may be given as the motion data of the portion. Figure 2
The front-rear relationship detection circuit 203 detects the front-rear relationship between the areas when the divided areas overlap each other. An example of this detection procedure will be described with reference to FIGS. 3 and 4. FIG. 3 shows a case where the two areas A and B overlap each other. In such a case, it can be determined that the one in which the region shape changes little between frames, that is, the region A is in front. Alternatively, it can be determined by measuring the motion compensation inter-frame prediction error for each region. FIG. 4 shows prediction errors when motion-compensated interframe prediction is performed assuming that each of the areas A and B is in the front. A large error occurs when the region B is assumed to be the front surface, but the error is small when the region A is assumed to be the front surface. Therefore, it can be determined that the area A is on the front side in the input image.

【0017】図5は図1の動画像解析回路の内部構成の
別の例を説明するブロック図である。図5では、まず動
き検出回路501で入力画像521と前フレームで局部
復号した復号画像データ522とのフレーム間での動き
を検出する。動き検出は従来技術であるブロックマッチ
ング法や輝度勾配法により容易に実現できる。次に領域
分割回路502において入力画像521を領域分割す
る。領域分割は図2の領域分割回路201について前記
説明したのと同様な方法でも実現できるが、前記検出し
た動きデータを参照すれば更に正確な領域分割を実現で
きる。この処理の一例を次に説明する。まず入力画像5
21を前記説明と同様のフレーム内処理により初期領域
分割する。次に前記検出した動きデータ523を用い、
復号画像データ522上の各々の領域を動き補償する。
入力画像521を初期分割した複数の領域のうち、前記
動き補償後の同一の領域の上に重なり合う複数の領域を
統合し、最終的な領域分割結果として出力する。このと
き入力画像521上のある一つの領域が前記動き補償後
の複数の領域に跨る場合には、重なり合う画素数が最も
多い領域同士を対応付ける。この方法を用いれば、動き
の比較的大きな画像においても領域毎のフレーム間相関
を十分に利用でき、より正確な領域分割結果が得られ
る。図5の前後関係検出回路503では、領域分割した
入力画像データ524と復号画像データ522および動
きデータ523を参照し、領域相互の前後関係を検出す
る。領域相互の前後関係は図2の前後関係検出回路20
3について前記説明したのと同様な方法で実現できる。
図5の動き補正回路504では、動き検出回路501で
前記検出した動きデータ523に補正を加え、最終的な
動きデータ526を出力する。補正を加える理由は、動
き検出回路501では領域分割前の入力画像521から
動き検出しているため、動きの異なる被写体領域の境界
付近で誤検出が発生しやすい為である。例えばブロック
マッチング法で動き検出した場合、被写体領域の内部で
は比較的正確な動きが検出できるが、動きの異なる被写
体領域に跨ったブロックでは、注目領域以外の隣接領域
の画像内容の影響を受け、誤検出することがある。そこ
で誤検出の可能性が高い部分には、正確に動き検出でき
た部分から動きデータの値を外挿補間する。あるいは該
部分の動きデータのみを領域分割後の入力画像データ5
24を用いて再検出しても良い。
FIG. 5 is a block diagram for explaining another example of the internal structure of the moving picture analysis circuit of FIG. In FIG. 5, the motion detection circuit 501 first detects a motion between frames of the input image 521 and the decoded image data 522 locally decoded in the previous frame. Motion detection can be easily realized by the block matching method and the brightness gradient method, which are conventional techniques. Next, the area dividing circuit 502 divides the input image 521 into areas. The area division can be realized by the same method as described above with respect to the area division circuit 201 of FIG. 2, but more accurate area division can be realized by referring to the detected motion data. An example of this processing will be described below. Input image 5
21 is divided into initial areas by the same intraframe processing as described above. Next, using the detected motion data 523,
Motion compensation is performed on each area on the decoded image data 522.
Among the plurality of regions obtained by initially dividing the input image 521, the plurality of regions overlapping the same region after the motion compensation are integrated and output as a final region division result. At this time, when a certain area on the input image 521 extends over the plurality of areas after the motion compensation, the areas having the largest number of overlapping pixels are associated with each other. By using this method, it is possible to sufficiently utilize the inter-frame correlation for each area even in an image having a relatively large motion, and obtain a more accurate area division result. The context detection circuit 503 shown in FIG. 5 refers to the input image data 524, the decoded image data 522, and the motion data 523, which have been divided into regions, and detects the context between regions. The front-back relation between the areas is the front-back relation detection circuit 20 shown in FIG.
3 can be realized by the same method as described above.
The motion correction circuit 504 of FIG. 5 corrects the motion data 523 detected by the motion detection circuit 501 and outputs final motion data 526. The reason for adding the correction is that the motion detection circuit 501 detects the motion from the input image 521 before the region division, and therefore erroneous detection is likely to occur near the boundary between the subject regions having different motions. For example, when the motion is detected by the block matching method, a relatively accurate motion can be detected inside the subject region, but in a block straddling the subject region where the motion is different, the influence of the image content of the adjacent region other than the attention region, It may be erroneously detected. Therefore, the value of the motion data is extrapolated from the part where the motion can be accurately detected to the part where the possibility of erroneous detection is high. Alternatively, only the motion data of the portion is input image data 5 after the area division.
24 may be used for re-detection.

【0018】ここで再び図1に戻り、動画像解析回路1
01より後段の動作を説明する。
Now, returning to FIG. 1 again, the moving image analysis circuit 1
The operation after 01 will be described.

【0019】図1の動き補償予測回路102では、動き
データ124を参照し、前フレームで領域毎に局部復号
した復号画像データ122に動き補償処理を施し、領域
毎の動き補償フレーム間予測データ126を出力する。
動きデータ124がブロック単位で供給されている場合
には、動き補償処理はブロックベースで行う。また動き
データ124がブロック単位あるいは代表点毎に供給さ
れている場合には、画素毎の動きベクトルを注目画素近
傍の複数の動きデータから内挿計算し、これを用いて画
素毎に動き補償を行っても良い。あるいは動きデータ1
24が注目領域全体の動きを記述する変換パラメータで
与えられている場合には、該領域の全ての画素に対して
前記パラメータを用いた変換処理を行い、動き補償フレ
ーム間予測データ126を得る。
The motion compensation prediction circuit 102 of FIG. 1 refers to the motion data 124, performs motion compensation processing on the decoded image data 122 locally decoded for each region in the previous frame, and performs motion compensation interframe prediction data 126 for each region. Is output.
When the motion data 124 is supplied in block units, the motion compensation process is performed on a block basis. When the motion data 124 is supplied in block units or representative points, a motion vector for each pixel is interpolated from a plurality of motion data in the vicinity of the target pixel, and motion compensation is performed for each pixel using this. You can go. Or movement data 1
When 24 is given by a conversion parameter that describes the motion of the entire region of interest, conversion processing using the parameter is performed on all pixels in the region to obtain motion-compensated interframe prediction data 126.

【0020】差分器103では前後関係データ125を
参照し、領域分割した入力画像データ123と動き補償
フレーム間予測データ126との差分を適応的に求め、
差分データ127を出力する。入力画像上のある領域A
に対する差分処理を行う前に、差分器103には復号画
像データ122上の対応する領域Aから予測データが供
給される。ここで該予測データが、入力画像上の領域A
の画素位置に与えられた場合には、入力画像データと予
測データとの差分データを出力する。また入力画像上の
注目画素に対する予測データの値がゼロであるか、予測
データが与えられていない場合には、入力画像データを
そのまま差分データとして出力する。一方、予測データ
が入力画像上の領域Aの外部の画素位置、すなわち入力
画像上の別の領域B上の画素位置に与えられた場合に
は、領域Aと領域Bとの前後関係により適応的に差分処
理を切替える。領域Aが領域Bより前面にある場合に
は、該画素位置での入力画像データの値をゼロとし、こ
れと予測データとの差分を出力する。また領域Aが領域
Bより背後にある場合には、差分データの値をゼロとし
て出力するか、該差分データを符号化の対象外とする。
こうすることで、隣接する別の領域の背後に隠れて現フ
レームの入力画像上では見えなくなった部分、いわゆる
アンカバード部分の不必要な符号化を避けることができ
る。
The difference unit 103 refers to the contextual data 125 to adaptively obtain the difference between the region-divided input image data 123 and the motion-compensated inter-frame prediction data 126,
The difference data 127 is output. Area A on the input image
Before performing the difference processing on the difference image, the difference device 103 is supplied with the prediction data from the corresponding area A on the decoded image data 122. Here, the prediction data is the area A on the input image.
When it is given to the pixel position of, the difference data between the input image data and the prediction data is output. If the value of the prediction data for the pixel of interest on the input image is zero or if the prediction data is not given, the input image data is output as it is as difference data. On the other hand, when the prediction data is given to a pixel position outside the area A on the input image, that is, a pixel position on another area B on the input image, it is adaptive depending on the context of the areas A and B. The difference processing is switched to. When the area A is in front of the area B, the value of the input image data at the pixel position is set to zero, and the difference between this and the prediction data is output. When the area A is behind the area B, the value of the difference data is output as zero, or the difference data is excluded from the encoding target.
By doing so, it is possible to avoid unnecessary encoding of a portion that is hidden behind another adjacent area and cannot be seen on the input image of the current frame, that is, a so-called uncovered portion.

【0021】量子化回路104では前記差分データ12
7を量子化し、量子化データ128を出力する。
In the quantization circuit 104, the difference data 12
7 is quantized and quantized data 128 is output.

【0022】逆量子化回路105では量子化データ12
8を逆量子化し、逆量子化データ129を出力する。
In the inverse quantization circuit 105, the quantized data 12
8 is inversely quantized, and inversely quantized data 129 is output.

【0023】加算器106では逆量子化データ129と
動き補償フレーム間予測データ126とを領域毎に別々
に加算し、領域毎に局部復号した復号画像データ130
を出力する。ここで逆量子化データの値がゼロ、もしく
は符号化されていない画素に対し、動き補償フレーム間
予測データが与えられた場合には予測データをそのまま
局部復号画像データとする。こうすることで、隣接する
別の領域の背後に隠れて現フレームの入力画像上では見
えなくなった部分、いわゆるアンカバード部分に対し、
前フレームで局部復号した画像データを消去せずに保持
することができる。この画像データは該部分が再び入力
画像上に現れたときに、動き補償フレーム間予測に有効
なデータとして活用することができる。
In the adder 106, the dequantized data 129 and the motion-compensated interframe prediction data 126 are added separately for each area, and the decoded image data 130 locally decoded for each area is added.
Is output. Here, when the value of the dequantized data is zero or the motion-compensated inter-frame prediction data is given to the pixel which is not coded, the prediction data is directly used as the locally decoded image data. By doing this, for the part hidden behind another adjacent area and not visible on the input image of the current frame, the so-called uncovered part,
The image data locally decoded in the previous frame can be held without being erased. This image data can be utilized as effective data for motion-compensated interframe prediction when the portion appears again on the input image.

【0024】領域別メモリ107は局部復号した復号画
像データ130を領域毎に別々に保持し、次フレームの
符号化時に動き検出および動き補償フレーム間予測の為
の参照データとして、領域毎に別々に出力する。
The regional memory 107 holds the locally decoded decoded image data 130 for each region separately, and separately for each region as reference data for motion detection and motion compensation inter-frame prediction at the time of encoding the next frame. Output.

【0025】符号変換回路108では領域毎に量子化デ
ータ128と動きデータ124および前後関係データ1
25とを符号変換し、符号化データ131を復号部へ伝
送する。
In the code conversion circuit 108, the quantized data 128, the motion data 124, and the contextual data 1 for each area.
25 is code-converted, and the encoded data 131 is transmitted to the decoding unit.

【0026】復号部では、まず逆符号変換回路109で
符号化部から供給された符号化データ132を逆符号変
換し、領域毎の量子化データ132と動きデータ133
および前後関係データ134とを出力する。
In the decoding section, first, the inverse code conversion circuit 109 reverse-codes the encoded data 132 supplied from the encoding section, and the quantized data 132 and the motion data 133 for each area are converted.
And the context data 134 are output.

【0027】逆量子化回路110では量子化データ13
2を逆量子化し、逆量子化データ135を出力する。
In the inverse quantization circuit 110, the quantized data 13
2 is inversely quantized, and inversely quantized data 135 is output.

【0028】動き補償予測回路111では動きデータ1
33を参照し、前フレームで領域毎に復号した復号画像
データ136に動き補償処理を施し、動き補償フレーム
間予測データ137を出力する。動き補償予測回路11
1における動き補償処理は、符号化部の動き補償予測回
路102と同じ方法で実現する。
In the motion compensation prediction circuit 111, the motion data 1
33, the decoded image data 136 decoded for each area in the previous frame is subjected to motion compensation processing, and motion-compensated interframe prediction data 137 is output. Motion compensation prediction circuit 11
The motion compensation processing in 1 is realized by the same method as that of the motion compensation prediction circuit 102 of the encoding unit.

【0029】加算器112では、逆量子化データ135
と動き補償フレーム間予測データ137とを領域毎に別
々に加算し、領域毎の復号画像データ138を出力す
る。ここで逆量子化データの値がゼロ、もしくは符号化
されていない画素に対し、動き補償フレーム間予測デー
タが与えられた場合には予測データをそのまま復号画像
データとする。
In the adder 112, the inverse quantized data 135
And the motion-compensated inter-frame prediction data 137 are added separately for each area, and decoded image data 138 for each area is output. Here, when the value of the inverse quantized data is zero, or the motion-compensated inter-frame prediction data is given to a pixel that is not coded, the prediction data is directly used as the decoded image data.

【0030】領域別メモリ113は復号画像データ13
8を領域毎に別々に保持し、次フレームの復号時に領域
毎の復号画像データ136として出力する。
The memory 113 for each area stores the decoded image data 13
8 is separately held for each area and is output as decoded image data 136 for each area when the next frame is decoded.

【0031】領域合成回路114では前後関係データ1
34を参照し、どの領域がより前面にあるかを判定し、
領域毎の復号画像データ138を重ね合わせて一枚の画
像を合成する。合成した画像を復号画像139として外
部へ出力する。
In the area synthesizing circuit 114, the context data 1
34, determine which region is more front,
The decoded image data 138 for each area is overlapped to synthesize one image. The combined image is output as a decoded image 139 to the outside.

【0032】本発明の第2の動画像の符号化・復号装置
を図6を用いて説明する。
A second moving picture coding / decoding apparatus of the present invention will be described with reference to FIG.

【0033】図6は、本発明の第2の動画像の符号化・
復号装置を実現する装置の一実施例のブロック図であ
る。この動画像の符号化・復号装置は符号化部と復号部
とから構成される。
FIG. 6 shows a second moving image coding / encoding method according to the present invention.
FIG. 10 is a block diagram of an example of an apparatus that realizes a decoding apparatus. The moving picture coding / decoding apparatus is composed of a coding unit and a decoding unit.

【0034】符号化部は、前フレームで局部復号した復
号画像データ622を参照して入力画像621を解析
し、動領域と背景領域とに領域分割した入力画像データ
623を出力するとともに、分割した領域毎にフレーム
間での動きを検出し、動きデータ624を出力する動画
像解析回路601と、動きデータ624を参照して前フ
レームの復号画像データ622を領域毎に動き補償し、
動き補償フレーム間予測データ625を出力する動き補
償予測回路602と、領域分割した入力画像データ62
3と動き補償フレーム間予測データ625との適応的な
差分を領域毎に求め、差分データ626を出力する差分
器603と、差分データ626を量子化し、量子化デー
タ627を出力する量子化回路604と、量子化データ
627を逆量子化し、逆量子化データ628を出力する
逆量子化回路605と、逆量子化データ628と動き補
償フレーム間予測データ625とを領域毎に加算し、領
域毎に局部復号した復号画像データ629を出力する加
算器606と、復号画像データ629を動領域と背景領
域とで別々に保持し、次フレームの符号化時に領域毎に
別々の参照データとして出力する領域別メモリ607
と、動きデータ624と量子化データ627とを符号変
換し、符号化データ630を復号部へ出力する符号変換
回路608とからなる。
The encoding unit analyzes the input image 621 by referring to the decoded image data 622 locally decoded in the previous frame, outputs the input image data 623 divided into the moving area and the background area, and also divides it. A motion image analysis circuit 601 which detects a motion between frames for each region and outputs motion data 624, and motion data of the decoded image data 622 of the previous frame with reference to the motion data 624 is motion-compensated for each region.
A motion-compensated prediction circuit 602 that outputs motion-compensated interframe prediction data 625, and region-divided input image data 62
3 and the motion-compensated inter-frame prediction data 625 are obtained for each region, a difference unit 603 that outputs difference data 626, and a quantization circuit 604 that quantizes the difference data 626 and outputs quantized data 627. And the inverse quantization circuit 605 that inversely quantizes the quantized data 627 and outputs the inverse quantized data 628, the inverse quantized data 628 and the motion compensation inter-frame prediction data 625 are added for each region, and each region is added. An adder 606 that outputs the decoded image data 629 that has been locally decoded, and a region that holds the decoded image data 629 separately in the moving region and the background region and outputs them as separate reference data for each region when the next frame is encoded. Memory 607
And a code conversion circuit 608 that performs code conversion of the motion data 624 and the quantized data 627 and outputs the coded data 630 to the decoding unit.

【0035】復号部は符号化部から供給された符号化デ
ータ630を逆符号変換し、動きデータ632と量子化
データ631とを出力する逆符号変換回路609と、量
子化データ631を逆量子化し、逆量子化データ633
を出力する逆量子化回路610と、動きデータ632を
参照して前フレームの復号画像データ634を領域毎に
動き補償し、動き補償フレーム間予測データ635を出
力する動き補償予測回路611と、逆量子化データ63
3と動き補償フレーム間予測データ635とを領域毎に
加算し、領域毎に復号した復号画像データ636を出力
する加算器612と、復号画像データ636を動領域と
背景領域とで別々に保持し、次フレームの復号時に領域
毎に別々の参照データとして出力する領域別メモリ61
3と、背景領域の復号画像データの上に動領域の復号画
像データを合成し、一枚の画像を生成して復号画像63
7として外部へ出力する領域合成回路614とからな
る。
The decoding unit inverse-codes the encoded data 630 supplied from the encoding unit, and outputs the motion data 632 and the quantized data 631. The inverse-code conversion circuit 609 and the quantized data 631 are inversely quantized. , Dequantized data 633
And the motion compensation prediction circuit 611 that outputs motion compensation interframe prediction data 635 by performing motion compensation on the decoded image data 634 of the previous frame for each region by referring to the motion data 632. Quantized data 63
3 and motion-compensated inter-frame prediction data 635 are added for each area, and an adder 612 that outputs decoded image data 636 decoded for each area, and the decoded image data 636 are separately held in the moving area and the background area. , A memory 61 for each area which is output as reference data for each area when the next frame is decoded
3 and the decoded image data of the moving area on the decoded image data of the background area are combined to generate one image, and the decoded image 63
7 and an area synthesizing circuit 614 for outputting to the outside.

【0036】本実施例の動作を説明する。The operation of this embodiment will be described.

【0037】符号化部では、まず動画像解析回路601
で入力画像621を解析し、動領域と背景領域とに領域
分割した入力画像データ623を出力する。領域分割
は、前フレームにおいて動領域と背景領域とで別々に局
部復号した復号画像データ622とのフレーム間相関を
利用して実現する。また動画像解析回路601では、領
域毎にフレーム間での動きを検出して出力する。なお、
各データの動領域と背景領域との出力順序を予め定めて
おけば、復号部でもデータがいずれの領域に属するかを
一意に定めることができる。
In the encoding unit, first, the moving image analysis circuit 601.
The input image 621 is analyzed by and the input image data 623 divided into a moving area and a background area is output. The area division is realized by utilizing inter-frame correlation with the decoded image data 622 which is locally decoded separately in the moving area and the background area in the previous frame. Further, the moving image analysis circuit 601 detects and outputs the movement between frames for each area. In addition,
If the output order of the moving area and the background area of each data is determined in advance, the decoding unit can uniquely determine which area the data belongs to.

【0038】図7は図6の動画像解析回路601の内部
構成の一例を説明するブロック図である。図7では、領
域分割回路701において入力画像721を動領域と背
景領域とに領域分割する。この処理の一例を次に説明す
る。まず入力画像721から輝度あるいは色度が急激に
変化しているエッジを検出し、このエッジを領域分割の
境界線とし、初期領域分割を実現する。次に前フレーム
で局部復号した復号画像データ722を参照し、領域分
割を補正する。例えば初期分割した複数の領域のうち、
前フレームの復号画像722上での動領域に重なり合う
領域を統合し、現フレームでの動領域とする。あるいは
次の様な方法をもちいても良い。まず入力画像721と
前フレームの復号画像722との単純なフレーム間差分
を求める。差分の値が大きな画素が密集した部分を領域
境界部分とみなし、この内側にある複数の初期分割領域
を統合して動領域とする。いずれの場合にも、動領域に
属さない初期分割領域を統合し、背景領域とする。次
に、図7の動き検出回路702では、分割した動領域と
背景領域とで別々に、フレーム間での動きを検出する。
動き検出は従来技術であるブロックマッチング法や輝度
勾配法により容易に実現できる。このとき入力画像72
3と復号画像データ722は注目領域の画素データしか
有しておらず、領域境界付近でも他方の領域の影響を受
けないので、より正確に動き検出できる。
FIG. 7 is a block diagram for explaining an example of the internal configuration of the moving image analysis circuit 601 shown in FIG. In FIG. 7, the area dividing circuit 701 divides the input image 721 into a moving area and a background area. An example of this processing will be described below. First, an edge in which the luminance or chromaticity is rapidly changing is detected from the input image 721, and this edge is used as a boundary line for area division to implement initial area division. Next, with reference to the decoded image data 722 locally decoded in the previous frame, the area division is corrected. For example, of the initial divided areas,
An area that overlaps the moving area on the decoded image 722 of the previous frame is integrated into a moving area in the current frame. Alternatively, the following method may be used. First, a simple interframe difference between the input image 721 and the decoded image 722 of the previous frame is obtained. A region in which pixels with large difference values are dense is regarded as a region boundary portion, and a plurality of initial divided regions inside the region boundary portion are integrated to form a moving region. In either case, the initial divided areas that do not belong to the moving area are integrated to form the background area. Next, the motion detection circuit 702 of FIG. 7 detects the motion between frames separately for the divided motion area and background area.
Motion detection can be easily realized by the block matching method and the brightness gradient method, which are conventional techniques. Input image 72 at this time
3 and the decoded image data 722 have only the pixel data of the region of interest and are not affected by the other region even in the vicinity of the region boundary, so that the motion can be detected more accurately.

【0039】図8は図6の動画像解析回路601の内部
構成の別の例を説明するブロック図である。図8では、
動き検出回路801において入力画像821と前フレー
ムの復号画像データ822とから、フレーム間での動き
を示す動きデータ823を検出する。動き検出は従来技
術であるブロックマッチング法や輝度勾配法により容易
に実現できる。次に領域分割回路802において入力画
像821を領域分割する。領域分割は図7の領域分割回
路701について前記説明したのと同様な方法でも実現
できるが、動き検出回路801で検出した動きデータ8
23を用いることで、より正確な領域分割を実現でき
る。この処理の一例を次に説明する。まず入力画像82
1をフレーム内処理で初期領域分割する。次に動きデー
タ823を参照し、前フレームの復号画像データ822
を領域毎に動き補償する。初期分割した複数の領域の中
で、前記動き補償後の動領域の上に重なり合う複数の領
域を統合し、現フレームでの動領域とする。また残りの
初期分割領域を統合し、背景領域とする。ここで初期分
割したある領域が、前記動き補償後の動領域と背景領域
の両方に跨る場合には、重なり合う画素数が多い方に統
合する。最後に動き補正回路803において、動き検出
回路801で検出した動きデータ823に補正を加え、
最終的な動きデータ825として出力する。動き検出回
路801では領域分割する前の入力画像上で動き検出を
行っている。このため動領域と背景領域との境界付近で
は、互いの画像データが影響を及ぼし合い、誤検出をお
こす可能性が高い。そこでこのような部分には、領域内
部で検出した動きデータを外挿補間する。あるいは該部
分の動きデータのみを、領域分割後の入力画像を用いて
再検出しても良い。
FIG. 8 is a block diagram for explaining another example of the internal structure of the moving image analysis circuit 601 shown in FIG. In FIG.
The motion detection circuit 801 detects motion data 823 indicating the motion between frames from the input image 821 and the decoded image data 822 of the previous frame. Motion detection can be easily realized by the block matching method and the brightness gradient method, which are conventional techniques. Next, the area dividing circuit 802 divides the input image 821 into areas. The area division can be realized by the same method as described above for the area division circuit 701 of FIG. 7, but the motion data 8 detected by the motion detection circuit 801
By using 23, more accurate area division can be realized. An example of this processing will be described below. First input image 82
1 is divided into initial areas by intra-frame processing. Next, referring to the motion data 823, the decoded image data 822 of the previous frame
Is motion-compensated for each area. Among the plurality of initially divided regions, a plurality of regions overlapping the motion-compensated motion region are integrated to form a motion region in the current frame. In addition, the remaining initial divided areas are integrated to form a background area. Here, when a certain area which is initially divided extends over both the motion area and the background area after the motion compensation, the area is integrated into one having a larger number of overlapping pixels. Finally, the motion correction circuit 803 corrects the motion data 823 detected by the motion detection circuit 801.
The final motion data 825 is output. The motion detection circuit 801 detects motion on the input image before area division. Therefore, in the vicinity of the boundary between the moving area and the background area, mutual image data influence each other, and there is a high possibility that erroneous detection occurs. Therefore, the motion data detected inside the area is extrapolated to such a portion. Alternatively, only the motion data of the portion may be detected again by using the input image after the area division.

【0040】ここで再び図6に戻り、動画像解析回路6
01より後段の動作を説明する。
Returning to FIG. 6 again, the moving image analysis circuit 6
The operation after 01 will be described.

【0041】動き補償予測回路602では、動きデータ
624を参照し、前フレームで領域毎に局部復号した復
号画像データ622に動き補償処理を施し、領域毎の動
き補償フレーム間予測データ625を出力する。動きデ
ータ624がブロック単位で供給されている場合には、
動き補償処理はブロックベースで行う。また動きデータ
624がブロック単位もしくは代表点毎に供給されてい
る場合には、画素毎の動きベクトルを注目画素近傍の複
数の動きデータから内挿計算し、これを用いて画素毎に
動き補償を行っても良い。あるいは動きデータ624が
注目領域全体の動きを記述する変換パラメータで与えら
れている場合には、該領域の全ての画素に対して前記パ
ラメータを用いた変換処理を行い、動き補償フレーム間
予測データ625を得る。
The motion compensation prediction circuit 602 refers to the motion data 624, performs motion compensation processing on the decoded image data 622 locally decoded for each region in the previous frame, and outputs motion compensation interframe prediction data 625 for each region. . When the motion data 624 is supplied in block units,
Motion compensation processing is performed on a block basis. When the motion data 624 is supplied in block units or representative points, a motion vector for each pixel is interpolated from a plurality of motion data in the vicinity of the target pixel, and motion compensation is performed for each pixel using this. You can go. Alternatively, when the motion data 624 is given by a conversion parameter that describes the motion of the entire region of interest, conversion processing using the parameter is performed on all pixels in the region, and the motion-compensated interframe prediction data 625 is obtained. To get

【0042】差分器603では領域分割した入力画像デ
ータ623と動き補償フレーム間予測データ625との
差分を適応的に求め、差分データ626を出力する。こ
こで予測データが、注目している入力画像データと互い
に対応する領域から与えられた場合には、差分データを
そのまま出力する。またこれ以外の場合には次のような
処理を行う。動領域での差分処理において、入力画像上
のある注目画素に対し、予測データの値がゼロである
か、予測データが与えられていない場合には、入力画像
データをそのまま差分データとして出力する。また同じ
く動領域での差分処理において、予測データが入力画像
上の動領域外部の画素位置、すなわち背景領域の画素位
置に与えられた場合には、入力画像データの値をゼロと
し、これと予測データとの差分を出力する。一方、背景
領域での差分処理において、入力画像上の背景領域外の
画素位置に予測データが与えられた場合には、差分デー
タの値をゼロとして出力するか、該差分データを符号化
の対象外とする。こうすることで、動領域の背後に隠れ
て現フレームの入力画像上では見えなくなった部分、い
わゆるアンカバード部分を不必要に符号化せずに済む。
The difference calculator 603 adaptively finds the difference between the input image data 623 divided into regions and the motion-compensated interframe prediction data 625, and outputs difference data 626. Here, when the prediction data is given from the area corresponding to the input image data of interest, the difference data is output as it is. In other cases, the following processing is performed. In the difference processing in the moving area, if the value of the prediction data is zero or no prediction data is given to a certain pixel of interest on the input image, the input image data is output as it is as difference data. Similarly, in the differential processing in the moving area, when the prediction data is given to the pixel position outside the moving area on the input image, that is, the pixel position in the background area, the value of the input image data is set to zero and the prediction is performed. Output the difference from the data. On the other hand, in the difference processing in the background area, if prediction data is given to a pixel position outside the background area on the input image, the value of the difference data is output as zero, or the difference data is to be encoded. Outside. By doing so, it is not necessary to unnecessarily encode a portion hidden behind the moving area and invisible on the input image of the current frame, a so-called uncovered portion.

【0043】量子化回路604では差分データ626を
量子化し、量子化データ627を出力する。
The quantization circuit 604 quantizes the difference data 626 and outputs quantized data 627.

【0044】逆量子化回路605では量子化データ62
7を逆量子化し、逆量子化データ628を出力する。
In the inverse quantization circuit 605, the quantized data 62
7 is inversely quantized, and inversely quantized data 628 is output.

【0045】加算器606では逆量子化データ628と
動き補償フレーム間予測データ625とを領域毎に別々
に加算し、領域毎に局部復号した復号画像データ629
を出力する。ここで逆量子化データの値がゼロ、もしく
は符号化されていない画素に対し、動き補償フレーム間
予測データが与えられた場合には予測データをそのまま
復号画像データとする。こうすることで、動領域の背後
に隠れて現フレームでは見えなくなった背景領域の一部
分、いわゆるアンカバード部分に対し、前フレームで局
部復号した画像データを消去せずに保持することができ
る。この画像データは該部分が再び入力画像上に現れた
場合に、動き補償フレーム間予測に有効なデータとして
活用できる。
In the adder 606, the dequantized data 628 and the motion-compensated interframe prediction data 625 are added separately for each area, and the decoded image data 629 locally decoded for each area is added.
Is output. Here, when the value of the inverse quantized data is zero, or the motion-compensated inter-frame prediction data is given to a pixel that is not coded, the prediction data is directly used as the decoded image data. By doing so, the image data locally decoded in the previous frame can be retained without being erased in a part of the background region hidden behind the moving region and invisible in the current frame, that is, an uncovered part. This image data can be used as effective data for motion-compensated interframe prediction when the portion appears again on the input image.

【0046】領域別メモリ607は局部復号した復号画
像データ629を動領域と背景領域とで別々に保持し、
次フレームの符号化時に領域毎に別々の動き検出および
動き補償フレーム間予測の為の参照データとして出力す
る。
The area-based memory 607 holds the decoded image data 629 locally decoded separately in the moving area and the background area,
When the next frame is encoded, it is output as reference data for motion detection and motion compensation inter-frame prediction which is different for each area.

【0047】符号変換回路608では領域毎に量子化デ
ータ627と動きデータ624とを符号変換し、符号化
データ630を復号部へ伝送する。
The code conversion circuit 608 performs code conversion on the quantized data 627 and the motion data 624 for each area, and transmits the coded data 630 to the decoding unit.

【0048】復号部では、まず符号化部から供給された
符号化データ630を逆符号変換回路609で逆符号変
換し、領域毎の量子化データ631と動きデータ632
とを出力する。
In the decoding section, first, the encoded data 630 supplied from the encoding section is subjected to inverse code conversion by the inverse code conversion circuit 609, and the quantized data 631 and the motion data 632 for each area are converted.
And output.

【0049】逆量子化回路610では量子化データ63
1を逆量子化し、逆量子化データ633を出力する。
In the inverse quantization circuit 610, the quantized data 63
1 is inversely quantized, and inversely quantized data 633 is output.

【0050】動き補償予測回路611では動きデータ6
32を参照し、前フレームで領域毎に復号した復号画像
データ634に動き補償処理を施し、動き補償フレーム
間予測データ635を出力する。動き補償予測回路61
1における動き補償処理は、符号化部の動き補償予測回
路602と同じ方法で実現する。
In the motion compensation prediction circuit 611, the motion data 6
32, the motion compensation processing is performed on the decoded image data 634 decoded for each area in the previous frame, and the motion compensation inter-frame prediction data 635 is output. Motion compensation prediction circuit 61
The motion compensation processing in 1 is realized by the same method as the motion compensation prediction circuit 602 of the encoding unit.

【0051】加算器612では、逆量子化データ633
と動き補償フレーム間予測データ635とを領域毎に別
々に加算し、領域毎の復号画像データ636を出力す
る。ここで逆量子化データの値がゼロ、もしくは符号化
されていない画素に対し、動き補償フレーム間予測デー
タが与えられた場合には予測データをそのまま復号画像
データとする。
In the adder 612, the inverse quantized data 633
And motion-compensated inter-frame prediction data 635 are added separately for each area, and decoded image data 636 for each area is output. Here, when the value of the inverse quantized data is zero, or the motion-compensated inter-frame prediction data is given to a pixel that is not coded, the prediction data is directly used as the decoded image data.

【0052】領域別メモリ613は復号画像データ63
6を動領域と背景領域とで別々に保持し、次フレームの
復号時に領域毎の復号画像データ634として出力す
る。
The area-based memory 613 stores the decoded image data 63.
6 is held separately for the moving area and the background area, and is output as decoded image data 634 for each area when the next frame is decoded.

【0053】領域合成回路614では、背景領域の復号
画像データの上に動領域の復号画像データを重ね合わせ
て一枚の画像を合成する。この画像を復号画像637と
して外部へ出力する。
The area synthesizing circuit 614 superimposes the decoded image data of the moving area on the decoded image data of the background area to synthesize one image. This image is output as a decoded image 637 to the outside.

【0054】[0054]

【発明の効果】以上説明したように本発明では、画像の
被写体構造を解析し、被写体領域毎に動き検出および動
き補償を行うことで、動きが不連続に変化している部分
でも優れた符号化効率を持った符号化および復号方式を
実現することができる。
As described above, according to the present invention, the object structure of the image is analyzed, and the motion detection and the motion compensation are performed for each object region, so that an excellent code can be obtained even in a portion where the motion changes discontinuously. It is possible to realize a coding and decoding method with high coding efficiency.

【0055】例えば動き検出は、領域分割した入力画像
と前フレームで領域毎に局部復号した復号画像データと
を用いて行う。このため注目領域の動きを検出している
時には、その他の周囲の領域の画像データの影響を受け
ず、より正確に動きを検出できる。
For example, the motion detection is performed using the input image divided into regions and the decoded image data locally decoded in each region in the previous frame. Therefore, when the movement of the attention area is detected, the movement can be detected more accurately without being affected by the image data of the other surrounding areas.

【0056】また動き補償処理も前フレームで領域毎に
復号した復号画像データを用いて行う。このため動き補
償フレーム間予測データに周囲の領域の画像データが誤
って混入することが無く、より正確な動き補償処理を実
現できる。
The motion compensation processing is also performed using the decoded image data decoded in each area in the previous frame. Therefore, the image data of the surrounding area is not erroneously mixed in the motion compensation inter-frame prediction data, and more accurate motion compensation processing can be realized.

【0057】更に一度復号した画像データの一部分が、
動きの異なる隣接領域の背後に隠れた場合にも、該部分
の画像データを消去せず、領域別メモリに保持すること
ができる。この画像データは該部分が入力画像上に再び
現れた場合に、動き補償フレーム間予測データとして有
効利用できる。このため従来の方法に比べて予測効率を
改善できる。
Further, a part of the image data once decoded is
Even when the image data is hidden behind the adjacent regions having different movements, the image data of the portion can be retained in the region-based memory without being erased. This image data can be effectively used as motion-compensated interframe prediction data when the portion appears again on the input image. Therefore, the prediction efficiency can be improved as compared with the conventional method.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係わる第1の実施例の基本ブロック図
である。
FIG. 1 is a basic block diagram of a first embodiment according to the present invention.

【図2】本発明に係わる第1の実施例における動画像解
析回路の内部構成の一例を示すブロック図である。
FIG. 2 is a block diagram showing an example of an internal configuration of a moving image analysis circuit according to the first embodiment of the present invention.

【図3】分割した領域相互の前後関係を検出する方法を
説明する図である。
FIG. 3 is a diagram illustrating a method of detecting a front-back relationship between divided areas.

【図4】分割した領域相互の前後関係を検出する方法を
説明する図である。
FIG. 4 is a diagram illustrating a method of detecting a front-back relationship between divided areas.

【図5】本発明に係わる第1の実施例における動画像解
析回路の内部構成の一例を示すブロック図である。
FIG. 5 is a block diagram showing an example of an internal configuration of a moving image analysis circuit according to the first embodiment of the present invention.

【図6】本発明に係わる第2の実施例の基本ブロック図
である。
FIG. 6 is a basic block diagram of a second embodiment according to the present invention.

【図7】本発明に係わる第2の実施例における動画像解
析回路の内部構成の一例を示すブロック図である。
FIG. 7 is a block diagram showing an example of an internal configuration of a moving image analysis circuit according to a second embodiment of the present invention.

【図8】本発明に係わる第2の実施例における動画像解
析回路の内部構成の一例を示すブロック図である。
FIG. 8 is a block diagram showing an example of an internal configuration of a moving image analysis circuit according to a second embodiment of the present invention.

【図9】従来の動画像符号化および復号装置の一実施例
の基本ブロック図である。
FIG. 9 is a basic block diagram of an embodiment of a conventional moving picture coding and decoding apparatus.

【符号の説明】[Explanation of symbols]

101,601 動画像解析回路 102,111,602,611,902,911 動
き補償予測回路 103,603,903 差分器 104,604,904 量子化回路 105,110,605,610,905,910 逆
量子化回路 106,112,606,612,906,912 加
算器 107,113,607,613 領域別メモリ 907,913 画像メモリ 108,608,908 符号変換回路 109,609,909 逆符号変換回路 114,614 領域合成回路 201,502,701,802 領域分割回路 202,501,702,801,901 動き検出回
路 203,503 前後関係検出回路 504,803 動き補正回路 121,221,521,621,721,821,9
21 入力画像 122,136,222,522,622,634,7
22,822,922,933 前フレームの復号画像
データ 123,223,524,623,723,824 領
域毎の入力画像データ 124,133,224,523,526,624,6
32,724,823,825,923,931 動き
データ 125,134,225,525 前後関係データ 126,137,625,635,924,934 動
き補償フレーム間予測データ 127,626,925 差分データ 128,132,627,631,926,930 量
子化データ 129,135,628,633,927,932 逆
量子化データ 130,138,629,636 領域毎の復号画像デ
ータ 131,630,929 符号化データ 139,637,928,935 復号画像
101,601 Moving image analysis circuit 102,111,602,611,902,911 Motion compensation prediction circuit 103,603,903 Difference device 104,604,904 Quantization circuit 105,110,605,610,905,910 Inverse quantum Circuit 106,112,606,612,906,912 adder 107,113,607,613 area memory 907,913 image memory 108,608,908 code conversion circuit 109,609,909 reverse code conversion circuit 114,614 Region synthesizing circuit 201, 502, 701, 802 Region dividing circuit 202, 501, 702, 801, 901 Motion detection circuit 203, 503 Front-rear relationship detection circuit 504, 803 Motion correction circuit 121, 221, 521, 621, 721, 821 9
21 Input image 122, 136, 222, 522, 622, 634, 7
22, 822, 922, 933 Decoded image data of previous frame 123, 223, 524, 623, 723, 824 Input image data for each area 124, 133, 224, 523, 526, 624, 6
32, 724, 823, 825, 923, 931 Motion data 125, 134, 225, 525 Front-rear relationship data 126, 137, 625, 635, 924, 934 Motion-compensated inter-frame prediction data 127, 626, 925 Difference data 128, 132 , 627, 631, 926, 930 Quantized data 129, 135, 628, 633, 927, 932 Dequantized data 130, 138, 629, 636 Decoded image data for each region 131, 630, 929 Encoded data 139, 637 , 928, 935 Decoded image

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】符号化部と復号部とから構成される動画像
の符号化・復号装置において、 前記符号化部は、 前フレームで局部復号した復号画像データを参照して入
力画像を解析し、入力画像を領域分割して出力するとと
もに、前記分割した領域相互の前後関係を示すデータと
領域毎のフレーム間での動きを示すデータとを検出して
出力する手段と、前記動きデータを参照し、前記復号画
像データから動き補償フレーム間予測データを生成して
出力する手段と、前記前後関係データを参照し、前記領
域分割した入力画像と前記動き補償フレーム間予測デー
タとの適応的な差分を領域毎に求め、差分データを出力
する手段と、前記差分データを量子化し、量子化データ
を出力する手段と、前記量子化データを逆量子化し、逆
量子化データを出力する手段と、前記逆量子化データと
前記動き補償フレーム間予測データとを領域毎に加算
し、領域毎に局部復号した復号画像データを出力する手
段と、前記復号画像データを領域毎に別々に保持し、次
フレームの符号化時に参照データとして出力する手段
と、前記前後関係データと前記動きデータおよび前記量
子化データとを符号変換し、出力する手段とを備え、 前記復号部は、 前記符号化部から供給された符号化データを逆符号変換
し、領域毎の量子化データおよび動きデータと領域相互
の前後関係データとを出力する手段と、前記量子化デー
タを逆量子化し、逆量子化データを出力する手段と、前
記動きデータを参照し、前フレームで復号した復号画像
データから動き補償フレーム間予測データを生成して出
力する手段と、前記逆量子化データと前記動き補償フレ
ーム間予測データとを領域毎に加算し、領域毎に復号し
た復号画像データを出力する手段と、前記復号画像デー
タを領域毎に別々に保持し、次フレームの復号時に参照
データとして出力する手段と、前記前後関係データを参
照し、前記領域毎に復号した復号画像データを合成し、
一枚の復号画像を生成して出力する手段とを備えること
を特徴とした動画像の符号化・復号装置。
1. A moving picture coding / decoding apparatus comprising a coding section and a decoding section, wherein the coding section analyzes an input image with reference to decoded image data locally decoded in a previous frame. , A unit for dividing the input image into regions and outputting the same, and detecting and outputting data indicating the front-back relation between the divided regions and data indicating the movement between frames in each region, and refer to the movement data And a means for generating and outputting motion-compensated interframe prediction data from the decoded image data, and an adaptive difference between the region-divided input image and the motion-compensated interframe predicted data with reference to the contextual data. For each region, and means for outputting difference data, means for quantizing the difference data and outputting quantized data, and means for dequantizing the quantized data and outputting dequantized data. Means, means for adding the dequantized data and the motion-compensated interframe prediction data for each area, and outputting decoded image data locally decoded for each area, and the decoded image data held separately for each area And a unit that outputs as reference data when encoding the next frame, and a unit that performs code conversion of the contextual data, the motion data, and the quantized data, and outputs, and the decoding unit includes: Means for inverse-code-converting the encoded data supplied from the unit, and outputting quantized data and motion data for each area and contextual data between areas; and dequantizing the quantized data to dequantize the data. Means for outputting the motion-compensated inter-frame prediction data from the decoded image data decoded in the previous frame with reference to the motion data, and the dequantization data. Data and the motion-compensated inter-frame prediction data are added for each area and the decoded image data decoded for each area is output, and the decoded image data is held for each area separately, and is referred to when decoding the next frame. With reference to the contextual data and the means for outputting as data, the decoded image data decoded for each of the areas is combined,
An encoding / decoding apparatus for a moving image, comprising: a unit for generating and outputting one decoded image.
【請求項2】符号化部と復号部とから構成される動画像
の符号化・復号装置において、 前記符号化部は、 前フレームで局部復号した復号画像データを参照して入
力画像を解析し、入力画像を動領域と背景領域とに領域
分割して出力するとともに、前記分割した領域毎のフレ
ーム間での動きを示すデータを検出して出力する手段
と、前記動きデータを参照し、前記復号画像データから
動き補償フレーム間予測データを生成して出力する手段
と、前記領域分割した入力画像と前記動き補償フレーム
間予測データとの適応的な差分を領域毎に求め、差分デ
ータを出力する手段と、前記差分データを量子化し、量
子化データを出力する手段と、前記量子化データを逆量
子化し、逆量子化データを出力する手段と、前記逆量子
化データと前記動き補償フレーム間予測データとを領域
毎に加算し、領域毎に局部復号した復号画像データを出
力する手段と、前記復号画像データを動領域と背景領域
とで別々に保持し、次フレームの符号化時に参照データ
として出力する手段と、前記動きデータおよび前記量子
化データとを符号変換し、出力する手段とを備え、 前記復号部は、 前記符号化部から供給された符号化データを逆符号変換
し、動領域と背景領域との領域毎の量子化データおよび
動きデータとを出力する手段と、前記量子化データを逆
量子化し、逆量子化データを出力する手段と、前記動き
データを参照し、前フレームで復号した復号画像データ
から動き補償フレーム間予測データを生成して出力する
手段と、前記逆量子化データと前記動き補償フレーム間
予測データとを領域毎に加算し、領域毎に復号した復号
画像データを出力する手段と、前記復号画像データを動
領域と背景領域とで別々に保持し、次フレームの復号時
に参照データとして出力する手段と、背景領域の復号画
像データの上に動領域の復号画像データを合成し、一枚
の復号画像を生成して出力する手段とを備えることを特
徴とした動画像の符号化・復号装置。
2. A moving image encoding / decoding device comprising an encoding unit and a decoding unit, wherein the encoding unit analyzes an input image with reference to decoded image data locally decoded in a previous frame. , A unit for dividing the input image into a moving region and a background region and outputting the divided region, and detecting and outputting data indicating a movement between frames in each of the divided regions; and referring to the movement data, A unit for generating and outputting motion-compensated interframe prediction data from decoded image data, and an adaptive difference between the region-divided input image and the motion-compensated interframe prediction data is obtained for each region, and the difference data is output. Means, means for quantizing the difference data and outputting quantized data, means for dequantizing the quantized data and outputting dequantized data, the dequantized data and the motion compensation Inter-frame prediction data is added for each area, means for outputting the decoded image data locally decoded for each area, and the decoded image data is held separately in the moving area and the background area, and at the time of encoding the next frame. The decoding unit includes means for outputting as reference data, means for performing code conversion of the motion data and the quantized data, and outputting, wherein the decoding unit performs inverse code conversion of the encoded data supplied from the encoding unit. , Means for outputting quantized data and motion data for each area of the moving area and the background area, means for dequantizing the quantized data, and means for outputting dequantized data, and referring to the motion data, Means for generating and outputting motion-compensated interframe prediction data from decoded image data decoded in the previous frame, and adding the dequantized data and the motion-compensated interframe prediction data for each region Means for outputting the decoded image data decoded for each area, means for holding the decoded image data separately in the moving area and the background area, and outputting as reference data when decoding the next frame, and decoded image data in the background area And a means for synthesizing the decoded image data of the moving area and generating and outputting one decoded image.
JP14427594A 1994-06-27 1994-06-27 Encoder/decoder for dynamic image Pending JPH0818975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14427594A JPH0818975A (en) 1994-06-27 1994-06-27 Encoder/decoder for dynamic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14427594A JPH0818975A (en) 1994-06-27 1994-06-27 Encoder/decoder for dynamic image

Publications (1)

Publication Number Publication Date
JPH0818975A true JPH0818975A (en) 1996-01-19

Family

ID=15358305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14427594A Pending JPH0818975A (en) 1994-06-27 1994-06-27 Encoder/decoder for dynamic image

Country Status (1)

Country Link
JP (1) JPH0818975A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946704A (en) * 1995-07-28 1997-02-14 Tsushin Hoso Kiko Picture encoding system
US6111979A (en) * 1996-04-23 2000-08-29 Nec Corporation System for encoding/decoding three-dimensional images with efficient compression of image data
JP2003018591A (en) * 2001-07-03 2003-01-17 Nec Corp Motion picture coding system, motion picture coding method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946704A (en) * 1995-07-28 1997-02-14 Tsushin Hoso Kiko Picture encoding system
US6111979A (en) * 1996-04-23 2000-08-29 Nec Corporation System for encoding/decoding three-dimensional images with efficient compression of image data
JP2003018591A (en) * 2001-07-03 2003-01-17 Nec Corp Motion picture coding system, motion picture coding method, and program
JP4613453B2 (en) * 2001-07-03 2011-01-19 日本電気株式会社 Moving picture coding system, moving picture coding method and program

Similar Documents

Publication Publication Date Title
CN108012155B (en) Video coding method and video decoding method of pre-spliced image and related devices
US10819981B2 (en) Method and apparatus for entropy coding of source samples with large alphabet
RU2444856C2 (en) Method of encoding video signal and method of decoding, apparatus for realising said methods and data media storing programmes for realising said methods
EP2529553B1 (en) Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
US7212573B2 (en) Method and/or apparatus for determining minimum positive reference indices for a direct prediction mode
JPH09252470A (en) Method for encoding and decoding image
JP2962348B2 (en) Image code conversion method
KR930021006A (en) Error concealer for decoded video signals
CN101222636B (en) Method and arrangement for encoding and decoding images
KR20030086905A (en) Parameterization for fading compensation
KR20030086903A (en) Fading estimation/compensation
CN113439440A (en) Image component prediction method, encoder, decoder, and storage medium
CN113068025A (en) Decoding prediction method, device and computer storage medium
JP5938424B2 (en) Method for reconstructing and encoding image blocks
JPH0818975A (en) Encoder/decoder for dynamic image
JPH08116540A (en) Image coder and image decoder using area division
CN113766233B (en) Image prediction method, encoder, decoder, and storage medium
CN112313950B (en) Video image component prediction method, device and computer storage medium
KR100213021B1 (en) Repeated motion estimation and compensation method
JP2616552B2 (en) Video encoding / decoding device
JPH07177519A (en) Motion vector detection method
KR100240620B1 (en) Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation
JP2001520838A (en) Digital image encoding method and encoding device
JPH0879759A (en) Image coder and image decoder
KR100213287B1 (en) Apparatus for compensating error in image decoder

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19971104