JP3405788B2 - Video encoding device and video decoding device - Google Patents

Video encoding device and video decoding device

Info

Publication number
JP3405788B2
JP3405788B2 JP33285693A JP33285693A JP3405788B2 JP 3405788 B2 JP3405788 B2 JP 3405788B2 JP 33285693 A JP33285693 A JP 33285693A JP 33285693 A JP33285693 A JP 33285693A JP 3405788 B2 JP3405788 B2 JP 3405788B2
Authority
JP
Japan
Prior art keywords
motion
image signal
residual
moving
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33285693A
Other languages
Japanese (ja)
Other versions
JPH07170523A (en
Inventor
健志 駄竹
克己 高橋
尚明 倉立
光教 面川
尚吾 山口
和夫 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP33285693A priority Critical patent/JP3405788B2/en
Priority to US08/205,028 priority patent/US5592228A/en
Priority to DE69421837T priority patent/DE69421837T2/en
Priority to EP94301527A priority patent/EP0614318B1/en
Publication of JPH07170523A publication Critical patent/JPH07170523A/en
Application granted granted Critical
Publication of JP3405788B2 publication Critical patent/JP3405788B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像符号化装置とそ
の動画像復号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding apparatus and a moving picture decoding apparatus therefor.

【0002】[0002]

【従来の技術】画像符号化技術は、従来より画像通信、
放送、蓄積などに利用されている。画像符号化は、ファ
クシミリなどの静止画伝送であれば、なるべく高速に伝
送することを目的として行われ、またテレビ会議、テレ
ビ電話などの動画像通信であれば、なるべく狭い帯域ま
たは低いビットレートで伝送することを目的として行わ
れる。また、画像情報をディスクやメモリなどに記録す
る場合、できるだけ多くの画像を効率よく記録するため
に画像符号化技術が利用されている。
2. Description of the Related Art Image coding technology has been used for image communication,
It is used for broadcasting and storage. Image encoding is carried out for the purpose of transmitting as fast as possible for still image transmission such as facsimile, and for moving image communication such as video conferencing and videophone, it uses a narrow band or low bit rate as much as possible. It is done for the purpose of transmission. Further, when recording image information on a disk or a memory, an image encoding technique is used to efficiently record as many images as possible.

【0003】図5に従来の動画像符号化装置のブロック
図を示す。入力された画像信号は、複数のブロックに分
割され、ブロック毎に前フレームの画像に対する動きを
示す動きベクトルが推定される。この動きベクトルによ
り前フレームの画像の動き補償を行い、入力画像との差
分をとる。この差分信号をDCT(離散コサイン変換)
し、量子化し、可変長符号化して出力する。
FIG. 5 shows a block diagram of a conventional moving picture coding apparatus. The input image signal is divided into a plurality of blocks, and a motion vector indicating the motion of the image of the previous frame is estimated for each block. The motion vector is used for motion compensation of the image of the previous frame, and the difference from the input image is obtained. This difference signal is DCT (discrete cosine transform)
Quantized, variable length coded and output.

【0004】ここでのDCTに示されるように、従来の
変換符号化においては、変換方法(変換行列)は画像が
定常であるとの仮定のもとに単一の変換のみを用いて行
なっていた。また変換行列を複数用意し、切り替える行
列可変の適応KL変換符号化方式においては、変換行列
を選択するために固定の量子化に対し全探索するなどの
演算効率の悪い方式が検討されてきたため、動画像に対
する最適な方式が確立されていなかった。更にあらかじ
め用意されたKL変換のなかから最適な変換を選択する
手法として入力の自己相関行列空間上での距離を用いる
手法、画像に方向性が常にあることを仮定した手法など
があったが、符号化誤差最小化の観点からは最適な方法
でないためその性能劣化が生じていた。
As shown in the DCT here, in the conventional transform coding, the transform method (transform matrix) is performed using only a single transform on the assumption that the image is stationary. It was Further, in the adaptive KL transform coding method in which a plurality of transform matrices are prepared and switched, a method with poor calculation efficiency such as full search for fixed quantization in order to select a transform matrix has been studied. The optimum method for moving images has not been established. Further, as a method of selecting an optimum transformation from the KL transformations prepared in advance, there are a method of using a distance in an input autocorrelation matrix space, a method of assuming that an image always has directionality, and the like. Since it is not the optimal method from the viewpoint of coding error minimization, its performance has deteriorated.

【0005】一方、図5に示す従来の画像符号化方式に
おいて、仮に最適な変換方法が選択されたとしても、入
力画像信号に対し必ずブロック単位に平行移動させて動
き補償を行ない、ブロック単位に予測誤差の変換を行な
っていた。従って、低ビットレートになると予測誤差を
十分に伝送できないためブロック状の歪みが生じて画質
を劣化させていた。その上、動物体の背後から現れた背
景部分は予測できないため、符号化効率が低下してい
た。
On the other hand, in the conventional image coding system shown in FIG. 5, even if the optimum conversion method is selected, the input image signal is always translated in block units to perform motion compensation. The prediction error was converted. Therefore, at a low bit rate, the prediction error cannot be sufficiently transmitted, so that block-shaped distortion occurs and the image quality is deteriorated. In addition, the background portion that appears from the back of the moving object cannot be predicted, so that the coding efficiency is reduced.

【0006】[0006]

【発明が解決しようとする課題】上述したように従来の
画像符号化方式では、ブロック単位に平行移動させて動
き補償を行っていた。従って、もしあるブロックが静止
領域と動領域にまたがっている場合、動領域に合わせて
平行移動させるか静止領域に合わせてそのままにしてお
くかのどちらかである。どちらの場合でも片方の領域の
差分信号が大きくなる。また、人の目や口などのように
被写体が変形する場合もブロックの平行移動だけでは十
分な動き補償を行えない。また、被写体が回転したり、
カメラのズームにより被写体が拡大縮小した場合も同様
である。
As described above, in the conventional image coding system, the motion compensation is performed by moving the blocks in parallel. Therefore, if a block straddles the static region and the dynamic region, it is either moved in parallel to the dynamic region or left as it is in the static region. In either case, the difference signal in one area becomes large. Further, even when the subject is deformed, such as a person's eyes or mouth, sufficient movement compensation cannot be performed only by the parallel movement of the blocks. Also, the subject rotates,
The same applies when the subject is enlarged or reduced by zooming the camera.

【0007】発明は、上述した問題点を解決するため
になされたもので、被写体の動きを十分に補償し、高い
符号化効率が得られる動画像符号化装置を提供すること
を目的とする。
The present invention has been made in order to solve the above-mentioned problems, and an object of the present invention is to provide a moving picture coding apparatus capable of sufficiently compensating the motion of a subject and obtaining a high coding efficiency. .

【0008】また、その符号化されたデータを復号化す
る動画像復号化装置を提供する。
Further, to provide a moving picture decoding apparatus for decoding the encoded data.

【0009】[0009]

【課題を解決するための手段】請求項1の発明は、入力
画像信号から動物体を抽出して、この動きを解析するこ
とにより、前記入力画像信号と動き補償が行われた再構
成画像との差である残差信号と動きパラメータを出力す
る動物体解析手段と、前記動物体解析手段からの前記残
差信号を符号化して残差符号化情報を形成する残差符号
化手段と、前記動物体解析手段からの動きパラメータ
と、前記残差符号化手段からの前記残差符号化情報と
用いて再構成画像信号を再構成する再構成手段と、前記
動物体解析手段からの前記動きパラメータと前記残差符
号化手段からの残差符号化情報とを可変長符号化する可
変長符号化手段とを有する動画像符号化装置であって、
前記動物体解析手段は、前記入力画像信号の中における
動領域全体の動きに関連したグローバル動きパラメータ
を推定するグローバル動き推定手段と、前記の入力画像
信号または再構成画像信号の中での動領域に多角形パッ
チを当てることで、前記動領域の部分の動きに関連した
多角形パッチ動きパラメータを推定することにより、前
記動領域内における細かい動きを推定する多角形パッチ
動き推定手段と、前記グローバル動き推定手段により推
定されたグローバル動きパラメータと前記多角形パッチ
動き推定手段により推定された多角形パッチ動きパラメ
ータにより前記再構成画像信号の動き補償を行う動き補
償手段とからなることを特徴とする動画像符号化装置で
ある。請求項2の発明は、前記動物体解析手段は、前記
入力画像信号から動領域を抽出する動領域抽出手段を備
えることを特徴とする請求項1記載の動画像符号化装置
である。請求項3の発明は、前記再構成画像信号の動領
域から特徴点を抽出する特徴点抽出手段を備え、前記特
徴点に多角形パッチの頂点が来るように多角形パッチを
当てることを特徴とする請求項2記載の動画像符号化装
置である。請求項4の発明は、前記多角形パッチ動き推
定手段は、前記特徴点抽出手段によって抽出された動領
域の中の特徴点の周囲に小さい多角形パッチを当てるこ
とにより、多角形パッチパラメータを推定し、さらに
は、より大きい多角形パッチを前記動領域に当てて、多
角形パッチパラメータを推定することを特徴とする請求
項3記載の動画像符号化装置である。請求項5の発明
は、前記動物体解析手段は、入力画像信号から時間的な
差分をとり、差分の大きな領域を画像の上下左右から探
索し、その領域を動領域とすることを特徴とする請求項
4記載の動画像符号化装置である。請求項6の発明は、
前記再構成画像信号から背景画像信号を構成する背景画
像信号構成手段を備え、前記動き補償手段は、前記背景
画像信号構成手段によって構成された背景画像信号によ
り、前記動領域の後ろから現れた背景の補償も行うこと
を特徴とする請求項1記載の動画像符号化装置である。
請求項7の発明は、可変長符号化データを受信し、この
符号化データを復号化し、画像信号中における動領域全
体の動きに関連したグローバル動きパラメータ、前記画
像信号中における動領域の部分の動きに関連した多角形
パッチ動きパラメータ及び残差符号に分離する可変長復
号化手段と、この可変長復号化手段から出力された残差
符号を復号して残差信号を出力する残差符号復号化手段
と、フレームメモリに蓄積された前フレームの復号画像
信号と、前記可変長復号化手段から出力されたグローバ
ル動きパラメータとから動領域全体の動き補償を行い、
グローバル動き補償画像信号を出力するグローバル動き
補償手段と、このグローバル動き補償手段から出力され
たグローバル動き補償画像と、前記可変長復号化手段か
ら出力された多角形パッチ動きパラメータとから動領域
内部の局所的な動き補償を行い、動き補償予測画像信号
を出力する多角形パッチ補償手段と、この多角形パッチ
補償手段から出力された動き補償予測画像信号と、前記
残差符号復号化手段から出力された残差符号を加算し
て、復号画像信号を構成し、この復号画像フレームメ
モリに送る加算手段とよりなることを特徴とする動画像
復号化装置である。 請求項8の発明は、入力画像信号か
ら動物体を抽出して、この動きを解析することにより、
前記入力画像信号と動き補償が行われた再構成画像との
差である残差信号と動きパラメータを出力する動物体解
析ステップと、前記動物体解析ステップにおける前記残
差信号を符号化して残差符号化情報を形成する残差符号
化ステップと、前記動物体解析ステップにおける動きパ
ラメータと、前記残差符号化ステップにおける前記残差
符号化情報とを用いて再構成画像信号を再構成する再構
成ステップと、前記動物体解析ステップにおける前記動
きパラメータと前記残差符号化ステップにおける残差符
号化情報とを可変長符号化する可変長符号化ステップと
を有する動画像符号化装置であって、前記動物体解析ス
テップは、前記入力画像信号の中における動領域全体の
動きに関連したグローバル動きパラメータを推定するグ
ローバル動き推定ステップと、前記の入力画像信号また
は再構成画像信号の中での動領域に多角形パッチを当て
ることで、前記動領域の部分の動きに関連した多角形パ
ッチ動きパラメータを推定することにより、前記動領域
内における細かい動きを推定する多角形パッチ動き推定
ステップと、前記グローバル動き推定ステップにおいて
推定されたグローバル動きパラメータと前記多角形 パッ
チ動き推定ステップにおいて推定された多角形パッチ動
きパラメータにより前記再構成画像信号の動き補償を行
う動き補償ステップとからなることを特徴とする動画像
符号化方法である。請求項9の発明は、可変長符号化デ
ータを受信し、この符号化データを復号化し、画像信号
中における動領域全体の動きに関連したグローバル動き
パラメータ、前記画像信号中における動領域の部分の動
きに関連した多角形パッチ動きパラメータ及び残差符号
に分離する可変長復号化ステップと、この可変長復号化
ステップにおいて出力された残差符号を復号して残差信
号を出力する残差符号復号化ステップと、フレームメモ
リに蓄積された前フレームの復号画像信号と、前記可変
長復号化ステップにおいて出力されたグローバル動きパ
ラメータとから動領域全体の動き補償を行い、グローバ
ル動き補償画像信号を出力するグローバル動き補償ステ
ップと、このグローバル動き補償ステップにおいて出力
されたグローバル動き補償画像と、前記可変長復号化ス
テップにおいて出力された多角形パッチ動きパラメータ
とから動領域内部の局所的な動き補償を行い、動き補償
予測画像信号を出力する多角形パッチ補償ステップと、
この多角形パッチ補償ステップにおいて出力された動き
補償予測画像信号と、前記残差符号復号化ステップにお
いて出力された残差符号を加算して、復号画像信号を構
成し、この復号画像をフレームメモリに送る加算ステッ
プとよりなることを特徴とする動画像復号化方法であ
る。
According to a first aspect of the present invention , a moving object is extracted from an input image signal and its movement is analyzed to obtain the input image signal and a reconstructed image subjected to motion compensation. A moving object analysis unit that outputs a residual signal and a motion parameter that is the difference between the moving object, a residual coding unit that codes the residual signal from the moving body analyzing unit to form residual coding information, and and motion parameters from the moving object analyzing means and the residual coding information from the residual encoding means
Reconstructing means for reconstructing a reconstructed image signal using the variable parameter coding for variable-length coding the motion parameter from the moving object analyzing means and the residual coding information from the residual coding means. A moving picture coding apparatus having means,
The moving object analysis means is a part of the input image signal.
Global motion parameters related to the motion of the entire motion region
Global motion estimation means for estimating
A polygonal pattern is added to the moving area in the signal or reconstructed image signal.
By hitting the
By estimating the polygon patch motion parameters,
A polygonal patch for estimating fine movements in the writing area
Motion estimation means and the global motion estimation means
Fixed global motion parameters and the polygon patch
Polygonal patch motion parameters estimated by motion estimation means
Motion compensation for motion compensation of the reconstructed image signal
A moving picture coding device characterized by comprising a compensation means
is there. According to a second aspect of the present invention, the moving body analyzing means is
Equipped with moving area extraction means for extracting moving areas from input image signals
The moving picture coding apparatus according to claim 1, wherein
Is. The invention of claim 3 is the motion of the reconstructed image signal.
A feature point extracting means for extracting feature points from the region is provided.
Place the polygon patch so that the vertices of the polygon patch come to the sign
The moving picture coding apparatus according to claim 2, wherein the moving picture coding apparatus is applied.
It is a place. According to a fourth aspect of the present invention, the polygon patch motion estimation is performed.
The determining means is the motion extracted by the feature point extracting means.
Apply a small polygon patch around the feature points in the region.
Estimate the polygon patch parameters by and
Applies a larger polygonal patch to the moving area to
Claim characterized by estimating rectangular patch parameters
The moving picture coding device according to item 3. Invention of Claim 5
The moving body analysis means temporally analyzes the input image signal.
Take a difference and search for a large difference area from the top, bottom, left, and right of the image.
The search is performed, and the area is set as a moving area.
4 is a moving picture coding device according to item 4. The invention of claim 6 is
A background image forming a background image signal from the reconstructed image signal
Image signal composing means, wherein the motion compensating means comprises the background
According to the background image signal formed by the image signal forming means,
Also, compensate for the background that appears from behind the moving area.
The moving picture coding device according to claim 1.
The invention of claim 7 receives the variable length coded data, decodes this <br/> encoded data, the entire moving region in the image signal
Global motion parameters related to body motion , said image
Variable-length decoding means for separating into a polygon patch motion parameter and a residual code related to the motion of a part of the moving region in the image signal, and the residual code output from this variable-length decoding means is decoded and left. Residual code decoding means for outputting a difference signal and the decoded image of the previous frame accumulated in the frame memory
Motion compensation of the entire motion region from the signal and the global motion parameter output from the variable length decoding means,
The global motion compensation means for outputting the global motion compensation image signal , the global motion compensation image output from the global motion compensation means, and the polygon patch motion parameter output from the variable length decoding means A polygon patch compensating means for locally performing motion compensation and outputting a motion-compensated predicted image signal , a motion-compensated predicted image signal output from the polygon patch compensating means, and the residual code decoding moving image by adding the residual code output from the unit, constitutes a decoded image signal, and wherein the more becomes possible and adding means for sending the decoded image in the frame memory
It is a decoding device. The invention of claim 8 is an input image signal
By extracting the moving body from these and analyzing this movement,
Between the input image signal and the motion compensated reconstructed image
An animal-body solution that outputs a residual signal that is a difference and a motion parameter
Analysis step and the residual in the animal body analysis step
Residual code that encodes the difference signal to form residual coded information
And the motion pattern in the moving object analysis step.
Parameter and the residual in the residual encoding step
Reconstruction for reconstructing a reconstructed image signal using encoded information
And the movement in the moving body analysis step.
Parameters and residual code in the residual coding step
Variable-length coding step for variable-length coding the coding information;
A moving image encoding apparatus having:
The step is the entire moving area in the input image signal.
A group for estimating global motion parameters related to motion.
The global motion estimation step and the input image signal or
Applies a polygonal patch to the moving area in the reconstructed image signal.
The polygonal pattern associated with the movement of the moving area.
The motion region by estimating the motion parameters
Polygon patch motion estimation for estimating small motions in a tree
And the global motion estimation step
Wherein the estimated global motion parameters were polygonal package
H. Polygon patch motion estimated in the motion estimation step
Motion compensation of the reconstructed image signal according to the
A moving image comprising a motion compensation step
This is an encoding method. According to a ninth aspect of the present invention, a variable length coding data is used.
Data, decodes this encoded data, and
Movement related to the movement of the entire moving area in
Parameter, the motion of the part of the moving area in the image signal
-Related polygonal patch motion parameters and residual codes
Variable length decoding step to separate into
The residual code output in the step is decoded and the residual signal is decoded.
Error code decoding step for outputting the
The decoded image signal of the previous frame accumulated in
The global motion pattern output in the long decoding step
The motion compensation of the whole moving area is performed from the parameter and
Global motion compensation system that outputs a motion-compensated image signal.
And output in this global motion compensation step
Global motion compensated image and the variable length decoding
Polygon patch motion parameters output in step
Motion compensation is performed by performing local motion compensation inside the motion area from
A polygon patch compensation step of outputting a predicted image signal,
The motion output in this polygon patch compensation step
Compensated prediction image signal and the residual code decoding step
Then, the residual code output by
And add this decoded image to the frame memory.
The video decoding method is characterized in that
It

【0010】[0010]

【作 用】請求項1の発明の動画像符号化装置について
説明する。
[Operation] A moving picture coding apparatus according to the first aspect of the present invention will be described.

【0011】動物体解析手段は、入力画像信号の中から
動物体を抽出して、この動きを解析することにより、再
構成画像との残差信号と動きパラメータとを出力する。
残差符号化手段は、前記動物体解析手段からの前記残差
信号を符号化して残差符号化情報を形成する。再構成手
段は、前記動物体解析手段からの前記動きパラメータと
前記残差符号化手段からの前記残差符号化情報とから画
像を再構成する。そして、可変長符号化手段は、前記動
物体解析手段からの前記動きパラメータと前記残差符号
化手段からの前記残差符号化情報とを可変長符号化す
る。
The moving body analyzing means extracts a moving body from the input image signal and analyzes the movement of the moving body to output a residual signal from the reconstructed image and a movement parameter.
The residual coding means codes the residual signal from the moving object analyzing means to form residual coding information. Reconstructing means reconstructs an image from the motion parameters from the moving object analyzing means and the residual coding information from the residual coding means. Then, the variable length coding means variable length codes the motion parameter from the moving object analysis means and the residual coding information from the residual coding means.

【0012】これにより、入力画像信号から動領域を抽
出し、その領域だけ動き補償を施すので、動物体の境界
付近での動き補償の効率が向上する。また、動領域に多
角形パッチを当て、細かい動き推定を行うことにより、
目や口の変形にも対応できる動き補償を行うことができ
る。
As a result, a moving area is extracted from the input image signal and motion compensation is applied only to that area, so that the efficiency of motion compensation near the boundary of the moving object is improved. Also, by applying a polygonal patch to the moving area and performing fine motion estimation,
It is possible to perform motion compensation capable of coping with eye and mouth deformations.

【0013】請求項7の発明の動画像復号化装置につい
て説明する。
A moving picture decoding apparatus according to the invention of claim 7 will be described.

【0014】可変長復号化手段が、動画像符号化装置か
ら符号化データを受信し、可変長符号であるこの符号化
データを復号化し、グローバル動きパラメータ、多角形
パッチ動きパラメータ及び残差符号とに分離する。
The variable length decoding means receives the coded data from the moving picture coding device, decodes this coded data which is a variable length code, and decodes the global motion parameter, the polygon patch motion parameter and the residual code. To separate.

【0015】残差符号復号化手段が、この可変長復号化
手段から出力された残差符号を復号して残差信号を出力
する。
Residual code decoding means decodes the residual code output from the variable length decoding means and outputs a residual signal.

【0016】グローバル動き補償手段が、フレームメモ
リに蓄積された前フレームの復号画像と、前記可変長復
号化手段から出力されたグローバル動きパラメータから
動領域全体の動き補償を行い、グローバル動き補償画像
を出力する。
The global motion compensating means performs motion compensation for the entire moving region from the decoded image of the previous frame accumulated in the frame memory and the global motion parameter output from the variable length decoding means, and obtains the global motion compensating image. Output.

【0017】多角形パッチ補償手段が、このグローバル
動き補償手段から出力されたグローバル動き補償画像
と、前記可変長復号化手段から出力された多角形パッチ
動きパラメータから動領域内部の局所的な動き補償を行
い、動き補償予測画像を出力する。
The polygon patch compensating means uses the global motion compensated image output from the global motion compensating means and the polygon patch motion parameters output from the variable length decoding means to locally compensate the motion inside the moving area. And output a motion compensation predicted image.

【0018】加算手段が、この多角形パッチ補償手段か
ら出力された動き補償予測画像と、前記残差符号復号化
手段から出力された残差符号を加算して、復号画像を作
成して、復号画像を出力すると共に、フレームメモリに
送る。
The adding means adds the motion compensation prediction image output from the polygon patch compensating means and the residual code output from the residual code decoding means to create a decoded image and decode the decoded image. The image is output and sent to the frame memory.

【0019】[0019]

【実施例】(第1の発明) 以下、第1の発明の動画像符号化装置の一実施例を図1
〜図15を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Invention) An embodiment of the moving picture coding apparatus of the first invention is shown in FIG.
~ It demonstrates using FIG.

【0020】図1は、動画像符号化装置のブロック図で
ある。
FIG. 1 is a block diagram of a moving picture coding apparatus.

【0021】入力端子1から入力された画像信号は、動
物体解析部2で動領域と静止領域に分割され、動領域の
抽出と動きパラメータの推定が行われる。その動きパラ
メータにより再構成画像の動き補償が行われ、入力画像
との差分がとられる。その残差信号は、残差符号化部4
で符号化される。動きパラメータ情報と残差符号化情報
は、可変長符号化器(VLC)5で可変長符号化され出
力される。また、動きパラメータ情報と残差符号化情報
により再構成部3で画像が再構成される。
The image signal input from the input terminal 1 is divided into a moving area and a stationary area by the moving object analyzing section 2, and the moving area is extracted and the motion parameters are estimated. Motion compensation of the reconstructed image is performed by the motion parameter, and the difference from the input image is obtained. The residual signal is used as the residual coding unit 4
Is encoded with. The motion parameter information and the residual coding information are variable length coded by the variable length coder (VLC) 5 and output. Further, the reconstructing unit 3 reconstructs an image using the motion parameter information and the residual coding information.

【0022】残差符号化部4の方式としては、波形を効
率よく表現できる方式であれば何でも良く、例えば、残
差信号を量子化し、0でない画素値にアドレスを付けて
送る条件付き画素補充方式や、数画素まとめて一つのコ
ードで表現するベクトル量子化や、離散コサイン変換し
てから量子化して送る方式などが考えられる。
Any method can be used as the method of the residual encoding unit 4 as long as it can efficiently express a waveform. For example, conditional pixel supplementation in which a residual signal is quantized and a non-zero pixel value is addressed and sent. A method, vector quantization in which several pixels are collectively expressed by one code, a method in which discrete cosine transform is performed and then quantization is performed, and the like can be considered.

【0023】図2は、動物体解析部2の一例を示すブロ
ック図である。
FIG. 2 is a block diagram showing an example of the moving body analysis unit 2.

【0024】入力端子1から入力された画像信号は、動
領域抽出部11で動領域が抽出される。グローバル動き
推定部12では、動領域全体の動きパラメータが推定さ
れる。その後、多角形パッチ動き推定部13で、動領域
に多角形パッチが当てられ動領域の中の細かい動きが推
定される。入力端子10から入力された再構成画像は、
グローバル動きパラメータと多角形動きパラメータによ
り、動き補償部14で動き補償が行われる。入力画像と
動き補償された画像との差分がとられ、残差信号として
出力端子16から出力される。
A moving area of the image signal input from the input terminal 1 is extracted by the moving area extracting unit 11. The global motion estimation unit 12 estimates the motion parameters of the entire moving area. Then, the polygon patch motion estimation unit 13 applies a polygon patch to the moving area and estimates a fine movement in the moving area. The reconstructed image input from the input terminal 10 is
The motion compensation unit 14 performs motion compensation based on the global motion parameter and the polygon motion parameter. The difference between the input image and the motion-compensated image is calculated and output from the output terminal 16 as a residual signal.

【0025】動領域抽出部11における動領域抽出の一
方法としては、入力画像の時間的差分、即ちフレーム間
差分をとり、閾値より大きい画素を動領域とし、ノイズ
成分を除去するために孤立点除去を行ったり、また、領
域の統合を行うことにより動領域を抽出する。しかし、
この方法では、動物体の平坦部分では、ほとんど差分が
でないため、図6のように、動領域が分離して、多くの
動領域に分割されてしまい、領域情報が増えてしまうと
いう問題がある。動領域抽出の別の方法としては、図7
のように、まずフレーム間差分をとり、左右から動物体
のエッジを探索し、その内側を動領域とする方法であ
る。この方法によると動領域が分離することはない。ま
た、左右だけでなく、上下左右から動物体のエッジを探
索することにより、更に正確に動領域の抽出ができる。
As a method of extracting the moving area in the moving area extracting unit 11, a temporal difference of the input image, that is, a difference between frames is taken, a pixel larger than the threshold value is set as the moving area, and an isolated point is used to remove a noise component. A moving area is extracted by performing removal or integration of areas. But,
In this method, since there is almost no difference in the flat part of the moving object, the moving regions are separated and divided into many moving regions as shown in FIG. 6, and there is a problem that the region information increases. . Another method for extracting the moving area is shown in FIG.
As described above, first, the difference between frames is calculated, the edge of the moving object is searched from the left and right, and the inside thereof is set as the moving area. According to this method, the moving areas are not separated. In addition, the moving region can be more accurately extracted by searching the edges of the moving object not only from the left and right but also from the top, bottom, left, and right.

【0026】グローバル動き推定部12におけるグロー
バル動き推定は、図8及び下記の(1)式に示すよう
に、ある点(x,y)が別の点(x’,y’)に移動す
る写像を考え、動きパラメータa〜fを求める。
The global motion estimation in the global motion estimator 12 is performed by mapping a point (x, y) to another point (x ', y') as shown in FIG. 8 and the following equation (1). , The motion parameters a to f are obtained.

【0027】但し、a〜dは、回転、拡大、縮小、変形
を表現するパラメータで、e,fは、平行移動を表すパ
ラメータである。
However, a to d are parameters expressing rotation, enlargement, reduction and deformation, and e and f are parameters expressing parallel movement.

【0028】[0028]

【数1】 多角形パッチ動き推定部13における多角形パッチ動き
推定は、図9に示すように1フレーム前の画像をグロー
バル動きパラメータで写像した後、多角形パッチを動領
域に当てる。ここでは、三角形パッチとした。現フレー
ム画像との誤差が最小になるように各三角形の頂点を移
動する。三角形の中の画像は、アフィン変換により写像
する。アフィン変換の式は、(1)式と同じであり、各
三角形毎にパラメータが異なる。伝送する情報として
は、各頂点の移動量だけでよい。
[Equation 1] In the polygon patch motion estimation in the polygon patch motion estimation unit 13, as shown in FIG. 9, the image of the previous frame is mapped by the global motion parameter, and then the polygon patch is applied to the moving area. Here, a triangular patch is used. The vertices of each triangle are moved so that the error from the current frame image is minimized. The image in the triangle is mapped by the affine transformation. The affine transformation formula is the same as the formula (1), and the parameters are different for each triangle. The only information to be transmitted is the amount of movement of each vertex.

【0029】動物体が移動したときに、光の当たり具合
が変化して、同じ対応点でも輝度が変化することがあ
る。これを補償するには、三角形パッチの頂点を2次元
平面内で移動するだけでなく、輝度値方向にも移動させ
る必要がある。ある点(x,y)が別の点(x’,
y’)に移動したときの輝度値方向の明るさ補正量を
z’とすると、 z’=kx+ly+m ……(2) となる。パラメータk,l,mは、三角形パッチの各頂
点の輝度値方向の移動量から求めることができる。
When the moving object moves, the degree of light hit may change, and the brightness may change even at the same corresponding point. To compensate for this, it is necessary to move not only the vertices of the triangular patch in the two-dimensional plane, but also in the luminance value direction. One point (x, y) becomes another point (x ',
If the brightness correction amount in the brightness value direction when moving to y ′) is z ′, then z ′ = kx + ly + m (2) The parameters k, l, and m can be obtained from the amount of movement of each vertex of the triangular patch in the brightness value direction.

【0030】図3は、動物体解析部2の他の実施例を示
すブロック図である。
FIG. 3 is a block diagram showing another embodiment of the moving body analysis unit 2.

【0031】図2との違いは、特徴点抽出部17と、人
物検出部18があることである。特徴点抽出部17によ
り、再構成画像から人の顔の目や口などの特徴点を抽出
する。その特徴点の周囲は、図10に示すように三角形
パッチの大きさを小さくして、より細かい動きに対応で
きるようにする。または、図11に示すように、特徴点
に合わせた形状の三角形パッチを当てて動き補償を行
い、更に固定形状の三角パッチを当てて動き補償を行う
ようにしても良い。特徴点は、入力画像から抽出するよ
うにしても良いが、再構成画像から抽出するようにする
と、受信側でも同じようにできるので、特徴点の位置情
報を送る必要がなくなる。
The difference from FIG. 2 is that there is a feature point extraction section 17 and a person detection section 18. The feature point extraction unit 17 extracts feature points such as eyes and mouth of a person's face from the reconstructed image. Around the feature point, the size of the triangular patch is reduced as shown in FIG. 10, so that it is possible to cope with a finer movement. Alternatively, as shown in FIG. 11, motion compensation may be performed by applying a triangular patch having a shape matching a feature point, and further applying a fixed-shape triangular patch. The feature points may be extracted from the input image. However, if the feature points are extracted from the reconstructed image, the reception side can do the same, and it is not necessary to send the position information of the feature points.

【0032】この特徴点抽出は、人の顔のようにある程
度モデル化できる場合は高い確率で抽出が可能である
が、一般の画像の場合は抽出が難しい。したがって、人
物検出部18で自動的に人物画像かどうか判断するか、
またはマニュアルでモードを切り替えて、一般画像の場
合は特徴点抽出をやめて固定の三角形パッチを使うよう
にすれば良い。または、人物画像用の符号化器と一般画
像の符号化器を用意し、切り替えるようにしてもよい。
This feature point extraction can be performed with a high probability when it can be modeled to some extent like a human face, but is difficult to extract for general images. Therefore, whether the person detection unit 18 automatically determines whether or not it is a person image,
Alternatively, the mode may be manually switched, and in the case of a general image, the feature point extraction may be stopped and a fixed triangle patch may be used. Alternatively, an encoder for person images and an encoder for general images may be prepared and switched.

【0033】図4は、本発明の動物体解析部の更に別の
例を示すブロック図である。図2との違いは、背景画像
構成部19があることである。再構成画像の中から長時
間静止している画素を背景メモリに書き込んでいき、背
景画像を構成する。この背景画像は、動物体の後ろから
背景が現れてきたときに使う。動物体の後ろから現れて
きた背景は、前回動領域で今回静止領域となった部分で
ある。この背景補償領域は、受信側でも分かるので、領
域情報を送る必要はない。
FIG. 4 is a block diagram showing still another example of the moving body analysis unit of the present invention. The difference from FIG. 2 is that there is a background image composing unit 19. Pixels that have been stationary for a long time are written in the background memory from the reconstructed image to form the background image. This background image is used when the background appears from behind the moving object. The background that appears from the back of the moving body is the part that has become the stationary region this time in the front rotation region. Since this background compensation area is known to the receiving side, it is not necessary to send area information.

【0034】領域の境界線の情報を送る方法として差分
チェーン符号がある。これは、図12に示すように、進
むことができる8方向に番号を付け、最初はその番号を
送り、その次からは前の方向との差分を送る方法であ
る。境界線をそれほど正確に送る必要がない場合は、図
13に示すように、代表点の位置だけを送り、その間を
スプライン曲線などの曲線で補間する方法もある。この
方法を使うと、動画像の場合、代表点のずれ量だけを送
れば良いので、さらに情報量を減らすことができる。
There is a difference chain code as a method of transmitting the information on the boundary line of the area. This is a method in which, as shown in FIG. 12, the eight directions that can be traveled are numbered, the numbers are sent first, and then the difference from the previous direction is sent. When it is not necessary to send the boundary line so accurately, as shown in FIG. 13, there is also a method of sending only the positions of the representative points and interpolating between them with a curve such as a spline curve. When this method is used, in the case of a moving image, only the shift amount of the representative point needs to be sent, so that the amount of information can be further reduced.

【0035】静止領域と背景補償領域と動領域を合成す
るときに、切り貼りにより合成すると、境界線が強調さ
れるため視覚的に好ましくない。図14は、背景と動領
域の信号を1次元で表現した図である。背景と動領域
は、カメラのボケや信号処理により信号がなまるため、
なだらかに接続されている。動領域が左に移動したとき
に、動領域を切りとって背景に貼りつけると、境界線が
シャープになり必要以上に目立ってしまう。そこで、境
界線付近をなだらかに減衰させ、オーバーラップさせる
ことにより、なめらかに接続することができる。
When the still area, the background compensation area, and the moving area are combined, if they are combined by cutting and pasting, the boundary line is emphasized, which is visually unfavorable. FIG. 14 is a one-dimensional representation of the background and moving area signals. The background and moving areas are blunted by camera blur and signal processing,
It is connected gently. When the moving area moves to the left, if the moving area is cut and pasted on the background, the border becomes sharp and becomes more conspicuous than necessary. Therefore, by smoothly attenuating the vicinity of the boundary and overlapping them, a smooth connection can be achieved.

【0036】図15は、顔の画像を通信する場合のブロ
ック図であって、(a)は送信部、(b)は受信部であ
る。
FIG. 15 is a block diagram for communicating face images, in which (a) is a transmitter and (b) is a receiver.

【0037】送信部において、符号100は、一般にパ
ラメ―タ符号化器と呼ばれている符号化部であって、本
発明の動領域を分離する符号化器、輪郭で分離する符号
化器、モデルベ―スト符号化器、分析合成符号化器また
は知的符号化器等である。符号102は、従来の波形符
号化器である。そして、入力信号をパラメ―タ検出器1
04により顔の画像を含むか否かを検出して、自動的に
または手動で選択器106で選択して両者を切替え、顔
の画像を含む場合は、パラメ―タ符号化器100で送出
し、含まない場合は、波形符号化器102で送出する。
In the transmitting unit, the code 100 is an encoding unit generally called a parameter encoder, and is an encoder for separating the moving area of the present invention, an encoder for separating by a contour, It is a model-based coder, an analysis-synthesis coder or an intelligent coder. Reference numeral 102 is a conventional waveform encoder. Then, the input signal is used as a parameter detector 1
It is detected by 04 whether or not a face image is included, and either the automatic or manual selection is made by the selector 106 to switch the two. If the face image is included, the parameter encoder 100 sends it. , If not included, the waveform encoder 102 sends the waveform.

【0038】受信部においても、同様に、自動的にまた
は手動で選択器108で選択して両者を切替え、顔の画
像を含む場合は、パラメ―タ復号化器110で受信し、
含まない場合は、波形復号化器112で受信する。
Similarly, in the receiving section, the selector 108 is automatically or manually selected to switch between the two. If a face image is included, the parameter decoder 110 receives the image.
If not included, it is received by the waveform decoder 112.

【0039】(第2の発明) 第2の発明の一実施例である動画像復号化装置200に
ついて図16のブロック図に基づいて説明する。
(Second Invention) A moving picture decoding apparatus 200 which is an embodiment of the second invention will be described with reference to the block diagram of FIG.

【0040】これは、図1に示した動画像符号化装置に
よって符号化された符号化データを復号する装置であ
る。
This is a device for decoding the coded data coded by the moving picture coding device shown in FIG.

【0041】動画像符号化装置からの符号化データが、
動画像復号化装置200の入力端子201から入力さ
れ、可変長復号化器(VLD)202で可変長符号の復
号化が行われ、動きパラメータと残差符号が出力され
る。動きパラメータは、動領域情報とグローバル動きパ
ラメータと多角形パッチ動きパラメータを含んでいる。
The coded data from the moving picture coding apparatus is
It is input from the input terminal 201 of the moving image decoding apparatus 200, the variable length decoder (VLD) 202 decodes the variable length code, and the motion parameter and the residual code are output. The motion parameters include motion area information, global motion parameters, and polygon patch motion parameters.

【0042】残差符号復号化器204は、残差符号を復
号し、残差信号を出力する。
The residual code decoder 204 decodes the residual code and outputs a residual signal.

【0043】グローバル動き補償回路207は、フレー
ムメモリ208に蓄積された前フレームの復号画像と動
領域情報とグローバル動きパラメータが入力され、動領
域全体の動き補償を行い、グローバル動き補償画像を出
力する。
The global motion compensation circuit 207 receives the decoded image of the previous frame stored in the frame memory 208, the moving area information and the global motion parameter, performs the motion compensation of the entire moving area, and outputs the global motion compensated image. .

【0044】パラメータが入力され、動領域内部の局所
的な動き補償を行い、動き補償予測画像を出力する。
The parameters are input, local motion compensation is performed inside the moving area, and a motion-compensated predicted image is output.

【0045】加算器205は、動き補償予測画像と残差
符号を加算して、復号画像を作成して、復号画像を出力
端子209から出力すると共に、フレームメモリ208
に送る。
The adder 205 adds the motion-compensated prediction image and the residual code to create a decoded image, outputs the decoded image from the output terminal 209, and also the frame memory 208.
Send to.

【0046】これにより、図1に示した動画像符号化装
置によって符号化された符号化データを復号化できる。
As a result, the coded data coded by the moving picture coding apparatus shown in FIG. 1 can be decoded.

【0047】(第3の発明) 図17は本発明の第3の実施例のブロック構成図であ
る。入力画像はフレームメモリ308に格納された、時
間的に以前の画像データから動き予測回路309で作成
されるフレーム間またはフィールド間予測信号により差
分器301で予測差分される。時間方向予測は例えば1
6画素x16ラインのブロックの範囲までに関しマッチ
ングにより予測差分誤差の電力和または絶対値和の最小
となるブロックを探索することにより求まる。予測差分
信号は予め用意された直交変換の集合のなかから、選択
手段302により選択され変換演算器303へその選択
情報が送られる。選択手段302では、例えば入力信号
−この場合は予測残差信号−の自己相関行列を求め、予
め用意した直交変換に対応する自己相関行列とのユーク
リッド距離の最も近いものを選択する基準として演算を
行なう事ができる。変換は画像をNxN画素の小ブロッ
クGに分割しNxNの縦変換行列TvとNxNの横変換
行列Tnにより F=TvGTn で表される行列変換を行なう。変換後のデータは量子化
器304で量子化され必要に応じ可変長符号化器310
で可変長符号化され、送出される。一方量子化結果は逆
量子化器305で逆量子化される。この場合、図18の
ように一旦量子化した結果を逆量子化するのでなく、直
接逆量子化結果を生成しても良い。逆量子化結果は変換
した時の演算が選択手段302から送られ、これに対応
した逆変換の演算が逆変換器306で行なわれる。変換
は行列の係数としてメモリに格納しておき、選択手段の
指示により変換に使用する係数が読み出される。このと
き逆変換用の変換係数も読み出され逆変換器306に送
れば良い。この直交変換は正規直交変換であるため、逆
変換は転置行列であるから、変換用に読み出した係数は
そのまま配置を縦と横に関し変えるだけで使用できるの
で構成が簡略化できる。逆変換結果は動き予測回路30
9から生成された予測信号と加算器307で加算され、
フレームメモリ308の内容が書き替えられる。選択手
段302で選択した変換を表すフラッグ信号が上記量子
化、符号化された信号とともに、送出される。上記直交
変換はKL変換の場合最適となるが、他の近似的直交変
換を用いることもできる。
(Third Invention) FIG. 17 is a block diagram of the third embodiment of the present invention. The input image is subjected to prediction difference by the differentiator 301 by the inter-frame or inter-field prediction signal generated by the motion prediction circuit 309 from the temporally previous image data stored in the frame memory 308. For example, the time direction prediction is 1
It can be obtained by searching for a block having the minimum sum of power or sum of absolute values of prediction difference errors by matching with respect to a block range of 6 pixels × 16 lines. The prediction difference signal is selected by the selecting means 302 from the set of orthogonal transforms prepared in advance, and the selection information is sent to the transform calculator 303. In the selection means 302, for example, the autocorrelation matrix of the input signal-in this case, the prediction residual signal-is obtained, and calculation is performed as a criterion for selecting the one having the closest Euclidean distance to the autocorrelation matrix corresponding to the orthogonal transformation prepared in advance. I can do it. The conversion is performed by dividing the image into small blocks G of NxN pixels and performing a matrix conversion represented by F = TvGTn by a vertical conversion matrix Tv of NxN and a horizontal conversion matrix Tn of NxN. The converted data is quantized by the quantizer 304 and, if necessary, the variable length encoder 310.
Variable-length coded and transmitted. On the other hand, the quantization result is inversely quantized by the inverse quantizer 305. In this case, instead of dequantizing the quantized result as shown in FIG. 18, the dequantized result may be directly generated. The inverse quantization result is sent from the selecting means 302 as an operation at the time of conversion, and the inverse converter 306 performs an operation of inverse conversion corresponding to the operation. The transformation is stored in the memory as the coefficient of the matrix, and the coefficient used for the transformation is read by the instruction of the selecting means. At this time, the conversion coefficient for inverse conversion may be read and sent to the inverse converter 306. Since this orthogonal transform is an orthonormal transform, the inverse transform is a transposed matrix. Therefore, the coefficient read out for transform can be used as it is by simply changing the arrangement with respect to the vertical and horizontal directions, so that the configuration can be simplified. The inverse conversion result is the motion prediction circuit 30.
9 is added to the prediction signal generated from 9 by the adder 307,
The contents of the frame memory 308 are rewritten. A flag signal representing the transformation selected by the selection means 302 is transmitted together with the quantized and encoded signal. The above orthogonal transform is optimal for the KL transform, but other approximate orthogonal transforms can be used.

【0048】図19は本発明の第2の実施例である。動
き予測回路309で求められた時間方向予測信号、予測
残差信号、入力信号等を用いて、判定器311は符号化
モードの切り替えを指示する。すなわちまず、入力信号
と予測残差信号の電力和または絶対値和を比較し小さい
方を選択する選択を行なう。切り替えスイッチ312に
よりこの信号の切り替えがなされる。またこの選択され
た信号のブロック内電力和または絶対値和が一定のしき
い値以下の時以下の変換符号化を行なわず、これを示す
符号を送出する。またしきい値より大きい場合は適応変
換を行ない、これを示す符号と変換、量子化、符号化の
結果とともに送出する。この場合複数の変換から所望の
変換を選択した結果を示すフラッグ信号も合わせて送出
される。一方局所復号も上記判定結果により、まず予測
残差信号でなく入力信号が選択された時はスイッチ31
3により動き補償予測信号ではなく0信号が逆変換結果
に加えられる。また変換演算への入力信号電力等がしき
い値以下で変換符号化を行なわないブロックはフレーム
メモリ308の内容も変更がなされない。
FIG. 19 shows a second embodiment of the present invention. The decision unit 311 uses the temporal prediction signal, the prediction residual signal, the input signal, and the like obtained by the motion prediction circuit 309 to instruct switching of the coding mode. That is, first, the power sum or the absolute value sum of the input signal and the prediction residual signal is compared, and the smaller one is selected. This signal is switched by the changeover switch 312. When the sum of powers in blocks or the sum of absolute values of the selected signals is equal to or less than a certain threshold value, the following conversion coding is not performed and a code indicating this is transmitted. If it is larger than the threshold value, adaptive conversion is performed, and the code indicating this and the result of conversion, quantization, and coding are transmitted. In this case, a flag signal indicating the result of selecting a desired conversion from a plurality of conversions is also transmitted. On the other hand, in the local decoding as well, based on the above determination result, when the input signal is selected instead of the prediction residual signal, the switch 31
According to 3, the 0 signal is added to the inverse transformation result instead of the motion compensation prediction signal. In addition, the contents of the frame memory 308 are not changed for the blocks for which the input signal power to the conversion calculation is less than the threshold value and the conversion encoding is not performed.

【0049】図20は本発明の第3の実施例である。符
号化に先立ち、送信機の制御部が受信機と通信し、予め
用意された変換のなかから用いる変換を限定して使用す
る取決めを行なう。例えば予め16種の直交変換と1つ
のDCTとの合計17種が用意されている場合、17種
全てを用いる場合、16種の直交変換のみを用いる場
合、DCTのみ用いる場合などが考えられる。またDC
Tを含め全体で16種の変換を用意しておきハードウェ
アの状況により16種、8種、4種、2種、DCTのみ
1種などの中から選ぶ形も可能である。このときどの行
列を選択したかの選択情報は最初に取り決めた変換の種
類数やその内容により変えることにより、より効率化を
図ることができる。
FIG. 20 shows a third embodiment of the present invention. Prior to encoding, the control unit of the transmitter communicates with the receiver to make an arrangement to limit the conversions to be used from the conversions prepared in advance. For example, a total of 17 types of 16 types of orthogonal transformation and one DCT are prepared in advance, all 17 types are used, 16 types of orthogonal transformation are used, or only DCT is used. Also DC
It is also possible to prepare 16 types of conversions including T in total and select from among 16 types, 8 types, 4 types, 2 types, and only one type of DCT depending on the hardware conditions. At this time, the selection information indicating which matrix has been selected can be made more efficient by changing it according to the number of kinds of conversions and the contents thereof which are initially agreed.

【0050】図21は本発明の第4の実施例である。本
実施例は、複数の変換を順次切り替えて変換し、変換後
に量子化し可変長符号化を行ない、符号化誤差と符号量
が所定の関数関係を保ったまま最適となる変換を選択す
るとともに、この選択結果を表す信号を合わせて伝送す
る行列可変の適応変換を行なうものであり、最適な変換
の選択法に関するものである。予め用意されたあらゆる
変換を試み、その中から最も効率の良い変換を選択する
ものである。このためまず変換後のデータと量子化後の
データの比較を行なう符号化誤差係数器314により誤
差が計算される。具体的には各ブロックの変換後と量子
化後データの差の2乗和を計算すれば良い。次に可変長
符号化後の符号量を計数器315で計数する。誤差は少
ない方が良く、符号量も少ない方が良いがこれらは対立
関係にあり、両者を総合的にR/D判定器316で判定
する必要がある。図22にこのR/D判定器316の動
作原理を示す。すなわち横軸にビットレート、縦軸に誤
差をとった時、ビットレートと誤差が効率上等価な関係
にある点を結ぶと、図22の曲線群のようになってい
る。この曲線上に計数器314、315で計測されたデ
ータを記入したものが、A、B、C、D、Eの各点であ
ったとする。まずA点とB点は等しい価値であるが、こ
れより下にある点の方が、同ビットレートで誤差が小さ
いため効率が高くなっている。従ってC点に比べD点や
E点の方か高効率である。D点とE点は等価でありどち
らを選択しても良い。この時さらにD点かE点かのどち
らを選択するかのルールを決めておくこともできる。例
えば、レートがある範囲に入っている方を優先する、レ
ートが小さい方を優先する、両者を加味した判定マップ
を作成しておくなどが容易に考えられる。
FIG. 21 shows a fourth embodiment of the present invention. In the present embodiment, a plurality of conversions are sequentially switched and converted, and after conversion, quantization and variable length coding are performed, and an optimum conversion is selected while maintaining a predetermined functional relationship between a coding error and a code amount, The present invention relates to a variable matrix adaptive conversion in which a signal representing the selection result is transmitted together, and relates to a method of selecting an optimum conversion. It tries all the conversions prepared in advance and selects the most efficient conversion from them. Therefore, first, the error is calculated by the coding error coefficient unit 314 which compares the converted data with the quantized data. Specifically, the sum of squares of the difference between the converted and quantized data of each block may be calculated. Next, the code amount after variable length coding is counted by the counter 315. A smaller error is better and a smaller code amount is better, but they are in a conflicting relationship, and it is necessary to make a comprehensive judgment by the R / D judging device 316. FIG. 22 shows the operating principle of the R / D judging device 316. That is, when the bit rate is plotted on the horizontal axis and the error is plotted on the vertical axis, connecting points at which the bit rate and the error are equivalent to each other in terms of efficiency are connected to form a group of curves in FIG. It is assumed that the points on which the data measured by the counters 314 and 315 are written on this curve are points A, B, C, D, and E. First, points A and B have the same value, but points below this point have higher efficiency because the error is smaller at the same bit rate. Therefore, the efficiency is higher at points D and E than at point C. The points D and E are equivalent, and either one may be selected. At this time, it is also possible to further determine a rule to select either D point or E point. For example, it is easily conceivable to prioritize one having a rate within a certain range, one having a lower rate, or to prepare a determination map considering both rates.

【0051】図23は本発明の第5の実施例である。本
実施例は、複数の変換に対応する自己相関行列と自己相
関行列間の距離関係ネットワークを有し、入力画像信号
の自己相関行列と変換に対応する自己相関行列との距離
を演算する手段を有し、前記距離ネットワーク上で入力
と変換の自己相関行列の最小距離探索を行なうことを特
徴とする行列可変の適応変換を行なうものである。変換
行列に対応する自己相関行列の距離関係を図24のよう
にネットワーク化しておくことにより、全部の変換行列
の中から最適なものを選択するのでなく、そのうちの一
部分の探索のみ行なえば良いため、演算量が大幅に減少
する。入力信号はまず自己相関行列が317で作成され
ネットワーク探索器320で探索される。係数メモリに
対応した自己相関行列はネットワーク化されメモリ31
8に格納されている。ネットワークは図24のように距
離関係をもとに各自己相関行列が整列されている。例え
ば第一段階で入力と初期値である1番の自己相関行列と
その近傍にある1から7までの自己相関行列と距離比較
がなされる。もし4が最小だったとすると同様に4近傍
の1、5、8、9、10、3について探索される。4が
最小の時これを最適変換と決めることができる。距離で
ネットワーク化されているため、局所最適には陥らな
い。また全探索するより早く最適点に到達できる特徴を
持つ。
FIG. 23 shows a fifth embodiment of the present invention. The present embodiment has an autocorrelation matrix corresponding to a plurality of transforms and a distance relation network between the autocorrelation matrices, and provides means for calculating the distance between the autocorrelation matrix of the input image signal and the autocorrelation matrix corresponding to the transform. A matrix variable adaptive conversion is performed, which is characterized by performing a minimum distance search of an input and conversion autocorrelation matrix on the distance network. Since the distance relationship of the autocorrelation matrix corresponding to the transformation matrix is networked as shown in FIG. 24, the optimum one is not selected from all the transformation matrices, and only a part of the transformation matrix needs to be searched. , The amount of calculation is greatly reduced. First, an autocorrelation matrix of the input signal is created in 317, and is searched by the network searcher 320. The autocorrelation matrix corresponding to the coefficient memory is networked and stored in the memory 31.
8 is stored. In the network, as shown in FIG. 24, the autocorrelation matrices are arranged based on the distance relationship. For example, in the first stage, distance comparison is performed with the input and the initial value of the first autocorrelation matrix and the autocorrelation matrices 1 to 7 in the vicinity thereof. If 4 is the smallest, the search is performed for 1, 5, 8, 9, 10, and 3 in the four neighborhoods. When 4 is the minimum, this can be determined as the optimum conversion. Since it is networked by distance, it does not fall into local optimum. In addition, it has the feature that it can reach the optimum point faster than a full search.

【0052】図25は本発明の第6の実施例である。こ
れは、入力の自己相関行列と最小距離にある変換に対応
した自己相関行列を求めた後、その自己相関行列に対応
した変換を含む部分変換の集合に対し、変換符号化結果
が局所的に最適となる変換を選択するものであり、図2
1の実施例と図23の実施例の一般的組み合わせの一形
態である。自己相関行列空間での探索を行なった後、可
変長符号化まで行なう時などの最適変換の候補が絞り込
まれる。この限定された変換候補に対し、R/Dの観点
から最適変換を探索するものである。
FIG. 25 shows a sixth embodiment of the present invention. This is because after obtaining the autocorrelation matrix corresponding to the transform that is at the minimum distance from the input autocorrelation matrix, the transform coding result is locally applied to the set of partial transforms including the transform corresponding to the autocorrelation matrix. The optimum conversion is selected as shown in FIG.
This is an example of a general combination of the embodiment of FIG. 1 and the embodiment of FIG. After performing the search in the autocorrelation matrix space, the candidates for the optimal conversion such as when performing the variable length coding are narrowed down. The optimum conversion is searched from the viewpoint of R / D for the limited conversion candidates.

【0053】(第4の発明) 以下、第4の発明の実施例を図面を用いて説明する。図
26は、本発明の一実施例に係わる動画像符号化装置の
ブロック図である。入力端子321から入力された画像
信号は、動き補償回路322とサブバンド分割回路32
3に入力される。動き補償回路322は、入力画像信号
と前フレーム画像信号とから動き解析を行ない、前フレ
ーム画像の動き補償を行なう。動き解析は、ブロック毎
に平行移動量を求めるブロックマッチング法でもよい
し、後述するように、まず動領域を抽出し動領域全体の
動きを求め、更に細かい動きを求める方法でもよい。こ
の動き補償された画像信号は、サブバンド分割回路32
4で入力画像信号と同様に複数のサブバンドに分割され
る。図27にサブバンド分割の例を示す。これは、まず
水平垂直それぞれに2つの周波数領域に分割し、LL、
HL、LH、HHに4分割する。更に、ローバンドLL
をLLL、LHL、LLH、LHHに4分割する。次
に、動き補償サブバンド画像と前フレームサブバンド画
像と背景サブバンド画像と無信号の中から適応予測回路
327で選択し、入力サブバンド画像と選択された予測
信号との差を残差符号化回路328で符号化する。次
に、残差符号化情報と適応予測情報と動き解析情報とが
可変長符号化回路333で可変長符号化され、出力端子
334から出力される。それと同時に、残差符号化情報
は、残差復号化回路329で復号化され、加算器330
で適応予測信号と加算される。加算された信号は、背景
予測回路331とフレームメモリ332に入力される。
背景予測回路331では、背景部分かどうかを判断し、
背景部分のみ蓄積する。フレームメモリ332の出力の
前フレームサブバンド画像信号は、サブバンド合成回路
325で各周波数成分が合成され、前フレーム画像が再
構成される。
(Fourth Invention) An embodiment of the fourth invention will be described below with reference to the drawings. FIG. 26 is a block diagram of a moving picture coding apparatus according to an embodiment of the present invention. The image signal input from the input terminal 321 receives the motion compensation circuit 322 and the sub-band division circuit 32.
Input to 3. The motion compensation circuit 322 performs motion analysis from the input image signal and the previous frame image signal to perform motion compensation on the previous frame image. The motion analysis may be a block matching method that obtains a translation amount for each block, or, as described later, a method that first extracts a moving area and obtains the movement of the entire moving area, and further obtains a finer movement. This motion-compensated image signal is output to the sub-band division circuit 32.
At 4, the input image signal is divided into a plurality of subbands. FIG. 27 shows an example of subband division. This is first divided into two frequency regions in each of the horizontal and vertical directions, and LL,
Divide into HL, LH, and HH into four. Furthermore, low band LL
Is divided into 4 into LLL, LHL, LLH and LHH. Next, the adaptive prediction circuit 327 selects from the motion-compensated subband image, the previous frame subband image, the background subband image, and no signal, and the difference between the input subband image and the selected prediction signal is used as the residual code. The coding circuit 328 performs coding. Next, the residual coding information, the adaptive prediction information, and the motion analysis information are variable-length coded by the variable-length coding circuit 333 and output from the output terminal 334. At the same time, the residual coded information is decoded by the residual decoding circuit 329 and added by the adder 330.
Is added with the adaptive prediction signal. The added signal is input to the background prediction circuit 331 and the frame memory 332.
The background prediction circuit 331 determines whether or not the background portion
Accumulate only the background part. The previous frame sub-band image signal output from the frame memory 332 is composed of each frequency component in the sub-band combining circuit 325 to reconstruct the previous frame image.

【0054】図28は、本発明の動き補償回路の一例を
示すブロック図である。入力端子341から入力された
画像信号は、動領域抽出部343で動領域が抽出され
る。動領域抽出部の一方法としては、まずフレーム間差
分をとり、左右から動物体のエッジを探索し、その内側
を動領域とする方法である。この方法によると動領域が
分離することはない。また、左右だけでなく、上下左右
から動物体のエッジを探索することにより、更に正確に
動領域の抽出ができる。グローバル動き推定部344で
は、動領域全体の動きパラメータが推定される。グロー
バル動き推定は、下記の(3)式に示すように、ある点
(x、y)が別の点(x’、y’)に移動する写像を考
え、動きパラメータa〜fを求める。a〜dは、回転、
拡大、縮小、変形を表現するパラメータで、e、fは、
平行移動を表すパラメータである。
FIG. 28 is a block diagram showing an example of the motion compensation circuit of the present invention. A moving area is extracted by the moving area extraction unit 343 from the image signal input from the input terminal 341. As one method of the moving area extraction unit, first, a difference between frames is obtained, an edge of a moving object is searched from the left and right, and the inside thereof is set as a moving area. According to this method, the moving areas are not separated. In addition, the moving region can be more accurately extracted by searching the edges of the moving object not only from the left and right but also from the top, bottom, left, and right. The global motion estimation unit 344 estimates the motion parameters of the entire moving area. The global motion estimation considers a map in which a certain point (x, y) moves to another point (x ′, y ′) as shown in the following expression (3), and obtains the motion parameters a to f. a to d are rotations,
Parameters that represent enlargement, reduction, and transformation, and e and f are
This is a parameter that represents parallel movement.

【0055】[0055]

【数2】 多角形パッチ動き推定部345では、動領域に多角形パ
ッチが当てられ動領域の中の細かい動きが推定される。
多角形パッチ動き推定は、図29に示すように1フレー
ム前の画像をグローバル動きパラメータで写像した後、
多角形パッチを動領域に当てる。ここでは、三角形パッ
チとした。現フレーム画像との誤差が最小になるように
各三角形の頂点を移動する。三角形の中の画像は、アフ
ィン変換により写像する。アフィン変換の式は、(3)
式と同じであり、各三角形毎にパラメータが異なる。伝
送する情報としては、各頂点の移動量だけでよい。入力
端子342から入力された前フレーム画像は、グローバ
ル動きパラメータと多角形動きパラメータにより、動き
補償部326で動き補償が行なわれ出力端子348から
出力される。
[Equation 2] In the polygon patch motion estimation unit 345, a polygon patch is applied to the moving area to estimate a fine movement in the moving area.
As shown in FIG. 29, the polygon patch motion estimation is performed by mapping an image one frame before with global motion parameters, and
Apply a polygon patch to the motion area. Here, a triangular patch is used. The vertices of each triangle are moved so that the error from the current frame image is minimized. The image in the triangle is mapped by the affine transformation. The affine transformation formula is (3)
It is the same as the formula, and the parameters are different for each triangle. The only information to be transmitted is the amount of movement of each vertex. The previous frame image input from the input terminal 342 is motion-compensated by the motion compensating unit 326 according to the global motion parameter and the polygonal motion parameter, and is output from the output terminal 348.

【0056】図30は、本発明の背景予測回路の一例を
示すブロック図である。入力端子351から入力された
信号サブバンド画像は、静止時間計測部353で画素単
位または複数画素のブロック単位に静止している時間が
計測される。その静止時間が一定時間以上のときは、書
き込み制御部354で書き込み信号が発生され復号サブ
バンド画像が背景メモリ355に書き込まれる。また、
入力端子352から入力された適応予測選択信号が無信
号を示しているとき、すなわちフレーム内符号化されて
いるときも書き込み信号を発生させる。これは、過去の
信号で予測できない新しい画像信号が現れたときにフレ
ーム内符号化が選択されるのでその部分が背景である可
能性が高いからである。
FIG. 30 is a block diagram showing an example of the background prediction circuit of the present invention. The still time measuring unit 353 measures the time during which the signal sub-band image input from the input terminal 351 is stationary for each pixel or for each block of a plurality of pixels. When the stationary time is a certain time or more, a write signal is generated in the write control unit 354 and the decoded subband image is written in the background memory 355. Also,
When the adaptive prediction selection signal input from the input terminal 352 indicates no signal, that is, when the intra-frame coding is performed, the write signal is generated. This is because the intra-frame coding is selected when a new image signal that cannot be predicted by the past signal appears, and therefore that portion is likely to be the background.

【0057】図31は、本発明の適応予測回路の一例を
示すブロック図である。入力端子361から入力サブバ
ンド画像、入力端子362から動き補償サブバンド画
像、入力端子363から前フレームサブバンド画像、入
力端子364から背景サブバンド画像が入力され、評価
回路365に入力される。評価回路365では、入力サ
ブバンド画像に対する動き補償サブバンド画像、前フレ
ームサブバンド画像、背景サブバンド画像、無信号との
評価値が計算される。評価値としては、差分絶対値和ま
たは差分2乗和が計算される。前フレームサブバンド画
像の評価値が設定値以下のときは、セレクタ366で前
フレームサブバンド画像が予測信号として選択され出力
端子368から出力される。それ以外の時は、最も評価
値が小さいものが選択される。無信号が選択されたとき
は、予測信号は0となり、フレーム内符号化になる。
FIG. 31 is a block diagram showing an example of the adaptive prediction circuit of the present invention. The input subband image is input from the input terminal 361, the motion compensation subband image is input from the input terminal 362, the previous frame subband image is input from the input terminal 363, and the background subband image is input from the input terminal 364. The evaluation circuit 365 calculates the evaluation values of the motion-compensated subband image, the previous frame subband image, the background subband image, and no signal for the input subband image. As the evaluation value, the sum of absolute differences or the sum of squared differences is calculated. When the evaluation value of the previous frame subband image is less than or equal to the set value, the previous frame subband image is selected by the selector 366 as a prediction signal and output from the output terminal 368. Otherwise, the one with the smallest evaluation value is selected. When no signal is selected, the prediction signal becomes 0, and intraframe coding is performed.

【0058】図32は、本発明の残差符号化回路の一例
を示すブロック図である。予測残差信号は、画素間の相
関はほとんどないが、局所的にはフレーム内符号化が選
択された場合などに高い相関が残っていることがある。
そのような局所的相関を利用して更に残差信号を小さく
することができる。入力端子371から入力された予測
残差信号は、予測部374により既に符号化された画素
を用いて予測され、その予測誤差が量子化器373で量
子化され出力端子377から出力される。また、量子化
信号と予測信号が加算器376で加算されメモリ375
に書き込まれ、次の画素の予測のために使われる。図3
3に、4x4のブロックで処理する場合の例を示す。斜
線部分は、既に符号化の終了した部分である。先ず、ブ
ロック右下の画素X(4、4)が既に符号化の終了した
画素を用いて数2により予測され、予測誤差が量子化さ
れる。
FIG. 32 is a block diagram showing an example of the residual coding circuit of the present invention. The prediction residual signal has almost no correlation between pixels, but a high correlation may remain locally when intraframe coding is selected.
Such a local correlation can be used to further reduce the residual signal. The prediction residual signal input from the input terminal 371 is predicted by the prediction unit 374 using the pixels already encoded, and the prediction error is quantized by the quantizer 373 and output from the output terminal 377. In addition, the quantized signal and the prediction signal are added by the adder 376 and the memory 375 is added.
And used for prediction of the next pixel. Figure 3
3 shows an example of processing with a 4 × 4 block. The shaded portion is the portion that has already been encoded. First, the pixel X (4,4) at the lower right of the block is predicted by the equation 2 by using the already coded pixel, and the prediction error is quantized.

【0059】 P(4 、4)=(ah(4、4)X(0 、4)+av(4 、4)X(4 、0))/2 ……(4) 量子化された予測誤差と予測値が加算されX(4、4)
が確定する。次に画素X(2、4)、X(4、2)が、
下記の(5)(6)式より予測され、予測誤差が量子化
される。
P (4, 4) = (ah (4, 4) X (0, 4) + av (4, 4) X (4, 0)) / 2 (4) Quantized prediction error And the predicted value are added to X (4,4)
Is confirmed. Next, the pixels X (2,4) and X (4,2) are
The prediction error is quantized by prediction using the following equations (5) and (6).

【0060】 P(2 、4)=ah(2 、4)(X(0、4)+X(4、4))/2 ……(5) P(4 、2)=av(4 、2)(X(4、0)+X(4、4))/2 ……(6) 次に、画素X(2、2)が(7)式により予測され、予
測誤差が量子化される。
P (2, 4) = ah (2, 4) (X (0, 4) + X (4, 4)) / 2 (5) P (4, 2) = av (4, 2) ) (X (4,0) + X (4,4)) / 2 (6) Next, the pixel X (2,2) is predicted by the equation (7), and the prediction error is quantized.

【0061】 P(2 、2)= (ah(2、2)(X(0、2)+X(4、2))+av(2、2)(X(2、0)+X(2、4)))/4 ……(7) 同様にして、その間の画素も符号化される。ここで、予
測係数(ah(i、j)、av(i、j)は、画素間相
関によって決まる。しかし、入力画像毎に画素間相関を
計算するのは現実的でないので、標準的な画像に対する
各バンドの画素間相関を調べ、その値により予測係数を
決定すればよい。
P (2,2) = (ah (2,2) (X (0,2) + X (4,2)) + av (2,2) (X (2,0) + X (2 , 4))) / 4 (7) Similarly, the pixels in between are also encoded. Here, the prediction coefficients (ah (i, j), av (i, j) are determined by the inter-pixel correlation. However, it is not realistic to calculate the inter-pixel correlation for each input image, so that the standard image The inter-pixel correlation of each band with respect to is checked, and the prediction coefficient may be determined by the value.

【0062】量子化された予測誤差の符号化は、量子化
値が0の場合とそれ以外の場合に分けて符号化すればよ
い。図34(a)は、黒い部分が量子化値が0でない画
素を示している。この位置情報を図34(b)のように
4分木で表現し可変長符号化する。そして、0でない量
子化値だけ可変長符号化する。
The quantized prediction error may be coded separately depending on whether the quantized value is 0 or not. In FIG. 34 (a), the black portion shows a pixel whose quantized value is not 0. This position information is represented by a quadtree as shown in FIG. 34 (b) and variable length coding is performed. Then, variable length coding is performed only for the quantized value that is not 0.

【0063】(第5の発明) 第5の発明の一実施例である動画像復号化装置について
図35のブロック図に基づいて説明する。
(Fifth Invention) A moving picture decoding apparatus according to an embodiment of the fifth invention will be described with reference to the block diagram of FIG.

【0064】これは、第4の発明である動画像符号化装
置によって符号化された符号化データを復号する装置で
ある。
This is a device for decoding coded data coded by the moving picture coding device of the fourth invention.

【0065】入力端子401から、符号化データが入力
され、可変長復号化器402で可変長符号の復号化が行
われ、動きパラメータ、適応予測選択信号及び予測誤差
量子化信号が出力される。
Coded data is input from the input terminal 401, a variable length decoder 402 decodes a variable length code, and a motion parameter, an adaptive prediction selection signal, and a prediction error quantized signal are output.

【0066】予測誤差量子化信号は、逆量子化器403
で逆量子化され、予測器405の出力と加算器404で
加算され、残差復号信号になる。この残差復号信号は、
メモリ406に書き込まれ、次の復号画素を予測するた
めに使われる。
The prediction error quantized signal is the inverse quantizer 403.
Is inversely quantized and is added to the output of the predictor 405 and the adder 404 to form a residual decoded signal. This residual decoded signal is
Written to memory 406 and used to predict the next decoded pixel.

【0067】予測器405は、次の復号画素の近傍の既
に復号化された画素を用いて、次の復号画素を予測す
る。
The predictor 405 predicts the next decoded pixel using the already decoded pixels in the vicinity of the next decoded pixel.

【0068】選択回路408は、無信号及び後述する動
き補償サブバンド画像信号、前フレームサブバンド画像
信号、サブバンド背景予測信号の4つの信号の中から1
つの信号を、適応予測選択信号により選択して、適応予
測信号として出力する。
The selection circuit 408 selects one from four signals of no signal, a motion-compensated subband image signal, which will be described later, a previous frame subband image signal, and a subband background prediction signal.
The two signals are selected by the adaptive prediction selection signal and output as the adaptive prediction signal.

【0069】残差復号信号は、選択回路408からの適
応予測信号と、加算器407で加算され、サブバンド復
号画像が得られる。そして、このサブバンド復号画像
は、フレームメモリ409と背景予測回路410に出力
される。
The residual decoded signal is added to the adaptive prediction signal from the selection circuit 408 by the adder 407 to obtain a subband decoded image. Then, this sub-band decoded image is output to the frame memory 409 and the background prediction circuit 410.

【0070】サブバンド復号画像は、フレームメモリ4
09に書き込まれる。
The sub-band decoded image is stored in the frame memory 4
Written in 09.

【0071】背景予測回路410は、サブバンド復号画
像の中から新しく送られてきた部分や長時間静止してい
る部分を選択的に、背景予測回路410の中の背景メモ
リに書き込む。そして、サブバンド背景予測信号として
選択回路408へ出力される。
The background prediction circuit 410 selectively writes a newly sent part or a part which has been stationary for a long time from the subband decoded image in the background memory in the background prediction circuit 410. Then, it is output to the selection circuit 408 as a subband background prediction signal.

【0072】フレームメモリ409からのサブバンド復
号画像は、サブバンド合成器413で、ベースバンド復
号画像に合成され、出力端子414から出力される。ま
た、前フレームサブバンド画像信号として選択回路40
8へ出力される。
The subband decoded image from the frame memory 409 is synthesized with the baseband decoded image by the subband synthesizer 413 and output from the output terminal 414. Further, the selection circuit 40 selects the previous frame sub-band image signal.
8 is output.

【0073】ベースバンド復号画像は、動き補償回路4
12で動きパラメータに基づいて動き補償され、サブバ
ンド分割回路411でサブバンドに分割され、動き補償
サブバンド画像信号として選択回路408へ出力され
る。
The baseband decoded image is the motion compensation circuit 4
Motion compensation is performed at 12 based on the motion parameter, sub-band division circuit 411 divides into sub-bands, and the result is output to the selection circuit 408 as a motion-compensated sub-band image signal.

【0074】動画像符号化装置側が、図28のようにグ
ローバル動き補償と多角形パッチ動き補償の2段階にな
っていれば、動画像復号化装置側も動き補償を2段階に
する必要がある。
If the moving picture coding apparatus side has two stages of global motion compensation and polygon patch motion compensation as shown in FIG. 28, the moving picture decoding apparatus side also needs to have two stages of motion compensation. .

【0075】また、動画像符号化装置側に背景予測回路
が含まれていなければ、動画像復号化装置側も必要な
い。
If the background coding circuit is not included in the moving picture coding apparatus side, the moving picture decoding apparatus side is not necessary either.

【0076】[0076]

【発明の効果】請求項1、8の発明は、入力画像信号か
ら動領域を抽出し、その領域だけ動き補償を施すので、
動物体の境界付近での動き補償の効率が向上する。ま
た、動領域に多角形パッチを当て、細かい動き推定を行
うことにより、目や口の変形にも対応できる動き補償を
行うことができる。
According to the present invention, the moving area is extracted from the input image signal and the motion compensation is applied only to the area.
The efficiency of motion compensation near the boundary of the moving object is improved. Further, by applying a polygonal patch to the moving region and performing fine motion estimation, it is possible to perform motion compensation that can cope with eye and mouth deformations.

【0077】請求項7、9の発明は、被写体の動きを十
分に補償し、サブバンドに分割して処理を行なうことに
より、高い符号化効率の符号化データを復号化できる。
According to the seventh and ninth aspects of the present invention, the motion of the subject is sufficiently compensated, and the data is divided into sub-bands for processing, so that the coded data with high coding efficiency can be decoded.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る動画像符号化装置のブ
ロック図。
FIG. 1 is a block diagram of a moving picture coding apparatus according to an embodiment of the present invention.

【図2】本発明の動画像解析部の一例を示すブロック
図。
FIG. 2 is a block diagram showing an example of a moving image analysis unit of the present invention.

【図3】本発明の動画像解析部の別の例を示すブロック
図。
FIG. 3 is a block diagram showing another example of the moving image analysis unit of the present invention.

【図4】本発明の動画像解析部の更に別の例を示すブロ
ック図。
FIG. 4 is a block diagram showing still another example of the moving image analysis unit of the present invention.

【図5】従来の動画像符号化装置の例を示すブロック
図。
FIG. 5 is a block diagram showing an example of a conventional moving image encoding device.

【図6】フレーム間差分の孤立点除去と領域統合による
動領域抽出の説明図。
FIG. 6 is an explanatory diagram of moving area extraction by removing isolated points of inter-frame differences and area integration.

【図7】動領域境界の内側を動領域とする方法による動
領域抽出の説明図。
FIG. 7 is an explanatory diagram of moving area extraction by a method of setting the inside of a moving area boundary as a moving area.

【図8】グローバル動き推定を説明する図。FIG. 8 is a diagram illustrating global motion estimation.

【図9】三角形パッチ動き推定を説明する図。FIG. 9 is a diagram for explaining triangle patch motion estimation.

【図10】特徴点周囲の三角形パッチの大きさを小さく
し動き補償を行う方法を説明する図。
FIG. 10 is a diagram illustrating a method of reducing the size of a triangular patch around a feature point to perform motion compensation.

【図11】三角形パッチの形状を特徴点に合わせて動き
補償を行う方法を説明する図。
FIG. 11 is a diagram illustrating a method of performing motion compensation by matching the shape of a triangular patch with a feature point.

【図12】差分チェーン符号化を説明する図。FIG. 12 is a diagram illustrating differential chain encoding.

【図13】代表点だけ送り、間を補間することにより境
界線を表現する図。
FIG. 13 is a diagram showing a boundary line by sending only representative points and interpolating between them.

【図14】背景と動領域を合成するやり方を説明する
図。
FIG. 14 is a diagram illustrating a method of synthesizing a background and a moving area.

【図15】顔の画像を通信する場合のブロック図であっ
て、(a)は送信部、(b)は受信部である。
FIG. 15 is a block diagram in the case of communicating a face image, in which (a) is a transmission unit and (b) is a reception unit.

【図16】第2の発明の動画像復号化装置のブロック
図。
FIG. 16 is a block diagram of a moving picture decoding apparatus according to a second invention.

【図17】第3の発明の第1実施例のブロック図。FIG. 17 is a block diagram of the first embodiment of the third invention.

【図18】第3の発明の第1実施例の量子化器と逆量子
化器の位置を示す図。
FIG. 18 is a diagram showing the positions of a quantizer and an inverse quantizer according to the first embodiment of the third invention.

【図19】第3の発明の第2実施例のブロック図。FIG. 19 is a block diagram of a second embodiment of the third invention.

【図20】第3の発明の第3実施例のブロック図。FIG. 20 is a block diagram of a third embodiment of the third invention.

【図21】第3の発明の第4実施例のブロック図。FIG. 21 is a block diagram of a fourth embodiment of the third invention.

【図22】第3の発明の第4実施例のR/D判定器の動
作原理を示す図。
FIG. 22 is a diagram showing the operating principle of the R / D determiner of the fourth embodiment of the third invention.

【図23】第3の発明の第5実施例のブロック図。FIG. 23 is a block diagram of a fifth embodiment of the third invention.

【図24】第3の発明の第5実施例の自己相関行列の距
離関係ネットワークを示す図。
FIG. 24 is a diagram showing a distance relation network of an autocorrelation matrix according to the fifth embodiment of the third invention.

【図25】第3の発明の第6実施例のブロック図。FIG. 25 is a block diagram of a sixth embodiment of the third invention.

【図26】第4の発明の動画像符号化装置のブロック
図。
FIG. 26 is a block diagram of a moving picture coding apparatus according to a fourth invention.

【図27】第4の発明のサブバンド分割の例を示す図。FIG. 27 is a diagram showing an example of subband division of the fourth invention.

【図28】第4の発明の動き補償回路のブロック図。FIG. 28 is a block diagram of a motion compensation circuit according to a fourth invention.

【図29】第4の発明の三角形パッチ動き推定を説明す
る図。
FIG. 29 is a diagram for explaining triangle patch motion estimation according to the fourth invention.

【図30】第4の発明の背景予測回路のブロック図。FIG. 30 is a block diagram of a background prediction circuit of a fourth invention.

【図31】第4の発明の適応予測回路のブロック図。FIG. 31 is a block diagram of an adaptive prediction circuit of a fourth invention.

【図32】第4の発明の残差符号化回路のブロック図。FIG. 32 is a block diagram of a residual encoding circuit according to a fourth invention.

【図33】第4の発明の残差符号化処理を説明する図。FIG. 33 is a diagram for explaining the residual encoding process of the fourth invention.

【図34】第4の発明の量子化値が0でない画素位置の
符号化を説明する図。
FIG. 34 is a diagram for explaining encoding of pixel positions whose quantized value is not 0 according to the fourth invention.

【図35】第5の発明の動画像復号化装置のブロック
図。
FIG. 35 is a block diagram of a moving picture decoding apparatus of the fifth invention.

【符号の説明】[Explanation of symbols]

1…入力端子 2…動物体解析部 3…画像再構成部 4…残差符号化部 5…可変長符号化部 6…出力端子 11…動領域抽出部 12…グローバル動き推定部 13…多角形パッチ動き推定部 14…動き補償部 17…特徴点抽出部 19…背景画像構成部 301…差分器 302…選択手段 303…変換演算器 304…量子化器 305…逆量子化器 306…逆変換器 307…加算器 308…フレームメモリ 309…動き予測回路 310…可変長符号器 311…判定器 312、313…切換えスイッチ 314…符号化誤差計数器 315…符号量計数器 316…R/D判定器 317…自己相関行列 318…係数メモリ 319…対応自己相関行列ネットワーク 320…ネットワーク探索器 321…入力端子 322…動き補償回路 323、324…サブバンド分割回路 325…サブバンド合成回路 326…減算器 327…適応予測回路 328…残差符号化回路 329…残差復号化回路 330…加算器 331…背景予測回路 332…フレームメモリ 333…可変長符号化回路 334…出力端子 1 ... Input terminal 2… Animal analysis department 3 ... Image reconstruction unit 4 ... Residual coding unit 5 ... Variable length coding unit 6 ... Output terminal 11 ... Moving area extraction unit 12 ... Global motion estimation unit 13 ... Polygon patch motion estimation unit 14 ... Motion compensation unit 17 ... Feature point extraction unit 19 ... Background image composition section 301 ... Differentiator 302 ... Selection means 303 ... Conversion calculator 304 ... Quantizer 305 ... Inverse quantizer 306 ... Inverse converter 307 ... Adder 308 ... Frame memory 309 ... Motion prediction circuit 310 ... Variable length encoder 311 ... Judgment device 312, 313 ... Changeover switch 314 ... Encoding error counter 315 ... Code amount counter 316 ... R / D judging device 317 ... Autocorrelation matrix 318 ... Coefficient memory 319 ... Corresponding autocorrelation matrix network 320 ... Network searcher 321 ... Input terminal 322 ... Motion compensation circuit 323, 324 ... Subband division circuit 325 ... Subband synthesis circuit 326 ... Subtractor 327 ... Adaptive prediction circuit 328 ... Residual coding circuit 329 ... Residual decoding circuit 330 ... Adder 331 ... Background prediction circuit 332 ... Frame memory 333 ... Variable-length coding circuit 334 ... Output terminal

───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉立 尚明 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株 式会社東芝関西支社内 (72)発明者 面川 光教 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株 式会社東芝関西支社内 (72)発明者 山口 尚吾 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株 式会社東芝関西支社内 (72)発明者 大関 和夫 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株 式会社東芝関西支社内 (56)参考文献 中屋雄一郎(外1名),3角形パッチ の統合による領域分割に基づく動き補償 方式,1991年画像符号化シンポジウム (PCSJ91)第6回シンポジウム資 料,日本,社団法人 画像電子学会, 1991年10月 7日,PCSJ91,P.57 −60 Hans Georg(外2名),O BJECT−ORIENTED ANA LYSIS−SYNTHESIS CO DING OF MOVING IMA GES,Signal process ing Image Communic ation,Elsevier Sci ence Publishers,1989 年,Vol.1,No.2,p.117− 138 Dirk Adolph(外1名), 1.15Mbit/s coding o f video signals in cluding global mot ion compensation,S ignal Processing I mage Communicatio n,Elsevier Scienc e,Publishers,1991年,V ol.3,Nos.2−3,p259−274 (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Naoaki Kuratate 1-30 Oyonaka, Kita-ku, Osaka-shi, Osaka Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch Office (72) Inventor Mitsunori Ogawa 1-30, Oyodo Naka, Kita-ku, Osaka-shi, Osaka Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch Company (72) Inventor Shogo Yamaguchi 1-30, Oyodo-naka, Kita-ku, Osaka-shi, Osaka City Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch Office (72) Inventor Kazuo Ozeki 1-1-30 Oyodo Naka, Kita-ku, Osaka City, Osaka Prefecture Umeda Sky Building Tower West Co. Ltd. Toshiba Kansai Branch (56) References Yuichiro Nakaya (1 other person), Motion compensation method based on region division by integration of triangular patches, 1991 Image coding Symposium Beam (PCSJ91) 6th Symposium documentation, Japan, The Institute of Image Electronics Engineers, October 7, 1991, PCSJ91, P. 57-60 Hans Georg (2 others), OBJECT-ORIENTED ANA LYSIS-SYNTHESIS CO DING OF MOVING IMA GES, Signal processing, Image, Communication, Elsevier Sr. 1989. 1, No. 2, p. 117-138 Dirk Adolph (1 person outside), 1.15 Mbit / s coding of video signals in clogging global motion compensation, Signal processing, vulcanization, corn vulcanization, ed. 3, Nos. 2-3, p259-274 (58) Fields investigated (Int.Cl. 7 , DB name) H04N 7/ 24-7/68

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力画像信号から動物体を抽出して、この
動きを解析することにより、前記入力画像信号と動き補
償が行われた再構成画像との差である残差信号と動きパ
ラメータを出力する動物体解析手段と、 前記動物体解析手段からの前記残差信号を符号化して残
差符号化情報を形成する残差符号化手段と、 前記動物体解析手段からの動きパラメータと、前記残差
符号化手段からの前記残差符号化情報とを用いて再構成
画像信号を再構成する再構成手段と、 前記動物体解析手段からの前記動きパラメータと前記残
差符号化手段からの残差符号化情報とを可変長符号化す
る可変長符号化手段とを有する動画像符号化装置であっ
て、前記動物体解析手段は、 前記入力画像信号の中における動領域全体の動きに関連
したグローバル動きパラメータを推定するグローバル動
き推定手段と、 前記の入力画像信号または再構成画像信号の中での動領
域に多角形パッチを当てることで、前記動領域の部分の
動きに関連した多角形パッチ動きパラメータを推定する
ことにより、前記動領域内における細かい動きを推定す
る多角形パッチ動き推定手段と、 前記グローバル動き推定手段により推定されたグローバ
ル動きパラメータと前記多角形パッチ動き推定手段によ
り推定された多角形パッチ動きパラメータにより前記再
構成画像信号の動き補償を行う動き補償手段とからなる
ことを特徴とする動画像符号化装置。
1. A moving object is extracted from an input image signal and its movement is analyzed to detect the movement of the input image signal and the movement of the moving object.
A moving object analysis unit that outputs a residual signal and a motion parameter that is a difference between the reconstructed image that has been compensated , and the residual signal from the moving object analysis unit is encoded to form residual encoded information. Reconstructing using the residual encoding means for performing the motion parameter from the moving object analyzing means, and the residual encoding information from the residual encoding means.
Reconstruction means for reconstructing an image signal , and variable length coding means for variable length coding the motion parameter from the moving object analysis means and the residual coding information from the residual coding means. A moving image encoding apparatus, wherein the moving object analyzing means relates to movement of the entire moving region in the input image signal.
Global motion estimating estimated global motion parameters
Estimation means and motion in the input image signal or reconstructed image signal
By applying a polygonal patch to the area,
Estimate motion-related polygon patch motion parameters
By doing so, it is possible to estimate fine movement in the moving area.
And a global patch estimated by the global motion estimation means.
Motion parameter and the polygon patch motion estimation means.
The polygon patch motion parameters estimated from
A moving picture coding apparatus comprising: a motion compensating means for compensating a motion of a constituent image signal .
【請求項2】前記動物体解析手段は、 前記入力画像信号から動領域を抽出する動領域抽出手段
を備える ことを特徴とする請求項1記載の動画像符号化
装置。
2. The moving body extraction means extracts a moving area from the input image signal.
Video encoding according to claim 1, characterized in that it comprises
apparatus.
【請求項3】前記再構成画像信号の動領域から特徴点を
抽出する特徴点抽出手段を備え、前記特徴点に多角形パ
ッチの頂点が来るように多角形パッチを当てる ことを特
徴とする請求項2記載の動画像符号化装置。
3. A feature point is extracted from a moving area of the reconstructed image signal.
A feature point extracting means for extracting the polygonal pattern is provided to the feature points.
Especially to shed a polygon patch as the apex of the pitch will come
The moving picture coding apparatus according to claim 2, wherein
【請求項4】前記多角形パッチ動き推定手段は、 前記特徴点抽出手段によって抽出された動領域の中の特
徴点の周囲に小さい多角形パッチを当てることにより、
多角形パッチパラメータを推定し、さらには、より大き
い多角形パッチを前記動領域に当てて、多角形パッチパ
ラメータを推定する ことを特徴とする請求項3記載の動
画像符号化装置。
4. The polygon patch motion estimation means is a feature in the motion area extracted by the feature point extraction means.
By applying a small polygon patch around the trait,
Estimate polygon patch parameters, and
Apply a new polygon patch to the moving area to
4. The motion according to claim 3, wherein the parameter is estimated.
Image coding device.
【請求項5】前記動物体解析手段は、 入力画像信号から時間的な差分をとり、差分の大きな領
域を画像の上下左右から探索し、その領域を動領域とす
ことを特徴とする請求項4記載の動画像符号化装置。
5. The moving object analyzing means calculates a temporal difference from an input image signal to obtain a large difference.
The area is searched from the top, bottom, left, and right of the image, and the area is set as the moving area.
Moving picture encoding apparatus according to claim 4, wherein the that.
【請求項6】前記再構成画像信号から背景画像信号を構
成する背景画像信号構成手段を備え、 前記動き補償手段は、前記背景画像信号構成手段によっ
て構成された背景画像信号により、前記動領域の後ろか
ら現れた背景の補償も行うことを特徴とする請求項1記
載の動画像符号化装置。
6. A background image signal is constructed from the reconstructed image signal.
A background image signal composing means for generating the background image signal.
The background image signal composed of
2. The background appearing from the above is also compensated.
On-board video coding device.
【請求項7】可変長符号化データを受信し、この符号化
データを復号化し、画像信号中における動領域全体の動
きに関連したグローバル動きパラメータ、前記画像信号
中における動領域の部分の動きに関連した多角形パッチ
動きパラメータ及び残差符号に分離する可変長復号化手
段と、 この可変長復号化手段から出力された残差符号を復号し
て残差信号を出力する残差符号復号化手段と、 フレームメモリに蓄積された前フレームの復号画像信号
と、前記可変長復号化手段から出力されたグローバル動
きパラメータとから動領域全体の動き補償を行い、グロ
ーバル動き補償画像信号を出力するグローバル動き補償
手段と、 このグローバル動き補償手段から出力されたグローバル
動き補償画像と、前記可変長復号化手段から出力された
多角形パッチ動きパラメータとから動領域内部の局所的
な動き補償を行い、動き補償予測画像信号を出力する多
角形パッチ補償手段と、 この多角形パッチ補償手段から出力された動き補償予測
画像信号と、前記残差符号復号化手段から出力された残
差符号を加算して、復号画像信号を構成し、この復号画
フレームメモリに送る加算手段とよりなることを特
徴とする動画像復号化装置。
7. A receives the variable length coded data, decodes the encoded data, the whole moving region in the image signal dynamic
Global motion parameters associated with come, the image signal
Variable length decoding means for separating into a polygonal patch motion parameter and a residual code related to the motion of a portion of a moving area in the inside, and a residual code outputted by the variable length decoding means for decoding the residual signal. Motion compensation for the entire moving region from the residual code decoding means for outputting the decoded image signal of the previous frame stored in the frame memory and the global motion parameter output from the variable length decoding means. And a global motion compensation means for outputting a global motion compensation image signal , a global motion compensation image output from the global motion compensation means, and a polygon patch motion parameter output from the variable length decoding means. perform local motion compensation in the internal region, a polygonal patch compensating means for outputting a motion compensated prediction image signal, outputted from the polygon patch compensating means Is a motion compensated prediction image signal, by adding the residual code output from the residual code decoding means constitutes a decoded image signal, the more becomes possible and adding means for sending the decoded image in the frame memory Characteristic moving picture decoding apparatus.
【請求項8】入力画像信号から動物体を抽出して、この8. A moving object is extracted from an input image signal and
動きを解析することにより、前記入力画像信号と動き補By analyzing the motion, the input image signal and the motion
償が行われた再構成画像との差である残差信号と動きパThe residual signal, which is the difference from the reconstructed image that has been compensated, and the motion pattern.
ラメータを出力する動物体解析ステップと、A moving object analysis step for outputting parameters, 前記動物体解析ステップにおける前記残差信号を符号化Coding the residual signal in the moving object analysis step
して残差符号化情報を形成する残差符号化ステップと、A residual coding step of forming residual coding information by 前記動物体解析ステップにおける動きパラメータと、前Motion parameters in the moving object analysis step,
記残差符号化ステップにおける前記残差符号化情報とをThe residual coding information in the residual coding step
用いて再構成画像信号を再構成する再構成ステップと、A reconstruction step of reconstructing a reconstructed image signal using 前記動物体解析ステップにおける前記動きパラメータとWith the motion parameter in the moving object analysis step,
前記残差符号化ステップにおける残差符号化情報とを可Allows the residual coding information in the residual coding step.
変長符号化する可変長符号化ステップとを有する動画像Video with variable length coding step for variable length coding
符号化装置であって、An encoding device, 前記動物体解析ステップは、The moving body analysis step, 前記入力画像信号の中における動領域全体の動きに関連Related to the movement of the entire moving area in the input image signal
したグローバル動きパラメータを推定するグローバル動Global motion estimating estimated global motion parameters
き推定ステップと、Estimation step, 前記の入力画像信号または再構成画像信号の中での動領Motion in the input image signal or the reconstructed image signal
域に多角形パッチを当Apply a polygon patch to the area. てることで、前記動領域の部分のBy doing so,
動きに関連した多角形パッチ動きパラメータを推定するEstimate motion-related polygon patch motion parameters
ことにより、前記動領域内における細かい動きを推定すBy doing so, it is possible to estimate fine movement in the moving area.
る多角形パッチ動き推定ステップと、Polygon patch motion estimation step 前記グローバル動き推定ステップにおいて推定されたグThe motion estimated in the global motion estimation step
ローバル動きパラメータと前記多角形パッチ動き推定スThe global motion parameters and the polygon patch motion estimation
テップにおいて推定された多角形パッチ動きパラメータPolygon patch motion parameters estimated at step
により前記再構成画像信号の動き補償を行う動き補償スMotion compensation step for performing motion compensation of the reconstructed image signal by
テップとからなることを特徴とする動画像符号化方法。And a moving picture coding method.
【請求項9】可変長符号化データを受信し、この符号化9. Variable-length coded data is received and encoded.
データを復号化し、画像信号中における動領域全体の動The data is decoded and the motion of the entire motion area in the image signal is
きに関連したグローバル動きパラメータ、前記画像信号Global motion parameters associated with
中における動領域の部分の動きに関連した多角形パッチPolygonal patch related to the movement of the part of the moving area in the
動きパラメータ及び残差符号に分離する可変長復号化スA variable length decoding stream that is separated into motion parameters and residual codes.
テップと、Tep, この可変長復号化ステップにおいて出力された残差符号Residual code output in this variable length decoding step
を復号して残差信号を出力する残差符号復号化ステップResidual code decoding step for decoding and outputting a residual signal
と、When, フレームメモリに蓄積された前フレームの復号画像信号Decoded image signal of previous frame stored in frame memory
と、前記可変長復号化ステップにおいて出力されたグロAnd the glob output in the variable length decoding step.
ーバル動きパラメータとから動領域全体の動き補償を行Global motion parameters and motion compensation for the entire motion area.
い、グローバル動き補償画像信号を出力するグローバルGlobal, which outputs a motion compensated image signal
動き補償ステップと、A motion compensation step, このグローバル動き補償ステップにおいて出力されたグThe output of the global motion compensation step
ローバル動き補償画像と、前記可変長復号化ステップにThe global motion compensation image and the variable length decoding step
おいて出力された多角形パッチ動きパラメータとから動Motion from the polygon patch motion parameters output in
領域内部の局所的な動き補償を行い、動き補償予測画像Motion compensated prediction image by performing local motion compensation inside the region
信号を出力する多角形パッチ補償ステップと、A polygon patch compensation step for outputting a signal, この多角形パッチ補償ステップにおいて出力された動きThe motion output in this polygon patch compensation step
補償予測画像信号と、前記残差符号復号化ステップにおCompensated prediction image signal and the residual code decoding step
いて出力された残差符号を加算して、復号画像信号を構Then, the residual code output by
成し、この復号画像をフレームメモリに送る加算ステッAnd add this decoded image to the frame memory.
プとよりなることを特徴とする動画像復号化方法。And a moving picture decoding method.
JP33285693A 1993-03-04 1993-12-27 Video encoding device and video decoding device Expired - Fee Related JP3405788B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP33285693A JP3405788B2 (en) 1993-03-04 1993-12-27 Video encoding device and video decoding device
US08/205,028 US5592228A (en) 1993-03-04 1994-03-02 Video encoder using global motion estimation and polygonal patch motion estimation
DE69421837T DE69421837T2 (en) 1993-03-04 1994-03-03 Video encoders and decoders
EP94301527A EP0614318B1 (en) 1993-03-04 1994-03-03 Video encoder and decoder

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP5-43655 1993-03-04
JP4365593 1993-03-04
JP24094093 1993-09-28
JP5-240940 1993-09-28
JP33285693A JP3405788B2 (en) 1993-03-04 1993-12-27 Video encoding device and video decoding device

Publications (2)

Publication Number Publication Date
JPH07170523A JPH07170523A (en) 1995-07-04
JP3405788B2 true JP3405788B2 (en) 2003-05-12

Family

ID=27291625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33285693A Expired - Fee Related JP3405788B2 (en) 1993-03-04 1993-12-27 Video encoding device and video decoding device

Country Status (1)

Country Link
JP (1) JP3405788B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100215451B1 (en) 1996-05-29 1999-08-16 윤종용 System for encoding and decoding moving image including objects of any shape
US5912991A (en) * 1997-02-07 1999-06-15 Samsung Electronics Co., Ltd. Contour encoding method using error bands
JP4126126B2 (en) * 1998-12-11 2008-07-30 株式会社日立製作所 Transmission system and transmission method
JP3887178B2 (en) 2001-04-09 2007-02-28 株式会社エヌ・ティ・ティ・ドコモ Signal encoding method and apparatus, and decoding method and apparatus
JP4661514B2 (en) * 2005-10-07 2011-03-30 ソニー株式会社 Image processing apparatus, image processing method, program, and recording medium
JP4687658B2 (en) * 2007-01-29 2011-05-25 株式会社デンソー Image recognition device
JP5355244B2 (en) * 2009-06-23 2013-11-27 日本電信電話株式会社 Encoding method, decoding method, encoder, decoder and program
JP5336942B2 (en) * 2009-06-23 2013-11-06 日本電信電話株式会社 Encoding method, decoding method, encoder, decoder, program
JP5336943B2 (en) * 2009-06-23 2013-11-06 日本電信電話株式会社 Encoding method, decoding method, encoder, decoder, program
JP5375697B2 (en) * 2010-03-19 2013-12-25 富士通株式会社 Moving picture coding apparatus, moving picture decoding apparatus, moving picture coding method, and program
JP2014123865A (en) * 2012-12-21 2014-07-03 Xacti Corp Image processing apparatus and imaging apparatus
CN113920153A (en) * 2021-09-15 2022-01-11 北京工业大学 Deep motion separation method based on coding-decoding network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dirk Adolph(外1名),1.15Mbit/s coding of video signals including global motion compensation,Signal Processing Image Communication,Elsevier Science,Publishers,1991年,Vol.3,Nos.2−3,p259−274
Hans Georg(外2名),OBJECT−ORIENTED ANALYSIS−SYNTHESIS CODING OF MOVING IMAGES,Signal processing Image Communication,Elsevier Science Publishers,1989年,Vol.1,No.2,p.117−138
中屋雄一郎(外1名),3角形パッチの統合による領域分割に基づく動き補償方式,1991年画像符号化シンポジウム(PCSJ91)第6回シンポジウム資料,日本,社団法人 画像電子学会,1991年10月 7日,PCSJ91,P.57−60

Also Published As

Publication number Publication date
JPH07170523A (en) 1995-07-04

Similar Documents

Publication Publication Date Title
EP0614318B1 (en) Video encoder and decoder
US5117287A (en) Hybrid coding system for moving image
US6600786B1 (en) Method and apparatus for efficient video processing
TW411698B (en) Methods for encoding and decoding the image sequences
JP3068304B2 (en) Video coding and decoding systems
JP2002514866A (en) Method and apparatus for increasing video frame rate
JPH08242453A (en) Movement vector presumption device
JPH09121345A (en) Image encoding device and image decoding device
JP2010500818A (en) System and method for comic animation compression
JP3405788B2 (en) Video encoding device and video decoding device
Adolph et al. 1.15 Mbit/s coding of video signals including global motion compensation
EP0632657B1 (en) Method of prediction of a video image
WO2010026838A1 (en) Frame rate converting apparatus and corresponding point estimating apparatus, corresponding point estimating method and corresponding point estimating program
KR20060111528A (en) Detection of local visual space-time details in a video signal
KR100574732B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
US7305033B2 (en) Method of encoding and decoding motion picture, motion picture encoding device and motion picture decoding device
KR100212559B1 (en) The contour coding system and motion prediction method for object
WO2000064167A1 (en) Method and apparatus for efficient video processing
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
US6526173B1 (en) Method and system for compression encoding video signals representative of image frames
Martins et al. A unified approach to restoration, deinterlacing and resolution enhancement in decoding MPEG-2 video
JP3334384B2 (en) Picture prediction coding method
US10992942B2 (en) Coding method, decoding method, and coding device
KR100212560B1 (en) Apparatus for determinating coding mode of contour in hybrid contour coding system
KR19980074795A (en) Image Coding Method Using Global-Based Color Correlation

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees