JPH07177514A - Dynamic image compressor - Google Patents

Dynamic image compressor

Info

Publication number
JPH07177514A
JPH07177514A JP34431293A JP34431293A JPH07177514A JP H07177514 A JPH07177514 A JP H07177514A JP 34431293 A JP34431293 A JP 34431293A JP 34431293 A JP34431293 A JP 34431293A JP H07177514 A JPH07177514 A JP H07177514A
Authority
JP
Japan
Prior art keywords
frame
motion
section
interpolation
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP34431293A
Other languages
Japanese (ja)
Inventor
Yoichi Murayama
洋一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP34431293A priority Critical patent/JPH07177514A/en
Publication of JPH07177514A publication Critical patent/JPH07177514A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To accurately reproduce a frame missing at a receiver side. CONSTITUTION:The compressor is made up of coder 1 consisting of a motion detection section 11 obtaining a motion vector from frame-thinned image data, a frame thinning processing section 12 implementing thinning processing of a transmission frame number at a sender side, an adder 13, a DCT arithmetic section 14, a quantization section 15, an entropy coding section 16, a buffer 17 and a motion inter-frame predict section 18 or the like, and up of a decoder 2 consisting of a buffer 23, an entropy decoding section 24, an inverse quantization section 25, an IDCT arithmetic section 26, an adder 27, a prediction device 28, and a dynamic image interpolation section 29 or the like using a motion vector to interpolate an interpolation frame and providing the result to an external device as a picture output. The dynamic image interpolation section 29 approximates a motion to be a curve based on a motion vector obtained from an adjacent transmission frame and re-compose an interpolation frame to be interpolated based on the ratio of the distance between adjacent transmission frames.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像圧縮処理等に用
いられる動画像補間装置に係り、詳細には、受信側で欠
落したフレームを正確に再生することのできる動画像補
間装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture interpolating device used for moving picture compression processing and the like, and more particularly to a moving picture interpolating device capable of accurately reproducing a missing frame on the receiving side.

【0002】[0002]

【従来の技術】動画像補間装置は、おもにテレビ電話装
置やテレビ会議などで使用することが考えられている。
2. Description of the Related Art A moving image interpolating device is considered to be used mainly in a video telephone device, a video conference and the like.

【0003】従来の動画像処理装置では、受信側で欠落
したフレームを再生する動画像内挿装置が用いられる。
従来のフレーム内挿方式を用いた装置では、受信したフ
レーム毎に動きを検出し、内挿すべきフレームと受信し
た前後のフレームとの距離の比を求め、動きをその比か
ら分割を行ない、分割に基づいて内挿すべき補間フレー
ムを再構成していた。
A conventional moving picture processing apparatus uses a moving picture interpolating apparatus for reproducing a missing frame on the receiving side.
In a device using the conventional frame interpolation method, the motion is detected for each received frame, the ratio of the distance between the frame to be interpolated and the frames before and after the received frame is calculated, and the motion is divided based on the ratio, The interpolated frame to be interpolated was reconstructed based on

【0004】その一例は図5で示される。図5は、被伝
送フレーム(隣接伝送フレーム)Pと被伝送フレームN
との間に補間フレームMが2枚ある場合の従来のフレー
ム内挿方式を示す図である。図5中、矢印は動きベクト
ルMVを示し、BP,BN,BMは各フレーム上のブロック
を示す。また、被伝送フレームPと被伝送フレームNと
の距離を1とし、被伝送フレームPと被伝送フレームN
側の補間フレームMとの距離をaとする。
An example thereof is shown in FIG. FIG. 5 shows a transmitted frame (adjacent transmission frame) P and a transmitted frame N.
FIG. 10 is a diagram showing a conventional frame interpolation method when there are two interpolation frames M between and. In FIG. 5, arrows indicate the motion vector MV, and BP, BN, BM indicate blocks on each frame. Further, the distance between the transmitted frame P and the transmitted frame N is set to 1, and the transmitted frame P and the transmitted frame N are set.
The distance from the side interpolation frame M is a.

【0005】図5において、被伝送フレームをブロック
分割し、被伝送フレームPと被伝送フレームNとの間で
被伝送フレームPの各ブロックにおいて被伝送フレーム
N上の最も類似したブロックを求め(図5では、ブロッ
クBPとブロックBN)その移動量をMVとし、動きベク
トルとする。そしてこれら被伝送フレームP,N上で動
きベクトルによって対応づけられた2つのブロックから
内挿すべき補間フレームMのブロックBMを被伝送フレ
ームPと被伝送フレームNの距離の比により求めるとい
うものである。
In FIG. 5, the transmitted frame is divided into blocks, and between the transmitted frame P and the transmitted frame N, the most similar block on the transmitted frame N is obtained in each block of the transmitted frame P (see FIG. In 5, the amount of movement of the block BP and the block BN) is set as MV and is set as a motion vector. Then, the block BM of the interpolation frame M to be interpolated from the two blocks associated with the motion vectors on these transmitted frames P and N is obtained by the ratio of the distance between the transmitted frame P and the transmitted frame N. .

【0006】[0006]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の動画像処理装置にあっては、動きベクトルの
検出は直線近似による内挿方式であったため、移動物体
の直線的な動きには対応できるものの、回転運動や放物
運動等の曲線的な運動には対応できないという問題点が
あった。このような曲線運動や回転運動等に対応できな
いと受信側で欠落したフレームを正確に再生することが
できない。
However, in such a conventional moving image processing apparatus, since the detection of the motion vector is the interpolation method based on the linear approximation, it is possible to cope with the linear movement of the moving object. Although it is possible, there is a problem that it cannot cope with curvilinear motion such as rotational motion and parabolic motion. If it is not possible to cope with such curvilinear motions and rotary motions, the frame missing on the receiving side cannot be accurately reproduced.

【0007】そこで本発明は、受信側で欠落したフレー
ムを正確に再生することのできる動画像補間装置を提供
することを目的とする。
Therefore, an object of the present invention is to provide a moving picture interpolating device which can accurately reproduce a missing frame on the receiving side.

【0008】[0008]

【課題を解決するための手段】請求項1記載の発明は、
上記目的達成のため、複数のフレーム画像情報と共に各
フレーム間の動き情報からなる動画像情報から各フレー
ム間のフレーム画像を予測補間する動画像補間装置にお
いて、上記各フレーム間の動き情報を非線形近似して上
記各フレーム間のフレーム画像を予測補間するようにし
ている。
The invention according to claim 1 is
In order to achieve the above object, in a moving image interpolating device for predictively interpolating a frame image between each frame from moving image information including a plurality of frame image information and motion information between each frame, the motion information between each frame is nonlinearly approximated. Then, the frame image between each frame is predicted and interpolated.

【0009】請求項2記載の発明は、複数のフレーム画
像情報からなる動画像情報から各フレーム間のフレーム
画像を予測補間する動画像補間装置において、前記各フ
レーム間画像の動き情報を検出し、この動き情報を非線
形近似して上記各フレーム間のフレーム画像を予測補間
するようにしている。
According to a second aspect of the present invention, in a moving image interpolating device for predictively interpolating a frame image between respective frames from moving image information consisting of a plurality of frame image information, motion information of the respective interframe images is detected, The motion information is nonlinearly approximated to predictively interpolate the frame images between the frames.

【0010】前記動き情報は、例えば請求項3に記載さ
れているように、各フレーム間の所定フレーム画像情報
のブロックに対して他のフレーム画像情報のうち最も類
似したブロックに対応する移動量であってもよい。
For example, as described in claim 3, the motion information is a movement amount corresponding to a block of the predetermined frame image information between each frame, which corresponds to the most similar block among other frame image information. It may be.

【0011】前記補間は、例えば請求項4に記載されて
いるように、各フレーム間の時間的距離の比から予測補
間するものであってもよい。
The interpolation may be a predictive interpolation based on a ratio of temporal distances between frames, as described in claim 4, for example.

【0012】[0012]

【作用】請求項1記載の発明では、例えば、テレビ電話
等における低レートの動画像の圧縮に際し、送信側から
フレーム数を間引かれた動画像情報が送信されると、受
信側では動画像情報が復号化されるとともに、間引きさ
れて送られてきたフレームから動きが検出され、その動
きが非直線近似される。そして、近似された曲線上で間
引きされたフレームが再構成される。
According to the first aspect of the present invention, for example, when moving image information with a reduced number of frames is transmitted from the transmitting side when compressing a low-rate moving image in a videophone or the like, the moving image is received at the receiving side. As the information is decoded, the motion is detected from the thinned and transmitted frame, and the motion is nonlinearly approximated. Then, the thinned frames are reconstructed on the approximated curve.

【0013】したがって、曲線運動や回転運動等に対応
することができ、受信側で欠落したフレームを正確に再
生することが可能になる。
Therefore, it is possible to cope with curvilinear motion, rotary motion, etc., and it becomes possible to accurately reproduce the missing frame on the receiving side.

【0014】請求項2、3及び4記載の発明では、動き
検出手段により間引きされて送られてきたフレームから
動きベクトルが検出され、補間手段により検出された動
きベクトルに基づいて動きが非直線近似され、動きを非
直線近似することによって間引きされたフレームが再構
成される。この場合、補間手段は、動き検出手段により
検出された動きベクトルの始点と終点の3点を通る曲線
を求め、内挿すべきフレームと被伝送フレームとの距離
の比から該3点を通る曲線(例えば、2次曲線)上に内
挿すべきフレームのブロックを補間するようにしてもよ
い。
According to the present invention, the motion vector is detected from the frame thinned out by the motion detecting means and sent, and the motion is nonlinearly approximated based on the motion vector detected by the interpolating means. And the decimated frames are reconstructed by non-linearly approximating the motion. In this case, the interpolating means obtains a curve passing through three points of the start point and the end point of the motion vector detected by the motion detecting means, and a curve passing through the three points (from the ratio of the distance between the frame to be interpolated and the transmitted frame). For example, a block of a frame to be interpolated on a quadratic curve may be interpolated.

【0015】したがって、曲線運動や回転運動等に対応
することができ、受信側で欠落したフレームを正確に再
生することが可能になる。
Therefore, it is possible to cope with curvilinear motion, rotary motion, etc., and it becomes possible to accurately reproduce the missing frame on the receiving side.

【0016】[0016]

【実施例】以下、本発明を図面に基づいて説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.

【0017】図1〜図4は本発明に係る動画像補間装置
の一実施例を示す図である。
1 to 4 are views showing an embodiment of a moving image interpolation apparatus according to the present invention.

【0018】先ず、構成を説明する。図1は動画像補間
装置のブロック図であり、この図において、動画像補間
装置は、送信側の符号化器1と受信側の復号器2とから
なる。
First, the structure will be described. FIG. 1 is a block diagram of a moving image interpolating device. In this figure, the moving image interpolating device comprises an encoder 1 on the transmitting side and a decoder 2 on the receiving side.

【0019】図1において、動画像処理装置の符号化器
1は、動き検出部11、フレーム間引き処理部12、加
算器13、DCT演算部14、量子化部15、エントロ
ピー符号化部16、バッファ17及び動きフレーム間予
測部18等により構成される。
In FIG. 1, the encoder 1 of the moving image processing apparatus includes a motion detector 11, a frame thinning processor 12, an adder 13, a DCT calculator 14, a quantizer 15, an entropy encoder 16, and a buffer. 17 and the motion inter-frame prediction unit 18 and the like.

【0020】符号化器1には、図示しない画像メモリか
ら画像データが入力される。画像メモリは、データ圧縮
すべき画像データを記憶して、フレーム間引き処理部1
2に出力する。
Image data is input to the encoder 1 from an image memory (not shown). The image memory stores image data to be compressed, and the frame thinning processing unit 1
Output to 2.

【0021】画像メモリから読み出された画像データ
は、フレーム間引き処理部12に入力され、フレーム間
引き処理部12は、テレビ電話装置等における低レート
の動画像の圧縮に際し送信側で伝送フレーム数を間引く
処理を行なうものである。間引かれたフレームは後述す
る受信側の動画内挿部29によって欠落したフレームが
正確に再生される。
The image data read out from the image memory is input to the frame thinning processing unit 12, and the frame thinning processing unit 12 determines the number of transmission frames at the transmitting side when compressing a low-rate moving image in a video telephone device or the like. The thinning process is performed. As for the thinned frames, the missing frames are accurately reproduced by the moving image interpolating unit 29 on the receiving side, which will be described later.

【0022】フレーム間引き処理部12でフレーム間引
きされた画像データは、加算器13に入力され、加算器
13は、フレーム間引き処理部12でフレーム間引きさ
れた画像データと動きフレーム間予測部18での動き補
償フレーム間予測処理による予測結果を加算して、その
加算結果をDCT演算部14に出力する。
The image data thinned out by the frame thinning processing unit 12 is input to the adder 13, and the adder 13 outputs the image data thinned out by the frame thinning processing unit 12 and the motion inter-frame prediction unit 18. The prediction results of the motion compensation inter-frame prediction process are added, and the addition result is output to the DCT calculation unit 14.

【0023】DCT演算部14は、加算器13による加
算結果の画像データに対してDCT演算を行ない、その
演算結果を量子化部15に出力する。
The DCT calculation unit 14 performs a DCT calculation on the image data of the addition result of the adder 13, and outputs the calculation result to the quantization unit 15.

【0024】量子化部15は、コントローラで決定され
た量子化幅に従ってDCT演算部14による演算データ
を量子化テーブルROMの値に従って一定の誤差の範囲
内で量子化し、動きフレーム間予測部18及びエントロ
ピー符号化部16に出力する。図示しない量子化テーブ
ルROMには、各DCT係数毎に大きさの異なった量子
化マトリックス値を有する量子化テーブルが予め格納さ
れている。
The quantizer 15 quantizes the data calculated by the DCT calculator 14 according to the quantization width determined by the controller within a certain error range according to the value of the quantization table ROM, and the inter-frame predictor 18 and Output to the entropy coding unit 16. A quantization table ROM (not shown) stores in advance a quantization table having quantization matrix values of different sizes for each DCT coefficient.

【0025】エントロピー符号化部16は、エントロピ
ー符号化用テーブルROMの値に従って量子化部15の
出力に対してエントロピー符号化を施し、各ブロックの
発生符号量をデータバッファ17に書き込む。
The entropy coding unit 16 performs entropy coding on the output of the quantization unit 15 according to the value of the entropy coding table ROM, and writes the generated code amount of each block in the data buffer 17.

【0026】エントロピー符号化部16は、この符号化
に際して、各ブロック毎にDCT係数をエネルギの集中
する係数から順にジグザグ・スキャンして1次元配列に
変換し、ブロック内の最後のAC係数が0のときには、
最終有効係数に対する符号の次にEOBを付けている。
At the time of encoding, the entropy encoder 16 zigzag-scans the DCT coefficients for each block in order from the energy-concentrated coefficient to convert the DCT coefficient into a one-dimensional array, and the last AC coefficient in the block is 0. When
EOB is added next to the code for the final effective coefficient.

【0027】また、この画像データと共に動き検出部1
1からの動きベクトルを所定フォーマットにして送出す
る。
Further, the motion detecting section 1 together with this image data
The motion vector from 1 is transmitted in a predetermined format.

【0028】バッファ17は、変動する情報発生を一定
レートに平滑化して、コントローラに出力し、また画像
データを伝送路を通して後述する受信側の復号器2、他
の動画像処理装置に伝送される。
The buffer 17 smoothes the fluctuating information generation to a constant rate, outputs it to the controller, and transmits the image data to the decoder 2 on the receiving side, which will be described later, and other moving image processing apparatus through the transmission path. .

【0029】動き検出部11は、フレーム間引き処理部
12でフレーム間引きされた画像データから動きベクト
ルを求めてエントロピー符号化部16及び後述する予測
器22に出力する。
The motion detection unit 11 obtains a motion vector from the image data thinned out by the frame thinning processing unit 12 and outputs it to the entropy coding unit 16 and a predictor 22 which will be described later.

【0030】動きフレーム間予測部18は、動き検出部
11により検出された動きベクトルを基に周期的なフレ
ーム内符号化フレームを基本とした動き補償予測を行な
うもので、逆量子化部19、IDCT演算部(IDC
T)20、加算器21及び予測器22で構成されてい
る。
The inter-motion frame prediction unit 18 performs motion compensation prediction based on the motion vector detected by the motion detection unit 11 based on a periodic intra-frame coded frame. The inverse quantization unit 19, IDCT operation unit (IDC
T) 20, an adder 21 and a predictor 22.

【0031】逆量子化部19は、量子化部15により量
子化された画像データを逆量子化して、量子化前の画像
データに戻し、IDCT演算部20に出力する。
The inverse quantization unit 19 inversely quantizes the image data quantized by the quantization unit 15, restores the image data before quantization, and outputs it to the IDCT operation unit 20.

【0032】IDCT演算部20は、逆量子化部19に
より量子化前の状態に戻された画像データに対して逆D
CT(IDCT)演算を施し、加算器21に出力する。
The IDCT operation unit 20 performs inverse D on the image data returned to the state before quantization by the inverse quantization unit 19.
It performs a CT (IDCT) operation and outputs it to the adder 21.

【0033】加算器21は、IDCT演算部20により
DCT処理される前の状態に戻された画像データに動き
補償フレーム間処理による予測結果を加算して、予測器
22に出力する。
The adder 21 adds the prediction result of the motion compensation interframe processing to the image data returned to the state before the DCT processing by the IDCT calculation unit 20 and outputs the result to the predictor 22.

【0034】なお、予測器22の入出力段には、スイッ
チ(図示略)が設けられており、コントローラからの画
像モードと予測モードに従って信号経路を切り換える。
例えば、スイッチは、予測モードで、その対応によりオ
ン/オフされて、予測器22を加算器13に接続する。
A switch (not shown) is provided at the input / output stage of the predictor 22 to switch the signal path according to the image mode and the prediction mode from the controller.
For example, the switch is turned on / off in the prediction mode in response to it, connecting the predictor 22 to the adder 13.

【0035】予測器22は、動き検出部11により検出
された動きベクトルにより動き補償予測を行なう。
The predictor 22 performs motion compensation prediction based on the motion vector detected by the motion detector 11.

【0036】ここで、上記符号化器1は、図示しないコ
ントローラによって制御され、コントローラには画像メ
モリからの画像データ、バッファ17からの情報及び差
分値等が入力され、コントローラは、画像モード、予測
モード及び各種制御信号を出力して、システム全体を制
御する。なお、上記動き検出部11はこのコントローラ
の機能の一部として構成するようにしてもよい。
Here, the encoder 1 is controlled by a controller (not shown), image data from the image memory, information and difference values from the buffer 17 are input to the controller, and the controller determines the image mode and prediction. The mode and various control signals are output to control the entire system. The motion detector 11 may be configured as a part of the function of this controller.

【0037】また、本実施例の動画像処理装置は、上記
符号化器1とは逆の動作を行なう復号器2を備えてお
り、バッファ23、エントロピー復号化部24、逆量子
化部25、IDCT演算部26、加算器27、予測器2
8及び動画内挿部29から構成されている。
Further, the moving image processing apparatus of this embodiment is provided with a decoder 2 which performs an operation reverse to that of the encoder 1, and includes a buffer 23, an entropy decoding unit 24, an inverse quantization unit 25, IDCT operation unit 26, adder 27, predictor 2
8 and a moving picture interpolating section 29.

【0038】バッファ23には、上記符号化器1等から
圧縮データが入力され、バッファ23は、変動する情報
発生を一定レートに平滑して、画像データを記憶装置に
出力する。
Compressed data is input to the buffer 23 from the encoder 1 and the like, and the buffer 23 smoothes the fluctuating information generation at a constant rate and outputs the image data to the storage device.

【0039】エントロピー復号化部24は、バッファ2
3から入力される復号化すべき画像データを前記エント
ロピー符号化部16の処理と逆の処理を行なって復号化
し、逆量子化部25に出力するとともに、所定フォーマ
ットから動きベクトルを抽出して出力する。
The entropy decoding unit 24 uses the buffer 2
The image data to be decoded inputted from 3 is decoded by performing a process reverse to the process of the entropy coding unit 16 and output to the dequantization unit 25, and at the same time a motion vector is extracted from a predetermined format and output. .

【0040】逆量子化部25は、決定された量子化幅に
従ってエントロピー復号化部24から出力される画像デ
ータに対して逆量子化し、IDCT演算部26に出力す
る。
The dequantization unit 25 dequantizes the image data output from the entropy decoding unit 24 according to the determined quantization width, and outputs it to the IDCT operation unit 26.

【0041】IDCT演算部26は、逆量子化部25で
逆量子化されたデータに対して逆DCT演算を施し、そ
の演算結果を加算器27に出力する。
The IDCT operation unit 26 performs an inverse DCT operation on the data inversely quantized by the inverse quantization unit 25, and outputs the operation result to the adder 27.

【0042】加算器27は、IDCT演算部26の出力
に予測結果を加算して、予測器28等に出力する。な
お、予測器28の入出力段には、スイッチ(図示略)が
設けられており、符号化器1のスイッチ同様にコントロ
ーラからの画像モードと予測モードに従って信号経路を
切り換える。
The adder 27 adds the prediction result to the output of the IDCT calculator 26 and outputs it to the predictor 28 and the like. A switch (not shown) is provided at the input / output stage of the predictor 28, and like the switch of the encoder 1, the signal path is switched according to the image mode and prediction mode from the controller.

【0043】予測器28は、エントロピー復号化部24
で算出された動きベクトルにより動き補償予測を行な
う。この予測器28における動き補償予測において、後
述する動きベクトルが使用される。
The predictor 28 includes an entropy decoding unit 24.
Motion-compensated prediction is performed using the motion vector calculated in. In the motion compensation prediction in the predictor 28, a motion vector described later is used.

【0044】動画内挿部29は、エントロピー復号化部
24で算出された動きベクトルにより補間フレームの内
挿を行ない、画像出力として外部に出力する。動画内挿
部29は、隣接伝送フレームから求めた動きベクトルか
ら動きを曲線に近似し、隣接伝送フレーム間の距離の比
から内挿すべき補間フレームを再構成する処理を行な
う。
The moving picture interpolating section 29 interpolates the interpolated frame based on the motion vector calculated by the entropy decoding section 24 and outputs it as an image output to the outside. The moving picture interpolation unit 29 approximates the motion to a curve from the motion vector obtained from the adjacent transmission frames, and reconstructs the interpolation frame to be interpolated from the ratio of the distances between the adjacent transmission frames.

【0045】次に、本実施例の動作を説明する。Next, the operation of this embodiment will be described.

【0046】図2〜図4は、本実施例の動画像処理装置
のフレーム内挿動作を説明するための図であり、図2は
被伝送フレームPと被伝送フレームNとの間に補間フレ
ームM1,M2が、被伝送フレームNと被伝送フレームA
との間に補間フレームM3,M4がそれぞれ2枚ある場合
のフレーム内挿方式を示す図である。
2 to 4 are diagrams for explaining the frame interpolation operation of the moving image processing apparatus of this embodiment, and FIG. 2 is an interpolation frame between the transmitted frame P and the transmitted frame N. M1 and M2 are transmitted frame N and transmitted frame A
FIG. 7 is a diagram showing a frame interpolation method when there are two interpolation frames M3 and M4 between and.

【0047】図2中、MVPは被伝送フレームPから被伝
送フレームNへの動きベクトルを、MVNは被伝送フレー
ムNから被伝送フレームAへの動きベクトルを示し、B
P,BN,BA,BMiは各フレーム上のブロックを示す。ま
た、被伝送フレームPと被伝送フレームNとの距離及び
被伝送フレームNと被伝送フレームAとの距離をそれぞ
れ1とし、被伝送フレームPと補間フレームM2との距
離をaとし、被伝送フレームNと補間フレームM3との
距離をsとし、さらに、被伝送フレームPと補間フレー
ムM1との距離をbとし、被伝送フレームNと補間フレ
ームM4との距離をtとする。
In FIG. 2, MVP represents a motion vector from the transmitted frame P to the transmitted frame N, MVN represents a motion vector from the transmitted frame N to the transmitted frame A, and BVN.
P, BN, BA, and BMi indicate blocks on each frame. Further, the distance between the transmitted frame P and the transmitted frame N and the distance between the transmitted frame N and the transmitted frame A are respectively set to 1, and the distance between the transmitted frame P and the interpolation frame M2 is set to a, and the transmitted frame is set. The distance between N and the interpolation frame M3 is s, the distance between the transmitted frame P and the interpolation frame M1 is b, and the distance between the transmitted frame N and the interpolation frame M4 is t.

【0048】図2において、被伝送フレームNのブロッ
クBNに対して隣接被伝送フレームPと被伝送フレーム
Aの間で類似したブロックBP及びBAに基づく動きベク
トルMVP及びMVNとが伝送されてくる。
In FIG. 2, for the block BN of the transmitted frame N, motion vectors MVP and MVN based on similar blocks BP and BA are transmitted between the adjacent transmitted frame P and the transmitted frame A.

【0049】この場合のフレーム内挿処理は次のような
ものである。まず、これらの動きベクトルMVP,MVNの
始点と終点の3点を通る曲線を求め、内挿すべきフレー
ムと被伝送フレームとの距離の比から曲線上にブロック
を補間する。ブロックとしては、図2ではBM1,BM2,
BM3,BM4が相当する。また、補間するブロックは、例
えばBM1,BM2はBPとBNの各画素の平均を画素に持つ
ようなブロックとすればよい。
The frame interpolation process in this case is as follows. First, a curve passing through the three points of the start point and the end point of these motion vectors MVP and MVN is obtained, and a block is interpolated on the curve from the ratio of the distance between the frame to be interpolated and the transmitted frame. As the block, in FIG. 2, BM1, BM2,
BM3 and BM4 correspond. Further, the block to be interpolated may be, for example, a block in which BM1 and BM2 have an average of each pixel of BP and BN as a pixel.

【0050】次に曲線の求め方について説明する。例え
ば水平方向の動きは上から見ると図3に示すようにな
る。そして、図3のように曲線上にブロックを補間する
場合には、動きベクトルMVPとMVNから被伝送フレーム
のブロックBNを原点として図4のように2次元の直交
座標系を設定する。
Next, how to obtain the curve will be described. For example, the horizontal movement is as shown in FIG. 3 when viewed from above. When a block is interpolated on a curve as shown in FIG. 3, a two-dimensional orthogonal coordinate system is set from the motion vectors MVP and MVN with the block BN of the transmitted frame as the origin, as shown in FIG.

【0051】具体的には、それぞれの座標をP(xP,
VP)、M1(xM1,VM1)、M2(xM2,VM2)、M3
(xM3,VM3)、M4(xM4,VM4)、A(xA,VA)
で与えると、A,P,O(原点)を通る曲線を求めれ
ば、xP,xM1〜xM4,xAはフレーム間の距離の比から
既知であり、VPはMVPの水平成分、VAはMVNの水平成
分であるからVM1〜VM4を求めればよいこととなる。
Specifically, each coordinate is represented by P (xP,
VP), M1 (xM1, VM1), M2 (xM2, VM2), M3
(XM3, VM3), M4 (xM4, VM4), A (xA, VA)
If a curve passing through A, P, O (origin) is obtained, xP, xM1 to xM4, xA are known from the ratio of the distances between frames, VP is the horizontal component of MVP, and VA is the horizontal component of MVN. Since it is a component, it is sufficient to obtain VM1 to VM4.

【0052】この曲線は3点を通るものとなるので、2
次曲線として表わされる。例えば、2次曲線をy=ax
2+bx+cなる曲線の式1で表現するとA,P,Oを
通ることからそれぞれを曲線の式1に代入して連立一次
方程式を解き、係数a,b,cを求めれば、VM1,VM
2,VM3,VM4を求めることができる。また、回転運動
を仮定した場合もx2+y2+ax+by+c=0なる式
2から同様にVM1,VM2,VM3,VM4を求めることがで
きる。
Since this curve passes through 3 points, 2
It is represented as a quadratic curve. For example, the quadratic curve is y = ax
If expressed by the equation 1 of the curve 2 + bx + c, it passes through A, P, and O, so that each of them is substituted into the equation 1 of the curve to solve the simultaneous linear equations, and the coefficients a, b, and c are obtained, VM1, VM
2, VM3, VM4 can be obtained. Further, even when the rotational movement is assumed, VM1, VM2, VM3, and VM4 can be obtained in the same manner from the equation 2 in which x2 + y2 + ax + by + c = 0.

【0053】また、垂直方向の動きに対しても同様な方
法により曲線上にその動きを設定できる。
Further, with respect to the movement in the vertical direction, the movement can be set on the curve by a similar method.

【0054】これら水平、垂直成分から補間すべきブロ
ックの位置を決定し、ブロックを補間し内挿フレームを
形成していく。
The position of the block to be interpolated is determined from these horizontal and vertical components, and the block is interpolated to form an interpolated frame.

【0055】以上の一連の動作は、伝送路から送られて
きた情報源を復号化部24で復号化された後の後処理と
して図1の動画内挿部29で行なわれる。
The above series of operations is performed by the moving picture interpolating section 29 of FIG. 1 as post-processing after the information source sent from the transmission path is decoded by the decoding section 24.

【0056】すなわち、図1に示す動き補償DCTによ
る予測符号化方式を用いた例では、送信側の符号化器1
で入力画像をフレーム間引を行なってエントロピー符号
化し、受信側では復号器2によって復号画像を再生す
る。また、符号化器1で画像データと共に符号化され、
復号化に際して復号化された動き情報としての動きベク
トルを用いて(図2におけるMVPとMVNがこれに相当す
る)、上述した方式にしたがって内挿画像を構成し、画
像を出力する。
That is, in the example using the predictive coding method based on the motion-compensated DCT shown in FIG.
The input image is subjected to frame thinning to be entropy coded, and the decoder 2 reproduces the decoded image on the receiving side. Also, it is encoded together with the image data by the encoder 1,
At the time of decoding, the motion vector as the motion information decoded is used (MVP and MVN in FIG. 2 correspond to this) to compose the interpolated image according to the above-described method, and output the image.

【0057】図3における動き補償DCTによる予測符
号化方式を用いた例では、送信側で入力画像を所定の形
式にブロック変換を行ない、これにしたがってフレーム
間/内予測を行ないエントロピー符号化する。受信側で
もブロック変換によって得られたフォーマットに従って
復号化し、出力画像を得る。
In the example using the predictive coding method based on the motion-compensated DCT shown in FIG. 3, the input side is subjected to block conversion into a predetermined format on the transmitting side, and inter-frame / intra-frame prediction is carried out according to the block conversion to perform entropy coding. The receiving side also decodes according to the format obtained by block conversion to obtain an output image.

【0058】以上説明したように、本実施例に係る動画
像処理装置は、フレーム間引きされた画像データから動
きベクトルを求める動き検出部11、送信側で伝送フレ
ーム数を間引く処理を行なうフレーム間引き処理部1
2、加算器13、DCT演算部14、量子化部15、エ
ントロピー符号化部16、バッファ17及び動きフレー
ム間予測部18等からなる符号化器1と、バッファ2
3、エントロピー復号化部24、逆量子化部25、ID
CT演算部26、加算器27、予測器28及び動きベク
トルにより補間フレームの内挿を行ない、画像出力とし
て外部に出力する動画内挿部29等からなる復号器2か
ら構成され、動画内挿部29は、隣接伝送フレームから
求めた動きベクトルから動きを曲線に近似し、隣接伝送
フレーム間の距離の比から内挿すべき補間フレームを再
構成する処理を行なうようにしているので、移動物体の
直線的な動きには対応できることは勿論のこと、曲線運
動や回転運動等に対応でき、受信側で欠落したフレーム
を正確に再生することができる。
As described above, the moving image processing apparatus according to the present embodiment has the motion detecting unit 11 for obtaining a motion vector from the image data subjected to frame thinning, and the frame thinning process for thinning the number of transmission frames on the transmitting side. Part 1
2, an adder 13, a DCT calculator 14, a quantizer 15, an entropy encoder 16, a buffer 17, an inter-motion prediction unit 18, and the like, and an encoder 1 and a buffer 2.
3, entropy decoding unit 24, inverse quantization unit 25, ID
The decoder 2 is composed of a CT calculator 26, an adder 27, a predictor 28, a motion vector interpolation unit 29 that interpolates an interpolation frame by using a motion vector, and outputs the result as an image output to the outside. The reference numeral 29 approximates the motion to a curve from the motion vector obtained from the adjacent transmission frames, and performs the process of reconstructing the interpolation frame to be interpolated from the ratio of the distances between the adjacent transmission frames. Of course, it is possible to cope with a curvilinear motion, a rotational motion and the like, and it is possible to accurately reproduce a missing frame on the receiving side.

【0059】なお、本実施例では、被伝送フレームNと
被伝送フレームAとの間に補間フレームM3,M4がそれ
ぞれ2枚ある場合のフレーム内挿の例であるが、動きを
曲線に近似することによって間引きされたフレームを再
構成するものであれば、いかなるフレーム内挿であって
も適用可能である。また、動きが直線に近似していれば
従来例と同様に動きベクトルを用いた直線による補間を
行なうことは言うまでもない。
Although the present embodiment is an example of frame interpolation when there are two interpolation frames M3 and M4 between the transmitted frame N and the transmitted frame A, the motion is approximated to a curve. Any frame interpolation can be applied as long as it reconstructs the decimated frames. Needless to say, if the motion is approximate to a straight line, the linear interpolation using the motion vector is performed as in the conventional example.

【0060】また、本実施例では、動きベクトルを送信
側から伝送するものについて説明したが、これに限るこ
とはなく、例えば動きベクトルを受信側で検出するもの
であってもよい。この場合、図2で説明すると、被伝送
フレームNのブロックBNに対して隣接被伝送フレーム
Pと被伝送フレームAの間である設定した範囲内で最も
類似したブロックをそれぞれ求める。図2ではブロック
BPとブロックBAがこれに相当する。そして、これらの
ブロックBP,BAに対して移動量が検出される。これら
移動量を図2中の動きベクトルMVP,MVNするものであ
る。
In this embodiment, the case where the motion vector is transmitted from the transmitting side has been described, but the present invention is not limited to this, and the motion vector may be detected at the receiving side, for example. In this case, with reference to FIG. 2, the most similar block within the set range between the adjacent transmitted frame P and the transmitted frame A is obtained for the block BN of the transmitted frame N. In FIG. 2, the block BP and the block BA correspond to this. Then, the movement amount is detected with respect to these blocks BP and BA. These movement amounts are used as the motion vectors MVP and MVN in FIG.

【0061】また、本実施例で示した被伝送フレームと
補間フレームとの関係は一例であり、フレームの数、位
置、動きの方向等は前述した実施例に限られないことは
勿論である。
The relationship between the transmitted frame and the interpolated frame shown in this embodiment is an example, and it goes without saying that the number of frames, the position, the direction of movement, etc. are not limited to those in the above-mentioned embodiments.

【0062】また、本実施例では、動画像補間装置をテ
レビ電話装置等における低レートの動画像の圧縮に適用
したものであるが、受信側で欠落したフレームを正確に
再生する装置であれば全ての装置に適用可能であり、例
えばMPEGアルゴリズムに基づく動画像補間装置に適
用してもよいことは言うまでもない。
Further, in this embodiment, the moving picture interpolating apparatus is applied to the compression of a low rate moving picture in a videophone apparatus or the like, but if it is an apparatus which accurately reproduces a missing frame on the receiving side. It is needless to say that the present invention can be applied to all devices, for example, a moving image interpolation device based on the MPEG algorithm.

【0063】さらに、上記動画像補間装置を構成する回
路や部材の数、種類などは前述した実施例に限られない
ことは言うまでもなく、ソフトウェア(例えば、C言
語)により実現するようにしてもよい。
Further, it goes without saying that the number and types of circuits and members constituting the above moving picture interpolating device are not limited to those in the above-mentioned embodiment, but may be realized by software (for example, C language). .

【0064】[0064]

【発明の効果】請求項1記載の発明によれば、送られて
きた動きを曲線に近似し、動きを曲線に近似することに
よって各フレーム間を再構成するようにしているので、
曲線運動や回転運動等に対応することができ、受信側で
欠落したフレームを正確に再生することが可能になる。
According to the invention as set forth in claim 1, since the sent motion is approximated to a curve and the motion is approximated to the curve, the respective frames are reconstructed.
It is possible to cope with a curvilinear motion, a rotary motion, etc., and it becomes possible to accurately reproduce a missing frame on the receiving side.

【0065】請求項2、3及び4記載の発明によれば、
検出された動きベクトルに基づいて動きを曲線に近似
し、動きを曲線に近似することによって各フレーム間を
再構成するようにしているので、曲線運動や回転運動等
に対応することができ、受信側で欠落したフレームを正
確に再生することが可能になる。
According to the invention described in claims 2, 3 and 4,
Since the motion is approximated to a curve based on the detected motion vector, and the motion is approximated to the curve to reconstruct each frame, it is possible to cope with a curvilinear motion or a rotational motion. It becomes possible to accurately reproduce the frame that is missing on the side.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る動画像補間装置の第1実施例のブ
ロック構成を示す図である。
FIG. 1 is a diagram showing a block configuration of a first embodiment of a moving image interpolation apparatus according to the present invention.

【図2】同実施例の動画像補間装置のフレーム内挿動作
を説明するための図である。
FIG. 2 is a diagram for explaining a frame interpolation operation of the moving image interpolation apparatus of the same embodiment.

【図3】同実施例の動画像補間装置のフレーム内挿動作
を説明するための図である。
FIG. 3 is a diagram for explaining a frame interpolation operation of the moving image interpolation apparatus of the same embodiment.

【図4】同実施例の動画像補間装置のフレーム内挿動作
を説明するための図である。
FIG. 4 is a diagram for explaining a frame interpolation operation of the moving image interpolation apparatus of the same embodiment.

【図5】従来の動画像補間装置のフレーム内挿動作を示
す図である。
FIG. 5 is a diagram showing a frame interpolation operation of a conventional moving image interpolation apparatus.

【符号の説明】[Explanation of symbols]

1 符号化器 2 復号器 11 動き検出部 12 フレーム間引き処理部 13,21,27 加算器 14 DCT演算部 15 量子化部 16 エントロピー符号化部 17,23 バッファ 18 動きフレーム間予測部 19 逆量子化部 20,26 IDCT演算部(IDCT) 22,28 予測器 24 エントロピー復号化部 25 逆量子化部 29 動画内挿部 1 Encoder 2 Decoder 11 Motion Detection Unit 12 Frame Decimation Processing Unit 13, 21, 27 Adder 14 DCT Calculation Unit 15 Quantization Unit 16 Entropy Encoding Unit 17, 23 Buffer 18 Motion Interframe Prediction Unit 19 Inverse Quantization Part 20, 26 IDCT calculation part (IDCT) 22, 28 Predictor 24 Entropy decoding part 25 Inverse quantization part 29 Video interpolation part

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数のフレーム画像情報と共に各フレー
ム間の動き情報からなる動画像情報から各フレーム間の
フレーム画像を予測補間する動画像補間装置において、 上記各フレーム間の動き情報を非線形近似して上記各フ
レーム間のフレーム画像を予測補間することを特徴とす
る動画像補間装置。
1. A moving image interpolating device for predictively interpolating a frame image between respective frames from moving image information comprising motion information between respective frames together with a plurality of frame image information, wherein the motion information between respective frames is nonlinearly approximated. A moving image interpolating device, which predictively interpolates a frame image between the frames.
【請求項2】 複数のフレーム画像情報からなる動画像
情報から各フレーム間のフレーム画像を予測補間する動
画像補間装置において、 前記各フレーム間画像の動き情報を検出し、この動き情
報を非線形近似して上記各フレーム間のフレーム画像を
予測補間することを特徴とする動画像補間装置。
2. A moving image interpolating device for predictively interpolating a frame image between each frame from moving image information consisting of a plurality of frame image information, detecting motion information of each inter-frame image and nonlinearly approximating this motion information. Then, the moving image interpolating device is characterized by predictively interpolating the frame images between the respective frames.
【請求項3】 前記動き情報は、各フレーム間の所定フ
レーム画像情報のブロックに対して他のフレーム画像情
報のうち最も類似したブロックに対応する移動量である
ことを特徴とする請求項1又は請求項2の何れかに記載
の動画像補間装置。
3. The motion information is a movement amount corresponding to a block that is the most similar among other frame image information with respect to a block of predetermined frame image information between each frame. The moving image interpolation apparatus according to claim 2.
【請求項4】 前記補間は、各フレーム間の時間的距離
の比から予測補間することを特徴とする請求項1、請求
項2又は請求項3の何れかに記載の動画像補間装置。
4. The moving image interpolating apparatus according to claim 1, wherein the interpolation is predictive interpolation based on a ratio of temporal distances between frames.
JP34431293A 1993-12-17 1993-12-17 Dynamic image compressor Abandoned JPH07177514A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34431293A JPH07177514A (en) 1993-12-17 1993-12-17 Dynamic image compressor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34431293A JPH07177514A (en) 1993-12-17 1993-12-17 Dynamic image compressor

Publications (1)

Publication Number Publication Date
JPH07177514A true JPH07177514A (en) 1995-07-14

Family

ID=18368272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34431293A Abandoned JPH07177514A (en) 1993-12-17 1993-12-17 Dynamic image compressor

Country Status (1)

Country Link
JP (1) JPH07177514A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6600835B1 (en) 1999-02-10 2003-07-29 Nec Corporation Moving-picture compressing technique
WO2005062623A1 (en) * 2003-12-18 2005-07-07 Nec Corporation Moving image reproducing method, apparatus and program
WO2005076630A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Decoder, encoder, interpolation frame generating system, integrated circuit device, decoding program, and encoding program
JP2007274679A (en) * 2006-03-09 2007-10-18 Sony Corp Frame rate conversion system, frame rate conversion method, transmitter, receiver equipment
JP2008177834A (en) * 2007-01-18 2008-07-31 Nippon Hoso Kyokai <Nhk> Coding device, and program
JP2010062957A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency Device and method for processing moving image
JP2010062953A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency Device, method and program for converting frame rate
JP2010062955A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency System for converting video signal
US8204104B2 (en) 2006-03-09 2012-06-19 Sony Corporation Frame rate conversion system, method of converting frame rate, transmitter, and receiver

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6600835B1 (en) 1999-02-10 2003-07-29 Nec Corporation Moving-picture compressing technique
WO2005062623A1 (en) * 2003-12-18 2005-07-07 Nec Corporation Moving image reproducing method, apparatus and program
WO2005076630A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Decoder, encoder, interpolation frame generating system, integrated circuit device, decoding program, and encoding program
US8160143B2 (en) 2004-02-03 2012-04-17 Panasonic Corporation Decoding device, encoding device, interpolation frame creating system, integrated circuit device, decoding program, and encoding program
JP2007274679A (en) * 2006-03-09 2007-10-18 Sony Corp Frame rate conversion system, frame rate conversion method, transmitter, receiver equipment
US8204104B2 (en) 2006-03-09 2012-06-19 Sony Corporation Frame rate conversion system, method of converting frame rate, transmitter, and receiver
JP2008177834A (en) * 2007-01-18 2008-07-31 Nippon Hoso Kyokai <Nhk> Coding device, and program
JP4628374B2 (en) * 2007-01-18 2011-02-09 日本放送協会 Encoding device and program
JP2010062957A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency Device and method for processing moving image
JP2010062953A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency Device, method and program for converting frame rate
JP2010062955A (en) * 2008-09-04 2010-03-18 Japan Science & Technology Agency System for converting video signal

Similar Documents

Publication Publication Date Title
JPH0537915A (en) Method and device for coding image signal
JPH05137131A (en) Inter-frame motion predicting method
JP2001204026A (en) Image information converter and method
JP2006279573A (en) Encoder and encoding method, and decoder and decoding method
JPH1093966A (en) Picture encoding device
JP2900998B2 (en) Block interpolation predictive encoding apparatus, decoding apparatus, encoding method and decoding method
JP3348612B2 (en) Inter-block prediction coding device, inter-block prediction decoding device, inter-block prediction coding method, inter-block prediction decoding method, and inter-block prediction coding / decoding device
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
JPH11168731A (en) Motion vector detection method and system for executing the method
KR970078653A (en) Image decoding apparatus and method and image reproducing apparatus
JPH07177514A (en) Dynamic image compressor
KR100202538B1 (en) Mpeg video codec
KR20050085730A (en) Elastic storage
JPH10136381A (en) Moving image encoding/decoding device and method therefor
WO1995001053A1 (en) Image processor
KR100203281B1 (en) Moving picture decorder based on forced one-direction motion compensation
JPH08154250A (en) Moving image coder
JPH0332185A (en) Moving picture coder and moving picture decoder
KR0181067B1 (en) Moving picture encoder of having compatibility
JPH10126794A (en) Compressor for image signal between motion prediction frames
JP4326758B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
JPH06105299A (en) Dynamic image compressor
JP3186406B2 (en) Image synthesis coding method and image synthesis apparatus
JPH11136683A (en) Video signal coder
JP2004140676A (en) Signal processor, and its method and its program

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20040625