JP2919211B2 - Video frame interpolation method and coding / decoding method - Google Patents

Video frame interpolation method and coding / decoding method

Info

Publication number
JP2919211B2
JP2919211B2 JP34502692A JP34502692A JP2919211B2 JP 2919211 B2 JP2919211 B2 JP 2919211B2 JP 34502692 A JP34502692 A JP 34502692A JP 34502692 A JP34502692 A JP 34502692A JP 2919211 B2 JP2919211 B2 JP 2919211B2
Authority
JP
Japan
Prior art keywords
image
frame
interpolation
motion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP34502692A
Other languages
Japanese (ja)
Other versions
JPH06197331A (en
Inventor
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP34502692A priority Critical patent/JP2919211B2/en
Publication of JPH06197331A publication Critical patent/JPH06197331A/en
Application granted granted Critical
Publication of JP2919211B2 publication Critical patent/JP2919211B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は動画像フレーム内挿方法
および装置、特に複数の被写体領域の近傍でも歪の少な
い内挿画像を合成できる動画像のフレーム内挿方法およ
び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image frame interpolation method and apparatus, and more particularly to a moving image frame interpolation method and apparatus capable of synthesizing an interpolation image with little distortion even in the vicinity of a plurality of subject areas.

【0002】本発明は、また、フレーム内挿を用いた動
画像の符号化復号化方法および装置に関するものであ
る。
[0002] The present invention also relates to a method and an apparatus for encoding and decoding moving images using frame interpolation.

【0003】[0003]

【従来の技術】従来の動画像のフレーム内挿方式では、
内挿フレームをあらかじめ定めた大きさのブロックに分
割し、ブロック単位で動きベクトルや参照画像の選択情
報などの付加情報を検出して符号化し、復号化側では前
記付加情報を用い、復号化された2フレームの参照画像
から内挿画像を合成することが一般的であった。一例と
して、ISO−IEC/JTC1 SC29で国際標準
化が進められている動画像符号化復号化方式(ISO−
IEC DIS 11172)では、符号化側で内挿フ
レームを16画素16ラインのブロックに分割し、各ブ
ロック毎に前後2フレームの参照画像に対する動きベク
トルの検出を行い、さらに前記2フレームの参照画像の
うち何れを内挿処理に用いるかの判定を行い、それらの
結果を符号化する。復号化側ではまず参照画像となる2
フレームの画像を復号化し、次に内挿フレームのブロッ
ク単位に参照画像から動き補償フレーム内挿データを読
み出して内挿画像を合成する。また合成された内挿画像
の原画像に対する差分が大きい場合には、前記差分デー
タを符号化復号化することもできる。
2. Description of the Related Art In a conventional video frame interpolation method,
The interpolation frame is divided into blocks of a predetermined size, additional information such as motion vector and reference image selection information is detected and encoded in block units, and the decoding side uses the additional information to perform decoding. It has been general to synthesize an interpolated image from the reference images of the two frames. As an example, a moving picture encoding / decoding system (ISO-IEC / JTC1 SC29) whose international standardization is being advanced.
In the IEC DIS 11172), the interpolation frame is divided into blocks of 16 pixels and 16 lines on the encoding side, motion vectors are detected for each of the two preceding and succeeding frames of the reference image for each block, and the reference image of the two frames is further detected. It is determined which of them is used for the interpolation processing, and the result is encoded. On the decoding side, first, a reference image 2
The image of the frame is decoded, and then the interpolation data of the motion-compensated frame is read from the reference image for each block of the interpolation frame to synthesize the interpolated image. If the difference between the synthesized interpolated image and the original image is large, the difference data can be encoded and decoded.

【0004】[0004]

【発明が解決しようとする課題】従来の動画像フレーム
内挿方式では、内挿フレームを画像の内容に関係なくあ
らかじめ定めた大きさのブロックに分割し、ブロック単
位で参照画像から動き補償フレーム内挿データを読み出
して内挿画像を合成するため、フレーム内での動きの変
化に対してブロック単位でしか対応できず、内挿画像に
歪が生じ易いという問題点があった。特に動きが大きく
異なる2つ以上の被写体領域にまたがったブロックで
は、せいぜい1つの被写体領域の動きのみしか正確に補
償できないので、複数領域の境界付近では大きな歪を発
生していた。また合成した内挿画像と原画像との差分デ
ータを符号化復号化する場合にも、前記理由で内挿画像
に多くの歪があり、符号化すべき差分情報が十分に削減
できず、符号化効率を圧迫するなどの問題点があった。
In the conventional moving picture frame interpolation method, the interpolation frame is divided into blocks of a predetermined size regardless of the content of the image, and the motion compensation frame is inserted from the reference image in block units. Since the interpolated image is synthesized by reading the interpolated data, there is a problem that a change in motion in a frame can be dealt with only in block units, and the interpolated image is easily distorted. In particular, in a block that straddles two or more subject areas having greatly different motions, only at most one subject area can be accurately compensated for, and a large distortion is generated near the boundary between a plurality of areas. Also, when encoding and decoding the difference data between the synthesized interpolated image and the original image, the interpolated image has many distortions for the above-described reason, and the difference information to be encoded cannot be sufficiently reduced. There were problems such as pressure on efficiency.

【0005】本発明の目的は、画素毎に動き補償フレー
ム内挿方法を切り替えることで、複数の被写体領域の近
傍でも歪の少ない内挿画像を合成できる動画像のフレー
ム内挿方法および装置を提供することにある。
An object of the present invention is to provide a moving picture frame interpolation method and apparatus capable of synthesizing an interpolation image with little distortion even in the vicinity of a plurality of subject areas by switching the motion compensation frame interpolation method for each pixel. Is to do.

【0006】本発明の他の目的は、フレーム内挿を用い
た動画像の符号化復号化方法および装置を提供すること
にある。
It is another object of the present invention to provide a method and apparatus for encoding and decoding a moving image using frame interpolation.

【0007】[0007]

【課題を解決するための手段】本発明は、動画像の2フ
レームの画像を参照画像とし、前記参照画像の時間的に
間の位置にあるフレームを内挿画像として合成する動画
像のフレーム内挿方法において、 前記参照画像のフレ
ーム間での動き情報を前記参照画像から検出し、 前記検出された動き情報を用いて前記参照画像を動きの
異なる被写体領域毎に分割し、分割された領域の境界を
記述するエッジ情報を検出し、 前記動き情報と前記エッジ情報とを用いて内挿画像を合
成するための動きベクトルと前記参照画像の2フレーム
の何れを内挿処理に用いるかを記述する内挿制御情報と
の両方を画素毎に検出し、 画素毎に検出された情報を用いて、前記参照画像から動
き補償フレーム内挿処理により内挿画像を合成すること
を特徴とする。
According to the present invention, there is provided a moving picture frame in which two frames of a moving picture are used as a reference picture, and a frame at a position between the reference pictures in time is interpolated. In the insertion method, motion information between frames of the reference image is detected from the reference image, and the reference image is divided into subject regions having different motions using the detected motion information. Edge information describing a boundary is detected, and a motion vector for synthesizing an interpolated image using the motion information and the edge information and which of the two frames of the reference image is used for the interpolation process is described. It is characterized in that both the interpolation control information and the interpolation control information are detected for each pixel, and an interpolation image is synthesized from the reference image by a motion compensation frame interpolation process using the information detected for each pixel.

【0008】また本発明は、フレーム内挿を用いた動画
像の符号化復号化方法において、入力動画像から時間的
に連続した画像フレーム間での動き情報を検出し、前記
動き情報のフレーム間時間軸方向の変動を測定し、前記
変動量に応じて間引きフレームを決定し、フレーム間引
き制御情報として出力し、入力動画像から前記フレーム
間引き制御情報で指定されたフレームの画像のみを間引
き、それ以外の画像を符号化し、前記符号化された画像
を復号化し、前記復号化された復号画像の時間的に隣合
う2フレームを参照画像とし、前記参照画像の時間的に
間に位置するフレームの画像を動き補償フレーム内挿処
理により合成することを特徴とする。
The present invention also relates to a method for encoding and decoding a moving image using frame interpolation, comprising detecting motion information between temporally consecutive image frames from an input moving image,
Measure the fluctuation of the motion information in the time axis direction between frames, and
Determine a thinned frame according to the amount of fluctuation , output as frame thinning control information, thin out only the image of the frame specified by the frame thinning control information from the input video, encode the other images, The decoded image is decoded, and two frames temporally adjacent to the decoded image are used as reference images, and images of frames located temporally between the reference images are synthesized by motion compensation frame interpolation. It is characterized by doing.

【0009】[0009]

【実施例】本発明の動画像フレームの内挿方法および装
置の実施例を図1を用いて説明する。図1は、本発明の
動画像のフレーム内挿方法を実現する装置の一実施例の
ブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a moving picture frame interpolation method and apparatus according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram of an embodiment of an apparatus for realizing a method for interpolating a moving image frame according to the present invention.

【0010】このフレーム内挿装置は、参照画像のフレ
ーム間での動き情報を参照画像から検出する動き検出回
路11と、検出された動き情報を用いて参照画像を動き
の異なる被写体領域毎に分割し、分割された領域の境界
を記述するエッジ情報を検出する領域検出回路12と、
動き情報とエッジ情報とを用いて内挿画像を合成するた
めの動きベクトルと参照画像の2フレームの何れを内挿
処理に用いるかを記述する内挿制御情報との両方を画素
毎に検出する動き補償制御回路13と、動き補償制御回
路13から供給された情報を用いて、参照画像から動き
補償フレーム内挿処理により内挿画像を合成する動き補
償内挿回路14とから構成されている。
This frame interpolation device includes a motion detection circuit 11 for detecting motion information between frames of the reference image from the reference image, and divides the reference image into object regions having different motions using the detected motion information. A region detection circuit 12 for detecting edge information describing a boundary of the divided region;
Both a motion vector for synthesizing an interpolated image using the motion information and the edge information and interpolation control information describing which of the two frames of the reference image are used for the interpolation process are detected for each pixel. It comprises a motion compensation control circuit 13 and a motion compensation interpolation circuit 14 for synthesizing an interpolated image from a reference image by a motion compensation frame interpolation process using information supplied from the motion compensation control circuit 13.

【0011】本実施例の動作を説明する。まず動き検出
回路11で2フレームの参照画像101,102から参
照画像間の動き情報103を検出し出力する。動き情報
検出方法の一例として、ブロックマッチング法を用いる
ことができる。この場合には動き情報103として、あ
らかじめ定めた大きさのブロック毎の動きベクトルが検
出される。
The operation of the embodiment will be described. First, the motion detection circuit 11 detects and outputs motion information 103 between the reference images from the two frames of reference images 101 and 102. As an example of the motion information detection method, a block matching method can be used. In this case, a motion vector for each block having a predetermined size is detected as the motion information 103.

【0012】領域検出回路12では検出された参照画像
間の動き情報103を用いて参照画像101,102そ
れぞれを動きの異なる被写体毎に領域分割し、領域境界
線をエッジ情報104,105として出力する。領域検
出の一例として、まず参照画像101,102にフレー
ム内2次元ハイパスフィルタなどのエッジ検出処理を行
い様々なエッジを検出し、参照画像のフレーム内で動き
が変化している部分に重なるエッジを抽出して、動きの
異なる領域境界線を示すエッジ情報104,105とし
て出力する。ここで動き情報103が代表点毎に検出さ
れた動きベクトルの場合には、隣接する動きベクトル間
の差分があらかじめ定めたしきい値よりも大きければ、
該当する代表点の間の部分を動きに変化のある部分と判
定する。なお図1では動き情報103とエッジ情報10
4,105とを参照画像101,102から検出した
が、動き情報103とエッジ情報104,105の少な
くとも一方が、符号化側であらかじめ検出され符号化情
報として供給されている場合には、それらを用いてもよ
い。
The area detection circuit 12 divides each of the reference images 101 and 102 into objects having different motions using the detected motion information 103 between the reference images, and outputs area boundaries as edge information 104 and 105. . As an example of the area detection, first, edge detection processing such as a two-dimensional high-pass filter in a frame is performed on the reference images 101 and 102 to detect various edges, and an edge overlapping a portion in the reference image frame where motion is changing is detected. It is extracted and output as edge information 104 and 105 indicating the area boundaries of different motions. Here, when the motion information 103 is a motion vector detected for each representative point, if the difference between adjacent motion vectors is larger than a predetermined threshold,
A portion between the corresponding representative points is determined as a portion having a change in motion. In FIG. 1, the motion information 103 and the edge information 10
Are detected from the reference images 101 and 102. If at least one of the motion information 103 and the edge information 104 and 105 is detected in advance on the encoding side and supplied as encoded information, the May be used.

【0013】動き補償制御回路13ではエッジ情報10
4,105と参照画像間の動き情報103とを用いて、
動き補償フレーム内挿を実行するために必要な動きベク
トル106を画素毎に計算して出力する。また2フレー
ムの参照画像101,102の何れを動き補償フレーム
内挿に用いるかを選択する内挿制御情報107を同様に
画素毎に出力する。
In the motion compensation control circuit 13, the edge information 10
4, 105 and the motion information 103 between the reference images,
A motion vector 106 required to execute motion compensation frame interpolation is calculated and output for each pixel. Also, interpolation control information 107 for selecting which of the two frames of the reference images 101 and 102 is used for the motion compensation frame interpolation is similarly output for each pixel.

【0014】動き補償内挿回路14では、動き補償制御
回路13が出力した情報を用いて、内挿フレームの画素
毎に参照画像101,102の少なくとも一方から参照
データを読み出す。これを内挿フレームの全画素に対し
て実行して内挿画像108を合成する。ここで一方の参
照画像のみから参照データを読み出した場合には、読み
出した値をそのまま内挿画像の画素の値とする。また両
方の参照画像から読み出した場合には、読み出した2つ
の値の平均値かあるいはフレーム間距離を考慮した重み
付け平均値を内挿画像の画素の値とする。
The motion compensation interpolation circuit 14 uses the information output from the motion compensation control circuit 13 to read reference data from at least one of the reference images 101 and 102 for each pixel of the interpolation frame. This is performed on all the pixels of the interpolation frame to synthesize the interpolation image 108. Here, when the reference data is read from only one of the reference images, the read value is directly used as the pixel value of the interpolated image. When reading is performed from both reference images, the average value of the two read values or the weighted average value in consideration of the inter-frame distance is used as the pixel value of the interpolated image.

【0015】本発明によるフレーム内挿の概念を図2を
用いて説明する。図2の動画像は静止した背景部分Bと
左上方向に移動する被写体領域Aで構成されている。内
挿画像は、参照画像間の動きベクトルを内分して動き補
償フレーム内挿位置を求め、参照画像から読み出した画
素の値を代入することで合成できるが、動きの異なる背
景部分Bと領域Aとでは異なる処理が必要である。また
被写体の動きに伴い、画像の一部分が見え隠れすること
も考慮する必要がある。図2において内挿画像上の被写
体領域A1と背景領域B2は、両参照画像上で表示され
ているので、何れの参照画像から動き補償フレーム内挿
を行ってもよい。これに対して、領域B3は被写体の移
動に伴い新たに表示されたアンカバード部分で、参照画
像Efでは表示されていない画像部分なので、時間的に
後の参照画像Fbから読み出される参照データのみをフ
レーム内挿に用いる。逆に、領域B4は被写体の移動に
伴い隠れるカバード部分で、参照画像Fbでは表示され
ない画像部分なので、時間的に前の参照画像Ffから読
み出される参照データのみをフレーム内挿に用いる。
The concept of frame interpolation according to the present invention will be described with reference to FIG. The moving image in FIG. 2 includes a stationary background portion B and a subject region A moving in the upper left direction. An interpolated image can be synthesized by internally dividing a motion vector between reference images to obtain a motion-compensated frame interpolation position, and substituting pixel values read from the reference image. A requires different processing from A. It is also necessary to consider that a part of the image appears and disappears as the subject moves. In FIG. 2, since the subject area A1 and the background area B2 on the interpolated image are displayed on both reference images, the motion compensation frame interpolation may be performed from either reference image. On the other hand, the region B3 is an uncovered portion newly displayed in accordance with the movement of the subject, and is an image portion not displayed in the reference image Ef. Therefore, only the reference data read out from the temporally later reference image Fb is stored. Used for frame interpolation. Conversely, the region B4 is a covered portion that is hidden with the movement of the subject and is an image portion that is not displayed in the reference image Fb. Therefore, only the reference data read from the temporally previous reference image Ff is used for frame interpolation.

【0016】図2に示した内挿画像上でのカバード・ア
ンカバード判定を含めたフレーム内挿処理の適応制御は
図1の動き補償制御回路13で実行される。その手順を
図3を用いて説明する。なお図3では説明の簡略化のた
めに、1つの被写体が一方向に動く場合を仮定して1次
元上で説明を行う。図3はnフレーム隔てた2フレーム
の参照画像Ff,Fbから内挿画像Fiを合成する場合
を示しており、内挿画像Fiは参照画像Ffから時間方
向にmフレーム離れた位置にある。図1の動き補償制御
回路13では、エッジ情報104,105によりFb上
のエッジ点Eb1,Eb2とそれぞれに対応するFf上
のデータ点Ef1,Ef2が判っている。また動き情報
103によりFb上の代表点Pb,Qb,Rb,Sbそ
れぞれのFf上の動き補償位置Pf,Qf,Rf,Sf
が判っている。まず2フレームの参照画像間で対応する
エッジ点と代表点との位置をフレーム間隔を考慮して内
分し、内挿画像上でのエッジ点Ei1,Ei2と代表点
Pi,Qi,Ri,Siとを得る。参照画像Ff,Fb
と内挿画像Fiはこれらエッジ点により各々3つの領域
(Df1,Df2,Df3),(Db1,Db2,Db
3),(Di1,Di2,Di3)に領域分割される。
分割した領域は3フレーム間で(Dfj→Dij→Db
j)のように同一インデックス領域どうしが対応してお
り、Dijを内挿する場合の参照データはDfj,Db
jのみから読み出す。また内挿画像Fi上の代表点P
i,Qi,Ri,Siの動きベクトルは、参照画像Fb
上の対応する代表点の動きベクトルを内分して求める。
具体的には、代表点Qbの動きベクトルがvq ならば、
Qiの動きベクトルは参照画像Ffに対しての
The adaptive control of the frame interpolation process including the covered / uncovered judgment on the interpolated image shown in FIG. 2 is executed by the motion compensation control circuit 13 in FIG. The procedure will be described with reference to FIG. Note that in FIG. 3, for simplification of the description, the description will be made on one dimension assuming that one subject moves in one direction. FIG. 3 shows a case where an interpolated image Fi is synthesized from two frames of reference images Ff and Fb separated by n frames, and the interpolated image Fi is located m frames away from the reference image Ff in the time direction. The motion compensation control circuit 13 in FIG. 1 knows the edge points Eb1 and Eb2 on Fb and the corresponding data points Ef1 and Ef2 on Ff from the edge information 104 and 105. Also, the motion compensation positions Pf, Qf, Rf, and Sf on the representative points Pb, Qb, Rb, and Sb on the Fb based on the motion information 103, respectively.
I know. First, the positions of the corresponding edge points and the representative points between the reference images of two frames are internally divided in consideration of the frame interval, and the edge points Ei1 and Ei2 and the representative points Pi, Qi, Ri, and Si on the interpolated image. And get Reference images Ff, Fb
And the interpolated image Fi are respectively divided into three areas (Df1, Df2, Df3), (Db1, Db2, Db) by these edge points.
3), (Di1, Di2, Di3).
The divided area is (Dfj → Dij → Db) between three frames.
j), the same index areas correspond to each other, and the reference data when Dij is interpolated are Dfj, Db
Read only from j. Also, the representative point P on the interpolated image Fi
The motion vectors of i, Qi, Ri, and Si are represented by the reference image Fb.
The motion vector of the above corresponding representative point is internally divided and obtained.
Specifically, if the motion vector of the representative point Qb is v q ,
The motion vector of Qi is

【0017】[0017]

【数1】 (Equation 1)

【0018】と、参照画像Fbに対してのAnd the reference image Fb

【0019】[0019]

【数2】 (Equation 2)

【0020】との2つの値が求められる。次に、内挿画
像Fi上の全ての画素点の動きベクトルを、2つの代表
点の動きベクトルから内挿・外挿計算により求める。こ
の計算は注目する画素の隣接2代表点が同一領域にある
か否かにより計算方法が異なる。Qi,Riは同一領域
Di2にあるので、QiとRiの間の画素点の動きベク
トルはQiとRiのそれぞれの動きベクトルから線形内
挿して求める。またRiとSiはそれぞれ異なる領域上
にある代表点なので、この間の画素点の動きベクトルは
何れか一方の代表点から外挿した値とする。簡単な具体
例としてRiとEi2の間の各画素点の動きベクトルは
代表点Riの動きベクトルの値をそのまま代入し、Ei
2とSiの間の各画素点では代表点Siの動きベクトル
の値をそのまま代入する。最後に、フレーム内挿に2フ
レームの何れの参照画像を用いるかを、前記計算で求め
た動きベクトルから画素毎に決定する。例えば領域Di
2内の内挿画素点TiではFf,Fb何れの参照画像に
対しても動き補償フレーム間参照位置Tf,Tbが同一
インデックスを付けた領域Df2,Db2上にあるの
で、両方あるいは何れか一方の参照画像から読み出した
データをTiの内挿に用いてもよい。これに対して領域
Di3の内挿画素点Uiでは、参照画像Fb上の動き補
償フレーム間参照位置Ubは同一インデックスの領域D
b3内にあるが、参照画像Ff上の参照位置Ufは異な
るインデックスの領域Df2上にある。異なるインデッ
クスの領域間のデータ参照は読めないので、内挿画素点
Uiへは参照画像Fbから読み出したデータのみをフレ
ーム内挿に用いる。以上の処理を内挿画像Fiの全画素
点で実行し、図1における動きベクトル106と内挿制
御情報107とを得る。なお図3では説明の簡略化のた
めに1次元上で説明したが、2次元の広がりをもつ画像
上でも同様な処理が実行できる。一般に2次元画像上で
は任意の内挿画素点Ziに4点の近傍代表点(Pi1,
Pi2,Pi3,Pi4)が与えられ、これら4点のう
ちZiと同一領域内にある代表点の動きベクトルから内
挿・外挿計算を行い、内挿画素点Ziの動きベクトルを
求める。
The following two values are obtained. Next, the motion vectors of all the pixel points on the interpolated image Fi are obtained by interpolation / extrapolation calculation from the motion vectors of the two representative points. This calculation differs depending on whether or not two representative points adjacent to the pixel of interest are in the same area. Since Qi and Ri are in the same area Di2, the motion vector of the pixel point between Qi and Ri is obtained by linear interpolation from the respective motion vectors of Qi and Ri. Since Ri and Si are representative points on different areas, the motion vector of the pixel point between them is a value extrapolated from one of the representative points. As a simple concrete example, the value of the motion vector of the representative point Ri is directly substituted for the motion vector of each pixel point between Ri and Ei2.
At each pixel point between 2 and Si, the value of the motion vector of the representative point Si is substituted as it is. Finally, which of the two frames of the reference image is used for the frame interpolation is determined for each pixel from the motion vector obtained by the above calculation. For example, the area Di
2 at the interpolation pixel point Ti, the reference positions Tf and Tb between the motion compensation frames are on the regions Df2 and Db2 with the same index for both the reference images Ff and Fb. Data read from the reference image may be used for interpolation of Ti. On the other hand, at the interpolation pixel point Ui in the region Di3, the motion-compensated inter-frame reference position Ub on the reference image Fb is the region D having the same index.
Although it is within b3, the reference position Uf on the reference image Ff is on a region Df2 of a different index. Since data reference between regions with different indexes cannot be read, only data read from the reference image Fb is used for frame interpolation for the interpolation pixel point Ui. The above processing is performed on all pixel points of the interpolated image Fi to obtain the motion vector 106 and the interpolation control information 107 in FIG. Note that in FIG. 3, the description has been made on one dimension for simplicity, but the same processing can be performed on an image having a two-dimensional spread. Generally, on a two-dimensional image, four nearby representative points (Pi1,
Pi2, Pi3, Pi4) are given, and interpolation / extrapolation calculation is performed from the motion vector of the representative point in the same area as Zi among these four points to obtain the motion vector of the interpolated pixel point Zi.

【0021】次に、本発明の動画像のフレーム内挿符号
化復号化方法および装置の実施例を図4を用いて説明す
る。図4は本発明の動画像のフレーム内挿符号化復号化
方法を実現する装置の一実施例のブロック図である。
Next, an embodiment of a method and an apparatus for frame interpolation coding / decoding of a moving image according to the present invention will be described with reference to FIG. FIG. 4 is a block diagram of an embodiment of an apparatus for realizing the method of frame interpolation encoding / decoding of a moving image according to the present invention.

【0022】このフレーム内挿符号化復号化装置は、入
力動画像から時間的に連続した画像フレーム間での動き
情報を検出する動き検出回路21と、検出された動き情
報を用いて間引きフレームを決定し、フレーム間引き制
御情報として出力するフレーム間引き制御回路22と、
入力動画像からフレーム間引き制御情報で指定されたフ
レームの画像のみを間引き、それ以外の画像を符号化す
る符号化回路23と、符号化された画像を復号化する復
号化回路24と、復号化された復号画像を保持するメモ
リ25と、復号画像の時間的に隣合う2フレームを参照
画像とし、参照画像の時間的に間に位置するフレームの
画像を動き補償フレーム内挿処理により合成するフレー
ム内挿回路26と、参照画像と内挿画像とを正しい表示
順序に並べ変えて出力する再生画像として出力する表示
順序変換回路27とから、構成されている。
This frame interpolation coding / decoding apparatus includes a motion detecting circuit 21 for detecting motion information between temporally continuous image frames from an input moving image, and a thinning frame using the detected motion information. A frame thinning control circuit 22 for determining and outputting as frame thinning control information;
An encoding circuit 23 for thinning out only the image of the frame specified by the frame thinning control information from the input moving image and encoding the other images, a decoding circuit 24 for decoding the encoded image, and a decoding circuit A memory 25 for holding the decoded image obtained, and a frame for combining two temporally adjacent frames of the decoded image as reference images and synthesizing an image of a frame located temporally between the reference images by motion compensation frame interpolation processing It comprises an interpolation circuit 26 and a display order conversion circuit 27 for rearranging the reference image and the interpolation image in a correct display order and outputting the reproduced image as a reproduced image.

【0023】本実施例の動作を説明する。まず動き検出
回路21で入力動画像201から動きの異なる被写体領
域毎にフレーム間での動きを検出し、領域動き情報20
2として出力する。フレーム間引き制御回路22では領
域動き情報202を利用して領域単位での動きの変動を
解析し、何れの領域でも動きに変動が無いフレームを判
定し、このフレームを間引くことを示すフレーム間引き
情報203を出力する。符号化回路23ではフレーム間
引き情報203を参照し、フレーム間引きを行いながら
入力動画像201を符号化する。一方、復号化側では、
復号化回路24において符号化データ204を復号画像
205に復号化しメモリ25に保持する。また復号化回
路24は、符号化回路23で符号化された画像のフレー
ム間動き情報やフレーム内エッジ情報が併せて符号化供
給されている場合には、これらを復号化し復号画像20
5の付加情報としてメモリ25に保持する。フレーム内
挿回路26ではメモリ25に保持された2フレームの復
号画像を参照画像206,207として読み出し、内挿
画像208を合成する。ここで付加情報がメモリ25か
ら読み出される場合には、付加情報を参照して内挿処理
を実行する。一方、付加情報が供給されていない場合に
は、フレーム内挿回路26の内部で参照画像206,2
07からフレーム内挿に必要な情報を検出してから内挿
画像を合成する。表示順序変換回路27は、参照画像2
06,207と内挿画像208とを正しい表示順序に並
べ変えて再生画像209として出力する。
The operation of this embodiment will be described. First, the motion detection circuit 21 detects a motion between frames for each subject region having a different motion from the input moving image 201 and obtains the region motion information 20.
Output as 2. The frame thinning control circuit 22 analyzes the fluctuation of the motion in units of area using the area motion information 202, determines a frame in which the motion does not change in any area, and displays frame thinning information 203 indicating that this frame is thinned. Is output. The encoding circuit 23 refers to the frame thinning information 203 and encodes the input moving image 201 while performing frame thinning. On the other hand, on the decoding side,
The decoding circuit 24 decodes the encoded data 204 into a decoded image 205 and stores it in the memory 25. When the inter-frame motion information and the intra-frame edge information of the image encoded by the encoding circuit 23 are also encoded and supplied together, the decoding circuit 24 decodes these and decodes the decoded image 20.
5 is stored in the memory 25 as additional information. The frame interpolation circuit 26 reads the decoded images of the two frames held in the memory 25 as reference images 206 and 207, and synthesizes an interpolation image 208. Here, when the additional information is read from the memory 25, the interpolation processing is executed with reference to the additional information. On the other hand, when the additional information is not supplied, the reference images 206 and 2 are stored inside the frame interpolation circuit 26.
07, information necessary for frame interpolation is detected, and then an interpolated image is synthesized. The display order conversion circuit 27 outputs the reference image 2
06 and 207 and the interpolated image 208 are rearranged in a correct display order and output as a reproduced image 209.

【0024】本発明におけるフレーム間引き処理の一例
を図5を用いて説明する。図5では説明の簡略化のため
に1つの被写体領域が一方向に移動している場合を仮定
して、1次元上で説明する。図5で被写体領域Cは第1
フレームから第Fmフレームまでの期間では緩やかな一
定速度で移動し、第Fmフレームから第Fnフレームま
では速い一定速度となり、第Fnフレーム以降は再び緩
やかな一定速度で動いている。すなわち領域Cの動きは
第Fm,Fnフレームのみで変化しており、その他のフ
レーム期間は動きが一様で変動は無い。具体的な動き変
動の検出方法の一例としては、第Fm−1,Fmフレー
ム間の動きベクトルと第Fm,Fm+1フレーム間の動
きベクトルの差分が、あらかじめ定めたしきい値よりも
大きければ第Fmフレームで動きに変動があったと判定
する。また第Fmフレームを境とする前後数フレーム期
間での動きの変動を1次関数で近似した場合に、第Fm
フレームを境にして前記1次勾配の大きさがあらかじめ
定めたしきい値以上変化しているならば、第Fmフレー
ムを動きの変化点と判定してもよい。図4のフレーム間
引き制御回路22では、前記判定結果をもとに第Fm,
Fn以外のフレームを間引くことを決定する。ただし図
5の場合には領域Cの動きが全フレーム期間で零ではな
いので、動画像シーケンスの第1フレームと最終フレー
ムは間引かないことにする。図5と異なり第1から第F
mまでのフレーム期間で画像に全く動きが無い場合など
は、第1フレームを間引いてもよい。同様のことは最終
フレームに関しても成り立つ。図5では動きのある領域
は唯一としたが、複数の動きの異なる被写体領域が存在
する場合には、全ての領域で動きに変動が無い場合にフ
レーム間引きを実行する。
An example of the frame thinning process according to the present invention will be described with reference to FIG. In FIG. 5, for simplification of the description, a case where one subject region is moving in one direction is described on one dimension. In FIG. 5, the subject area C is the first
During the period from the frame to the Fm-th frame, it moves at a slow constant speed, from the Fm-th frame to the Fn-th frame has a fast constant speed, and after the Fn-th frame, it moves again at a slow constant speed. That is, the movement of the area C changes only in the Fm and Fn frames, and in other frame periods, the movement is uniform and does not change. As an example of a specific method of detecting a motion change, the difference between the motion vector between the Fm-1 and Fm-th frames and the motion vector between the Fm and Fm + 1-th frames is larger than the predetermined threshold value. It is determined that the movement has changed in the frame. In addition, when the fluctuation of the motion in several frames before and after the Fm-th frame is approximated by a linear function, the Fm-th
If the magnitude of the primary gradient changes by a predetermined threshold value or more from the frame, the Fm-th frame may be determined as the change point of the motion. In the frame thinning control circuit 22 of FIG.
It is determined that frames other than Fn are to be thinned out. However, in the case of FIG. 5, since the movement of the area C is not zero in the entire frame period, the first frame and the last frame of the moving image sequence are not thinned out. Different from FIG. 5, the first to F-th
For example, when there is no motion in the image in a frame period up to m, the first frame may be skipped. The same holds for the last frame. In FIG. 5, there is only one moving area, but when there are a plurality of subject areas having different movements, frame thinning is executed when there is no change in the movement in all the areas.

【0025】[0025]

【発明の効果】以上説明したように本発明では、復号化
された2フレームの参照画像から内挿画像を合成するに
おいて、参照画像上で動きの異なる被写体領域を検出
し、動き補償フレーム内挿に用いる動きベクトルと実際
に動き補償フレーム内挿に用いる参照データとを画素毎
に決定するので、複数の被写体領域の境界近傍まで歪の
少ない内挿画像を合成することが可能である。また本発
明では、復号化側で動き補償フレーム内挿が可能な画像
フレームのみをあらかじめ符号化側で判定してからフレ
ーム間引き符号化を行うので、復号化側での内挿画像の
劣化を抑えつつ符号量を削減するのに効果がある。
As described above, according to the present invention, in synthesizing an interpolated image from a decoded two-frame reference image, an object region having a different motion is detected on the reference image, and the motion compensated frame interpolation is performed. And the reference data actually used for motion compensation frame interpolation are determined for each pixel, so that it is possible to synthesize an interpolated image with little distortion up to the vicinity of the boundary between a plurality of subject regions. Further, in the present invention, since only the image frames for which motion-compensation frame interpolation can be performed on the decoding side are determined in advance on the encoding side and then the frame thinning-out coding is performed, degradation of the interpolated image on the decoding side is suppressed. This is effective in reducing the amount of codes while reducing the number of codes.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の動画像のフレーム内挿装置の実施例の
基本ブロック図である。
FIG. 1 is a basic block diagram of an embodiment of a moving picture frame interpolation apparatus according to the present invention.

【図2】動きの異なる複数の被写体領域がある場合に、
領域毎にフレーム内挿で参照する画像が異なることを説
明する図である。
FIG. 2 shows a case where there are a plurality of subject areas having different movements.
FIG. 7 is a diagram illustrating that an image referred to in frame interpolation differs for each region.

【図3】動きの異なる複数の被写体領域がある場合に、
内挿画像の画素毎に動きベクトルと参照画像の選択を決
定する手順を説明する図である。
FIG. 3 shows a case where there are a plurality of subject areas having different movements.
FIG. 7 is a diagram illustrating a procedure for determining selection of a motion vector and a reference image for each pixel of an interpolation image.

【図4】本発明の動画像の符号化復号化装置の実施例の
基本ブロック図である。
FIG. 4 is a basic block diagram of a moving image encoding / decoding apparatus according to an embodiment of the present invention.

【図5】動きの異なる複数の被写体領域がある場合に、
フレーム間引きの対象となる画像フレームを決定する手
順を説明する図である。
FIG. 5 shows a case where there are a plurality of subject areas having different movements.
FIG. 7 is a diagram illustrating a procedure for determining an image frame to be subjected to frame thinning.

【符号の説明】[Explanation of symbols]

11,21 動き検出回路 12 領域検出回路 13 動き補償制御回路 14 動き補償内挿回路 22 フレーム間引き制御回路 23 符号化回路 24 復号化回路 25 メモリ 26 フレーム内挿回路 27 表示順序変換回路 101,102,206,207 参照画像 103 動き情報 104,105 エッジ情報 106 動きベクトル 107 内挿制御情報 108,208 内挿画像 201 入力動画像 202 領域動き情報 203 フレーム間引き制御情報 204 符号化データ 205 復号画像 209 再生画像 11, 21 motion detection circuit 12 area detection circuit 13 motion compensation control circuit 14 motion compensation interpolation circuit 22 frame thinning control circuit 23 encoding circuit 24 decoding circuit 25 memory 26 frame interpolation circuit 27 display order conversion circuit 101, 102, 206, 207 Reference image 103 Motion information 104, 105 Edge information 106 Motion vector 107 Interpolation control information 108, 208 Interpolated image 201 Input moving image 202 Area motion information 203 Frame thinning control information 204 Encoded data 205 Decoded image 209 Reproduction image

フロントページの続き (56)参考文献 特開 昭62−108687(JP,A) 特公 昭56−2829(JP,B2) PROCEEDINGS OF TH E IEEE,VOL73〔4〕1985 P.523−548(V.MOTION−AD APTIVEFRAME INTERP OLATION (P.542−545)); (58)調査した分野(Int.Cl.6,DB名) H04N 7/137 H04N 7/12 H03M 7/30 Continuation of the front page (56) References JP-A-62-108687 (JP, A) JP-B-56-2829 (JP, B2) PROCEEDINGS OF THE IEEE, VOL 73 [4] 1985 523-548 (V. MOTION-AD APTIVE FRAME INTERPOLATION (P. 542-545)); (58) Fields investigated (Int. Cl. 6 , DB name) H04N 7/137 H04N 7/12 H03M 7/30

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 動画像の2フレームの画像を参照画像と
し、前記参照画像の時間的に間の位置にあるフレームを
内挿画像として合成する動画像のフレーム内挿方法にお
いて、前記参照画像のフレーム間での動き情報を前記参
照画像から検出し、前記検出された動き情報を用いて前
記参照画像を動きの異なる被写体領域毎に分割し、分割
された領域の境界を記述するエッジ情報を検出し、前記
動き情報と前記エッジ情報とを用いて内挿画像を合成す
るための動きベクトルと前記参照画像の2フレームの何
れを内挿処理に用いるかを記述する内挿制御情報との両
方を画素毎に検出し、画素毎に検出された情報を用い
て、前記参照画像から動き補償フレーム内挿処理により
内挿画像を合成することを特徴とする動画像のフレーム
内挿方法。
1. A frame interpolation method for a moving image in which two frames of a moving image are used as a reference image and a frame at a position between the reference images in time is synthesized as an interpolation image. Detecting motion information between frames from the reference image, dividing the reference image into subject regions having different motions using the detected motion information, and detecting edge information describing boundaries of the divided regions. Then, both the motion vector for synthesizing the interpolated image using the motion information and the edge information and the interpolation control information that describes which of the two frames of the reference image is used for the interpolation process. A frame interpolation method for a moving image, wherein an interpolation image is synthesized by a motion compensation frame interpolation process from the reference image using information detected for each pixel and information detected for each pixel.
【請求項2】 動画像の2フレームの画像を参照画像と
し、前記参照画像の時間的に間の位置にあるフレームを
内挿画像として合成する動画像のフレーム内挿装置にお
いて、前記参照画像のフレーム間での動き情報を前記参
照画像から検出する手段と、前記検出された動き情報を
用いて前記参照画像を動きの異なる被写体領域毎に分割
し、分割された領域の境界を記述するエッジ情報を検出
する手段と、前記動き情報と前記エッジ情報とを用いて
内挿画像を合成するための動きベクトルと前記参照画像
の2フレームの何れを内挿処理に用いるかを記述する内
挿制御情報との両方を画素毎に検出する動き補償制御手
段と、前記動き補償制御手段から供給された情報を用い
て、前記参照画像から動き補償フレーム内挿処理により
内挿画像を合成する手段とを備えることを特徴とする動
画像のフレーム内挿装置。
2. A moving image frame interpolation device for combining two frames of a moving image as a reference image and synthesizing a frame at a position between the reference images with respect to time as an interpolation image. Means for detecting motion information between frames from the reference image, and edge information for dividing the reference image into object regions having different motions using the detected motion information, and describing boundaries of the divided regions. And a motion vector for synthesizing an interpolated image using the motion information and the edge information, and interpolation control information describing which of the two frames of the reference image is used for the interpolation process. Using the information supplied from the motion compensation control means for detecting both of the above for each pixel, and synthesizing an interpolated image from the reference image by motion compensation frame interpolation processing. Means for interpolating a frame of a moving image.
【請求項3】 フレーム内挿を用いた動画像の符号化復
号化方法において、入力動画像から時間的に連続した画
像フレーム間での動き情報を検出し、前記動き情報のフ
レーム間時間軸方向の変動が一様なフレームを間引きフ
レームと決定し、フレーム間引き制御情報として出力
し、入力動画像から前記フレーム間引き制御情報で指定
されたフレームの画像のみを間引き、それ以外の画像を
符号化し、前記符号化された画像を復号化し、前記復号
化された復号画像の時間的に隣り合う2フレームを参照
画像とし、前記参照画像の時間的に間に位置するフレー
ムの画像を動き補償フレーム内挿処理により合成するこ
とを特徴とする動画像の符号化復号化方法。
3. A moving picture encoding / decoding method using frame interpolation, wherein motion information between temporally consecutive image frames is detected from an input moving picture, and a motion of the motion information is detected.
Frames with uniform fluctuation in the time axis between frames
Determined as a frame, output as frame thinning control information, thinning out only the image of the frame specified by the frame thinning control information from the input video, encoding the other images, decoding the encoded image And using two frames temporally adjacent to each other in the decoded image as a reference image, and synthesizing an image of a frame positioned temporally between the reference images by a motion compensation frame interpolation process. A coding and decoding method for a moving image.
【請求項4】 フレーム内挿を用いた動画像の符号化復
号化装置において、入力動画像から時間的に連続した画
像フレーム間での動き情報を検出する動き検出手段と、
前記動き情報のフレーム時間軸方向の変動が一様なフレ
ームを間引きフレームと決定し、フレーム間引き制御情
報として出力する手段と、入力動画像から前記フレーム
間引き制御情報で指定されたフレームの画像のみを間引
き、それ以外の画像を符号化する手段と、前記符号化さ
れた画像を復号化する手段と、前記復号化された復号画
像の時間的に隣り合う2フレームを参照画像とし、前記
参照画像の時間的に間に位置するフレームの画像を動き
補償フレーム内挿処理により合成する手段とを備えたこ
とを特徴とする動画像の符号化復号化装置。
4. An apparatus for encoding and decoding a moving image using frame interpolation, comprising: a motion detecting means for detecting motion information between temporally consecutive image frames from an input moving image;
A frame in which the fluctuation of the motion information in the frame
Means determines that the frame thinning over arm, and means for outputting a frame thinning control information, which thinned out from the input moving image only the image of the frame specified by the frame thinning control information, to encode the other image, Means for decoding the encoded image, and using two frames temporally adjacent to the decoded image as a reference image, and motion-compensating an image of a frame located in time between the reference images. A coding / decoding device for a moving image, comprising: means for synthesizing by a frame interpolation process.
JP34502692A 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method Expired - Lifetime JP2919211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34502692A JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34502692A JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Publications (2)

Publication Number Publication Date
JPH06197331A JPH06197331A (en) 1994-07-15
JP2919211B2 true JP2919211B2 (en) 1999-07-12

Family

ID=18373787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34502692A Expired - Lifetime JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Country Status (1)

Country Link
JP (1) JP2919211B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007504700A (en) * 2003-09-02 2007-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Temporal interpolation of pixels based on occlusion detection
WO2012169096A1 (en) * 2011-06-08 2012-12-13 パナソニック株式会社 Image display device and image processing device
JP2018137638A (en) * 2017-02-22 2018-08-30 キヤノン株式会社 Image processing device, image processing method, and program

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6275532B1 (en) 1995-03-18 2001-08-14 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
JP3426092B2 (en) 1996-09-12 2003-07-14 シャープ株式会社 Motion compensated inter-frame prediction method in video coding device
JP4909592B2 (en) * 2003-12-18 2012-04-04 日本電気株式会社 Moving picture reproduction method, apparatus, and program
JP5188033B2 (en) * 2006-04-24 2013-04-24 株式会社日立製作所 Recording / reproducing apparatus, sending apparatus and transmission system.
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation
JP2007110748A (en) * 2006-12-18 2007-04-26 Mitsubishi Electric Corp Motion compensation prediction method, video signal decoding method and video signal decoding apparatus
JP4991360B2 (en) * 2007-03-27 2012-08-01 三洋電機株式会社 Frame rate conversion device and video display device
JP4930409B2 (en) * 2008-02-21 2012-05-16 富士通株式会社 Image coding apparatus, image coding method, and image coding program
JP2009253581A (en) * 2008-04-04 2009-10-29 Fujifilm Corp Image processing apparatus, image processing method, and program
JP5115345B2 (en) * 2008-06-11 2013-01-09 ソニー株式会社 Storage / reproduction device, storage device, and storage / reproduction method
WO2020194957A1 (en) * 2019-03-25 2020-10-01 株式会社ソニー・インタラクティブエンタテインメント Image transmission/reception system, image transmission device, image reception device, image transmission/reception method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS562829A (en) * 1979-06-19 1981-01-13 Toray Eng Co Ltd Removing method of hydrogen chloride from waste gas
JPS62108687A (en) * 1985-11-06 1987-05-19 Fujitsu Ltd Picture signal encoding parameter control system
JP2588925B2 (en) * 1988-03-11 1997-03-12 富士通株式会社 Variable bit rate image coding device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PROCEEDINGS OF THE IEEE,VOL73〔4〕1985 P.523−548(V.MOTION−ADAPTIVEFRAME INTERPOLATION (P.542−545));

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007504700A (en) * 2003-09-02 2007-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Temporal interpolation of pixels based on occlusion detection
WO2012169096A1 (en) * 2011-06-08 2012-12-13 パナソニック株式会社 Image display device and image processing device
JP2018137638A (en) * 2017-02-22 2018-08-30 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JPH06197331A (en) 1994-07-15

Similar Documents

Publication Publication Date Title
EP1057341B1 (en) Motion vector extrapolation for transcoding video sequences
US5973755A (en) Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
JP2919211B2 (en) Video frame interpolation method and coding / decoding method
JP4472986B2 (en) Motion estimation and / or compensation
JP4843753B2 (en) Three-dimensional image generation method and apparatus
US20030133020A1 (en) Apparatus and method for generating mosaic images
US20060109904A1 (en) Decoding apparatus and program for executing decoding method on computer
JP2003501902A (en) Video signal encoding
US6351545B1 (en) Motion picture enhancing system
JP2002290876A (en) Method for presenting motion image sequences
KR20060135667A (en) Image format conversion
JP3764488B2 (en) Image encoding and decoding method and apparatus
JP3055152B2 (en) Method and apparatus for encoding / decoding moving image signal
WO2000011612A1 (en) Methods and apparatus for reducing the amount of buffer memory required for decoding mpeg data and for performing scan conversion
JPH1070679A (en) Frame interpolation method for film mode compatibility
JP3700230B2 (en) Motion compensation method in video coding
JP3441120B2 (en) Video frame playback method
JP3115866B2 (en) Image encoding device and image decoding device
EP0648046B1 (en) Method and apparatus for motion compensated interpolation of intermediate fields or frames
JPH0787493A (en) Frame interpolation method
JP5686316B2 (en) Color moving image motion estimation method and color moving image motion estimation device
JP3228332B2 (en) Scan conversion method
JP2695244B2 (en) Image signal coding apparatus, image signal decoding apparatus, image signal coding method, and image signal decoding method
WO2001045036A1 (en) Slow motion system
JPH0715654A (en) Still picture synthesis method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19960402