JPH06197331A - Frame interpolation system for animation picture - Google Patents

Frame interpolation system for animation picture

Info

Publication number
JPH06197331A
JPH06197331A JP34502692A JP34502692A JPH06197331A JP H06197331 A JPH06197331 A JP H06197331A JP 34502692 A JP34502692 A JP 34502692A JP 34502692 A JP34502692 A JP 34502692A JP H06197331 A JPH06197331 A JP H06197331A
Authority
JP
Japan
Prior art keywords
image
frame
motion
information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP34502692A
Other languages
Japanese (ja)
Other versions
JP2919211B2 (en
Inventor
Yoshihiro Miyamoto
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP34502692A priority Critical patent/JP2919211B2/en
Publication of JPH06197331A publication Critical patent/JPH06197331A/en
Application granted granted Critical
Publication of JP2919211B2 publication Critical patent/JP2919211B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To improve the picture quality of a decoded reproduction picture and to realize the effective utilization of an entire code quantity by improving the efficiency of frame interpolation in a high efficiency coding/decoding of the animation picture employing frame interpolation. CONSTITUTION:A motion detection circuit 11 detects motion information 103 between frames of two frame reference pictures 101, 102. An area detection circuit 12 utilizes motion information 103 to divide the reference pictures 101, 102 for each of object areas of different motion and detects respective area border line as edge information sets 104, 105. A motion compensation control circuit 13 utilizes detected information sets 103, 104, 105 to detect a motion vector 106 and interpolation control information 107 for each picture element of the interpolation frame. A motion compensation interpolation circuit 14 controls the motion compensation frame interpolation processing for each pixel based on the detected information sets 106, 107 and synthesizes an interpolated picture 108 from the two frame reference pictures 101, 102.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は動画像フレーム内挿方法
および装置、特に複数の被写体領域の近傍でも歪の少な
い内挿画像を合成できる動画像のフレーム内挿方法およ
び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture frame interpolating method and apparatus, and more particularly to a moving picture frame interpolating method and apparatus capable of synthesizing interpolated images with little distortion even in the vicinity of a plurality of subject areas.

【0002】本発明は、また、フレーム内挿を用いた動
画像の符号化復号化方法および装置に関するものであ
る。
The present invention also relates to a moving picture coding / decoding method and apparatus using frame interpolation.

【0003】[0003]

【従来の技術】従来の動画像のフレーム内挿方式では、
内挿フレームをあらかじめ定めた大きさのブロックに分
割し、ブロック単位で動きベクトルや参照画像の選択情
報などの付加情報を検出して符号化し、復号化側では前
記付加情報を用い、復号化された2フレームの参照画像
から内挿画像を合成することが一般的であった。一例と
して、ISO−IEC/JTC1 SC29で国際標準
化が進められている動画像符号化復号化方式(ISO−
IEC DIS 11172)では、符号化側で内挿フ
レームを16画素16ラインのブロックに分割し、各ブ
ロック毎に前後2フレームの参照画像に対する動きベク
トルの検出を行い、さらに前記2フレームの参照画像の
うち何れを内挿処理に用いるかの判定を行い、それらの
結果を符号化する。復号化側ではまず参照画像となる2
フレームの画像を復号化し、次に内挿フレームのブロッ
ク単位に参照画像から動き補償フレーム内挿データを読
み出して内挿画像を合成する。また合成された内挿画像
の原画像に対する差分が大きい場合には、前記差分デー
タを符号化復号化することもできる。
2. Description of the Related Art In the conventional frame interpolation method for moving images,
The interpolated frame is divided into blocks of a predetermined size, additional information such as motion vector and reference image selection information is detected and coded in block units, and the decoding side uses the additional information to perform decoding. It was common to synthesize an interpolated image from two frames of reference images. As an example, a moving image encoding / decoding method (ISO-ISO / IEC / JTC1 SC29) whose international standardization is being advanced.
In IEC DIS 11172), an interpolating frame is divided into blocks of 16 pixels and 16 lines on the encoding side, a motion vector is detected for reference images of two frames before and after for each block, and further, a reference image of the reference images of the two frames is detected. It is determined which of them is used for the interpolation processing, and the results are encoded. At the decoding side, it becomes the reference image first 2
The image of the frame is decoded, and then the motion compensated frame interpolation data is read from the reference image for each block of the interpolated frame to synthesize the interpolated image. When the difference between the synthesized interpolated image and the original image is large, the difference data can be coded and decoded.

【0004】[0004]

【発明が解決しようとする課題】従来の動画像フレーム
内挿方式では、内挿フレームを画像の内容に関係なくあ
らかじめ定めた大きさのブロックに分割し、ブロック単
位で参照画像から動き補償フレーム内挿データを読み出
して内挿画像を合成するため、フレーム内での動きの変
化に対してブロック単位でしか対応できず、内挿画像に
歪が生じ易いという問題点があった。特に動きが大きく
異なる2つ以上の被写体領域にまたがったブロックで
は、せいぜい1つの被写体領域の動きのみしか正確に補
償できないので、複数領域の境界付近では大きな歪を発
生していた。また合成した内挿画像と原画像との差分デ
ータを符号化復号化する場合にも、前記理由で内挿画像
に多くの歪があり、符号化すべき差分情報が十分に削減
できず、符号化効率を圧迫するなどの問題点があった。
In the conventional moving image frame interpolation method, the interpolation frame is divided into blocks of a predetermined size regardless of the contents of the image, and the reference image is inserted into the motion compensation frame in block units. Since the interpolated image is read out and the interpolated image is synthesized, there is a problem in that the interpolated image is likely to be distorted because the interpolated image is combined only with a change in the movement within the frame. In particular, in a block that spans two or more subject regions that greatly differ in motion, at most, only the motion of one subject region can be accurately compensated, so that a large distortion occurs near the boundary of a plurality of regions. Further, when the difference data between the synthesized interpolated image and the original image is encoded and decoded, the interpolated image has a lot of distortion for the above reason, and the difference information to be encoded cannot be sufficiently reduced. There were problems such as pressure on efficiency.

【0005】本発明の目的は、画素毎に動き補償フレー
ム内挿方法を切り替えることで、複数の被写体領域の近
傍でも歪の少ない内挿画像を合成できる動画像のフレー
ム内挿方法および装置を提供することにある。
An object of the present invention is to provide a moving image frame interpolation method and apparatus capable of synthesizing an interpolated image with little distortion even in the vicinity of a plurality of subject areas by switching the motion compensation frame interpolation method for each pixel. To do.

【0006】本発明の他の目的は、フレーム内挿を用い
た動画像の符号化復号化方法および装置を提供すること
にある。
Another object of the present invention is to provide a moving picture coding / decoding method and apparatus using frame interpolation.

【0007】[0007]

【課題を解決するための手段】本発明は、動画像の2フ
レームの画像を参照画像とし、前記参照画像の時間的に
間の位置にあるフレームを内挿画像として合成する動画
像のフレーム内挿方法において、 前記参照画像のフレ
ーム間での動き情報を前記参照画像から検出し、 前記検出された動き情報を用いて前記参照画像を動きの
異なる被写体領域毎に分割し、分割された領域の境界を
記述するエッジ情報を検出し、 前記動き情報と前記エッジ情報とを用いて内挿画像を合
成するための動きベクトルと前記参照画像の2フレーム
の何れを内挿処理に用いるかを記述する内挿制御情報と
の両方を画素毎に検出し、 画素毎に検出された情報を用いて、前記参照画像から動
き補償フレーム内挿処理により内挿画像を合成すること
を特徴とする。
SUMMARY OF THE INVENTION According to the present invention, two frames of a moving image are used as reference images, and frames at positions temporally between the reference images are combined as interpolated images. In the insertion method, motion information between frames of the reference image is detected from the reference image, the reference image is divided for each subject region having different motion using the detected motion information, and the divided regions are Edge information describing a boundary is detected, and which of the two frames of the reference image and the motion vector for combining the interpolated image using the motion information and the edge information is described for the interpolation processing. Both of the interpolation control information are detected for each pixel, and the information detected for each pixel is used to synthesize an interpolated image from the reference image by motion compensation frame interpolation processing.

【0008】また本発明は、フレーム内挿を用いた動画
像の符号化復号化方法において、 入力動画像から時間的に連続した画像フレーム間での動
き情報を検出し、 前記検出された動き情報を用いて間引きフレームを決定
し、フレーム間引き制御情報として出力し、 入力動画像から前記フレーム間引き制御情報で指定され
たフレームの画像のみを間引き、それ以外の画像を符号
化し、 前記符号化された画像を復号化し、 前記復号化された復号画像の時間的に隣合う2フレーム
を参照画像とし、前記参照画像の時間的に間に位置する
フレームの画像を動き補償フレーム内挿処理により合成
することを特徴とする。
Further, according to the present invention, in a moving picture coding / decoding method using frame interpolation, motion information between temporally consecutive image frames is detected from an input moving picture, and the detected motion information is detected. Determine the thinning-out frame using, output as frame thinning-out control information, thin out only the image of the frame specified by the frame thinning-out control information from the input moving image, encode the other images, and encode the Decoding an image, using two frames temporally adjacent to the decoded image as reference images, and synthesizing images of frames positioned temporally between the reference images by motion compensation frame interpolation processing. Is characterized by.

【0009】[0009]

【実施例】本発明の動画像フレームの内挿方法および装
置の実施例を図1を用いて説明する。図1は、本発明の
動画像のフレーム内挿方法を実現する装置の一実施例の
ブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a moving image frame interpolation method and apparatus according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram of an embodiment of an apparatus for realizing a moving picture frame interpolation method of the present invention.

【0010】このフレーム内挿装置は、参照画像のフレ
ーム間での動き情報を参照画像から検出する動き検出回
路11と、検出された動き情報を用いて参照画像を動き
の異なる被写体領域毎に分割し、分割された領域の境界
を記述するエッジ情報を検出する領域検出回路12と、
動き情報とエッジ情報とを用いて内挿画像を合成するた
めの動きベクトルと参照画像の2フレームの何れを内挿
処理に用いるかを記述する内挿制御情報との両方を画素
毎に検出する動き補償制御回路13と、動き補償制御回
路13から供給された情報を用いて、参照画像から動き
補償フレーム内挿処理により内挿画像を合成する動き補
償内挿回路14とから構成されている。
This frame interpolating device divides a reference image into object regions having different motions by using a motion detection circuit 11 for detecting motion information between frames of a reference image from the reference image and the detected motion information. And an area detection circuit 12 that detects edge information that describes the boundaries of the divided areas,
For each pixel, both a motion vector for synthesizing an interpolated image using motion information and edge information and interpolation control information describing which of two frames of a reference image is to be used for interpolation processing are detected. It is composed of a motion compensation control circuit 13 and a motion compensation interpolation circuit 14 which synthesizes an interpolated image from a reference image by a motion compensation frame interpolation process using information supplied from the motion compensation control circuit 13.

【0011】本実施例の動作を説明する。まず動き検出
回路11で2フレームの参照画像101,102から参
照画像間の動き情報103を検出し出力する。動き情報
検出方法の一例として、ブロックマッチング法を用いる
ことができる。この場合には動き情報103として、あ
らかじめ定めた大きさのブロック毎の動きベクトルが検
出される。
The operation of this embodiment will be described. First, the motion detection circuit 11 detects and outputs the motion information 103 between the reference images from the reference images 101 and 102 of the two frames. A block matching method can be used as an example of the motion information detection method. In this case, a motion vector for each block having a predetermined size is detected as the motion information 103.

【0012】領域検出回路12では検出された参照画像
間の動き情報103を用いて参照画像101,102そ
れぞれを動きの異なる被写体毎に領域分割し、領域境界
線をエッジ情報104,105として出力する。領域検
出の一例として、まず参照画像101,102にフレー
ム内2次元ハイパスフィルタなどのエッジ検出処理を行
い様々なエッジを検出し、参照画像のフレーム内で動き
が変化している部分に重なるエッジを抽出して、動きの
異なる領域境界線を示すエッジ情報104,105とし
て出力する。ここで動き情報103が代表点毎に検出さ
れた動きベクトルの場合には、隣接する動きベクトル間
の差分があらかじめ定めたしきい値よりも大きければ、
該当する代表点の間の部分を動きに変化のある部分と判
定する。なお図1では動き情報103とエッジ情報10
4,105とを参照画像101,102から検出した
が、動き情報103とエッジ情報104,105の少な
くとも一方が、符号化側であらかじめ検出され符号化情
報として供給されている場合には、それらを用いてもよ
い。
The area detection circuit 12 uses the detected movement information 103 between the reference images to divide the reference images 101 and 102 into areas for each subject having different movements, and outputs the area boundaries as edge information 104 and 105. . As an example of area detection, first, the reference images 101 and 102 are subjected to edge detection processing such as an intra-frame two-dimensional high-pass filter to detect various edges, and edges that overlap with portions of the reference image in which the movement is changed are detected. It is extracted and output as edge information 104 and 105 indicating area boundary lines with different movements. Here, when the motion information 103 is a motion vector detected for each representative point, if the difference between adjacent motion vectors is larger than a predetermined threshold value,
The part between the corresponding representative points is determined to be a part having a change in motion. In FIG. 1, the motion information 103 and the edge information 10
4 and 105 are detected from the reference images 101 and 102, but if at least one of the motion information 103 and the edge information 104 and 105 is detected in advance by the encoding side and is supplied as encoded information, these are detected. You may use.

【0013】動き補償制御回路13ではエッジ情報10
4,105と参照画像間の動き情報103とを用いて、
動き補償フレーム内挿を実行するために必要な動きベク
トル106を画素毎に計算して出力する。また2フレー
ムの参照画像101,102の何れを動き補償フレーム
内挿に用いるかを選択する内挿制御情報107を同様に
画素毎に出力する。
In the motion compensation control circuit 13, the edge information 10
4, 105 and the motion information 103 between the reference images,
The motion vector 106 necessary for executing the motion compensation frame interpolation is calculated for each pixel and output. Also, interpolation control information 107 for selecting which of the reference images 101 and 102 of the two frames is to be used for motion compensation frame interpolation is similarly output for each pixel.

【0014】動き補償内挿回路14では、動き補償制御
回路13が出力した情報を用いて、内挿フレームの画素
毎に参照画像101,102の少なくとも一方から参照
データを読み出す。これを内挿フレームの全画素に対し
て実行して内挿画像108を合成する。ここで一方の参
照画像のみから参照データを読み出した場合には、読み
出した値をそのまま内挿画像の画素の値とする。また両
方の参照画像から読み出した場合には、読み出した2つ
の値の平均値かあるいはフレーム間距離を考慮した重み
付け平均値を内挿画像の画素の値とする。
The motion compensation interpolation circuit 14 uses the information output from the motion compensation control circuit 13 to read out reference data from at least one of the reference images 101 and 102 for each pixel of the interpolation frame. This is executed for all the pixels of the interpolated frame to synthesize the interpolated image 108. Here, when the reference data is read from only one of the reference images, the read value is directly used as the pixel value of the interpolated image. In the case of reading from both reference images, the average value of the two read values or the weighted average value considering the inter-frame distance is used as the pixel value of the interpolated image.

【0015】本発明によるフレーム内挿の概念を図2を
用いて説明する。図2の動画像は静止した背景部分Bと
左上方向に移動する被写体領域Aで構成されている。内
挿画像は、参照画像間の動きベクトルを内分して動き補
償フレーム内挿位置を求め、参照画像から読み出した画
素の値を代入することで合成できるが、動きの異なる背
景部分Bと領域Aとでは異なる処理が必要である。また
被写体の動きに伴い、画像の一部分が見え隠れすること
も考慮する必要がある。図2において内挿画像上の被写
体領域A1と背景領域B2は、両参照画像上で表示され
ているので、何れの参照画像から動き補償フレーム内挿
を行ってもよい。これに対して、領域B3は被写体の移
動に伴い新たに表示されたアンカバード部分で、参照画
像Efでは表示されていない画像部分なので、時間的に
後の参照画像Fbから読み出される参照データのみをフ
レーム内挿に用いる。逆に、領域B4は被写体の移動に
伴い隠れるカバード部分で、参照画像Fbでは表示され
ない画像部分なので、時間的に前の参照画像Ffから読
み出される参照データのみをフレーム内挿に用いる。
The concept of frame interpolation according to the present invention will be described with reference to FIG. The moving image in FIG. 2 is composed of a stationary background portion B and a subject area A moving in the upper left direction. The interpolated image can be synthesized by internally dividing the motion vector between the reference images to obtain the motion compensation frame interpolated position, and substituting the pixel values read from the reference image, but the background part B and the region having different motions can be combined. Different processing is required for A. It is also necessary to consider that a part of the image appears and disappears as the subject moves. In FIG. 2, since the subject area A1 and the background area B2 on the interpolated image are displayed on both reference images, the motion compensation frame interpolation may be performed from any of the reference images. On the other hand, the region B3 is an uncovered part that is newly displayed as the subject moves, and is an image part that is not displayed in the reference image Ef. Therefore, only the reference data read from the reference image Fb that is temporally later is displayed. Used for frame interpolation. On the other hand, the area B4 is a covered portion that is hidden by the movement of the subject and is an image portion that is not displayed in the reference image Fb, so only reference data read from the reference image Ff that is temporally previous is used for frame interpolation.

【0016】図2に示した内挿画像上でのカバード・ア
ンカバード判定を含めたフレーム内挿処理の適応制御は
図1の動き補償制御回路13で実行される。その手順を
図3を用いて説明する。なお図3では説明の簡略化のた
めに、1つの被写体が一方向に動く場合を仮定して1次
元上で説明を行う。図3はnフレーム隔てた2フレーム
の参照画像Ff,Fbから内挿画像Fiを合成する場合
を示しており、内挿画像Fiは参照画像Ffから時間方
向にmフレーム離れた位置にある。図1の動き補償制御
回路13では、エッジ情報104,105によりFb上
のエッジ点Eb1,Eb2とそれぞれに対応するFf上
のデータ点Ef1,Ef2が判っている。また動き情報
103によりFb上の代表点Pb,Qb,Rb,Sbそ
れぞれのFf上の動き補償位置Pf,Qf,Rf,Sf
が判っている。まず2フレームの参照画像間で対応する
エッジ点と代表点との位置をフレーム間隔を考慮して内
分し、内挿画像上でのエッジ点Ei1,Ei2と代表点
Pi,Qi,Ri,Siとを得る。参照画像Ff,Fb
と内挿画像Fiはこれらエッジ点により各々3つの領域
(Df1,Df2,Df3),(Db1,Db2,Db
3),(Di1,Di2,Di3)に領域分割される。
分割した領域は3フレーム間で(Dfj→Dij→Db
j)のように同一インデックス領域どうしが対応してお
り、Dijを内挿する場合の参照データはDfj,Db
jのみから読み出す。また内挿画像Fi上の代表点P
i,Qi,Ri,Siの動きベクトルは、参照画像Fb
上の対応する代表点の動きベクトルを内分して求める。
具体的には、代表点Qbの動きベクトルがvq ならば、
Qiの動きベクトルは参照画像Ffに対しての
The adaptive control of the frame interpolation process including the covered / uncovered decision on the interpolated image shown in FIG. 2 is executed by the motion compensation control circuit 13 of FIG. The procedure will be described with reference to FIG. Note that, in FIG. 3, for simplification of the description, description will be given in one dimension assuming that one subject moves in one direction. FIG. 3 shows a case where the interpolated image Fi is synthesized from the reference images Ff and Fb of two frames separated by n frames, and the interpolated image Fi is located at a position m frames away from the reference image Ff in the time direction. In the motion compensation control circuit 13 in FIG. 1, the edge information 104 and 105 identify the edge points Eb1 and Eb2 on Fb and the corresponding data points Ef1 and Ef2 on Ff. Further, according to the motion information 103, the motion compensation positions Pf, Qf, Rf, Sf on Ff of the representative points Pb, Qb, Rb, Sb on Fb, respectively.
Is known. First, the positions of corresponding edge points and representative points between the reference images of two frames are internally divided in consideration of the frame interval, and the edge points Ei1, Ei2 and the representative points Pi, Qi, Ri, Si on the interpolated image are internally divided. And get. Reference images Ff and Fb
And the interpolated image Fi are divided into three regions (Df1, Df2, Df3), (Db1, Db2, Db) by these edge points.
3), (Di1, Di2, Di3).
The divided area is (Dfj → Dij → Db) between three frames.
j), the same index areas correspond to each other, and the reference data for interpolating Dij are Dfj and Db.
Read only from j. In addition, the representative point P on the interpolated image Fi
The motion vectors of i, Qi, Ri, and Si are the reference images Fb.
The motion vector of the corresponding representative point above is internally calculated.
Specifically, if the motion vector of the representative point Qb is v q ,
The motion vector of Qi is relative to the reference image Ff

【0017】[0017]

【数1】 [Equation 1]

【0018】と、参照画像Fbに対してのWith respect to the reference image Fb,

【0019】[0019]

【数2】 [Equation 2]

【0020】との2つの値が求められる。次に、内挿画
像Fi上の全ての画素点の動きベクトルを、2つの代表
点の動きベクトルから内挿・外挿計算により求める。こ
の計算は注目する画素の隣接2代表点が同一領域にある
か否かにより計算方法が異なる。Qi,Riは同一領域
Di2にあるので、QiとRiの間の画素点の動きベク
トルはQiとRiのそれぞれの動きベクトルから線形内
挿して求める。またRiとSiはそれぞれ異なる領域上
にある代表点なので、この間の画素点の動きベクトルは
何れか一方の代表点から外挿した値とする。簡単な具体
例としてRiとEi2の間の各画素点の動きベクトルは
代表点Riの動きベクトルの値をそのまま代入し、Ei
2とSiの間の各画素点では代表点Siの動きベクトル
の値をそのまま代入する。最後に、フレーム内挿に2フ
レームの何れの参照画像を用いるかを、前記計算で求め
た動きベクトルから画素毎に決定する。例えば領域Di
2内の内挿画素点TiではFf,Fb何れの参照画像に
対しても動き補償フレーム間参照位置Tf,Tbが同一
インデックスを付けた領域Df2,Db2上にあるの
で、両方あるいは何れか一方の参照画像から読み出した
データをTiの内挿に用いてもよい。これに対して領域
Di3の内挿画素点Uiでは、参照画像Fb上の動き補
償フレーム間参照位置Ubは同一インデックスの領域D
b3内にあるが、参照画像Ff上の参照位置Ufは異な
るインデックスの領域Df2上にある。異なるインデッ
クスの領域間のデータ参照は読めないので、内挿画素点
Uiへは参照画像Fbから読み出したデータのみをフレ
ーム内挿に用いる。以上の処理を内挿画像Fiの全画素
点で実行し、図1における動きベクトル106と内挿制
御情報107とを得る。なお図3では説明の簡略化のた
めに1次元上で説明したが、2次元の広がりをもつ画像
上でも同様な処理が実行できる。一般に2次元画像上で
は任意の内挿画素点Ziに4点の近傍代表点(Pi1,
Pi2,Pi3,Pi4)が与えられ、これら4点のう
ちZiと同一領域内にある代表点の動きベクトルから内
挿・外挿計算を行い、内挿画素点Ziの動きベクトルを
求める。
Two values are obtained. Next, the motion vectors of all pixel points on the interpolated image Fi are calculated from the motion vectors of the two representative points by interpolation / extrapolation calculation. This calculation method differs depending on whether or not two adjacent representative points of the pixel of interest are in the same area. Since Qi and Ri are in the same area Di2, the motion vector of the pixel point between Qi and Ri is obtained by linear interpolation from the motion vectors of Qi and Ri. Further, since Ri and Si are representative points on different regions, the motion vector of the pixel point between them is a value extrapolated from one of the representative points. As a simple concrete example, for the motion vector of each pixel point between Ri and Ei2, the value of the motion vector of the representative point Ri is directly substituted, and Ei
At each pixel point between 2 and Si, the value of the motion vector of the representative point Si is directly substituted. Finally, which of the two reference images is used for frame interpolation is determined for each pixel from the motion vector obtained by the above calculation. For example, the area Di
At the interpolated pixel point Ti within 2, since the motion compensation inter-frame reference positions Tf and Tb are on the regions Df2 and Db2 with the same index for both Ff and Fb reference images, both or either one of them. Data read from the reference image may be used for Ti interpolation. On the other hand, at the interpolation pixel point Ui of the area Di3, the motion compensation inter-frame reference position Ub on the reference image Fb is the area D of the same index.
Although it is within b3, the reference position Uf on the reference image Ff is on the region Df2 of a different index. Since the data reference between the regions of different indexes cannot be read, only the data read from the reference image Fb is used for the frame interpolation for the interpolation pixel point Ui. The above processing is executed for all pixel points of the interpolated image Fi to obtain the motion vector 106 and the interpolated control information 107 in FIG. It should be noted that although FIG. 3 illustrates one dimension for simplification of description, similar processing can be performed on an image having a two-dimensional spread. Generally, on a two-dimensional image, four neighboring representative points (Pi1,
Pi2, Pi3, Pi4) are given, and the interpolation / extrapolation calculation is performed from the motion vector of the representative point in the same area as Zi among these four points to obtain the motion vector of the interpolated pixel point Zi.

【0021】次に、本発明の動画像のフレーム内挿符号
化復号化方法および装置の実施例を図4を用いて説明す
る。図4は本発明の動画像のフレーム内挿符号化復号化
方法を実現する装置の一実施例のブロック図である。
Next, an embodiment of the moving picture frame interpolation coding / decoding method and apparatus of the present invention will be described with reference to FIG. FIG. 4 is a block diagram of an embodiment of an apparatus for implementing the moving picture frame interpolation coding / decoding method of the present invention.

【0022】このフレーム内挿符号化復号化装置は、入
力動画像から時間的に連続した画像フレーム間での動き
情報を検出する動き検出回路21と、検出された動き情
報を用いて間引きフレームを決定し、フレーム間引き制
御情報として出力するフレーム間引き制御回路22と、
入力動画像からフレーム間引き制御情報で指定されたフ
レームの画像のみを間引き、それ以外の画像を符号化す
る符号化回路23と、符号化された画像を復号化する復
号化回路24と、復号化された復号画像を保持するメモ
リ25と、復号画像の時間的に隣合う2フレームを参照
画像とし、参照画像の時間的に間に位置するフレームの
画像を動き補償フレーム内挿処理により合成するフレー
ム内挿回路26と、参照画像と内挿画像とを正しい表示
順序に並べ変えて出力する再生画像として出力する表示
順序変換回路27とから、構成されている。
This frame interpolation coding / decoding apparatus uses a motion detection circuit 21 for detecting motion information between temporally consecutive image frames from an input moving image and a thinned frame using the detected motion information. A frame thinning control circuit 22 which determines and outputs as frame thinning control information;
An encoding circuit 23 that thins out only the images of the frames specified by the frame thinning control information from the input moving image and encodes the other images, a decoding circuit 24 that decodes the encoded images, and a decoding circuit. A memory 25 for holding the decoded image and a frame for synthesizing images of frames located temporally between the reference images with two frames temporally adjacent to the decoded image by motion compensation frame interpolation processing. It is composed of an interpolation circuit 26 and a display order conversion circuit 27 which rearranges the reference image and the interpolated image in a correct display order and outputs the reproduced image as a reproduced image.

【0023】本実施例の動作を説明する。まず動き検出
回路21で入力動画像201から動きの異なる被写体領
域毎にフレーム間での動きを検出し、領域動き情報20
2として出力する。フレーム間引き制御回路22では領
域動き情報202を利用して領域単位での動きの変動を
解析し、何れの領域でも動きに変動が無いフレームを判
定し、このフレームを間引くことを示すフレーム間引き
情報203を出力する。符号化回路23ではフレーム間
引き情報203を参照し、フレーム間引きを行いながら
入力動画像201を符号化する。一方、復号化側では、
復号化回路24において符号化データ204を復号画像
205に復号化しメモリ25に保持する。また復号化回
路24は、符号化回路23で符号化された画像のフレー
ム間動き情報やフレーム内エッジ情報が併せて符号化供
給されている場合には、これらを復号化し復号画像20
5の付加情報としてメモリ25に保持する。フレーム内
挿回路26ではメモリ25に保持された2フレームの復
号画像を参照画像206,207として読み出し、内挿
画像208を合成する。ここで付加情報がメモリ25か
ら読み出される場合には、付加情報を参照して内挿処理
を実行する。一方、付加情報が供給されていない場合に
は、フレーム内挿回路26の内部で参照画像206,2
07からフレーム内挿に必要な情報を検出してから内挿
画像を合成する。表示順序変換回路27は、参照画像2
06,207と内挿画像208とを正しい表示順序に並
べ変えて再生画像209として出力する。
The operation of this embodiment will be described. First, the motion detection circuit 21 detects the motion between frames for each subject region having a different motion from the input moving image 201, and the region motion information 20
Output as 2. The frame thinning control circuit 22 analyzes the movement variation in each area by using the area movement information 202, determines a frame in which there is no movement variation in any area, and thins out the frame information 203 indicating that this frame is thinned. Is output. The encoding circuit 23 refers to the frame thinning information 203 and encodes the input moving image 201 while performing frame thinning. On the other hand, on the decryption side,
The decoding circuit 24 decodes the encoded data 204 into a decoded image 205 and holds the decoded image 205 in the memory 25. Further, when the inter-frame motion information and the intra-frame edge information of the image coded by the coding circuit 23 are also coded and supplied, the decoding circuit 24 decodes these to decode the decoded image 20.
It is held in the memory 25 as additional information of No. 5. The frame interpolation circuit 26 reads the decoded images of the two frames held in the memory 25 as reference images 206 and 207, and synthesizes the interpolated image 208. Here, when the additional information is read from the memory 25, the interpolation processing is executed with reference to the additional information. On the other hand, when the additional information is not supplied, the reference images 206 and 2 are generated inside the frame interpolation circuit 26.
The information required for frame interpolation is detected from 07, and then the interpolated image is synthesized. The display order conversion circuit 27 uses the reference image 2
06 and 207 and the interpolated image 208 are rearranged in the correct display order and output as the reproduced image 209.

【0024】本発明におけるフレーム間引き処理の一例
を図5を用いて説明する。図5では説明の簡略化のため
に1つの被写体領域が一方向に移動している場合を仮定
して、1次元上で説明する。図5で被写体領域Cは第1
フレームから第Fmフレームまでの期間では緩やかな一
定速度で移動し、第Fmフレームから第Fnフレームま
では速い一定速度となり、第Fnフレーム以降は再び緩
やかな一定速度で動いている。すなわち領域Cの動きは
第Fm,Fnフレームのみで変化しており、その他のフ
レーム期間は動きが一様で変動は無い。具体的な動き変
動の検出方法の一例としては、第Fm−1,Fmフレー
ム間の動きベクトルと第Fm,Fm+1フレーム間の動
きベクトルの差分が、あらかじめ定めたしきい値よりも
大きければ第Fmフレームで動きに変動があったと判定
する。また第Fmフレームを境とする前後数フレーム期
間での動きの変動を1次関数で近似した場合に、第Fm
フレームを境にして前記1次勾配の大きさがあらかじめ
定めたしきい値以上変化しているならば、第Fmフレー
ムを動きの変化点と判定してもよい。図4のフレーム間
引き制御回路22では、前記判定結果をもとに第Fm,
Fn以外のフレームを間引くことを決定する。ただし図
5の場合には領域Cの動きが全フレーム期間で零ではな
いので、動画像シーケンスの第1フレームと最終フレー
ムは間引かないことにする。図5と異なり第1から第F
mまでのフレーム期間で画像に全く動きが無い場合など
は、第1フレームを間引いてもよい。同様のことは最終
フレームに関しても成り立つ。図5では動きのある領域
は唯一としたが、複数の動きの異なる被写体領域が存在
する場合には、全ての領域で動きに変動が無い場合にフ
レーム間引きを実行する。
An example of the frame thinning process according to the present invention will be described with reference to FIG. In FIG. 5, for simplification of description, it is assumed that one subject region is moving in one direction, and description will be given in one dimension. In FIG. 5, the subject area C is the first
The frame moves from the frame to the Fmth frame at a gentle constant speed, from the Fmth frame to the Fnth frame has a fast constant speed, and after the Fnth frame, moves at a gentle constant speed again. That is, the movement of the region C changes only in the Fm and Fn frames, and the movement is uniform and does not change in the other frame periods. As an example of a specific method of detecting the motion variation, if the difference between the motion vector between the Fm−1 and Fm frames and the motion vector between the Fm and Fm + 1 frames is larger than a predetermined threshold value, the Fmth frame. It is determined that the movement has changed in the frame. In addition, when the movement variation in the several frame periods before and after the Fm-th frame is approximated by a linear function,
If the magnitude of the first-order gradient changes by a predetermined threshold value or more at a frame, the Fm-th frame may be determined as a change point of motion. In the frame thinning control circuit 22 of FIG. 4, the Fm,
Decide to thin out frames other than Fn. However, in the case of FIG. 5, since the movement of the area C is not zero in the entire frame period, the first frame and the last frame of the moving image sequence are not thinned out. Unlike FIG. 5, 1st to Fth
The first frame may be thinned out when the image has no movement in the frame period up to m. The same holds for the final frame. In FIG. 5, only one region has a motion, but when there are a plurality of subject regions having different motions, frame thinning is performed when the motion does not change in all regions.

【0025】[0025]

【発明の効果】以上説明したように本発明では、復号化
された2フレームの参照画像から内挿画像を合成するに
おいて、参照画像上で動きの異なる被写体領域を検出
し、動き補償フレーム内挿に用いる動きベクトルと実際
に動き補償フレーム内挿に用いる参照データとを画素毎
に決定するので、複数の被写体領域の境界近傍まで歪の
少ない内挿画像を合成することが可能である。また本発
明では、復号化側で動き補償フレーム内挿が可能な画像
フレームのみをあらかじめ符号化側で判定してからフレ
ーム間引き符号化を行うので、復号化側での内挿画像の
劣化を抑えつつ符号量を削減するのに効果がある。
As described above, according to the present invention, when synthesizing an interpolated image from decoded two-frame reference images, a subject region having a different motion is detected on the reference image, and motion compensation frame interpolation is performed. Since the motion vector used for the above and the reference data actually used for the motion compensation frame interpolation are determined for each pixel, it is possible to synthesize an interpolated image with less distortion up to the vicinity of the boundaries of a plurality of subject areas. Further, according to the present invention, since only the image frame that can be motion compensated frame interpolated on the decoding side is determined on the encoding side in advance and the frame thinning coding is performed, deterioration of the interpolated image on the decoding side is suppressed. However, it is effective in reducing the code amount.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の動画像のフレーム内挿装置の実施例の
基本ブロック図である。
FIG. 1 is a basic block diagram of an embodiment of a moving picture frame interpolation apparatus of the present invention.

【図2】動きの異なる複数の被写体領域がある場合に、
領域毎にフレーム内挿で参照する画像が異なることを説
明する図である。
[FIG. 2] When there are a plurality of subject regions with different movements,
It is a figure explaining that the image referred by frame interpolation differs for every field.

【図3】動きの異なる複数の被写体領域がある場合に、
内挿画像の画素毎に動きベクトルと参照画像の選択を決
定する手順を説明する図である。
[FIG. 3] When there are a plurality of subject regions with different movements,
It is a figure explaining the procedure which determines the selection of a motion vector and a reference image for every pixel of an interpolated image.

【図4】本発明の動画像の符号化復号化装置の実施例の
基本ブロック図である。
FIG. 4 is a basic block diagram of an embodiment of a moving picture coding / decoding apparatus of the present invention.

【図5】動きの異なる複数の被写体領域がある場合に、
フレーム間引きの対象となる画像フレームを決定する手
順を説明する図である。
[FIG. 5] When there are a plurality of subject regions with different movements,
It is a figure explaining the procedure which determines the image frame used as the object of frame thinning.

【符号の説明】 11,21 動き検出回路 12 領域検出回路 13 動き補償制御回路 14 動き補償内挿回路 22 フレーム間引き制御回路 23 符号化回路 24 復号化回路 25 メモリ 26 フレーム内挿回路 27 表示順序変換回路 101,102,206,207 参照画像 103 動き情報 104,105 エッジ情報 106 動きベクトル 107 内挿制御情報 108,208 内挿画像 201 入力動画像 202 領域動き情報 203 フレーム間引き制御情報 204 符号化データ 205 復号画像 209 再生画像[Description of Codes] 11, 21 Motion Detection Circuit 12 Region Detection Circuit 13 Motion Compensation Control Circuit 14 Motion Compensation Interpolation Circuit 22 Frame Thinning Control Circuit 23 Encoding Circuit 24 Decoding Circuit 25 Memory 26 Frame Interpolation Circuit 27 Display Order Conversion Circuits 101, 102, 206, 207 Reference image 103 Motion information 104, 105 Edge information 106 Motion vector 107 Interpolation control information 108, 208 Interpolated image 201 Input moving image 202 Area motion information 203 Frame thinning control information 204 Encoded data 205 Decoded image 209 Reproduced image

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】動画像の2フレームの画像を参照画像と
し、前記参照画像の時間的に間の位置にあるフレームを
内挿画像として合成する動画像のフレーム内挿方法にお
いて、 前記参照画像のフレーム間での動き情報を前記参照画像
から検出し、 前記検出された動き情報を用いて前記参照画像を動きの
異なる被写体領域毎に分割し、分割された領域の境界を
記述するエッジ情報を検出し、 前記動き情報と前記エッジ情報とを用いて内挿画像を合
成するための動きベクトルと前記参照画像の2フレーム
の何れを内挿処理に用いるかを記述する内挿制御情報と
の両方を画素毎に検出し、 画素毎に検出された情報を用いて、前記参照画像から動
き補償フレーム内挿処理により内挿画像を合成すること
を特徴とする動画像のフレーム内挿方法。
1. A frame interpolating method for a moving image, wherein two frame images of the moving image are used as reference images, and frames at temporal positions between the reference images are combined as an interpolating image. Motion information between frames is detected from the reference image, the reference image is divided into object regions having different motions using the detected motion information, and edge information describing a boundary of the divided regions is detected. However, both the motion vector for synthesizing the interpolated image using the motion information and the edge information and the interpolating control information describing which of the two frames of the reference image is used for the interpolating process are stored. A frame interpolating method for a moving image, which comprises detecting an image for each pixel and synthesizing an interpolated image from the reference image by a motion compensation frame interpolation process using the information detected for each pixel.
【請求項2】動画像の2フレームの画像を参照画像と
し、前記参照画像の時間的に間の位置にあるフレームを
内挿画像として合成する動画像のフレーム内挿装置にお
いて、 前記参照画像のフレーム間での動き情報を前記参照画像
から検出する手段と、 前記検出された動き情報を用いて前記参照画像を動きの
異なる被写体領域毎に分割し、分割された領域の境界を
記述するエッジ情報を検出する手段と、 前記動き情報と前記エッジ情報とを用いて内挿画像を合
成するための動きベクトルと前記参照画像の2フレーム
の何れを内挿処理に用いるかを記述する内挿制御情報と
の両方を画素毎に検出する動き補償制御手段と、 前記動き補償制御手段から供給された情報を用いて、前
記参照画像から動き補償フレーム内挿処理により内挿画
像を合成する手段とを備えることを特徴とする動画像の
フレーム内挿装置。
2. A frame interpolating apparatus for a moving image, wherein two frame images of a moving image are used as reference images, and frames at positions temporally between the reference images are combined as interpolated images. Means for detecting motion information between frames from the reference image; edge information describing a boundary of the divided regions by dividing the reference image into subject regions having different motions using the detected motion information Detecting means, and interpolation control information describing which of the two vectors of the motion vector and the reference image for combining the interpolation image using the motion information and the edge information is used for the interpolation processing. And a motion compensation control means for detecting both of each pixel and each pixel, and information supplied from the motion compensation control means is used to synthesize an interpolated image from the reference image by motion compensation frame interpolation processing. And a frame interpolating device for a moving image.
【請求項3】フレーム内挿を用いた動画像の符号化復号
化方法において、 入力動画像から時間的に連続した画像フレーム間での動
き情報を検出し、 前記検出された動き情報を用いて間引きフレームを決定
し、フレーム間引き制御情報として出力し、 入力動画像から前記フレーム間引き制御情報で指定され
たフレームの画像のみを間引き、それ以外の画像を符号
化し、 前記符号化された画像を復号化し、 前記復号化された復号画像の時間的に隣合う2フレーム
を参照画像とし、前記参照画像の時間的に間に位置する
フレームの画像を動き補償フレーム内挿処理により合成
することを特徴とする動画像の符号化復号化方法。
3. A moving image coding / decoding method using frame interpolation, wherein motion information between temporally consecutive image frames is detected from an input moving image, and the detected motion information is used. Decimates frames, outputs them as frame thinning control information, thins only the images of the frames specified by the frame thinning control information from the input moving image, encodes the other images, and decodes the encoded images. Characterized in that two frames temporally adjacent to the decoded image that have been decoded are used as reference images, and images of frames located temporally between the reference images are combined by motion compensation frame interpolation processing. Method for encoding and decoding moving images.
【請求項4】フレーム内挿を用いた動画像の符号化復号
化装置において、 入力動画像から時間的に連続した画像フレーム間での動
き情報を検出する動き検出手段と、 前記検出された動き情報を用いて間引きフレームを決定
し、フレーム間引き制御情報として出力する手段と、 入力動画像から前記フレーム間引き制御情報で指定され
たフレームの画像のみを間引き、それ以外の画像を符号
化する手段と、 前記符号化された画像を復号化する手段と、 前記復号化された復号画像の時間的に隣合う2フレーム
を参照画像とし、前記参照画像の時間的に間に位置する
フレームの画像を動き補償フレーム内挿処理により合成
する手段とを備えることを特徴とする動画像の符号化復
号化装置。
4. A moving picture coding / decoding apparatus using frame interpolation, a motion detecting means for detecting motion information between temporally consecutive image frames from an input moving picture, and the detected motion. Means for determining a thinning-out frame using information and outputting it as frame thinning-out control information; and means for thinning out only the image of the frame specified by the frame thinning-out control information from the input moving image and encoding the other images. Means for decoding the coded image, two frames adjacent in time of the decoded decoded image as reference images, and an image of a frame located temporally between the reference images is moved. And a means for synthesizing by compensation frame interpolation processing.
JP34502692A 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method Expired - Lifetime JP2919211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34502692A JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34502692A JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Publications (2)

Publication Number Publication Date
JPH06197331A true JPH06197331A (en) 1994-07-15
JP2919211B2 JP2919211B2 (en) 1999-07-12

Family

ID=18373787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34502692A Expired - Lifetime JP2919211B2 (en) 1992-12-25 1992-12-25 Video frame interpolation method and coding / decoding method

Country Status (1)

Country Link
JP (1) JP2919211B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886742A (en) * 1995-01-12 1999-03-23 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US6208690B1 (en) 1996-09-12 2001-03-27 Sharp Kabushiki Kaisha Method of motion-compensated interframe-prediction in a video-coding device
WO2005062623A1 (en) * 2003-12-18 2005-07-07 Nec Corporation Moving image reproducing method, apparatus and program
JP2007110748A (en) * 2006-12-18 2007-04-26 Mitsubishi Electric Corp Motion compensation prediction method, video signal decoding method and video signal decoding apparatus
JP2007295142A (en) * 2006-04-24 2007-11-08 Hitachi Ltd Recording/playback apparatus, transmission apparatus, and transmission system
JP2008244811A (en) * 2007-03-27 2008-10-09 Sanyo Electric Co Ltd Frame rate converter and video picture display unit
JP2009200848A (en) * 2008-02-21 2009-09-03 Fujitsu Ltd Image encoder, image encoding method, and image encoding program
JP2009253581A (en) * 2008-04-04 2009-10-29 Fujifilm Corp Image processing apparatus, image processing method, and program
JP2009302755A (en) * 2008-06-11 2009-12-24 Sony Corp Storage reproducer, storage device, reproducer, and storage reproduction method
JP2013066197A (en) * 2006-07-25 2013-04-11 Qualcomm Inc Adaptive video frame interpolation
WO2020194957A1 (en) * 2019-03-25 2020-10-01 株式会社ソニー・インタラクティブエンタテインメント Image transmission/reception system, image transmission device, image reception device, image transmission/reception method and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101135454B1 (en) * 2003-09-02 2012-04-13 엔엑스피 비 브이 Temporal interpolation of a pixel on basis of occlusion detection
WO2012169096A1 (en) * 2011-06-08 2012-12-13 パナソニック株式会社 Image display device and image processing device
JP6833558B2 (en) * 2017-02-22 2021-02-24 キヤノン株式会社 Image processing equipment, image processing methods and programs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS562829A (en) * 1979-06-19 1981-01-13 Toray Eng Co Ltd Removing method of hydrogen chloride from waste gas
JPS62108687A (en) * 1985-11-06 1987-05-19 Fujitsu Ltd Picture signal encoding parameter control system
JPH01231583A (en) * 1988-03-11 1989-09-14 Fujitsu Ltd Picture coding device with variable bit rate

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS562829A (en) * 1979-06-19 1981-01-13 Toray Eng Co Ltd Removing method of hydrogen chloride from waste gas
JPS62108687A (en) * 1985-11-06 1987-05-19 Fujitsu Ltd Picture signal encoding parameter control system
JPH01231583A (en) * 1988-03-11 1989-09-14 Fujitsu Ltd Picture coding device with variable bit rate

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886742A (en) * 1995-01-12 1999-03-23 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US6275532B1 (en) 1995-03-18 2001-08-14 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US6208690B1 (en) 1996-09-12 2001-03-27 Sharp Kabushiki Kaisha Method of motion-compensated interframe-prediction in a video-coding device
WO2005062623A1 (en) * 2003-12-18 2005-07-07 Nec Corporation Moving image reproducing method, apparatus and program
KR100804338B1 (en) * 2003-12-18 2008-02-15 닛본 덴끼 가부시끼가이샤 Moving image reproducing method, apparatus and program
US8243806B2 (en) 2006-04-24 2012-08-14 Hitachi, Ltd. Recording and reproducing apparatus, sending apparatus and transmission system
JP2007295142A (en) * 2006-04-24 2007-11-08 Hitachi Ltd Recording/playback apparatus, transmission apparatus, and transmission system
JP2013066197A (en) * 2006-07-25 2013-04-11 Qualcomm Inc Adaptive video frame interpolation
JP2007110748A (en) * 2006-12-18 2007-04-26 Mitsubishi Electric Corp Motion compensation prediction method, video signal decoding method and video signal decoding apparatus
JP2008244811A (en) * 2007-03-27 2008-10-09 Sanyo Electric Co Ltd Frame rate converter and video picture display unit
JP2009200848A (en) * 2008-02-21 2009-09-03 Fujitsu Ltd Image encoder, image encoding method, and image encoding program
JP2009253581A (en) * 2008-04-04 2009-10-29 Fujifilm Corp Image processing apparatus, image processing method, and program
JP2009302755A (en) * 2008-06-11 2009-12-24 Sony Corp Storage reproducer, storage device, reproducer, and storage reproduction method
WO2020194957A1 (en) * 2019-03-25 2020-10-01 株式会社ソニー・インタラクティブエンタテインメント Image transmission/reception system, image transmission device, image reception device, image transmission/reception method and program
JPWO2020194957A1 (en) * 2019-03-25 2021-11-11 株式会社ソニー・インタラクティブエンタテインメント Image transmission / reception system, image transmission device, image reception device, image transmission / reception method and program
CN113678431A (en) * 2019-03-25 2021-11-19 索尼互动娱乐股份有限公司 Image transmission/reception system, image transmission device, image reception device, image transmission/reception method, and program

Also Published As

Publication number Publication date
JP2919211B2 (en) 1999-07-12

Similar Documents

Publication Publication Date Title
US5973755A (en) Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
JP3197420B2 (en) Image coding device
JPH1155667A (en) Image coder, image decoder, and recording medium recorded with image coded data
JP2919211B2 (en) Video frame interpolation method and coding / decoding method
JPH08251583A (en) Image encoding device and image decoding device
JP4875007B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture decoding apparatus
US5436666A (en) Limited-domain motion estimation/compensation for video encoding/decoding
JP2000224593A (en) Method and device for interpolating frame and recording medium recording the method
EP2355515A2 (en) Scalable video coding
JP3055152B2 (en) Method and apparatus for encoding / decoding moving image signal
JP3700230B2 (en) Motion compensation method in video coding
US7085427B2 (en) Image filter processing apparatus and method
JP3513277B2 (en) Video encoding device and video decoding device
JP3115866B2 (en) Image encoding device and image decoding device
US20050036542A1 (en) Computation of compressed video information
JPH0879759A (en) Image coder and image decoder
JP3733248B2 (en) Playback apparatus and method
JPH0787493A (en) Frame interpolation method
JPH08307877A (en) Coding and decoding method structuring moving image
JP3437605B2 (en) Image motion detection method and apparatus
JP3500112B2 (en) Image encoding device and image decoding device
JP3228332B2 (en) Scan conversion method
JPH07107465A (en) Moving picture frame reproducing system
JPH07203425A (en) Coding and decoding device for dynamic image
KR100479619B1 (en) Image composition method in mobile station

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19960402