JP2011035747A - Method, device and program for decoding moving image - Google Patents

Method, device and program for decoding moving image Download PDF

Info

Publication number
JP2011035747A
JP2011035747A JP2009181235A JP2009181235A JP2011035747A JP 2011035747 A JP2011035747 A JP 2011035747A JP 2009181235 A JP2009181235 A JP 2009181235A JP 2009181235 A JP2009181235 A JP 2009181235A JP 2011035747 A JP2011035747 A JP 2011035747A
Authority
JP
Japan
Prior art keywords
frame
motion vector
frame rate
block
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009181235A
Other languages
Japanese (ja)
Other versions
JP5199196B2 (en
Inventor
Hiroshi Fujii
寛 藤井
Yukihiro Bando
幸浩 坂東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009181235A priority Critical patent/JP5199196B2/en
Publication of JP2011035747A publication Critical patent/JP2011035747A/en
Application granted granted Critical
Publication of JP5199196B2 publication Critical patent/JP5199196B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a moving image at high frame rate with a smooth motion using encoded data of a moving image at low frame rate as input. <P>SOLUTION: A motion vector for every block is calculated from decoding results by a motion vector calculation unit 12, and a frame rate according to size of the motion vector is calculated for every block by a frame rate decision unit 13. The motion vector is converted based on a value of the frame rate for every block by a motion vector division processing unit 14, and an interpolation frame to be inserted between decoded original frames is generated using the converted motion vector by an interpolation frame generation unit 15. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は,動画像を復号し再生する技術に関するもので,特に動画像を構成するフレームを少ない計算量で補間してフレーム数を増加させることで低フレームレート画像を高速に高フレーム化するものに関する。   The present invention relates to a technique for decoding and reproducing a moving image, and in particular, to increase the number of frames by interpolating frames constituting a moving image with a small amount of calculation to increase the frame rate of a low frame rate at high speed. About.

動画像データは一定間隔の時刻に対応する静止画像(フレーム)の系列として表現される。この時刻の間隔(フレーム間隔)が小さくなる,つまり単位時間あたりの静止画像の数(フレームレート)が増加するに従って動画像は動きが滑らかになって品質が向上する。   The moving image data is expressed as a series of still images (frames) corresponding to a certain interval of time. As the time interval (frame interval) decreases, that is, as the number of still images per unit time (frame rate) increases, the motion image becomes smoother and the quality is improved.

表示装置は性能向上に伴って表示可能なフレームレートが向上して毎秒200フレーム以上の表示が可能になっているが,すでに毎秒30フレームや60フレームといったより低いフレームレートで符号化された動画像の表示には,そのままでは表示装置の持つ高いフレームレートでの表示性能を十分に利用することができない。このような動画像を高いフレームレートで表示するには足りないフレームを補間してフレームレートを向上させる必要がある。   Although the display device has a displayable frame rate that is improved with the performance improvement and can display 200 frames or more per second, a moving image that has already been encoded at a lower frame rate such as 30 frames or 60 frames per second. The display performance at the high frame rate of the display device cannot be fully utilized for the display. In order to display such a moving image at a high frame rate, it is necessary to interpolate frames that are insufficient to improve the frame rate.

一方,家庭用ビデオ再生装置などの動画再生機器に複雑な画像処理機能を持たせることはコストおよび処理性能の点から適当でないため,簡略な方法でフレームの補間を行う必要がある。   On the other hand, it is not appropriate in terms of cost and processing performance to provide a moving image playback device such as a home video playback device with a complicated image processing function, and therefore it is necessary to perform frame interpolation by a simple method.

以上の技術背景について,さらに詳しく説明すると以下のとおりである。フレームを補間してフレームレートを向上させる方法としては,例えば非特許文献1に記載されているように,オプティカルフローを用いたもの,また,非特許文献2に記載されているように,モーフィングを用いて補間画像を生成するもの,非特許文献3に記載されているように,自己相関を用いたものなど多くの方法が提案されている。これらは高品質な補間画像を生成可能である一方,補間画像生成のための計算量が大きく,家庭向け映像機器などの処理能力に限りのある機器での処理には向かない。   The above technical background will be described in more detail as follows. As a method for improving the frame rate by interpolating the frames, for example, as described in Non-Patent Document 1, using an optical flow, or as described in Non-Patent Document 2, morphing is performed. Many methods have been proposed, such as those used to generate an interpolated image and those using autocorrelation as described in Non-Patent Document 3. While these can generate high-quality interpolated images, they require a large amount of calculation for generating the interpolated images, and are not suitable for processing with devices with limited processing capabilities such as home video devices.

処理能力の限られた機器でフレーム補間を行う方法として符号化の情報を用いる方法が提案されている(非特許文献4〜6参照)。これらはH.264などの符号化で採用されている動きベクトルなどの情報を用いて基準となるフレームから補間するフレームへの画像の動きを求め,求めたベクトルから補間する画素値を推定して画像を生成するというものである。この方式は処理量の大きなオプティカルフロー推定等によって改めて画像の動きを推定する必要がなく,画素の生成の計算量も前述した非特許文献1〜3の方法に比べて少ない。   A method using encoding information has been proposed as a method of performing frame interpolation with a device with limited processing capability (see Non-Patent Documents 4 to 6). These are The motion of the image from the reference frame to the frame to be interpolated is obtained using information such as the motion vector employed in the encoding such as H.264, and the pixel value to be interpolated is estimated from the obtained vector to generate the image. That's it. In this method, it is not necessary to estimate the motion of the image again by optical flow estimation or the like with a large processing amount, and the calculation amount of pixel generation is smaller than the methods of Non-Patent Documents 1 to 3 described above.

また,非特許文献7,非特許文献8で示されるとおり,動画像の品質を一定とした場合,単位時間当たりのフレーム数(フレームレート)とフレーム一枚あたりの符号量つまりビット数はトレードオフの関係にあり,一方を増加させると他方が減少する。すなわち,画像上の異なる二つの領域をフレーム単位で同等の品質で符号化するのに必要な符号量が同一の場合,その二つの領域の見かけの動きの速度が異なれば見かけの動きが小さい方が動画像としての品質は高いことになり,見かけの動きの早さによって品質が異なる。このことから,二つの領域の動画像の品質を等しくなるように近づけるためには動画像の動きの速さに応じてフレームレートを変更すればよい。   In addition, as shown in Non-Patent Document 7 and Non-Patent Document 8, when the quality of the moving image is constant, the number of frames per unit time (frame rate) and the code amount per frame, that is, the number of bits, are a trade-off. Therefore, increasing one increases the other. In other words, if the amount of code required to encode two different areas on the image with the same quality in units of frames is the same, the apparent movement is smaller if the apparent movement speeds of the two areas are different. However, the quality as a moving image is high, and the quality varies depending on the speed of the apparent movement. For this reason, in order to bring the quality of the moving images in the two areas close to each other, the frame rate may be changed according to the moving speed of the moving images.

KRISHNAMURTHY R, WOODS J W, MOULIN P:“Frame Interpolation and Bidirectional Prediction of Video Using Compactly Encoded Optical-Flow Fields and Label Fields”, IEEE Transactions on Circuits and Systems for Video Technology Vol.9, No.5, Page.713-726 (1999.08).KRISHNAMURTHY R, WOODS JW, MOULIN P: “Frame Interpolation and Bidirectional Prediction of Video Using Compactly Encoded Optical-Flow Fields and Label Fields”, IEEE Transactions on Circuits and Systems for Video Technology Vol.9, No.5, Page.713- 726 (1999.08). 山本貴史, 長谷山美紀:“モーフィングに基づくフレーム補間に関する一検討 適応的な対応点推定における領域分割の高精度化”,電子情報通信学会技術研究報告 Vol.107, No.487(ITS2007-65), Page.19-24 (2008.02.12).Takashi Yamamoto, Miki Haseyama: “A Study on Frame Interpolation Based on Morphing High Accuracy of Region Segmentation in Adaptive Corresponding Point Estimation”, IEICE Technical Report Vol.107, No.487 (ITS2007-65), Page.19-24 (2008.02.12). 武山泰豊, 三島直, 伊藤剛:“120Hz駆動LCD向け高精度フレーム補間技術−自己相関ブロックマッチング”,2007年映像情報メディア学会年次大会講演予稿集(CD-ROM),Vol.2007, Page.ROMBUNNO.3-7 (2007.08.01).Yasutoshi Takeyama, Nao Mishima, Go Ito: “High-Precision Frame Interpolation Technique for 120Hz LCDs—Autocorrelation Block Matching”, Proceedings of the 2007 Annual Conference of the Institute of Image Information and Television Engineers (CD-ROM), Vol. .ROMBUNNO.3-7 (2007.08.01). 押切亮, 藤澤達朗, 菊池義浩:“符号化情報を用いたワンセグフレーム補間”,2008年映像メディア処理シンポジウム資料,Vol.13th, Page.161-162 (2008.10.29) .Ryo Oshikiri, Tatsuro Fujisawa, Yoshihiro Kikuchi: “One-Seg Frame Interpolation Using Coding Information”, 2008 Video Media Processing Symposium, Vol.13th, Page.161-162 (2008.10.29). 田中淑貴, 水戸研司:“H.264シンタックス要素を応用したワンセグフレーム補間技術”,電子情報通信学会技術研究報告Vol.107, No.224(MoMuC2007 47), Page.23-28 (2007.09.13).Yuki Tanaka, Kenji Mito: “One-Seg Frame Interpolation Technology Using H.264 Syntax Elements”, IEICE Technical Report Vol.107, No.224 (MoMuC2007 47), Page.23-28 (2007.09. 13). 出原優一, 関口俊一, 杉本和夫, 浅井光太郎:“符号化情報を利用した低レートビデオの時間解像度改善に関する一検討”,電子情報通信学会大会講演論文集,Vol.2005, 情報・ システム 2, D-11-4, Page.4 (2005.03.07) .Yuichi Dehara, Shunichi Sekiguchi, Kazuo Sugimoto, Kotaro Asai: “A Study on Improvement of Temporal Resolution of Low Rate Video Using Coding Information”, Proceedings of the IEICE Conference, Vol.2005, Information and Systems 2, D-11-4, Page.4 (2005.03.07). 山形純一,田中伸一,吉田俊之:“バッファ制御による符号化動画像の画質平坦化について”,2007年画像符号化シンポジウム(PCSJ2007),P-2.11,Page.29-30(2007.10.31-11.2) .Junichi Yamagata, Shinichi Tanaka, Toshiyuki Yoshida: “About the flattening of the quality of the encoded video by buffer control”, 2007 Image Coding Symposium (PCSJ2007), P-2.11, Page.29-30 (2007.10.31-11.2) . 田中伸一,宮川大五郎,吉田俊之,筑波健史,野村敏男:“MOSに基づく動画像の画質制御とビットレート削減効果について”,2008年画像符号化シンポジウム(PCSJ2008) ,P-2.11, Page.29-30(2008.10.29-31) .Shinichi Tanaka, Daigoro Miyagawa, Toshiyuki Yoshida, Takefumi Tsukuba, Toshio Nomura: “Image quality control and bit rate reduction effect based on MOS”, 2008 Image Coding Symposium (PCSJ2008), P-2.11, Page.29- 30 (2008.10.29-31)

動画像のフレームレートを向上させるには元の動画像のフレームの間に必要な数のフレームを補間すればよいが,補間するフレームの数に応じて計算量が増大する。30fps(フレーム/秒)程度の画像のフレームレートから200fpsを超えるフレームレートに向上させるには,二つの隣接するフレームの間に複数のフレームを補間して挿入する必要があるため,この計算量を減らす必要がある。   In order to improve the frame rate of the moving image, a necessary number of frames may be interpolated between the frames of the original moving image, but the amount of calculation increases according to the number of frames to be interpolated. In order to improve from a frame rate of an image of about 30 fps (frames / second) to a frame rate exceeding 200 fps, it is necessary to interpolate and insert a plurality of frames between two adjacent frames. It is necessary to reduce.

同一のフレームレートで表示する場合,動きの遅い部分は動きの速い部分に比べて動きが滑らかになるため,動画像の全体を一定の品質を保つためには動きの遅い部分のフレームレートを動きの速い部分のフレームレートより低くすることが可能である。フレームレートを画像の領域毎に動きの速さに応じて変えることができれば,動画像の滑らかさを保持したままフレーム補間のための計算量をより多く減少させることができる。   When displaying at the same frame rate, the slow-moving part is smoother than the fast-moving part. Therefore, to maintain a constant quality of the entire moving image, the frame rate of the slow-moving part is changed. It is possible to make it lower than the frame rate of the fast part. If the frame rate can be changed in accordance with the speed of motion for each image area, the amount of calculation for frame interpolation can be further reduced while maintaining the smoothness of the moving image.

本発明はこの点に着目して,動画像の滑らかさを保持したままフレーム補間のための計算量をより多く減少させることができる技術を提供することを目的とする。   The present invention pays attention to this point, and an object thereof is to provide a technique capable of reducing the amount of calculation for frame interpolation more while maintaining the smoothness of a moving image.

本発明は,上記の課題を解決するために,動きベクトルの大きさに応じて動画像上の領域ごとに補間するフレームの数を決定し,かつ,補間画像を生成する際の動きベクトルを元の符号化データの動きベクトルから求め,その大きさをフレーム間隔の大きさに応じた値への縮小によって算出することで少ない計算量で動画像のフレームレートを向上させ,滑らかな動きの動画像を生成することを可能にする。   In order to solve the above problems, the present invention determines the number of frames to be interpolated for each region on the moving image according to the size of the motion vector, and based on the motion vector when generating the interpolated image. The frame rate of a moving image can be improved with a small amount of calculation by calculating from the motion vector of the encoded data of, and calculating the size by reducing the size to a value corresponding to the size of the frame interval. Makes it possible to generate

すなわち,本発明は,動画像のブロックの動きベクトルを計算するための符号化データ中の符号化情報を出力するデコーダと,符号化情報からブロックの動きベクトル求める手段と,動きベクトルの大きさからフレーム補間後のフレームレートを決定する手段と,フレームレートに基づいて補間フレームに対応する動きベクトルを生成する手段と,参照フレームの画像と動きベクトルから補間画像を生成する手段とを備える。   That is, the present invention provides a decoder that outputs encoded information in encoded data for calculating a motion vector of a moving image block, means for determining a block motion vector from the encoded information, and a size of the motion vector. Means for determining a frame rate after frame interpolation, means for generating a motion vector corresponding to the interpolation frame based on the frame rate, and means for generating an interpolated image from the image of the reference frame and the motion vector.

本発明の作用は,以下のとおりである。フレームを補間するには元の動画像データの画素から補間する画素を予測するため,補間するフレーム数が多いほど計算量は増加することになる。したがって,補間フレーム数が少ないほど演算量が少なくなり処理が簡単になる。   The operation of the present invention is as follows. In order to interpolate a frame, a pixel to be interpolated is predicted from the pixels of the original moving image data. Therefore, the amount of calculation increases as the number of frames to be interpolated increases. Therefore, the smaller the number of interpolation frames, the smaller the amount of calculation and the easier the processing.

デコーダから得られた動きベクトルの大きさによって1フレームの時間間隔での画像の動きの大きさがブロックごとに推測できる。1フレームあたりの画像の動きの大きさを最小値と最大値の間の一定範囲内に納めるように補間を行うフレーム数を決めれば,動きの滑らかさを保持したまま,補間するフレーム数を抑えることができる。こうして決定したフレームのみ実質的なフレーム補間を行うことで,低フレームレートの動画像から動きの滑らかな高フレームレート動画像を少ない処理量で生成することができる。   Based on the magnitude of the motion vector obtained from the decoder, the magnitude of the motion of the image at a time interval of one frame can be estimated for each block. If the number of frames to be interpolated is determined so that the magnitude of image motion per frame falls within a certain range between the minimum and maximum values, the number of frames to be interpolated can be reduced while maintaining smoothness of motion. be able to. By performing substantial frame interpolation only on the frames thus determined, a high frame rate moving image with smooth motion can be generated from a low frame rate moving image with a small amount of processing.

本発明により,低フレームレートの動画像から動きの滑らかな高フレームレート動画像を少ない処理量で生成する動画像復号装置を提供することができる。   According to the present invention, it is possible to provide a moving picture decoding apparatus that generates a high frame rate moving picture with smooth motion from a low frame rate moving picture with a small amount of processing.

本発明の装置構成例を表すブロック図である。It is a block diagram showing the apparatus structural example of this invention. 本発明の実施形態の処理全体を示したフローチャートである。It is the flowchart which showed the whole process of embodiment of this invention. 動きベクトル分割処理部の処理内容を表すフローチャートである。It is a flowchart showing the processing content of a motion vector division | segmentation process part.

図1に,本発明の装置構成例を示す。図1に示す動画像復号装置10は,MPEG−2(ISO/IEC 13818-2 ),MPEG−4(ISO/IEC 14496 ),H.264(参考文献1参照)などの動き補償に基づくフレーム間圧縮を利用する動画像符号化方式で符号化されたデータを入力とする。   FIG. 1 shows an example of the apparatus configuration of the present invention. The moving picture decoding apparatus 10 shown in FIG. 1 includes MPEG-2 (ISO / IEC 13818-2), MPEG-4 (ISO / IEC 14496), H.264, and H.264. H.264 (see Reference 1) or the like is input as data encoded by a moving image encoding method using interframe compression based on motion compensation.

[参考文献1]:ITU-T H.264 SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Infrastructure of audiovisual services. Coding of moving video. Advanced video coding for generic audiovisual Services.
これらの符号化方式は,動画像データのフレームをブロックに分割し,他のフレームからの動きを予測する動き補償を用いてデータ量を削減している。動き予測は動きベクトルで表現され,この予測値と実際のブロックの画素との差を誤差としてさらに符号化する。なお,実際には動きベクトルは絶対値で表されるのではなく,そのブロックの周囲のブロックの動きベクトルの値から予測し,その誤差を符号化することで表現するなどしてデータ量を削減している(参考文献2参照)。
[Reference 1]: ITU-T H.264 SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Infrastructure of audiovisual services. Coding of moving video. Advanced video coding for generic audiovisual Services.
In these encoding methods, a frame of moving image data is divided into blocks, and the amount of data is reduced by using motion compensation that predicts motion from other frames. The motion prediction is expressed by a motion vector, and the difference between the predicted value and the actual block pixel is further encoded as an error. Actually, motion vectors are not represented by absolute values, but the amount of data is reduced by predicting from the motion vector values of the blocks around the block and expressing the error by encoding it. (See Reference 2).

[参考文献2]:大久保榮監修,角野眞也・菊池義浩・鈴木輝彦共編,「改訂版H.264/AVC教科書」,インプレスR&D発行, 2006.
このように,符号データにはそれ自体に動きベクトルの情報が含まれるから,これを利用することでブロック毎の動きベクトルを高速に求めることが可能である。また,動きベクトルの基準となる参照フレームとのフレーム番号の差から,非特許文献4に示されるような方法でブロックの1フレーム間隔あたりの動きベクトルを求めることができる。
[Reference 2]: Supervised by Satoshi Okubo, Junya Kakuno, Yoshihiro Kikuchi, Teruhiko Suzuki, “Revised H.264 / AVC textbook”, published by Impress R & D, 2006.
As described above, since the code data itself includes motion vector information, it is possible to obtain a motion vector for each block at high speed by using the code data. Further, a motion vector per one frame interval of a block can be obtained from a difference in frame number with a reference frame serving as a motion vector reference by a method as shown in Non-Patent Document 4.

動画像復号装置10のデコーダ11は,入力した符号化データを復号して,フレームの画像データを生成すると同時に,画像データ生成時に用いたそのフレームのブロックごとの動きベクトルとその参照フレーム番号の情報を出力する。ここで,デコーダから出力される,それぞれのブロックに対する動きベクトルvd を,
d =(vdx,vdy
とする。
The decoder 11 of the moving picture decoding apparatus 10 decodes the input encoded data to generate image data of the frame, and at the same time, information on the motion vector for each block of the frame used at the time of generating the image data and the reference frame number Is output. Here, the motion vector v d output from the decoder for each block is
v d = (v dx , v dy )
And

なお,これらの符号化では,ブロックの予測は,時間的に前のフレームと後のフレームの両方向から可能であるため,あらかじめ,デコーダ出力は一方向(前の時間のフレームからの予測に対応する方向)に揃えて出力する。   In these encodings, since block prediction is possible in both directions of the previous frame and the subsequent frame in time, the decoder output corresponds to the prediction from the frame of the previous time in advance. (Direction).

動きベクトル計算部12は,デコーダ出力のブロック毎の動きベクトルと,その参照フレームの番号から,そのブロックの元の画像の1フレームあたりの動きベクトルvを,次のように算出する。nは,参照フレームの番号と現在のフレームの番号の差である。   The motion vector calculation unit 12 calculates the motion vector v per frame of the original image of the block from the motion vector for each block of the decoder output and the reference frame number as follows. n is the difference between the reference frame number and the current frame number.

v=vd /n=(vdx/n,vdy/n)
H.264などの符号化では,2枚のフレームからの動き予測を行い,二つの予測値の平均を画素の予測とする双方向予測や双予測も可能である。双予測などで一つのブロックに複数の動きベクトルが設定されているとき,二つのベクトルから一つの動きベクトルを生成する。最も簡単な方法は,一方の動きベクトルを選択することである。もう一つの方法は,二つの動きベクトルの1フレームあたりの値の平均値をとることである。
v = v d / n = (v dx / n, v dy / n)
H. In coding such as H.264, bi-prediction and bi-prediction are possible in which motion prediction is performed from two frames and the average of two prediction values is used as pixel prediction. When a plurality of motion vectors are set in one block by bi-prediction or the like, one motion vector is generated from the two vectors. The simplest method is to select one of the motion vectors. Another method is to take an average value of two motion vectors per frame.

また,これらの符号化では,フレーム間予測を行わないフレーム(Iフレーム)が挿入される。フレーム間予測を行わないフレームに対しては,動きベクトルの情報が得られないため,直前のフレームの動きベクトルの情報をそのまま用いる。   In these encodings, a frame (I frame) for which inter-frame prediction is not performed is inserted. Since no motion vector information can be obtained for a frame for which inter-frame prediction is not performed, the motion vector information of the immediately preceding frame is used as it is.

フレームレート決定部13は,動きベクトルのデータをもとに各ブロックのフレームレートを以下のように決定し,動きベクトル分割処理部14に送信する。   The frame rate determination unit 13 determines the frame rate of each block based on the motion vector data as follows, and transmits it to the motion vector division processing unit 14.

フレームレート決定部13は,まずそのブロックの画像に基づいたフレーム補間を行わないブロックを決定する。ブロックに対してフレーム補間によるノイズの発生しやすさの判定を行い,動きベクトルが画像の動きを表していない可能性があるとき,つまり動きベクトルの信頼性が一定量より低いとき,そのブロックは隣接する元画像フレームとの間のフレーム補間を行わないものとする。また,フレーム間予測を行わず,ブロックに動きベクトルが設定されていないときは,そのブロックの画像に基づいたフレーム補間を行わない。動きベクトルの信頼性は,例えば,非特許文献5に示される方法によって求めることができる。   The frame rate determination unit 13 first determines a block for which frame interpolation is not performed based on the image of the block. When a block is evaluated for the likelihood of noise generation by frame interpolation and the motion vector may not represent the motion of the image, that is, when the reliability of the motion vector is lower than a certain amount, the block It is assumed that frame interpolation between adjacent original image frames is not performed. When no inter-frame prediction is performed and no motion vector is set for a block, frame interpolation based on the image of the block is not performed. The reliability of the motion vector can be obtained by, for example, a method disclosed in Non-Patent Document 5.

フレーム補間を行うブロックが決定したならば,ブロックごとのフレームレートを決定する。フレームを補間した際のフレームレートの元の動画像のフレームレートに対する比を,rとする。つまり,元の画像のフレームレートr0 ,フレーム補間後のフレームレートをr1 とすると,rを次のように定める。 Once the block for frame interpolation is determined, the frame rate for each block is determined. Let r be the ratio of the frame rate when the frame is interpolated to the frame rate of the original moving image. That is, if the frame rate r 0 of the original image and the frame rate after frame interpolation are r 1 , r is determined as follows.

r=r1 /r0
ここで,元のフレームレートにおける1フレーム間隔あたりの動きベクトルが,v=(vx ,vy )であるとすると,r倍に増加させたフレームレートにおける1フレーム間隔あたりの動きベクトルv′は,
v′=(vx /r,vy /r)
|v′|=|v|/r
r=|v|/|v′|
である。
r = r 1 / r 0
If the motion vector per frame interval at the original frame rate is v = (v x , v y ), the motion vector v ′ per frame interval at the frame rate increased by r times is ,
v ′ = (v x / r, v y / r)
| V ′ | = | v | / r
r = | v | / | v ′ |
It is.

ここで,フレームレート決定部13は,目標となる動きベクトルの長さ|vt |と,r1 の最大値max(r1 )=m×r0 (mは整数) を保持している。 Here, the frame rate determination unit 13, the length of the motion vector of the target | v t | and the maximum value max of the r 1 (r 1) = m × r 0 (m is an integer) holds.

rとして,|v|/|vt |を整数に丸めた値(例えば,|v| /|vt |以上の整数または以下の整数),かつ,r1 (r1 =r×r0 )がmax(r1 )以下かつmax(r1 )の約数,つまりrがmの約数になるように設定する。このようにして,ブロックの補間後のフレームレートr1 を得る。補間を行わないブロックでは,r1 =r0 である。 r is a value obtained by rounding | v | / | v t | to an integer (for example, an integer greater than or equal to | v | / | v t |), and r 1 (r 1 = r × r 0 ) There divisor of max (r 1) below and max (r 1), i.e. r is set to be a divisor of m. In this way, the frame rate r 1 after block interpolation is obtained. For blocks that do not perform interpolation, r 1 = r 0 .

動きベクトル分割処理部14は,動きベクトル計算部12から受信したブロックごとの動きベクトルのデータを,フレームレート決定部13から受信したブロックごとのフレームレートに基づいて分割し,補間フレームを含め,各フレームのブロックの新たな動きベクトルを設定する。   The motion vector division processing unit 14 divides the motion vector data for each block received from the motion vector calculation unit 12 based on the frame rate for each block received from the frame rate determination unit 13, includes an interpolation frame, Set a new motion vector for a block of frames.

動きベクトル分割処理部14でのベクトルの分割は,以下のように行われる。動きベクトルが(vx ,vy ),フレームレートがr1 (r=r1 /r0 )のとき,そのブロックの動きベクトルv′は,
v′=(vx /r,vy /r)
である。
The vector division in the motion vector division processing unit 14 is performed as follows. When the motion vector is (v x , v y ) and the frame rate is r 1 (r = r 1 / r 0 ), the motion vector v ′ of the block is
v ′ = (v x / r, v y / r)
It is.

フレームレートをr0 からmax(r1 )に増加させるとき,元のフレームの直前に
max(r1 )/r0 −1
フレーム挿入される。ここで,挿入されるフレームの番号を,時間が早い順に,
1,2,…,max(r1 )/r0 −1
と付ける。
When increasing the frame rate from r 0 to max (r 1 ), max (r 1 ) / r 0 −1 immediately before the original frame
A frame is inserted. Here, the number of the frame to be inserted is set in ascending order of time.
1, 2,..., Max (r 1 ) / r 0 −1
It is attached.

補間フレームの番号1から順番に,各ブロックの動きベクトルを次のように設定する(図3のフローチャート参照)。   In order from the interpolation frame number 1, the motion vector of each block is set as follows (see the flowchart of FIG. 3).

補間フレームの番号をnとする。
(1) r1 =r0 のとき, 動きベクトルは零ベクトルとする。
(2) r1 =r0 でないとき(max(r1 )/r1 は整数である) ,
n/(max(r1 )/r1 )が整数のとき,動きベクトルを上記で求めたv′とする。それ以外のとき,動きベクトルを零ベクトルとする。
Let n be the number of the interpolation frame.
(1) When r 1 = r 0 , the motion vector is a zero vector.
(2) When r 1 = r 0 is not true (max (r 1 ) / r 1 is an integer),
When n / (max (r 1 ) / r 1 ) is an integer, the motion vector is set to v ′ obtained above. Otherwise, the motion vector is the zero vector.

補間フレーム生成部15は,フレームのブロックごとの動きベクトルと参照フレームバッファ16中の参照フレームのデータに基づいて,次のように補間フレームの画像を生成し,フレームバッファ17に送る。   Based on the motion vector for each block of the frame and the reference frame data in the reference frame buffer 16, the interpolation frame generation unit 15 generates an image of the interpolation frame as follows and sends it to the frame buffer 17.

補間フレーム生成部15は,補間フレームのブロックを,動きベクトル分割処理部14から受信した動きベクトルv′に基づき,参照フレームバッファ16にある画像データの同じブロックの位置からv′画素ずれた位置のブロックの情報を,補間フレーム画像の画像として補間画像を生成する。さらに,生成した補間画像を次の補間フレームの生成のために,参照フレームバッファ16に格納する。   The interpolation frame generation unit 15 determines a block of the interpolation frame at a position shifted by v ′ pixels from the position of the same block of the image data in the reference frame buffer 16 based on the motion vector v ′ received from the motion vector division processing unit 14. An interpolation image is generated using the block information as an image of the interpolation frame image. Further, the generated interpolated image is stored in the reference frame buffer 16 in order to generate the next interpolated frame.

参照フレームバッファ16には,補間フレーム生成のためにデコーダ11と補間フレーム生成部15とからフレーム画像データが入力されて,格納される。   In the reference frame buffer 16, frame image data is input and stored from the decoder 11 and the interpolation frame generation unit 15 to generate an interpolation frame.

フレームバッファ17は,元の符号化データから生成したフレームの間に補間フレーム生成部15で生成したフレームを挿入して出力する。   The frame buffer 17 inserts the frame generated by the interpolation frame generation unit 15 between the frames generated from the original encoded data, and outputs the frame.

図2は,本発明の処理全体を示したフローチャートである。デコーダ11は,フレーム画像のデコードを行い,動きベクトル情報を動きベクトル計算部12へ送る(ステップS10)。動きベクトル計算部12は,各ブロックの1フレームあたりの動きベクトルを算出する(ステップS11)。フレームレート決定部13は,動きベクトルの大きさに基づいて,各ブロックのフレームレートを決定する(ステップS12)。動きベクトル分割処理部14は,ブロックごとの動きベクトルのデータを,ブロックごとのフレームレートに基づいて分割し,補間フレームの各ブロックの動きベクトルを決定する(ステップS13)。   FIG. 2 is a flowchart showing the entire processing of the present invention. The decoder 11 decodes the frame image and sends motion vector information to the motion vector calculation unit 12 (step S10). The motion vector calculation unit 12 calculates a motion vector per frame of each block (step S11). The frame rate determination unit 13 determines the frame rate of each block based on the magnitude of the motion vector (step S12). The motion vector division processing unit 14 divides the motion vector data for each block based on the frame rate for each block, and determines the motion vector of each block of the interpolation frame (step S13).

補間フレーム生成部15は,補間フレームごとに以下の処理を行う。まず,参照画像と動きベクトルとに基づいて補間フレームの各ブロック画像を生成する(ステップS14)。その生成した補間フレームを元のフレームのあとに挿入する(ステップS15)。生成したフレームを参照画像とし,すべての補間フレームが終わるまで,次の補間フレームについて,同様にステップS14以降の処理を繰り返す(ステップS16〜18)。   The interpolation frame generation unit 15 performs the following processing for each interpolation frame. First, each block image of the interpolation frame is generated based on the reference image and the motion vector (step S14). The generated interpolation frame is inserted after the original frame (step S15). The generated frame is used as a reference image, and the processing after step S14 is similarly repeated for the next interpolation frame until all the interpolation frames are completed (steps S16 to S18).

一つの補間フレームの処理が終了したならば,同様に元画像を参照画像として,全フレームの処理が終了するまで,次の補間フレームについてステップS10以降の処理を繰り返し,復号対象となるフレームが終了したならば,処理を終了する(ステップS19〜S21)。   When the processing of one interpolation frame is completed, using the original image as a reference image in the same manner, the processing from step S10 onward is repeated for the next interpolation frame until the processing of all frames is completed, and the frame to be decoded ends. If so, the process ends (steps S19 to S21).

図3は,動きベクトル分割処理部14の処理内容を表すフローチャートである。まず,補間フレーム番号nを1に初期化する(ステップS30)。次に,最初のブロック(座標は(x,y))を処理対象とする(ステップS31)。補間フレーム番号n,座標(x,y)のブロックに対して,以下の処理を行う(ステップS32)。補間後のフレームレートをr1 ,元のフレームレートをr0 とする(ステップS33)。 FIG. 3 is a flowchart showing the processing contents of the motion vector division processing unit 14. First, the interpolation frame number n is initialized to 1 (step S30). Next, the first block (coordinates are (x, y)) is set as a processing target (step S31). The following processing is performed on the block of the interpolation frame number n and coordinates (x, y) (step S32). Assume that the interpolated frame rate is r 1 and the original frame rate is r 0 (step S33).

1 =r0 の場合およびn/(max(r1 )/r1 )が整数でない場合,ブロックの動きベクトルを零ベクトルとする(ステップS34,S35,S36)。それ以外の場合には,ブロックの動きベクトルを前述したv′とする(ステップS34,S35,S37)。 If r 1 = r 0 and n / (max (r 1 ) / r 1 ) is not an integer, the motion vector of the block is set to a zero vector (steps S34, S35, S36). In other cases, the motion vector of the block is set to v ′ described above (steps S34, S35, S37).

フレームの最後のブロックの処理が終了していない場合,次のブロックを選び,その座標を(x,y)として同様にステップS32以降の処理を繰り返す(ステップS38,S39)。フレームの最後のブロックの処理が終了したならば,最後の補間フレームの処理が終了したかどうかを判定し,終了していない場合には,nに1を加算し,次の補間フレームについて同様にステップS31以降の処理を繰り返す(ステップS40,S41)。最後の補間フレームの処理が終了した場合,すなわち,n=max(r1 )/r0 −1になった場合,処理を終了する。 If the processing of the last block of the frame has not been completed, the next block is selected, the coordinates are set to (x, y), and the processing after step S32 is similarly repeated (steps S38 and S39). When the processing of the last block of the frame is completed, it is determined whether or not the processing of the last interpolation frame has been completed. If not, 1 is added to n, and similarly for the next interpolation frame. The processes after step S31 are repeated (steps S40 and S41). When the process of the last interpolation frame is completed, that is, when n = max (r 1 ) / r 0 −1, the process is terminated.

以上の実施例では,デコーダ11は,符号化データを復号して得られたフレームのブロックごとの動きベクトルとその参照フレーム番号の情報を,動きベクトル計算部12に出力していた。   In the above embodiment, the decoder 11 outputs the motion vector for each block of the frame obtained by decoding the encoded data and the information of the reference frame number to the motion vector calculation unit 12.

他の実施例として,デコーダ11から動きベクトルと参照フレーム番号の情報を動きベクトル計算部12に書き出すのではなく,符号化データに含まれる符号化情報を,動きベクトル計算部12に書き出すような実施も可能である。ここで,符号化情報とは,符号化方式においてフレーム間予測におけるブロックの動き補償のために動きベクトルを算出する際に使用される情報である。具体的には,画面内予測符号化に用いる情報とDCT係数以外の情報を指す。   As another embodiment, instead of writing the motion vector and reference frame number information from the decoder 11 to the motion vector calculation unit 12, the coding information included in the encoded data is written to the motion vector calculation unit 12. Is also possible. Here, the coding information is information used when a motion vector is calculated for block motion compensation in inter-frame prediction in the coding method. Specifically, it refers to information other than the information used for intra prediction encoding and DCT coefficients.

符号化情報を利用することで,オプティカルフロー推定などの画素に対する演算を経ることなく,符号化で用いられる動きベクトルよりも,さらに正確に画像の動きを表すブロック毎の動きベクトルを高速に求めることが可能である。   By using the encoding information, it is possible to obtain a motion vector for each block representing the motion of the image more accurately than the motion vector used in the encoding at high speed without performing an operation on the pixel such as optical flow estimation. Is possible.

動きベクトル計算部12は,符号化情報を入力すると,非特許文献4,非特許文献5,非特許文献6に示されているような方法で,フレームごとに,そのフレーム上の8×8画素ブロックの1フレーム間隔あたりの動きベクトルを求め,動きベクトル情報としてフレームレート決定部13と動きベクトル分割処理部14に送信する。   When the encoding information is input, the motion vector calculation unit 12 uses a method as shown in Non-Patent Document 4, Non-Patent Document 5, and Non-Patent Document 6 for each frame, 8 × 8 pixels on the frame. A motion vector per one frame interval of the block is obtained and transmitted to the frame rate determination unit 13 and the motion vector division processing unit 14 as motion vector information.

このように符号化情報から各ブロックの動きを調べる方法では,前述した実施例における動きベクトルの情報だけでなく,ブロックのタイプの情報などの付加情報を用いて,より正確に画像の動きベクトルを算出することができる。   As described above, in the method of examining the motion of each block from the encoded information, not only the motion vector information in the above-described embodiment but also additional information such as block type information is used to more accurately determine the motion vector of the image. Can be calculated.

以上の動画像復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The above-described video decoding process can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.

10 動画像復号装置
11 デコーダ
12 動きベクトル計算部
13 フレームレート決定部
14 動きベクトル分割処理部
15 補間フレーム生成部
16 参照フレームバッファ
17 フレームバッファ
DESCRIPTION OF SYMBOLS 10 Moving image decoding apparatus 11 Decoder 12 Motion vector calculation part 13 Frame rate determination part 14 Motion vector division | segmentation process part 15 Interpolation frame production | generation part 16 Reference frame buffer 17 Frame buffer

Claims (4)

動き補償によるフレーム間予測を行う符号化方式により符号化された動画像を復号する方法であって,
復号されたフレームの符号化データの情報から,フレームのブロックごとの動きベクトルを算出する過程と,
動きベクトルの大きさに応じて,動きベクトルの大きいブロックには高いフレームレート,動きベクトルの小さいブロックには低いフレームレートとなるフレームレートをブロックごとに算出する過程と,
ブロックごとのフレームレートの値に基づいて,ブロックの動きベクトルを変換する過程と,
変換で得られた動きベクトルに基づいてフレームの画像データを生成し,復号された元のフレーム間に挿入する補間フレームを生成する過程とを有する
ことを特徴とする動画像復号方法。
A method of decoding a moving image encoded by an encoding method that performs inter-frame prediction by motion compensation,
A process of calculating a motion vector for each block of the frame from the encoded data information of the decoded frame;
Depending on the size of the motion vector, a process for calculating a frame rate for each block having a high frame rate for a block with a large motion vector and a low frame rate for a block with a small motion vector;
Transforming the motion vector of the block based on the value of the frame rate for each block;
A method for decoding a moving image, comprising: generating frame image data based on a motion vector obtained by the conversion, and generating an interpolated frame to be inserted between the decoded original frames.
前記ブロックごとに算出されるフレームレートは,元のフレームレートの整数倍となる最大フレームレート以下で,かつ前記最大フレームレートの約数となるフレームレートであり,
元のフレームレートをr0 ,前記算出されたフレームレートをr1 ,前記最大フレームレートをrmax ,元のフレームレートにおける1フレーム間隔あたりの動きベクトルvをv=(vx ,vy ),元のフレームレートr0 を前記算出されたフレームレートr1 にするために補間する補間フレームの番号をnとするとき,前記ブロックの動きベクトルの変換は,n×r1 /rmax が整数の場合に,変換後の動きベクトルv′をv′=(vx ×r0 /r1 ,vy ×r0 /r1 )とし,それ以外の場合に,変換後の動きベクトルv′を零ベクトルとする変換である
ことを特徴とする請求項1記載の動画像復号方法。
The frame rate calculated for each block is a frame rate that is equal to or less than the maximum frame rate that is an integral multiple of the original frame rate and is a divisor of the maximum frame rate,
The original frame rate is r 0 , the calculated frame rate is r 1 , the maximum frame rate is r max , and the motion vector v per frame interval at the original frame rate is v = (v x , v y ), When n is the number of an interpolated frame to be interpolated in order to make the original frame rate r 0 the calculated frame rate r 1 , n × r 1 / r max is an integer when converting the motion vector of the block. In this case, the converted motion vector v ′ is set to v ′ = (v x × r 0 / r 1 , v y × r 0 / r 1 ). In other cases, the converted motion vector v ′ is set to zero. The moving image decoding method according to claim 1, wherein the conversion is a vector.
動き補償によるフレーム間予測を行う符号化方式により符号化された動画像を復号する装置であって,
復号されたフレームの符号化データの情報から,フレームのブロックごとの動きベクトルを算出する手段と,
動きベクトルの大きさに応じて,動きベクトルの大きいブロックには高いフレームレート,動きベクトルの小さいブロックには低いフレームレートとなるフレームレートをブロックごとに算出する手段と,
ブロックごとのフレームレートの値に基づいて,ブロックの動きベクトルを変換する手段と,
変換で得られた動きベクトルに基づいてフレームの画像データを生成し,復号された元のフレーム間に挿入する補間フレームを生成する手段とを備える
ことを特徴とする動画像復号装置。
An apparatus for decoding a moving image encoded by an encoding method that performs inter-frame prediction by motion compensation,
Means for calculating a motion vector for each block of the frame from the encoded data information of the decoded frame;
Depending on the magnitude of the motion vector, a means for calculating a frame rate for each block having a high frame rate for a block with a large motion vector and a low frame rate for a block with a small motion vector;
Means for converting the motion vector of the block based on the value of the frame rate for each block;
A moving image decoding apparatus comprising: means for generating image data of a frame based on a motion vector obtained by the conversion, and generating an interpolated frame to be inserted between the decoded original frames.
請求項1または請求項2に記載の動画像復号方法を,コンピュータに実行させるための動画像復号プログラム。   A moving picture decoding program for causing a computer to execute the moving picture decoding method according to claim 1.
JP2009181235A 2009-08-04 2009-08-04 Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program Expired - Fee Related JP5199196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009181235A JP5199196B2 (en) 2009-08-04 2009-08-04 Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009181235A JP5199196B2 (en) 2009-08-04 2009-08-04 Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program

Publications (2)

Publication Number Publication Date
JP2011035747A true JP2011035747A (en) 2011-02-17
JP5199196B2 JP5199196B2 (en) 2013-05-15

Family

ID=43764355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009181235A Expired - Fee Related JP5199196B2 (en) 2009-08-04 2009-08-04 Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program

Country Status (1)

Country Link
JP (1) JP5199196B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015097418A (en) * 2013-08-09 2015-05-21 ソニー株式会社 Transmission apparatus, transmission method, reception apparatus, reception method, encoding apparatus, and encoding method
WO2016199436A1 (en) * 2015-06-12 2016-12-15 Sharp Kabushiki Kaisha Fallback in frame rate conversion system
CN107071442A (en) * 2012-09-24 2017-08-18 株式会社Ntt都科摩 Dynamic image prediction decoding method
WO2018135321A1 (en) * 2017-01-19 2018-07-26 ソニー株式会社 Image processing device and method
US10306296B2 (en) 2013-08-09 2019-05-28 Sony Corporation Device and method for transmission and reception for performing hierarchical encoding of image data
CN116366886A (en) * 2023-02-27 2023-06-30 泰德网聚(北京)科技股份有限公司 Video quick editing system based on smoothing processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112940A (en) * 1997-10-07 1999-04-23 Hitachi Ltd Generation method for motion vector and device therefor
JP2003069961A (en) * 2001-08-27 2003-03-07 Seiko Epson Corp Frame rate conversion
JP2003248468A (en) * 2001-12-18 2003-09-05 Sharp Corp Display device and its driving method
JP2007298769A (en) * 2006-04-28 2007-11-15 Sharp Corp Display apparatus
JP2007318193A (en) * 2006-05-23 2007-12-06 Hitachi Ltd Image processing apparatus
JP2008310266A (en) * 2007-06-18 2008-12-25 Fujifilm Corp Display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112940A (en) * 1997-10-07 1999-04-23 Hitachi Ltd Generation method for motion vector and device therefor
JP2003069961A (en) * 2001-08-27 2003-03-07 Seiko Epson Corp Frame rate conversion
JP2003248468A (en) * 2001-12-18 2003-09-05 Sharp Corp Display device and its driving method
JP2007298769A (en) * 2006-04-28 2007-11-15 Sharp Corp Display apparatus
JP2007318193A (en) * 2006-05-23 2007-12-06 Hitachi Ltd Image processing apparatus
JP2008310266A (en) * 2007-06-18 2008-12-25 Fujifilm Corp Display device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071442A (en) * 2012-09-24 2017-08-18 株式会社Ntt都科摩 Dynamic image prediction decoding method
CN107071442B (en) * 2012-09-24 2020-03-27 株式会社Ntt都科摩 Moving picture predictive decoding method
JP2015097418A (en) * 2013-08-09 2015-05-21 ソニー株式会社 Transmission apparatus, transmission method, reception apparatus, reception method, encoding apparatus, and encoding method
US10306296B2 (en) 2013-08-09 2019-05-28 Sony Corporation Device and method for transmission and reception for performing hierarchical encoding of image data
US11368744B2 (en) 2013-08-09 2022-06-21 Sony Corporation Device and associated method for using layer description and decoding syntax in multi-layer video
WO2016199436A1 (en) * 2015-06-12 2016-12-15 Sharp Kabushiki Kaisha Fallback in frame rate conversion system
US9602762B2 (en) 2015-06-12 2017-03-21 Sharp Laboratories Of America, Inc. Fallback in frame rate conversion system
WO2018135321A1 (en) * 2017-01-19 2018-07-26 ソニー株式会社 Image processing device and method
US10944975B2 (en) 2017-01-19 2021-03-09 Sony Corporation Image processing device and image processing method
CN116366886A (en) * 2023-02-27 2023-06-30 泰德网聚(北京)科技股份有限公司 Video quick editing system based on smoothing processing
CN116366886B (en) * 2023-02-27 2024-03-19 泰德网聚(北京)科技股份有限公司 Video quick editing system based on smoothing processing

Also Published As

Publication number Publication date
JP5199196B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
TWI719519B (en) Block size restrictions for dmvr
JP5144545B2 (en) Moving picture codec apparatus and method
JP5199196B2 (en) Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program
US20140369418A1 (en) Motion picture encoding device and motion picture decoding device
JP2010154568A (en) Variable accuracy inter-picture timing specification for digital video encoding
JP4523023B2 (en) Image coding apparatus and method
JP2006180527A (en) Block prediction method
EP2536148B1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
CN105049857A (en) Method and apparatus for encoding and decoding image through intra prediction
JP2010154568A5 (en)
CN101263717A (en) Arbitrary resolution change downsizing decoder
PT104083A (en) METHOD FOR TRANSCODING H.264 / AVC VIDEO IMAGES IN MPEG-2
CN103329534A (en) Image coding device and image decoding device
JP6409516B2 (en) Picture coding program, picture coding method, and picture coding apparatus
JP2008187735A (en) Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
JP2011029863A (en) Decoding processing method
CN103081466A (en) Method and system for encoding video frames using a plurality of processors
JPWO2008108372A1 (en) Weighted prediction information calculation method, apparatus, program, video encoding method, apparatus, and program
JP2000224593A (en) Method and device for interpolating frame and recording medium recording the method
JP5522252B2 (en) Image processing apparatus and image processing method
US9172970B1 (en) Inter frame candidate selection for a video encoder
JP2012134870A (en) Video encoding method and video decoding method
KR101431046B1 (en) Video data encoding method of encoding video data for fruc, apparatus and storage medium thereof
WO2014006959A1 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
US20120300848A1 (en) Apparatus and method for generating an inter-prediction frame, and apparatus and method for interpolating a reference frame used therein

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5199196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees