JP2012134870A - Video encoding method and video decoding method - Google Patents

Video encoding method and video decoding method Download PDF

Info

Publication number
JP2012134870A
JP2012134870A JP2010286540A JP2010286540A JP2012134870A JP 2012134870 A JP2012134870 A JP 2012134870A JP 2010286540 A JP2010286540 A JP 2010286540A JP 2010286540 A JP2010286540 A JP 2010286540A JP 2012134870 A JP2012134870 A JP 2012134870A
Authority
JP
Japan
Prior art keywords
filter
reference signal
prediction
block size
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010286540A
Other languages
Japanese (ja)
Other versions
JP5571542B2 (en
Inventor
Shohei Matsuo
翔平 松尾
Yukihiro Bando
幸浩 坂東
Masayuki Takamura
誠之 高村
Atsushi Shimizu
淳 清水
Hirohisa Jozawa
裕尚 如澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010286540A priority Critical patent/JP5571542B2/en
Publication of JP2012134870A publication Critical patent/JP2012134870A/en
Application granted granted Critical
Publication of JP5571542B2 publication Critical patent/JP5571542B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce an operation amount of decoding processing, to perform acceleration of decoding processing and to improve efficiency of encoding processing.SOLUTION: First, information indicating a block size of interframe prediction is read (S201), information of a motion vector is read (S202), and whether or not to use an interpolation filter for pixel generation is determined (S203). Then, in the case of using the interpolation filter, whether or not the block size is equal to or smaller than a prescribed threshold is determined (S204). An interpolation image is generated using a filter with a short tap length in the case that the block size is equal to or smaller than the prescribed threshold (S205), an interpolation image is generated using a filter with a long tap length in the case that the block size is not equal to or smaller than the prescribed threshold (S206), and a reference signal of a position indicated by the motion vector is read and stored as a prediction signal (S207).

Description

本発明は、映像符号化における補間フィルタの性能改善を図り、符号化効率改善化を図る映像符号化方法、及び映像復号方法に関する。   The present invention relates to a video encoding method and a video decoding method for improving performance of an interpolation filter in video encoding and improving encoding efficiency.

映像符号化において、異なる画面間で予測を実行する画面間予測(動き補償)符号化では、すでに復号されたフレームを参照して、予測誤差エネルギーなどを最小にするように動きベクトルが求められ、その残差信号が直交変換され、量子化が施され、エントロピ符号化を経て、バイナリーデータとなる。符号化効率を高めるためには、予測誤差エネルギーの低減が不可欠であり、すなわち、より精度の高い予測方式が求められる。   In video encoding, inter-frame prediction (motion compensation) encoding in which prediction is performed between different screens, a motion vector is obtained so as to minimize prediction error energy with reference to an already decoded frame, The residual signal is orthogonally transformed, quantized, and entropy-encoded to become binary data. In order to increase the encoding efficiency, it is essential to reduce the prediction error energy, that is, a more accurate prediction method is required.

映像符号化標準方式には、数多くの画面間予測の精度を高めるためのツールが導入されている(例えば非特許文献1参照)。例えば、H.264/AVCでは、直近のフレームにオクルージョンが存在する場合には、時間的に少し離れたフレームを参照したほうが予測誤差エネルギーを低減できるため、複数のフレームを参照可能としている。本ツールを複数参照フレーム予測と呼ぶ。また、複雑な形状の動きにも対応可能とするために、16×16、及び8×8に加えて、16×8、8×16、8×4、4×8、4×4のように、ブロックサイズを細かく分割可能としている。本ツールを可変ブロックサイズ予測と呼ぶ。これらと同様に、参照フレームの整数精度画素から6tapのフィルタを用いて1/2精度の画素を補間し、さらにその画素を利用して1/4精度の画素を線形補間で生成する。これにより、非整数精度の動きに対して予測が当たるようになる。本ツールを1/4画素精度予測と呼ぶ。   A number of tools for improving the accuracy of inter-screen prediction have been introduced into the video encoding standard system (see, for example, Non-Patent Document 1). For example, H.M. In H.264 / AVC, when there is occlusion in the latest frame, it is possible to refer to a plurality of frames because prediction error energy can be reduced by referring to a frame slightly apart in time. This tool is called multiple reference frame prediction. In addition to 16 × 16 and 8 × 8, 16 × 8, 8 × 16, 8 × 4, 4 × 8, 4 × 4, etc., in addition to 16 × 16 and 8 × 8, can be supported. The block size can be divided finely. This tool is called variable block size prediction. In the same manner, ½ precision pixels are interpolated from the integer precision pixels of the reference frame using a 6 tap filter, and ¼ precision pixels are generated by linear interpolation using the pixels. As a result, the prediction is applied to the motion with non-integer precision. This tool is called 1/4 pixel accuracy prediction.

H.264/AVCよりも符号化効率の高い次世代映像符号化標準方式の策定に向け、国際標準化組織ISO/IEC“MPEG”や、ITU−T“VCEG”において、現在世界各国から様々な提案が集められている。その中で特に画面間予測(動き補償)に関連する提案は多くなされている(例えば非特許文献2参照)。VCEGが主導で作成している次世代映像符号化向けソフトウェア(以下、KTA(Key Technical Area)ソフトウェア)には、動きベクトルの符号量を削減するツールや、ブロックサイズを16×16以上に拡張するツールが採用されている。特に、小数精度画素の補間フィルタ係数を適応的に変化させるツールは、適応補間フィルタと呼ばれ、全ての画像で効果があり、最初にKTAソフトウェアに採用された。効果も高いため、今後補間フィルタに関する改善は非常に期待される領域と考えられる。   H. Various proposals from all over the world are now gathering in the international standardization organizations ISO / IEC “MPEG” and ITU-T “VCEG” for the establishment of the next generation video coding standard system with higher coding efficiency than H.264 / AVC. It has been. In particular, many proposals related to inter-screen prediction (motion compensation) have been made (for example, see Non-Patent Document 2). The next generation video coding software (hereinafter referred to as KTA (Key Technical Area) software) created by VCEG is a tool that reduces the amount of code of motion vectors and the block size is expanded to 16 × 16 or more. Tools are adopted. In particular, a tool that adaptively changes the interpolation filter coefficient of the decimal precision pixel is called an adaptive interpolation filter, which is effective for all images, and was first adopted in the KTA software. Since the effect is high, the improvement regarding the interpolation filter is considered to be a highly expected area in the future.

過去の映像符号化標準方式MPEG−1/2/4においては、1/2精度の画素を補間するために両隣の2点の整数画素から加算平均を用いて生成していた。すなわち、2点の整数画素に対して、[1/2,1/2]の平均値フィルタを施していることになる。非常に単純な処理のため、計算複雑度の観点からみると効果的だが、1/4精度の画素を求める上では、フィルタの性能としては高くはない。   In the past video encoding standard method MPEG-1 / 2/4, in order to interpolate ½-precision pixels, they were generated from the two adjacent integer pixels using an averaging. That is, an average value filter of [1/2, 1/2] is applied to the two integer pixels. Since it is a very simple process, it is effective from the viewpoint of computational complexity, but the filter performance is not high in obtaining a pixel with 1/4 accuracy.

一方、H.264/AVCにおいては、1/2精度の画素を補間するときは、対象となる補間画素の左右3点ずつ計6整数画素を用いて補間を行う。垂直方向については上下3点ずつ計6整数画素を用いて補間する。フィルタ係数は、それぞれ[(1,−5,20,20,−5,1)/32]となっている。1/2精度の画素が補間された後、1/4精度の画素は[1/2,1/2]の平均値フィルタを用いて補間を行う。H.264/AVCの改良として、離散コサイン変換をベースとした補間フィルタが提案されている。該補間フィルタは、符号化複雑度の要求条件に応じて、シーケンス単位でのフィルタのタップ長(12タップ、8タップ、6タップ)が符号化開始時に設定される。なお、設定されたタップ長は、シーケンスの符号化を通じて同じ値が使用される。   On the other hand, H. In H.264 / AVC, when interpolating half-precision pixels, interpolation is performed using a total of six integer pixels for each of the left and right three points of the target interpolation pixel. In the vertical direction, interpolation is performed using a total of 6 integer pixels for each of the upper and lower three points. The filter coefficients are [(1, -5, 20, 20, -5, 1) / 32], respectively. After the ½ precision pixel is interpolated, the ¼ precision pixel is interpolated using an average filter of [1/2, 1/2]. H. As an improvement of H.264 / AVC, an interpolation filter based on discrete cosine transform has been proposed. In the interpolation filter, the filter tap length (12 taps, 8 taps, 6 taps) in sequence units is set at the start of encoding according to the requirement of the encoding complexity. Note that the same value is used for the set tap length through the encoding of the sequence.

大久保 他, “改訂三版 H.264/AVC 教科書,” インプレスR&D, P.118-123, Jan. 2009.Okubo et al., “Revised Third Edition H.264 / AVC Textbook,” Impress R & D, P.118-123, Jan. 2009. Ken McCann et al., “Samsung’s Response to the Call for Proposals on Video Compression Technology,” in Document JCTVC-A124 (ITU-T SG16 Q.6 (VCEG) and ISO/IEC JCT1/SC29/WG11 (MPEG)), P. 12-14, Apr. 2010.Ken McCann et al., “Samsung's Response to the Call for Proposals on Video Compression Technology,” in Document JCTVC-A124 (ITU-T SG16 Q.6 (VCEG) and ISO / IEC JCT1 / SC29 / WG11 (MPEG)), P. 12-14, Apr. 2010.

ところで、従来の補間フィルタでは、フィルタのタップ長が固定されていた。これは、フィルタを適用する領域の信号の特性が変化しないことを前提としているためである。しかしながら、一般的に長いタップ長のフィルタを用いることで、補間精度は向上するとされている。つまり、画像によっては、短いタップ長のフィルタ使用に伴う補間精度の低下を小さく抑えることが可能である。例えば、信号の特性の異なる領域(背景領域と動物体領域)の境界部をフィルタリングの対象とする場合である。   By the way, in the conventional interpolation filter, the tap length of the filter is fixed. This is because it is assumed that the characteristics of the signal in the region to which the filter is applied do not change. However, the interpolation accuracy is generally improved by using a filter with a long tap length. That is, depending on the image, it is possible to suppress a decrease in interpolation accuracy due to the use of a filter with a short tap length. For example, it is a case where the boundary part of the area | region (background area | region and moving body area | region) from which the characteristic of a signal differs is made into the object of filtering.

しかしながら、従来技術では、画像によっては、短いタップ長のフィルタ使用に伴う補間精度の低下を小さく抑えることが可能であるにも拘わらず、フィルタのタップ長が固定されていたため、フィルタ係数算出に必要な複雑な計算を行わなければならず、復号処理の演算量も低減することができないという問題がある。   However, in the prior art, the filter tap length is fixed despite the fact that, depending on the image, it is possible to suppress a decrease in interpolation accuracy due to the use of a filter with a short tap length, it is necessary to calculate the filter coefficient. There is a problem that complicated calculation must be performed and the amount of calculation of the decoding process cannot be reduced.

本発明は、このような事情を考慮してなされたものであり、その目的は、画像の有する局所性(局所的性質)を考慮して、フィルタのタップ長をフレーム内で適応的に制御可能とし、フレーム内で複数のタップ長のフィルタ群を切り替えることで、フィルタ係数算出に必要な計算複雑度を削減して、復号処理の演算量の低減化、高速化を図ることができ、符号化処理の効率化を図ることができる映像符号化方法、及び映像復号方法を提供することにある。   The present invention has been made in consideration of such circumstances, and its purpose is to allow adaptive control of the filter tap length within a frame in consideration of the locality (local nature) of the image. By switching between multiple tap length filter groups within a frame, the computational complexity required for filter coefficient calculation can be reduced, and the amount of decoding processing can be reduced and speeded up. An object of the present invention is to provide a video encoding method and a video decoding method capable of improving processing efficiency.

上述した課題を解決するために、本発明は、小数画素精度の動き補償フレーム間予測を用いる映像符号化方法であって、予測の単位となるブロックサイズと動きベクトルとを取得するステップと、参照フレームの画素値を入力としてフィルタリング処理により参照信号を生成するか否かを判定するステップと、前記参照信号を生成すると判定された場合に、前記ブロックサイズに基づいて、前記参照信号を生成するための参照信号生成フィルタを選択するステップと、前記選択された参照信号生成フィルタを用いて参照信号を生成し、予測画像を生成するステップとを含むことを特徴とする映像符号化方法である。   In order to solve the above-described problem, the present invention provides a video encoding method using motion compensated inter-frame prediction with decimal pixel accuracy, the step of obtaining a block size and a motion vector as a unit of prediction, and a reference Determining whether or not to generate a reference signal by filtering processing using a pixel value of a frame as input, and generating the reference signal based on the block size when it is determined to generate the reference signal A reference signal generation filter, and a step of generating a reference signal using the selected reference signal generation filter to generate a predicted image.

本発明は、上記の発明において、前記参照信号生成フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a filter group generated in an encoding process is used as a selection candidate of the reference signal generation filter.

本発明は、上記の発明において、前記参照信号生成フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a predetermined filter group is used as a selection candidate of the reference signal generation filter.

また、上述した課題を解決するために、本発明は、小数画素精度の動き補償フレーム間予測を用いる映像符号化方法であって、予測の単位となるブロックサイズと動きベクトルとを取得するステップと、前記動きベクトルに基づいて、小数画素位置の画素値を生成するか否かを判定するステップと、前記小数画素位置の補間画素値を生成すると判定された場合に、前記ブロックサイズに基づいて、前記小数画素位置の補間画素値を生成するための補間フィルタを選択するステップと、前記選択された補間フィルタを用いて小数精度画素の補間を行い、予測画像を生成するステップとを含むことを特徴とする映像符号化方法である。   In order to solve the above-described problem, the present invention is a video encoding method using motion compensated inter-frame prediction with decimal pixel accuracy, the block obtaining a block size and a motion vector as a unit of prediction, and Determining whether or not to generate a pixel value at a decimal pixel position based on the motion vector, and when determining to generate an interpolated pixel value at the decimal pixel position, based on the block size, Selecting an interpolation filter for generating an interpolated pixel value at the decimal pixel position; and interpolating decimal precision pixels using the selected interpolation filter to generate a predicted image. Is a video encoding method.

本発明は、上記の発明において、前記補間フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a filter group generated in an encoding process is used as a candidate for selection of the interpolation filter.

本発明は、上記の発明において、前記補間フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a predetermined filter group is used as a candidate for selection of the interpolation filter.

また、上述した課題を解決するために、本発明は、小数画素精度の動き補償フレーム間予測を用いる映像復号方法であって、予測の単位となるブロックサイズと動きベクトルとを復号するステップと、参照フレームの画素値を入力としてフィルタリング処理により参照信号を生成するか否かを判定するステップと、前記参照信号を生成すると判定された場合に、前記ブロックサイズに基づいて、前記参照信号を生成するための参照信号生成フィルタを選択するステップと、前記選択された参照信号生成フィルタを用いて参照信号を生成し、予測画像を生成するステップとを含むことを特徴とする映像復号方法である。   Further, in order to solve the above-described problem, the present invention is a video decoding method using motion compensated inter-frame prediction with decimal pixel accuracy, and decoding a block size and a motion vector as a prediction unit; A step of determining whether or not to generate a reference signal by filtering processing using a pixel value of a reference frame as an input, and when it is determined to generate the reference signal, the reference signal is generated based on the block size A video decoding method comprising: selecting a reference signal generation filter for generating a reference signal, and generating a prediction image using the selected reference signal generation filter.

本発明は、上記の発明において、前記参照信号生成フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a filter group generated in an encoding process is used as a selection candidate of the reference signal generation filter.

本発明は、上記の発明において、前記参照信号生成フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a predetermined filter group is used as a selection candidate of the reference signal generation filter.

また、上述した課題を解決するために、本発明は、小数画素精度の動き補償フレーム間予測を用いる映像復号方法であって、予測の単位となるブロックサイズと動きベクトルとを復号するステップと、前記動きベクトルに基づいて小数画素位置の画素値を生成するか否かを判定するステップと、前記小数画素位置の補間画素値を生成すると判定された場合に、前記ブロックサイズに基づいて、前記小数画素位置の補間画素値を生成するための補間フィルタを選択するステップと、前記選択された補間フィルタを用いて小数精度画素の補間を行い、予測画像を生成するステップとを含むことを特徴とする映像復号方法である。   Further, in order to solve the above-described problem, the present invention is a video decoding method using motion compensated inter-frame prediction with decimal pixel accuracy, and decoding a block size and a motion vector as a prediction unit; Determining whether or not to generate a pixel value at a decimal pixel position based on the motion vector; and, if it is determined to generate an interpolated pixel value at the decimal pixel position, based on the block size, the decimal A step of selecting an interpolation filter for generating an interpolated pixel value at a pixel position; and a step of interpolating decimal precision pixels using the selected interpolation filter to generate a predicted image. This is a video decoding method.

本発明は、上記の発明において、前記補間フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a filter group generated in an encoding process is used as a candidate for selection of the interpolation filter.

本発明は、上記の発明において、前記補間フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする。   The present invention is characterized in that, in the above invention, a predetermined filter group is used as a candidate for selection of the interpolation filter.

この発明によれば、画像の有する局所性(局所的性質)を考慮して、フィルタのタップ長をフレーム内で適応的に制御可能とし、フレーム内で複数のタップ長のフィルタ群を切り替えることでフィルタ係数算出に必要な計算複雑度を削減して、復号処理の演算量低減を図ることができる。   According to the present invention, considering the locality (local nature) of an image, the tap length of a filter can be adaptively controlled within a frame, and a filter group having a plurality of tap lengths can be switched within a frame. It is possible to reduce the computational complexity required for filter coefficient calculation and to reduce the amount of decoding processing.

本実施形態による動画像符号化器の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder by this embodiment. 従来技術によるインター予測処理部102の構成を示すブロック図である。It is a block diagram which shows the structure of the inter prediction process part 102 by a prior art. 従来技術によるインター予測処理部102の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the inter prediction process part 102 by a prior art. 本実施形態によるインター予測処理部102の構成を示すブロック図である。It is a block diagram which shows the structure of the inter prediction process part 102 by this embodiment. 本実施形態によるインター予測処理部102の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the inter prediction process part 102 by this embodiment. 本実施形態による動画像復号器の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoder by this embodiment. 従来技術によるインター予測処理部203の構成を示すブロック図である。It is a block diagram which shows the structure of the inter prediction process part 203 by a prior art. 本実施形態によるインター予測処理部203の構成を示すブロック図である。It is a block diagram which shows the structure of the inter prediction process part 203 by this embodiment.

以下、本発明の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本発明では、フィルタのタップ長をシーケンスに対して固定せずに、画像の局所的性質に応じて、複数のフィルタ係数群を用意して切り替えることで補間フィルタ生成の演算量を低減し、復号処理の演算量の低減を実現することを特徴とする。   In the present invention, the filter tap length is not fixed to the sequence, and a plurality of filter coefficient groups are prepared and switched according to the local properties of the image, thereby reducing the amount of computation for generating the interpolation filter and decoding. It is characterized by realizing a reduction in the processing amount of processing.

可変ブロックサイズ予測において、ブロックは、性質の類似した画素の集合と考えることができる。このため、ブロックをまたぐフィルタリングは、性質の異なる領域を参照することになる。このため、サイズの小さなブロックに対しては、タップ長の短いフィルタであっても、補間精度の低下は小さいものと予想される。そこで、ブロックサイズに基づいて、フィルタのタップ長を切り替える適応処理を導入する。   In variable block size prediction, a block can be considered as a collection of pixels with similar properties. For this reason, filtering across blocks refers to areas with different properties. For this reason, for a small-sized block, even if a filter with a short tap length is used, the decrease in interpolation accuracy is expected to be small. Therefore, an adaptive process for switching the filter tap length based on the block size is introduced.

なお、可変ブロックサイズ予測において、ブロックサイズは、符号化情報として復号側に伝送されるため、本適応処理のために、別途、付加情報を伝送する必要はない。   In the variable block size prediction, since the block size is transmitted to the decoding side as encoded information, it is not necessary to separately transmit additional information for the adaptive processing.

図1は、本実施形態による動画像符号化器の構成を示すブロック図である。図1において、動画像符号化器は、イントラ予測処理部101、インター予測処理部102、変換・量子化処理部103、逆変換・逆量子化処理部104、加算器A1、A2、インループフィルタ処理部105、復号信号記憶部106、インター予測情報符号化部107、イントラ予測情報符号化部108、エントロピ符号化処理部109からなる。   FIG. 1 is a block diagram illustrating a configuration of a moving image encoder according to the present embodiment. In FIG. 1, a moving image encoder includes an intra prediction processing unit 101, an inter prediction processing unit 102, a transform / quantization processing unit 103, an inverse transform / inverse quantization processing unit 104, adders A1, A2, and an in-loop filter. The processing unit 105 includes a decoded signal storage unit 106, an inter prediction information encoding unit 107, an intra prediction information encoding unit 108, and an entropy encoding processing unit 109.

加算器A1は、後述するイントラ予測処理部101、またはインター予測処理部102からのイントラ予測モード、またはインター予測モードと、入力信号(原信号)との差分信号(予測残差信号)を生成する。変換・量子化処理部103は、イントラ予測(ないしはインター予測)誤差信号に対する変換処理を行い、変換係数を生成し、変換係数に対する量子化処理を行い、量子化後係数信号を生成する。   The adder A1 generates a difference signal (prediction residual signal) between an intra prediction mode or inter prediction mode from the intra prediction processing unit 101 or the inter prediction processing unit 102, which will be described later, and an input signal (original signal). . The transform / quantization processing unit 103 performs transform processing on the intra prediction (or inter prediction) error signal, generates transform coefficients, performs quantization processing on the transform coefficients, and generates a quantized coefficient signal.

逆変換・逆量子化処理部104は、量子化後係数信号に対する逆量子化処理を行い、変換係数の復号値を生成し、該変化係数の復号値に対して、逆変換処理を行い、予測誤差信号の復号信号を生成する。加算器A2は、予測残差信号の復号信号に、イントラ予測処理部101、またはインター予測処理部102からの予測信号を加算して、復号信号を生成する。インループフィルタ処理部105は、復号信号にフィルタ処理を行う。復号信号記憶部106は、フィルタ処理後の復号信号を保持する。   The inverse transform / inverse quantization processing unit 104 performs an inverse quantization process on the quantized coefficient signal, generates a decoded value of the transform coefficient, performs an inverse transform process on the decoded value of the change coefficient, and performs prediction. A decoded signal of the error signal is generated. The adder A2 adds the prediction signal from the intra prediction processing unit 101 or the inter prediction processing unit 102 to the decoded signal of the prediction residual signal, and generates a decoded signal. The in-loop filter processing unit 105 performs filter processing on the decoded signal. The decoded signal storage unit 106 holds the decoded signal after the filter processing.

イントラ予測処理部101は、イントラ符号化の方式(イントラ符号化モード)を設定し、設定されたイントラ予測モードに基づき、(イントラ)予測信号を生成する。インター予測処理部102は、インター符号化の方式(インター符号化モード)を設定し、設定されたインター予測モードに基づき、(インター)予測信号を生成する。イントラ予測処理部101、インター予測処理部102の出力は、切替部SW1を介して選択的に切り替え可能となっている。インター予測情報符号化部107は、(インター)予測情報を符号化する。イントラ予測情報符号化部108は、(イントラ)予測情報を符号化する。エントロピ符号化処理部109は、量子化後係数信号、インター予測モード情報、イントラ予測モード情報をエントロピ符号化する。   The intra prediction processing unit 101 sets an intra coding scheme (intra coding mode), and generates an (intra) prediction signal based on the set intra prediction mode. The inter prediction processing unit 102 sets an inter coding method (inter coding mode), and generates an (inter) prediction signal based on the set inter prediction mode. The outputs of the intra prediction processing unit 101 and the inter prediction processing unit 102 can be selectively switched via the switching unit SW1. The inter prediction information encoding unit 107 encodes (inter) prediction information. The intra prediction information encoding unit 108 encodes (intra) prediction information. The entropy encoding processing unit 109 entropy encodes the quantized coefficient signal, the inter prediction mode information, and the intra prediction mode information.

図2は、従来技術によるインター予測処理部102の構成を示すブロック図である。図2において、動きベクトル設定処理部301は、入力信号と復号信号とを入力し、動きベクトルを設定し、動きベクトル情報を出力する。ブロックサイズ設定処理部302は、入力信号(原信号)と復号信号とを入力し、ブロックサイズ情報を出力する。動きベクトル精度判定部303は、動きベクトル情報を入力し、動きベクトルの精度を判定し、判定結果に基づいて、予測信号生成処理部における参照信号生成処理部305、または参照信号指定処理部304のいずれかを選択する。参照信号指定処理部304は、動きベクトル情報、ブロックサイズ情報、及び復号信号を入力し、参照信号を指定し、最終的に予測信号を出力する。参照信号生成処理部305は、動きベクトル情報、ブロックサイズ情報、及び復号信号を入力し、参照信号を生成し、最終的に予測信号を出力する。   FIG. 2 is a block diagram illustrating a configuration of the inter prediction processing unit 102 according to the related art. In FIG. 2, a motion vector setting processing unit 301 inputs an input signal and a decoded signal, sets a motion vector, and outputs motion vector information. The block size setting processing unit 302 inputs an input signal (original signal) and a decoded signal, and outputs block size information. The motion vector accuracy determination unit 303 receives the motion vector information, determines the accuracy of the motion vector, and based on the determination result, the reference signal generation processing unit 305 or the reference signal designation processing unit 304 of the prediction signal generation processing unit. Choose one. A reference signal designation processing unit 304 receives motion vector information, block size information, and a decoded signal, designates a reference signal, and finally outputs a prediction signal. The reference signal generation processing unit 305 receives motion vector information, block size information, and a decoded signal, generates a reference signal, and finally outputs a prediction signal.

図3は、従来技術によるインター予測処理部102の動作を説明するためのフローチャートである。まず、フレーム間予測のブロックサイズを示す情報を読み込み(ステップS101)、動きベクトルの情報を読み込み(ステップS102)、そして、動きベクトルが指す位置の参照信号を読み込み、予測信号として格納する(ステップS103)。   FIG. 3 is a flowchart for explaining the operation of the inter prediction processing unit 102 according to the prior art. First, information indicating the block size of inter-frame prediction is read (step S101), motion vector information is read (step S102), and a reference signal at a position indicated by the motion vector is read and stored as a prediction signal (step S103). ).

図4は、本実施形態によるインター予測処理部102の構成を示すブロック図である。なお、図2に対応する部分には同一の符号を付けて説明を省略する。従来技術と本実施形態との違いは、図4に示す点線内(予測信号生成処理部)に補間フィルタ選択処理部406が追加されていることである。補間フィルタ選択処理部406は、ブロックサイズ情報に従って、補間フィルタを選択する。   FIG. 4 is a block diagram illustrating a configuration of the inter prediction processing unit 102 according to the present embodiment. It should be noted that parts corresponding to those in FIG. The difference between the prior art and this embodiment is that an interpolation filter selection processing unit 406 is added within the dotted line (predicted signal generation processing unit) shown in FIG. The interpolation filter selection processing unit 406 selects an interpolation filter according to the block size information.

このとき、補間フィルタ選択処理部406は、参照信号を生成するための参照信号生成フィルタのタップ長、またはフィルタ係数を、ブロックサイズ、あるいは、ブロックの辺長に応じて設定するようにしてもよい。また、補間画素値を生成するための補間フィルタのタップ長またはフィルタ係数を、ブロックサイズ、あるいは、ブロックの辺長に応じて設定するようにしてもよい。   At this time, the interpolation filter selection processing unit 406 may set the tap length of the reference signal generation filter or the filter coefficient for generating the reference signal according to the block size or the side length of the block. . Further, the tap length or filter coefficient of the interpolation filter for generating the interpolation pixel value may be set according to the block size or the side length of the block.

図5は、本実施形態によるインター予測処理部102の動作を説明するためのフローチャートである。まず、フレーム間予測のブロックサイズを示す情報を読み込み(ステップS201)、動きベクトルの情報を読み込む(ステップS202)。次に、画素生成に補間フィルタを使用するか否かを判定し(ステップS203)、補間フィルタを使用しない場合には、動きベクトルが指す位置の参照信号を読み込み、予測信号として格納する(ステップS207)。   FIG. 5 is a flowchart for explaining the operation of the inter prediction processing unit 102 according to the present embodiment. First, information indicating the block size of inter-frame prediction is read (step S201), and motion vector information is read (step S202). Next, it is determined whether or not an interpolation filter is used for pixel generation (step S203). If the interpolation filter is not used, the reference signal at the position indicated by the motion vector is read and stored as a prediction signal (step S207). ).

一方、補間フィルタを使用する場合には、ブロックサイズが所定の閾値以下であるか否かを判定し(ステップS204)、ブロックサイズが所定の閾値以下である場合には、短いタップ長のフィルタを用いて補間画像を生成し(ステップS205)、動きベクトルが指す位置の参照信号を読み込み、予測信号として格納する(ステップS207)。   On the other hand, when using the interpolation filter, it is determined whether or not the block size is equal to or smaller than a predetermined threshold (step S204). If the block size is equal to or smaller than the predetermined threshold, a filter with a short tap length is selected. Then, an interpolation image is generated (step S205), the reference signal at the position indicated by the motion vector is read and stored as a prediction signal (step S207).

一方、ブロックサイズが所定の閾値以下でない場合には、長いタップ長のフィルタを用いて補間画像を生成し(ステップS206)、動きベクトルが指す位置の参照信号を読み込み、予測信号として格納する(ステップS207)。   On the other hand, if the block size is not equal to or smaller than the predetermined threshold, an interpolation image is generated using a long tap length filter (step S206), the reference signal at the position indicated by the motion vector is read, and stored as a prediction signal (step S206). S207).

図6は、本実施形態による動画像復号器の構成を示すブロック図である。図6において、動画像復号器は、エントロピ復号処理部201、イントラ予測処理部202、インター予測処理部203、逆変換・逆量子化処理部204、加算器B1、インループフィルタ処理部205、復号信号記憶部206、インター予測情報格納部207、イントラ予測情報格納部208からなる。   FIG. 6 is a block diagram showing the configuration of the video decoder according to this embodiment. In FIG. 6, the moving picture decoder includes an entropy decoding processing unit 201, an intra prediction processing unit 202, an inter prediction processing unit 203, an inverse transform / inverse quantization processing unit 204, an adder B1, an in-loop filter processing unit 205, a decoding It comprises a signal storage unit 206, an inter prediction information storage unit 207, and an intra prediction information storage unit 208.

エントロピ復号処理部201は、符号化ユニットの符号化ストリームを入力として、エントロピ復号処理する。逆変換・逆量子化処理部204は、量子化後係数信号を入力として、逆量子化処理を行い、変換係数の復号値を生成し、変換係数の復号値に対して逆変換処理を行い、イントラ(ないしはインター予測)予測残差信号を生成する。   The entropy decoding processing unit 201 receives the encoded stream of the encoding unit as input and performs entropy decoding processing. The inverse transform / inverse quantization processing unit 204 receives the quantized coefficient signal as input, performs an inverse quantization process, generates a decoded value of the transform coefficient, performs an inverse transform process on the decoded value of the transform coefficient, An intra (or inter prediction) prediction residual signal is generated.

インター予測情報格納部207は、エントロピ復号処理部201で復号されたインター予測情報(インター符号化モード)を格納する。イントラ予測情報格納部208は、エントロピ復号処理部201で復号されたイントラ予測情報(イントラ符号化モード)を格納する。イントラ予測処理部202は、復号済みの符号化データから、イントラ符号化の方式(イントラ符号化モード)を読み出し、同イントラ予測モードに基づき、イントラ予測信号を生成する。インター予測処理部203は、復号済みの符号化データから、インター符号化の方式(インター符号化モード)を読み出し、同インター予測モードに基づき、インター予測信号を生成する。イントラ予測処理部202、インター予測処理部203の出力は、切替部SW2を介して選択的に切り替え可能となっている。   The inter prediction information storage unit 207 stores the inter prediction information (inter coding mode) decoded by the entropy decoding processing unit 201. The intra prediction information storage unit 208 stores the intra prediction information (intra coding mode) decoded by the entropy decoding processing unit 201. The intra prediction processing unit 202 reads an intra coding method (intra coding mode) from the decoded encoded data, and generates an intra prediction signal based on the intra prediction mode. The inter prediction processing unit 203 reads an inter coding scheme (inter coding mode) from the decoded encoded data, and generates an inter prediction signal based on the inter prediction mode. Outputs of the intra prediction processing unit 202 and the inter prediction processing unit 203 can be selectively switched via the switching unit SW2.

加算器B1は、予測残差信号、及びイントラ予測信号あるいはインター予測信号を入力として、両者を加算し、復号信号を生成する。インループフィルタ処理部205は、復号信号にフィルタ処理を行う。復号信号記憶部206は、フィルタ処理後の復号信号を保持する。   The adder B1 receives the prediction residual signal and the intra prediction signal or the inter prediction signal, adds them together, and generates a decoded signal. The in-loop filter processing unit 205 performs filter processing on the decoded signal. The decoded signal storage unit 206 holds the decoded signal after the filter processing.

図7は、従来技術によるインター予測処理部203の構成を示すブロック図である。図において、動きベクトル格納部401は、エントロピ復号処理部201からの動きベクトル情報を格納する。ブロックサイズ格納部402は、エントロピ復号処理部201からのブロックサイズ情報を格納する。動きベクトル精度判定部403は、動きベクトル情報を入力し、動きベクトルの精度を判定し、判定結果に基づいて、予測信号生成処理部における参照信号生成処理部405、または参照信号指定処理部404のいずれかを選択する。参照信号指定処理部404は、動きベクトル情報、ブロックサイズ情報、及び復号信号を入力し、参照信号を指定し、最終的に予測信号を出力する。参照信号生成処理部405は、動きベクトル情報、ブロックサイズ情報、及び復号信号を入力し、参照信号を生成し、最終的に予測信号を出力する。
なお、図7に示す従来技術によるインター予測処理部203の動作は、図3に示すフローチャートと同様であるので説明を省略する。
FIG. 7 is a block diagram illustrating a configuration of the inter prediction processing unit 203 according to the related art. In the figure, a motion vector storage unit 401 stores the motion vector information from the entropy decoding processing unit 201. The block size storage unit 402 stores the block size information from the entropy decoding processing unit 201. The motion vector accuracy determination unit 403 receives the motion vector information, determines the accuracy of the motion vector, and, based on the determination result, the reference signal generation processing unit 405 or the reference signal designation processing unit 404 of the prediction signal generation processing unit. Choose one. A reference signal designation processing unit 404 receives motion vector information, block size information, and a decoded signal, designates a reference signal, and finally outputs a prediction signal. The reference signal generation processing unit 405 receives the motion vector information, the block size information, and the decoded signal, generates a reference signal, and finally outputs a prediction signal.
Note that the operation of the inter prediction processing unit 203 according to the prior art shown in FIG. 7 is the same as the flowchart shown in FIG.

図8は、本実施形態によるインター予測処理部203の構成を示すブロック図である。なお、図7に対応する部分には同一の符号を付けて説明を省略する。図において、従来技術と本発明の違いは、図8に示す点線内(予測信号生成処理部)に補間フィルタ選択処理部506が追加されていることである。補間フィルタ選択処理部506は、ブロックサイズ情報に従って、補間フィルタを選択する。   FIG. 8 is a block diagram illustrating a configuration of the inter prediction processing unit 203 according to the present embodiment. It should be noted that portions corresponding to those in FIG. In the figure, the difference between the prior art and the present invention is that an interpolation filter selection processing unit 506 is added within the dotted line (predicted signal generation processing unit) shown in FIG. The interpolation filter selection processing unit 506 selects an interpolation filter according to the block size information.

このとき、補間フィルタ選択処理部506は、参照信号を生成するための参照信号生成フィルタのタップ長またはフィルタ係数を、ブロックサイズ、あるいはブロックの辺長に応じて設定するようにしてもよい。また、補間画素値を生成するための補間フィルタのタップ長またはフィルタ係数を、ブロックサイズ、あるいはブロックの辺長に応じて設定するようにしてもよい。
なお、図8に示す本実施形態によるインター予測処理部203の動作は、図5に示すフローチャートと同様であるので説明を省略する。
At this time, the interpolation filter selection processing unit 506 may set the tap length or the filter coefficient of the reference signal generation filter for generating the reference signal according to the block size or the side length of the block. Further, the tap length or filter coefficient of the interpolation filter for generating the interpolation pixel value may be set according to the block size or the side length of the block.
Note that the operation of the inter prediction processing unit 203 according to this embodiment shown in FIG. 8 is the same as that of the flowchart shown in FIG.

上述した実施形態によれば、従来の補間フィルタでは対応できなかった画像の局所的性質に応じたフィルタ切り替えが可能となり、復号処理の演算量を低減することができ(復号処理の高速化)、符号化効率を向上させることができる。   According to the embodiment described above, it is possible to perform filter switching according to the local properties of an image that cannot be handled by a conventional interpolation filter, and it is possible to reduce the amount of decoding processing (speeding up decoding processing), Encoding efficiency can be improved.

301 動きベクトル設定処理部
302 ブロックサイズ設定処理部
303、403 動きベクトル精度判定部
304、404 参照信号指定処理部
305、405 参照信号生成処理部
406、506 補間フィルタ選択処理部
401 動きベクトル格納部
402 ブロックサイズ格納部
DESCRIPTION OF SYMBOLS 301 Motion vector setting process part 302 Block size setting process part 303,403 Motion vector precision determination part 304,404 Reference signal designation | designated process part 305,405 Reference signal generation process part 406,506 Interpolation filter selection process part 401 Motion vector storage part 402 Block size storage

Claims (12)

小数画素精度の動き補償フレーム間予測を用いる映像符号化方法であって、
予測の単位となるブロックサイズと動きベクトルとを取得するステップと、
参照フレームの画素値を入力としてフィルタリング処理により参照信号を生成するか否かを判定するステップと、
前記参照信号を生成すると判定された場合に、前記ブロックサイズに基づいて、前記参照信号を生成するための参照信号生成フィルタを選択するステップと、
前記選択された参照信号生成フィルタを用いて参照信号を生成し、予測画像を生成するステップと
を含むことを特徴とする映像符号化方法。
A video encoding method using motion compensated inter-frame prediction with decimal pixel precision,
Obtaining a block size and a motion vector as a unit of prediction;
Determining whether to generate a reference signal by a filtering process using a pixel value of a reference frame as an input; and
Selecting a reference signal generation filter for generating the reference signal based on the block size when it is determined to generate the reference signal;
Generating a reference signal using the selected reference signal generation filter, and generating a predicted image.
前記参照信号生成フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする請求項1に記載の映像符号化方法。   The video encoding method according to claim 1, wherein a filter group generated in an encoding process is used as a selection candidate for the reference signal generation filter. 前記参照信号生成フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする請求項1に記載の映像符号化方法。   The video encoding method according to claim 1, wherein a predetermined filter group is used as a selection candidate of the reference signal generation filter. 小数画素精度の動き補償フレーム間予測を用いる映像符号化方法であって、
予測の単位となるブロックサイズと動きベクトルとを取得するステップと、
前記動きベクトルに基づいて、小数画素位置の画素値を生成するか否かを判定するステップと、
前記小数画素位置の補間画素値を生成すると判定された場合に、前記ブロックサイズに基づいて、前記小数画素位置の補間画素値を生成するための補間フィルタを選択するステップと、
前記選択された補間フィルタを用いて小数精度画素の補間を行い、予測画像を生成するステップと
を含むことを特徴とする映像符号化方法。
A video encoding method using motion compensated inter-frame prediction with decimal pixel precision,
Obtaining a block size and a motion vector as a unit of prediction;
Determining whether to generate a pixel value at a decimal pixel position based on the motion vector;
Selecting an interpolation filter for generating an interpolated pixel value at the decimal pixel position based on the block size when it is determined to generate an interpolated pixel value at the decimal pixel position;
And interpolating decimal precision pixels using the selected interpolation filter to generate a predicted image.
前記補間フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする請求項4に記載の映像符号化方法。   The video encoding method according to claim 4, wherein a filter group generated in an encoding process is used as the selection candidate of the interpolation filter. 前記補間フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする請求項4に記載の映像符号化方法。   The video encoding method according to claim 4, wherein a predetermined filter group is used as the selection candidate of the interpolation filter. 小数画素精度の動き補償フレーム間予測を用いる映像復号方法であって、
予測の単位となるブロックサイズと動きベクトルとを復号するステップと、
参照フレームの画素値を入力としてフィルタリング処理により参照信号を生成するか否かを判定するステップと、
前記参照信号を生成すると判定された場合に、前記ブロックサイズに基づいて、前記参照信号を生成するための参照信号生成フィルタを選択するステップと、
前記選択された参照信号生成フィルタを用いて参照信号を生成し、予測画像を生成するステップと
を含むことを特徴とする映像復号方法。
A video decoding method using motion compensated inter-frame prediction with decimal pixel precision,
Decoding a block size and a motion vector as a unit of prediction;
Determining whether to generate a reference signal by a filtering process using a pixel value of a reference frame as an input; and
Selecting a reference signal generation filter for generating the reference signal based on the block size when it is determined to generate the reference signal;
Generating a reference signal using the selected reference signal generation filter, and generating a predicted image.
前記参照信号生成フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする請求項7に記載の映像復号方法。   The video decoding method according to claim 7, wherein a filter group generated in an encoding process is used as a selection candidate of the reference signal generation filter. 前記参照信号生成フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする請求項7に記載の映像復号方法。   The video decoding method according to claim 7, wherein a predetermined filter group is used as a selection candidate of the reference signal generation filter. 小数画素精度の動き補償フレーム間予測を用いる映像復号方法であって、
予測の単位となるブロックサイズと動きベクトルとを復号するステップと、
前記動きベクトルに基づいて小数画素位置の画素値を生成するか否かを判定するステップと、
前記小数画素位置の補間画素値を生成すると判定された場合に、前記ブロックサイズに基づいて、前記小数画素位置の補間画素値を生成するための補間フィルタを選択するステップと、
前記選択された補間フィルタを用いて小数精度画素の補間を行い、予測画像を生成するステップと
を含むことを特徴とする映像復号方法。
A video decoding method using motion compensated inter-frame prediction with decimal pixel precision,
Decoding a block size and a motion vector as a unit of prediction;
Determining whether to generate a pixel value at a decimal pixel position based on the motion vector;
Selecting an interpolation filter for generating an interpolated pixel value at the decimal pixel position based on the block size when it is determined to generate an interpolated pixel value at the decimal pixel position;
And a step of interpolating decimal precision pixels using the selected interpolation filter to generate a predicted image.
前記補間フィルタの選択候補として、符号化過程において生成されるフィルタ群を用いることを特徴とする請求項10に記載の映像復号方法。   The video decoding method according to claim 10, wherein a filter group generated in an encoding process is used as a selection candidate of the interpolation filter. 前記補間フィルタの選択候補として、予め定められたフィルタ群を用いることを特徴とする請求項10に記載の映像復号方法。   The video decoding method according to claim 10, wherein a predetermined filter group is used as a selection candidate of the interpolation filter.
JP2010286540A 2010-12-22 2010-12-22 Video encoding method and video decoding method Active JP5571542B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010286540A JP5571542B2 (en) 2010-12-22 2010-12-22 Video encoding method and video decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010286540A JP5571542B2 (en) 2010-12-22 2010-12-22 Video encoding method and video decoding method

Publications (2)

Publication Number Publication Date
JP2012134870A true JP2012134870A (en) 2012-07-12
JP5571542B2 JP5571542B2 (en) 2014-08-13

Family

ID=46649907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010286540A Active JP5571542B2 (en) 2010-12-22 2010-12-22 Video encoding method and video decoding method

Country Status (1)

Country Link
JP (1) JP5571542B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073196A (en) * 2013-10-02 2015-04-16 日本放送協会 Filter selection device, filtering device, and program therefor
CN110290384A (en) * 2018-03-19 2019-09-27 华为技术有限公司 Image filtering method, device and Video Codec
WO2020141591A1 (en) * 2018-12-31 2020-07-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method, and decoding method
JP2021513813A (en) * 2018-02-14 2021-05-27 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Adaptive interpolation filter
CN113475078A (en) * 2019-01-08 2021-10-01 腾讯美国有限责任公司 Method and apparatus for memory bandwidth reduction of inter-cell blocks

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169337A (en) * 2001-09-18 2003-06-13 Matsushita Electric Ind Co Ltd Image encoding method and image decoding method
JP2004007337A (en) * 2002-04-25 2004-01-08 Sony Corp Image processing apparatus and its method
JP2005514872A (en) * 2002-01-14 2005-05-19 ノキア コーポレイション Coding dynamic filters

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169337A (en) * 2001-09-18 2003-06-13 Matsushita Electric Ind Co Ltd Image encoding method and image decoding method
JP2005514872A (en) * 2002-01-14 2005-05-19 ノキア コーポレイション Coding dynamic filters
JP2004007337A (en) * 2002-04-25 2004-01-08 Sony Corp Image processing apparatus and its method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073196A (en) * 2013-10-02 2015-04-16 日本放送協会 Filter selection device, filtering device, and program therefor
JP2021513813A (en) * 2018-02-14 2021-05-27 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Adaptive interpolation filter
JP7109558B2 (en) 2018-02-14 2022-07-29 ホアウェイ・テクノロジーズ・カンパニー・リミテッド adaptive interpolation filter
CN110290384A (en) * 2018-03-19 2019-09-27 华为技术有限公司 Image filtering method, device and Video Codec
WO2020141591A1 (en) * 2018-12-31 2020-07-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method, and decoding method
CN113056909A (en) * 2018-12-31 2021-06-29 松下电器(美国)知识产权公司 Encoding device, decoding device, encoding method, and decoding method
JPWO2020141591A1 (en) * 2018-12-31 2021-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Coding device, decoding device, coding method, and decoding method
EP3907990A4 (en) * 2018-12-31 2022-03-23 Panasonic Intellectual Property Corporation of America Coding device, decoding device, coding method, and decoding method
US11394968B2 (en) 2018-12-31 2022-07-19 Panasonic Intellectual Property Corporation Of America Encoder that encodes a current block based on a prediction image generated using an interpolation filter
US11722662B2 (en) 2018-12-31 2023-08-08 Panasonic Intellectual Property Corporation Of America Encoder that encodes a current block based on a prediction image generated using an interpolation filter
CN113475078A (en) * 2019-01-08 2021-10-01 腾讯美国有限责任公司 Method and apparatus for memory bandwidth reduction of inter-cell blocks

Also Published As

Publication number Publication date
JP5571542B2 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
US9661344B2 (en) Method and apparatus for encoding and decoding image through intra prediction
JP5081305B2 (en) Method and apparatus for interframe predictive coding
JP5197591B2 (en) VIDEO ENCODING METHOD AND DECODING METHOD, DEVICE THEREOF, THEIR PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5563403B2 (en) Video encoding method, video decoding method, video encoding device, video decoding device, and programs thereof
CN102804779A (en) Image processing device and method
JP2006279573A (en) Encoder and encoding method, and decoder and decoding method
TWI504241B (en) Video encoding method and apparatus, video decoding method and apparatus, and programs product thereof
WO2013002144A1 (en) Method and device for encoding video image, method and device for decoding video image, and program therefor
JP2009089332A (en) Motion prediction method and motion predictor
WO2012173109A1 (en) Video encoding device, video decoding device, video encoding method, video decoding method, video encoding program, video decoding program
JP5560009B2 (en) Video encoding device
US20100014765A1 (en) Motion vector detecting device, motion vector detecting method, image encoding device, and program
JP5571542B2 (en) Video encoding method and video decoding method
JP5762243B2 (en) Video encoding method, apparatus, video decoding method, apparatus, and program thereof
WO2020057664A1 (en) Method and apparatus for determining motion vector
JP4427553B2 (en) Video decoding device
US8189672B2 (en) Method for interpolating chrominance signal in video encoder and decoder
JP2006246277A (en) Re-encoding apparatus, re-encoding method, and re-encoding program
KR20110126075A (en) Method and apparatus for video encoding and decoding using extended block filtering
WO2014006959A1 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
JP2020053725A (en) Predictive image correction device, image encoding device, image decoding device, and program
JP4561701B2 (en) Video encoding device
JP5592295B2 (en) Image encoding method, image encoding device, image decoding method, image decoding device, and programs thereof
JP6874844B2 (en) Moving image coding device, moving image coding method, and moving image coding program
JP4134078B2 (en) Video decoding device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140626

R150 Certificate of patent or registration of utility model

Ref document number: 5571542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150