JP2008211810A - Moving image reversible encoding method and decoding method thereof, and program therefor - Google Patents

Moving image reversible encoding method and decoding method thereof, and program therefor Download PDF

Info

Publication number
JP2008211810A
JP2008211810A JP2008059225A JP2008059225A JP2008211810A JP 2008211810 A JP2008211810 A JP 2008211810A JP 2008059225 A JP2008059225 A JP 2008059225A JP 2008059225 A JP2008059225 A JP 2008059225A JP 2008211810 A JP2008211810 A JP 2008211810A
Authority
JP
Japan
Prior art keywords
prediction
signal
motion vector
dimensional
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008059225A
Other languages
Japanese (ja)
Other versions
JP4511607B2 (en
Inventor
Takayuki Nakachi
孝之 仲地
Tatsuya Fujii
竜也 藤井
Tomoko Sawabe
知子 澤邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008059225A priority Critical patent/JP4511607B2/en
Publication of JP2008211810A publication Critical patent/JP2008211810A/en
Application granted granted Critical
Publication of JP4511607B2 publication Critical patent/JP4511607B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform moving image reversible encoding with excellent encoding efficiency and decoding thereof, with space resolution scalability. <P>SOLUTION: A band dividing section 10 divides a source signal into a plurality of space resolution bands. A space-time adaptive prediction encoding dividing section 11 is provided for each band and estimates a motion of a target object for the unit of a small block to determine a motion vector. The motion vector defines a motion vector of a bottom frequency band as a reference. An inter-frame correlation coefficient R is calculated from a current frame and the reference frame shifted by the motion vector, the R is compared with a threshold value. In the case that the inter-frame correlation is strong, three-dimensional prediction is performed but in the case that the inter-frame correlation is weak, two-dimensional prediction is performed to produce a predictive residual signal. An entropy encoding section 12 performs entropy encoding upon the predictive residual signal produced by the space-time adaptive prediction encoding section 11 and the motion vector used by the space-time adaptive prediction encoding section 11 and outputs an encoded bit stream. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動画像を効率よく伝送、蓄積するための、符号化および復号化の技術に関する。   The present invention relates to encoding and decoding techniques for efficiently transmitting and storing moving images.

可逆画像符号化方式としては、JPEG−LSやJPEG2000の可逆符号化モードが知られている。JPEG−LSは、フレーム内予測器を使用して、予測器の出力である予測信号と原信号の差を符号化している。フレーム内予測器を使用していることにより、フレーム内の信号の相関を利用して符号化効率を高めている。JPEG2000では、ロスレスWavelet変換を行い、Wavelet係数を符号化している。Wavelet変換を用いて画像信号を空間周波数帯域で分割し帯域毎に符号化を行っているために、空間解像度スケーラビリティを有する。   As a lossless image encoding method, JPEG-LS or JPEG2000 lossless encoding modes are known. JPEG-LS encodes a difference between a prediction signal that is an output of a predictor and an original signal by using an intra-frame predictor. By using the intra-frame predictor, the coding efficiency is improved by utilizing the correlation of signals in the frame. In JPEG2000, lossless Wavelet conversion is performed, and Wavelet coefficients are encoded. Since the image signal is divided into spatial frequency bands by using Wavelet transform and encoding is performed for each band, spatial resolution scalability is provided.

しかしながら、上記従来の両方式とも静止画像を対象としているために、動画に適応した場合、フレーム間の信号相関を利用することができない。動画像の非可逆符号化としては、空間解像度スケーラビリティを有し、フレーム間相関を利用した方法として、サブバンド領域で動き補償を行う方法があるが、動き補償はブロック単位に予測を行うことから符号化効率は必ずしも良くない。空間解像度スケーラビリティを有するとは、一つの符号化ビットストリームから異なる空間解像度の画像を直接復号化可能であることを示す。   However, since both of the conventional systems are intended for still images, signal correlation between frames cannot be used when adapted to moving images. As lossy encoding of moving images, there is a method that performs spatial compensation in the subband region as a method that has spatial resolution scalability and uses inter-frame correlation, but motion compensation performs prediction in units of blocks. Encoding efficiency is not always good. Having spatial resolution scalability indicates that images of different spatial resolutions can be directly decoded from one encoded bitstream.

本発明は、空間解像度スケーラビリティを有し、符号化効率に優れる動画像可逆符号化方法とその復号化方法、及びそれらのプログラムを提案することが課題である。   An object of the present invention is to propose a moving image lossless encoding method, a decoding method thereof, and a program thereof having spatial resolution scalability and excellent encoding efficiency.

上記の課題を解決するために、請求項1に係る発明は、動画像を対象とする可逆符号化方法において、
原画像を帯域分割し、
該分割した帯域のうち最低周波数帯域についてブロック単位にSAD計算を行って動きベクトルを求め、所定の閾値Tより大きいSAD値を与えるブロック内の画素は2次元予測を行い、所定の閾値T以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化し、
二番目に低い周波数帯域の符号化では、最低周波数帯域において2次元予測を行ったブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、所定の閾値T2より大きいSAD値を与えるブロック内の画素は直接符号化し、前記閾値T2以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化し、
以降の高周波数帯域の符号化では、直前に符号化された周波数帯域において直接符号化したブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、周波数帯域ごとに定められた閾値Txより大きいSAD値を与えるブロック内の画素は直接符号化し、所定の閾値Tx以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する際に、
該時空間適応予測では、前記SAD計算で求めた動きベクトルを用いて現フレームと、シフト手段でシフトした参照フレームの被符号化対象画素近傍信号値の相関係数を計算し、相関係数が大きい場合には、現フレームと参照フレームの被符号化対象画素近傍信号値を用いて予測を行う3次元予測に切換え、相関係数が小さい場合には、現フレームの被符号化対象画素近傍信号値のみを用いて予測を行う2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレームの被符号化対象画素近傍信号値から画素毎に複数の2次元予測器を切換えて予測残差信号を算出し、
該3次元予測に切換えられた場合には、現フレームと参照フレームの被符号化対象画素近傍信号値から画素毎に複数の3次元予測器を切換えて予測残差信号を算出することを特徴とする動画像可逆符号化方法である。
In order to solve the above problem, the invention according to claim 1 is a lossless encoding method for moving images.
The original image is divided into bands,
A motion vector is obtained by performing SAD calculation for each lowest frequency band among the divided bands to obtain a motion vector. Pixels in a block that give an SAD value larger than a predetermined threshold T are subjected to two-dimensional prediction, and are equal to or lower than the predetermined threshold T. Pixels in the block giving the SAD value perform space-time adaptive prediction to obtain a prediction residual signal, encode the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the second lowest frequency band coding, the pixels of the spatial block corresponding to the block for which the two-dimensional prediction is performed in the lowest frequency band are directly coded, and the other blocks are subjected to SAD calculation to obtain a motion vector. The pixels in the block that give a SAD value greater than a predetermined threshold T2 are directly encoded, and the pixels in the block that give a SAD value less than or equal to the threshold T2 are subjected to spatiotemporal adaptive prediction to obtain a prediction residual signal. Encode the residual signal and the motion vector used in the space-time adaptive prediction,
In the subsequent high frequency band encoding, the pixels of the spatial block corresponding to the block directly encoded in the frequency band encoded immediately before are directly encoded, and the other blocks perform the SAD calculation to obtain the motion vector. The pixels in the block that give a SAD value larger than the threshold value Tx determined for each frequency band are directly encoded, and the pixels in the block that give a SAD value less than or equal to the predetermined threshold value Tx are predicted by performing space-time adaptive prediction. When obtaining a residual signal and encoding the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the spatio-temporal adaptive prediction, the correlation coefficient between the current pixel and the reference frame pixel value to be encoded between the current frame and the reference frame shifted by the shift means is calculated using the motion vector obtained by the SAD calculation. If the correlation coefficient is small, switch to three-dimensional prediction that performs prediction using the encoding target pixel neighboring signal values of the current frame and the reference frame. If the correlation coefficient is small, the encoding target pixel neighboring signal of the current frame Switch to two-dimensional prediction that uses only values to make predictions,
In the case of switching to the two-dimensional prediction, a prediction residual signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the encoding target pixel vicinity signal value of the current frame,
When switching to the three-dimensional prediction, the prediction residual signal is calculated by switching a plurality of three-dimensional predictors for each pixel from the encoding target pixel neighboring signal values of the current frame and the reference frame. This is a lossless video encoding method.

また、請求項2に係る発明は、請求項1において、閾値より大きいSAD値が得られたブロックの符号化信号に、時空間適応予測処理をしなかったことを示す符号を付加することを特徴とする動画像可逆符号化方法である。   The invention according to claim 2 is characterized in that, in claim 1, a code indicating that the spatio-temporal adaptive prediction processing has not been performed is added to an encoded signal of a block in which an SAD value larger than a threshold value is obtained. This is a lossless video encoding method.

また、請求項3に係る発明は、動画像を出力する可逆復号化方法において、
請求項1記載の動画像可逆符号化方法により符号化された帯域別の直接符号化ブロック、予測残差信号および動きベクトルを受信し、
最低周波数帯域から最高周波数帯域の順番で、該帯域別に、直接符号化ブロック、予測残差信号および動きベクトルを復号し、予測残差信号と動きベクトルからさらに時空間適応予測復号を行い、
復号された帯域を帯域合成して動画像を復号する際に、
該時空間適応予測復号では、該動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値と、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値との相関係数を計算し、相関係数が大きい場合には3次元予測に切換え、相関係数が小さい場合には2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値から、画素毎に複数の2次元予測器を切換えて予測信号を算出し、
該3次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値と、動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値から、画素毎に複数の3次元予測器を切換えて予測信号を算出し、
該予測信号に該予測残差信号を付加して対象信号を復号化することを特徴とする動画像可逆復号化方法である。
According to a third aspect of the present invention, in the lossless decoding method for outputting a moving image,
Receiving a direct coding block for each band, a prediction residual signal and a motion vector encoded by the video lossless encoding method according to claim 1;
In the order of the lowest frequency band to the highest frequency band, for each band, the direct coding block, the prediction residual signal and the motion vector are decoded, and the space-time adaptive prediction decoding is further performed from the prediction residual signal and the motion vector,
When decoding a moving image by combining the decoded bands,
In the spatio-temporal adaptive prediction decoding, a correlation coefficient between a decoding target pixel neighboring signal value of a reference frame shifted using the motion vector and a decoding target pixel neighboring signal value composed of a decoded signal of a signal in the current frame When the correlation coefficient is large, switch to 3D prediction, and when the correlation coefficient is small, switch to 2D prediction.
In the case of switching to the two-dimensional prediction, a prediction signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the decoding target pixel neighboring signal value including the decoded signal of the signal in the current frame,
In the case of switching to the three-dimensional prediction, from the decoding target pixel neighboring signal value composed of the decoded signal of the signal in the current frame and the decoding target pixel neighboring signal value of the reference frame shifted using the motion vector, Calculate prediction signals by switching multiple 3D predictors for each pixel,
A moving image lossless decoding method comprising decoding a target signal by adding the prediction residual signal to the prediction signal.

また、請求項4に係る発明は、動画像を対象とする可逆符号化装置に、
原画像を帯域分割する手順、
該分割した帯域のうち最低周波数帯域についてブロック単位にSAD計算を行って動きベクトルを求め、所定の閾値Tより大きいSAD値を与えるブロック内の画素は2次元予測を行い、所定の閾値T以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順、
二番目に低い周波数帯域の符号化では、最低周波数帯域において2次元予測を行ったブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、所定の閾値T2より大きいSAD値を与えるブロック内の画素は直接符号化し、前記閾値T2以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順、
以降の高周波数帯域の符号化では、直前に符号化された周波数帯域において直接符号化したブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、周波数帯域ごとに定められた閾値Txより大きいSAD値を与えるブロック内の画素は直接符号化し、所定の閾値Tx以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順を実行させ、さらに、
該時空間適応予測では、前記SAD計算で求めた動きベクトルを用いて現フレームと、シフト手段でシフトした参照フレームの被符号化対象画素近傍信号値の相関係数を計算し、相関係数が大きい場合には、現フレームと参照フレームの被符号化対象画素近傍信号値を用いて予測を行う3次元予測に切換え、相関係数が小さい場合には、現フレームの被符号化対象画素近傍信号値のみを用いて予測を行う2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレームの被符号化対象画素近傍信号値から画素毎に複数の2次元予測器を切換えて予測残差信号を算出し、
該3次元予測に切換えられた場合には、現フレームと参照フレームの被符号化対象画素近傍信号値から画素毎に複数の3次元予測器を切換えて予測残差信号を算出する手順を実行させるためのプログラムである。
According to a fourth aspect of the present invention, there is provided a lossless encoding apparatus for moving images.
The procedure for dividing the original image into bands,
A motion vector is obtained by performing SAD calculation for each lowest frequency band among the divided bands to obtain a motion vector. Pixels in a block that give an SAD value larger than a predetermined threshold T are subjected to two-dimensional prediction, and are equal to or lower than the predetermined threshold T. A pixel in the block that gives the SAD value performs a spatiotemporal adaptive prediction to obtain a prediction residual signal, and encodes the prediction residual signal and the motion vector used in the spatiotemporal adaptive prediction.
In the second lowest frequency band coding, the pixels of the spatial block corresponding to the block for which the two-dimensional prediction is performed in the lowest frequency band are directly coded, and the other blocks are subjected to SAD calculation to obtain a motion vector. The pixels in the block that give a SAD value greater than a predetermined threshold T2 are directly encoded, and the pixels in the block that give a SAD value less than or equal to the threshold T2 are subjected to spatiotemporal adaptive prediction to obtain a prediction residual signal. A procedure for encoding a residual signal and a motion vector used in the space-time adaptive prediction;
In the subsequent high frequency band encoding, the pixels of the spatial block corresponding to the block directly encoded in the frequency band encoded immediately before are directly encoded, and the other blocks perform the SAD calculation to obtain the motion vector. The pixels in the block that give a SAD value larger than the threshold value Tx determined for each frequency band are directly encoded, and the pixels in the block that give a SAD value less than or equal to the predetermined threshold value Tx are predicted by performing space-time adaptive prediction. Obtaining a residual signal, and executing a procedure for encoding the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the spatio-temporal adaptive prediction, the correlation coefficient between the current pixel and the reference frame pixel value to be encoded between the current frame and the reference frame shifted by the shift means is calculated using the motion vector obtained by the SAD calculation. If the correlation coefficient is small, switch to three-dimensional prediction that performs prediction using the encoding target pixel neighboring signal values of the current frame and the reference frame. If the correlation coefficient is small, the encoding target pixel neighboring signal of the current frame Switch to two-dimensional prediction that uses only values to make predictions,
In the case of switching to the two-dimensional prediction, a prediction residual signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the encoding target pixel vicinity signal value of the current frame,
When switching to the three-dimensional prediction, a procedure for calculating a prediction residual signal by switching a plurality of three-dimensional predictors for each pixel from the signal to be encoded pixel vicinity signal values of the current frame and the reference frame is executed. It is a program for.

また、請求項5に係る発明は、動画像を出力する可逆復号化装置に、
請求項1記載の動画像可逆符号化方法により符号化された帯域別の直接符号化ブロック、予測残差信号および動きベクトルを受信させる手順、
最低周波数帯域から最高周波数帯域の順番で、該帯域別に、直接符号化ブロック、予測残差信号および動きベクトルを復号し、予測残差信号と動きベクトルからさらに時空間適応予測復号を行わせる手順、
復号された帯域を帯域合成して動画像を復号する手順を実行させ、さらに、
該時空間適応予測復号では、該動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値と、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値との相関係数を計算し、相関係数が大きい場合には3次元予測に切換え、相関係数が小さい場合には2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値から、画素毎に複数の2次元予測器を切換えて予測信号を算出し、
該3次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値と、動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値から、画素毎に複数の3次元予測器を切換えて予測信号を算出し、
該予測信号に該予測残差信号を付加して対象信号を復号化する手順を実行させるためのプログラムである。
The invention according to claim 5 provides a lossless decoding apparatus that outputs a moving image,
A procedure for receiving a direct coding block for each band, a prediction residual signal, and a motion vector encoded by the moving image lossless encoding method according to claim 1;
A procedure for decoding a direct coding block, a prediction residual signal, and a motion vector for each band in order from the lowest frequency band to the highest frequency band, and further performing space-time adaptive prediction decoding from the prediction residual signal and the motion vector,
A procedure for decoding the moving image by performing band synthesis on the decoded band,
In the spatio-temporal adaptive prediction decoding, a correlation coefficient between a decoding target pixel neighboring signal value of a reference frame shifted using the motion vector and a decoding target pixel neighboring signal value composed of a decoded signal of a signal in the current frame When the correlation coefficient is large, switch to 3D prediction, and when the correlation coefficient is small, switch to 2D prediction.
In the case of switching to the two-dimensional prediction, a prediction signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the decoding target pixel neighboring signal value including the decoded signal of the signal in the current frame,
In the case of switching to the three-dimensional prediction, from the decoding target pixel neighboring signal value composed of the decoded signal of the signal in the current frame and the decoding target pixel neighboring signal value of the reference frame shifted using the motion vector, Calculate prediction signals by switching multiple 3D predictors for each pixel,
It is a program for executing a procedure for decoding a target signal by adding the prediction residual signal to the prediction signal.

本発明では、空間解像度スケーラビリティを実現するために、画像を空間解像度の帯域で分割し、帯域毎に符号化を行う。符号化には、画素毎にフレーム内予測(2次元予測)とフレーム間予測(3次元予測)を切換える時空間適応予測符号化を用いて符号化効率を高める。   In the present invention, in order to realize spatial resolution scalability, an image is divided into spatial resolution bands, and encoding is performed for each band. For encoding, spatiotemporal adaptive prediction encoding is used to increase the encoding efficiency by switching between intra-frame prediction (two-dimensional prediction) and inter-frame prediction (three-dimensional prediction) for each pixel.

本発明によれば、動画像の効率の良い可逆符号化ができ、少ないディスク容量で保存が可能となる。さらに、空間解像度スケーラビリティ性を有するために、画像表示機器の性能や用途に応じた空間解像度で、画像を復号化することが可能である。低域から任意の帯域までを復号化すると、原画像よりも低い空間解像度の画像を再生でき、全てのデータを復号化すると、原画像と同じ解像度の画像が再生される。画像表示装置の精度や用途に応じて原画像より低い解像度の画像を再生したい場合は、必要な帯域までに対する復号化のみが必要であり、復号化を行えば画像を符号化データより直接復号化でき、原画像と同じ解像度の画像を再生してから解像度変換を行うよりも処理時間が短くなる。また、符号化ビットストリームを伝送する場合は、必要なデータのみを伝送するので、伝送レートも小さくなる。   According to the present invention, it is possible to efficiently perform lossless encoding of moving images and to store them with a small disk capacity. Furthermore, since it has spatial resolution scalability, it is possible to decode an image with a spatial resolution according to the performance and application of the image display device. When decoding from a low band to an arbitrary band, an image having a lower spatial resolution than the original image can be reproduced, and when all data is decoded, an image having the same resolution as the original image is reproduced. If you want to reproduce an image with a resolution lower than the original image depending on the accuracy and application of the image display device, you only need to decode up to the required bandwidth. If you perform decoding, the image is directly decoded from the encoded data. The processing time is shorter than when the resolution conversion is performed after the image having the same resolution as the original image is reproduced. Also, when transmitting an encoded bit stream, only the necessary data is transmitted, so the transmission rate is also reduced.

以下、本発明の実施の形態について図を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1実施形態例]
図1に空間解像度スケーラビリティを持つ動画像符号化方法を実現するための基本構成を示す。図1において、10は帯域分割部、11は分割された帯域毎に設けた時空間適応予測符号化部、12はエントロピー符号化部である。
[First Embodiment]
FIG. 1 shows a basic configuration for realizing a moving picture coding method having spatial resolution scalability. In FIG. 1, 10 is a band dividing unit, 11 is a spatio-temporal adaptive prediction encoding unit provided for each divided band, and 12 is an entropy encoding unit.

図1の構成の動作例としての動画像符号化方法を以下に示す。まず、入力された画像信号は帯域分割部10において、複数の空間解像度の帯域に分割される。次に、分割した帯域毎に、時空間適応予測符号化部11で生成される残差信号をエントロピー符号化部12において符号化する。   A moving picture encoding method as an operation example of the configuration of FIG. 1 will be described below. First, the input image signal is divided into a plurality of spatial resolution bands by the band dividing unit 10. Next, the residual signal generated by the space-time adaptive prediction encoding unit 11 is encoded by the entropy encoding unit 12 for each divided band.

帯域分割部10では、図2で示すオクターブ分割を画像の水平方向、垂直方向にそれぞれ適用する。オクターブ分割では、2分割フィルタを用いて次々に帯域を分割することによって、入力信号を複数の帯域に分割することができ、最終的に、図3で示すように帯域が分割される。   The band dividing unit 10 applies the octave division shown in FIG. 2 to the horizontal direction and the vertical direction of the image, respectively. In the octave division, the input signal can be divided into a plurality of bands by dividing the band one after another using a two-division filter, and finally the band is divided as shown in FIG.

図3において、Lは低周波数成分、Hは高周波数成分を示す。ここで用いる2分割フィルタと復号化側で用いる帯域合成フィルタは、可逆性を保つために完全再構成フィルタとする。   In FIG. 3, L represents a low frequency component, and H represents a high frequency component. The two-division filter used here and the band synthesis filter used on the decoding side are completely reconstructed filters in order to maintain reversibility.

時空間適応予測符号化部11では、以下の式で予測を行う。   The space-time adaptive prediction encoding unit 11 performs prediction using the following equation.

f(a0,a1,a2,a3,……,b0,b1,b2,b3,……)
但し、
f:予測関数
a0,a1,a2,a3,……:符号化対象のフレームの画素の値
b0,b1,b2,b3,……:参照フレームの画素の値
参照フレームとしては、時間的に前方のフレーム、後方のフレーム、前方と後方のフレームの両方のいずれかを用いるが、復号器側では、参照フレームは先に復号する必要がある。予測に用いる画素の位置は以下の条件で決定する。符号化対象の画素の位置を(x,y)とする(xは水平方向の位置、yは垂直方向の位置)。符号化対象のフレームの場合、近傍かつ復号側で先に復号化する画素とする。例えば、1行目の左端の画素から右へと復号し、次に2行目を左から右へと行毎に復号する場合は、予測に用いる画素の位置(xa,ya)は、以下の条件を満たす必要がある。
f (a0, a1, a2, a3, ..., b0, b1, b2, b3, ...)
However,
f: Prediction function a0, a1, a2, a3, ...: Pixel value of the encoding target frame b0, b1, b2, b3, ...: Reference frame pixel value The reference frame is temporally forward Frame, the rear frame, and both the front and rear frames, the reference frame needs to be decoded first on the decoder side. The position of the pixel used for prediction is determined under the following conditions. Let the position of the pixel to be encoded be (x, y) (x is the position in the horizontal direction and y is the position in the vertical direction). In the case of a frame to be encoded, it is a pixel that is decoded first in the vicinity and on the decoding side. For example, when decoding from the leftmost pixel of the first row to the right and then decoding the second row from left to right for each row, the position (xa, ya) of the pixel used for prediction is as follows: It is necessary to satisfy the conditions.

y−y0<ya<yかつx−x0<xa<x+x1
または、
ya=yかつx−x2<xa<x
但し、
y0:垂直方向の近傍の範囲を定める適当な整数
x0,x1,x2:水平方向の近傍の範囲を定める適当な整数
参照フレームの予測に用いる画素の位置(xb,yb)は以下の条件を満たす必要がある。
y−y0 <ya <y and x−x0 <xa <x + x1
Or
ya = y and x−x2 <xa <x
However,
y0: Appropriate integer that determines the range in the vicinity in the vertical direction x0, x1, x2: Appropriate integer that determines the range in the vicinity in the horizontal direction The position (xb, yb) of the pixel used for prediction of the reference frame satisfies the following conditions There is a need.

y+vy−y3<ya<y+vy+y4かつx+vx−x3<xa<x+vx+x4
但し、
y3,y4:垂直方向の近傍の範囲を定める適当な整数
x3,x4:水平方向の近傍の範囲を定める適当な整数
V(vx,vy):参照フレームヘの動きベクトル
動きベクトルV(vx,vy)は、参照フレームヘの動き推定を行うことによって得られる。
y + vy-y3 <ya <y + vy + y4 and x + vx-x3 <xa <x + vx + x4
However,
y3, y4: Appropriate integers that define the vertical neighborhood range x3, x4: Appropriate integers that define the horizontal neighborhood range V (vx, vy): Motion vector to the reference frame Motion vector V (vx, vy) Is obtained by performing motion estimation on the reference frame.

エントロピー符号化部12では、各帯域の残差信号と時空間適応予測符号化部11で用いた動きベクトルをエントロピー符号化して、符号化ビットストリームを作成する。   The entropy encoding unit 12 entropy-encodes the residual signal of each band and the motion vector used in the space-time adaptive prediction encoding unit 11 to create an encoded bitstream.

図5に時空間適応予測符号化方法を実現する時空間適応予測符号化部の基本構成を示す。図5において、31はブロック単位動き推定手段、32はシフト手段、33は2次元予測器、34は動き推定3次元予測器、35は相関係数R計算手段、36は第1の判断分岐手段、37は加減算手段、38は加減算手段である。   FIG. 5 shows a basic configuration of a space-time adaptive predictive coding unit that realizes the space-time adaptive predictive coding method. In FIG. 5, 31 is a block unit motion estimation means, 32 is a shift means, 33 is a two-dimensional predictor, 34 is a motion estimation three-dimensional predictor, 35 is a correlation coefficient R calculation means, and 36 is a first decision branching means. , 37 is addition / subtraction means, and 38 is addition / subtraction means.

予測器としては、3種類の2次元予測器、7種類の3次元予測器を用意し、フレーム間相関により予測器を切換える。   As predictors, three types of two-dimensional predictors and seven types of three-dimensional predictors are prepared, and the predictors are switched by inter-frame correlation.

3次元予測器は、フレーム間相関が強い場合には有効であるが、フレーム間相関が弱い場合には逆に残差信号が大きくなる可能性がある。そのために、フレーム間相関が弱い場合には2次元予測器に切換える方法を採用する。2次元予測器と3次元予測器とを切換えるために、現フレームと参照フレームの被符号化対象画素近傍の復号済み信号の相関係数を計算する。相関係数が大きい場合、すなわち、現フレーム内信号と参照フレーム内信号の波形が似ている場合には、予測精度が向上すると考えられることから、3次元予測を行う。それ以外の場合には、2次元予測を行う。   The three-dimensional predictor is effective when the inter-frame correlation is strong, but there is a possibility that the residual signal becomes large when the inter-frame correlation is weak. Therefore, a method of switching to a two-dimensional predictor is adopted when the inter-frame correlation is weak. In order to switch between the two-dimensional predictor and the three-dimensional predictor, the correlation coefficient of the decoded signal in the vicinity of the encoding target pixel in the current frame and the reference frame is calculated. When the correlation coefficient is large, that is, when the waveform of the signal in the current frame and the signal in the reference frame are similar, the prediction accuracy is considered to improve, so that three-dimensional prediction is performed. In other cases, two-dimensional prediction is performed.

各予測器の予測方法と予測器の具体的切換え方法について以下に説明する。各予測器の予測方法を次に示す。   A prediction method for each predictor and a specific switching method for the predictor will be described below. The prediction method of each predictor is as follows.

2次元予測器0 予測信号y=min(a,b) …(1)
2次元予測器1 予測信号y=max(a,b) …(2)
2次元予測器2 予測信号y=a+b−c …(3)
3次元予測器3 予測信号y=min(a,x’) …(4)
3次元予測器4 予測信号y=max(a,x’) …(5)
3次元予測器5 予測信号y=a+x’−a …(6)
3次元予測器6 予測信号y=min(b,x’) …(7)
3次元予測器7 予測信号y=max(b,x’) …(8)
3次元予測器8 予測信号y=b+x’−b …(9)
3次元予測器9 予測信号y=(a+b+x’)/3 …(10)
ここで用いたa,b,cは、図7(a)で示すように、被符号化対象の画素xに隣接する上、左、右上の画素の復号値である。a’,b’,x’は、参照フレームの画素の復号値であり、被符号化対象のフレームと参照フレーム間の動きベクトル(k,l)(k:水平方向、l:垂直方向)から画素位置を定める。動きベクトルは、L×L画素の小ブロック単位であらかじめブロックマッチング法などにより計算し、付加情報として伝送する。被符号化対象の画素xの位置を(i,j)とすると、x’の位置は(i+k,j+l)となる。また、図7(b)に示す通り、a’,b’は、x’の隣接する上、左の画素である。参照フレームとしては、時間的に前方のフレーム、後方のフレーム、前方と後方のフレームの両方のいずれかを用いるが、復号器側では、参照フレームは先に復号する必要がある。
Two-dimensional predictor 0 Predicted signal y = min (a, b) (1)
Two-dimensional predictor 1 Predicted signal y = max (a, b) (2)
Two-dimensional predictor 2 Predicted signal y = a + bc (3)
Three-dimensional predictor 3 Predicted signal y = min (a, x ′) (4)
Three-dimensional predictor 4 Prediction signal y = max (a, x ′) (5)
Three-dimensional predictor 5 Predicted signal y = a + x′−a (6)
Three-dimensional predictor 6 Predicted signal y = min (b, x ′) (7)
Three-dimensional predictor 7 Prediction signal y = max (b, x ′) (8)
Three-dimensional predictor 8 Predicted signal y = b + x′−b (9)
Three-dimensional predictor 9 Predicted signal y = (a + b + x ′) / 3 (10)
As shown in FIG. 7A, a, b, and c used here are decoded values of the upper, left, and upper right pixels adjacent to the pixel x to be encoded. a ′, b ′, x ′ are the decoded values of the pixels of the reference frame, and are based on the motion vector (k, l) between the frame to be encoded and the reference frame (k: horizontal direction, l: vertical direction) Define the pixel position. The motion vector is calculated in advance by a block matching method or the like in units of small blocks of L × L pixels and transmitted as additional information. If the position of the pixel x to be encoded is (i, j), the position of x ′ is (i + k, j + l). Further, as shown in FIG. 7B, a ′ and b ′ are the pixels on the left side adjacent to x ′. As the reference frame, any one of a temporally forward frame, a backward frame, and a forward and backward frame is used. However, on the decoder side, the reference frame needs to be decoded first.

R≦T0かつc≧max(a,b)の場合 2次元予測器0を選択
R≦T0かつc≦min(a,b)の場合 2次元予測器1を選択
R≦T0かつmin(a,b)<c<max(a,b)の場合 2次元予測器2を選択
R>T0かつS>T1かつa’≧max(a,x’)の場合 3次元予測器3を選択
R>T0かつS>T1かつa’≦min(a,x’)の場合 3次元予測器4を選択
R>T0かつS>T1かつmin(a,x’)<a’<max(a,x’)の場合 3次元予測器5を選択
R>T0かつS<−T1かつb’≧max(b,x’)の場合 3次元予測器6を選択
R>T0かつS<−T1かつb’≦min(b,x’)の場合 3次元予測器7を選択
R>T0かつS<−T1かつmin(b,x’)<b’<max(b,x’)の場合 3次元予測器8を選択
R>T0かつ−T1<S<T1の場合 3次元予測器9を選択
但し、
R=aa’+bb’+cc’+dd’−(a+b+c+d)(a’+b’+c’+d’) …(11)
S=|x’−b’|−|x’−a’| …(12)
T0,T1:閾値
a,b,c,d,a’,b’,c’,d’,x’:図7に示す画素の復号値
である。
If R ≦ T0 and c ≧ max (a, b), select 2D predictor 0 Select R ≦ T0 and c ≦ min (a, b) Select 2D predictor 1 R ≦ T0 and min (a, b) b) If <c <max (a, b) Select 2D predictor 2 If R> T0 and S> T1 and a ′ ≧ max (a, x ′) Select 3D predictor 3 R> T0 When S> T1 and a ′ ≦ min (a, x ′), the three-dimensional predictor 4 is selected. R> T0, S> T1, and min (a, x ′) <a ′ <max (a, x ′) In the case of 3D predictor 5 is selected R> T0 and S <−T1 and b ′ ≧ max (b, x ′) 3D predictor 6 is selected R> T0 and S <−T1 and b ′ ≦ min In the case of (b, x ′), the three-dimensional predictor 7 is selected. In the case of R> T0, S <−T1, and min (b, x ′) <b ′ <max (b, x ′), the three-dimensional predictor. 8 is selected When R> T0 and -T1 <S <T1, the three-dimensional predictor 9 is selected.
R = aa ′ + bb ′ + cc ′ + dd ′ − (a + b + c + d) (a ′ + b ′ + c ′ + d ′) (11)
S = | x′−b ′ | − | x′−a ′ | (12)
T0, T1: Thresholds a, b, c, d, a ′, b ′, c ′, d ′, x ′: Decoded values of the pixels shown in FIG.

ここで、Rは相関係数であり、Rが閾値T0より大きい場合には、3次元予測器を選択する。それ以外の場合には、2次元予測器を選択する。この選択は、実際には2段階で行われている。つまり、図5中の第1の判断分岐手段36によりR値によって第1の判断分岐を行い、2次元予測器か3次元予測器かをまず切換えて2次元予測器33または3次元予測器34内で残る第2の判断分岐を行って各予測器1〜9の一つを選択する。   Here, R is a correlation coefficient, and when R is larger than the threshold value T0, a three-dimensional predictor is selected. In other cases, a two-dimensional predictor is selected. This selection is actually performed in two stages. That is, the first decision branch means 36 in FIG. 5 performs the first decision branch based on the R value, and first switches between the two-dimensional predictor or the three-dimensional predictor to switch the two-dimensional predictor 33 or the three-dimensional predictor 34. The remaining second decision branch is performed to select one of the predictors 1 to 9.

2次元予測器の3つの予測器の切換え方法は、既に提案されているものであり、静止画像可逆圧縮国際標準規格JPEG−LSにおいて採用された方法と同じである。縦方向および横方法にエッジがあると判断された場合には、それぞれのエッジ方向に隣接する1画素を用いて予測し、それ以外の場合には隣接する3画素を用いて予測している。   The switching method of the three predictors of the two-dimensional predictor has been proposed and is the same as the method adopted in the international standard JPEG-LS for still image lossless compression. When it is determined that there is an edge in the vertical direction and the horizontal method, prediction is performed using one pixel adjacent to each edge direction, and prediction is performed using three adjacent pixels in other cases.

3次元予測の場合にも2次元予測器と同様に、被符号化対象画素の近傍信号値の状態により予測器を切換える適応予測を行う。縦方向または横方向にエッジがあると判断された場合は、現フレームおよび参照フレームのそれぞれのエッジ方向に隣接する信号を用いて予測する。エッジの方向は、参照フレームの縦方向の差分絶対値|x’−a’|と横方向の差分絶対値|x’−b’|を比較して、閾値T1よりも大きい方向をエッジと判断する。式(12)のSはそれらの差分値であり、エッジ方向を判断するパラメータとなる。エッジ方向を判断する縦方向のエッジと判断された場合、現フレームおよび参照フレームの縦方向の信号に関して、2次元予測器と同様な方法で予測信号を選択する。横方向のエッジの場合も同様な方法で予測器を選択する。エッジでないと判断された場合には、近傍の3画素の平均値を予測値とする。   In the case of three-dimensional prediction as well as the two-dimensional predictor, adaptive prediction is performed in which the predictor is switched depending on the state of the neighborhood signal value of the encoding target pixel. When it is determined that there is an edge in the vertical direction or the horizontal direction, prediction is performed using signals adjacent to each edge direction of the current frame and the reference frame. As for the edge direction, the difference absolute value | x′−a ′ | in the vertical direction of the reference frame is compared with the absolute difference value | x′−b ′ | in the horizontal direction, and a direction larger than the threshold T1 is determined as an edge. To do. S in the equation (12) is a difference value between them and is a parameter for determining the edge direction. When it is determined that the edge is a vertical edge for determining the edge direction, a prediction signal is selected in the same manner as the two-dimensional predictor with respect to the vertical signals of the current frame and the reference frame. The predictor is selected in the same manner for the edge in the horizontal direction. When it is determined that it is not an edge, the average value of three neighboring pixels is set as the predicted value.

加減算手段37または38は、予測器の出力である予測信号と原フレーム信号の差、すなわち予測残差信号を出力する。予測残差信号は、図略の量子化器で量子化する。量子化された残差信号と、3次元予測器で用いた動きベクトルを、図1のエントロピー符号化部12に入力し、符号化ビットストリームを出力する。量子化器の量子化ステップを1にした場合は、本符号化方法は可逆符号化法になる。   The addition / subtraction means 37 or 38 outputs a difference between the prediction signal output from the predictor and the original frame signal, that is, a prediction residual signal. The prediction residual signal is quantized by a quantizer (not shown). The quantized residual signal and the motion vector used in the three-dimensional predictor are input to the entropy encoding unit 12 in FIG. 1, and an encoded bit stream is output. When the quantization step of the quantizer is set to 1, the present encoding method is a lossless encoding method.

[第2実施形態例]
図4に、上記第1実施形態例で符号化されたデータを復号する復号化方法を実現するための基本構成を示す。図4において、20はエントロピー復号部、21は帯域毎に設けた時空間適応予測復号化部、22は帯域合成部である。
[Second Embodiment]
FIG. 4 shows a basic configuration for realizing the decoding method for decoding the data encoded in the first embodiment. In FIG. 4, 20 is an entropy decoding unit, 21 is a space-time adaptive predictive decoding unit provided for each band, and 22 is a band synthesizing unit.

図4の構成の動作例としての復号化方法を以下に示す。最初にエントロピー復号化部20において符号化ビットストリームから予測に用いる動きベクトルと予測残差信号を求める。次に、時空間適応予測符号化部21において既に復号化された画像信号と残差信号を用いて被符号化信号を復号する。次に帯域合成部22に、各時空間適応予測符号化部21の出力を合成して画像を復号化する。   A decoding method as an operation example of the configuration of FIG. 4 is shown below. First, the entropy decoding unit 20 obtains a motion vector and a prediction residual signal used for prediction from the encoded bit stream. Next, the encoded signal is decoded using the image signal and residual signal that have already been decoded by the space-time adaptive predictive encoding unit 21. Next, the band synthesizing unit 22 synthesizes the outputs of the spatiotemporal adaptive prediction encoding units 21 to decode the image.

図6に、時空間適応予測復号化部の基本構成を示す。図6において、41はシフト手段、42は2次元予測器、43は加算手段、44は動き推定3次元予測器、45は加算手段、46は相関係数R計算手段、47は第1の判断分岐手段である。   FIG. 6 shows a basic configuration of the space-time adaptive predictive decoding unit. In FIG. 6, 41 is a shift means, 42 is a two-dimensional predictor, 43 is an adder, 44 is a motion estimation three-dimensional predictor, 45 is an adder, 46 is a correlation coefficient R calculator, and 47 is a first determination. It is a branching means.

図6の動作例としての時空間適応予測復号化方法は、以下のとおりである。まず、2次元予測器42を用いるか3次元予測器44を用いるかを判断するために、動きベクトルを用いてシフト手段41でシフトした参照フレーム内信号と現フレーム内信号の復号済み信号から、相関係数R計算手段46により相関係数Rを計算する。第1の判断分岐手段47は、相関係数Rが閾値T0より大きい場合には、動き推定3次元予測器44側に切換えて3次元予測を行い、それ以外の場合には2次元予測器42側に切換えて2次元予測を行う。2次元予測器42および動き推定3次元予測器44の構成と内部に用意した複数の予測器の切換えは第1実施形態例のものと同様である。動き推定3次元予測器44では、現フレーム内信号の復号済み信号と動きベクトルを用いてシフトした参照フレーム内信号を用いて予測信号を生成し、加算手段45は、この予測信号に残差信号を付加することで、現フレームの対象信号を復元する。2次元予測器42では、現フレーム内信号の復号済み信号を用いて予測信号を生成し、加算手段43がこの予測信号に残差信号を付加することで、現フレームの対象信号を復元する。   The space-time adaptive predictive decoding method as the operation example of FIG. 6 is as follows. First, in order to determine whether to use the two-dimensional predictor 42 or the three-dimensional predictor 44, from the decoded signal of the reference intra-frame signal and the current intra-frame signal shifted by the shift means 41 using the motion vector, The correlation coefficient R is calculated by the correlation coefficient R calculation means 46. When the correlation coefficient R is larger than the threshold value T0, the first decision branching unit 47 switches to the motion estimation three-dimensional predictor 44 side to perform three-dimensional prediction, and otherwise, the two-dimensional predictor 42. Switch to the side and perform 2D prediction. The configuration of the two-dimensional predictor 42 and the motion estimation three-dimensional predictor 44 and the switching of a plurality of predictors prepared therein are the same as those in the first embodiment. The motion estimation three-dimensional predictor 44 generates a prediction signal using the decoded signal of the current intraframe signal and the reference intraframe signal shifted using the motion vector, and the adder 45 adds the residual signal to the prediction signal. Is added to restore the target signal of the current frame. The two-dimensional predictor 42 generates a prediction signal using the decoded signal of the signal in the current frame, and the adding unit 43 adds the residual signal to the prediction signal, thereby restoring the target signal of the current frame.

[第3実施形態例]
本実施形態例では、第1実施形態例の時空間適応予測符号化部11において、各帯域における対象物体の動きをブロックマッチング法により推定する。ブロックマッチング法においては、動きベクトルを求めるために、次のSAD(Sum of Absolute Difference)値を計算する。
[Third Embodiment]
In this embodiment, the spatio-temporal adaptive predictive coding unit 11 of the first embodiment estimates the motion of the target object in each band by the block matching method. In the block matching method, the following SAD (Sum of Absolute Difference) value is calculated in order to obtain a motion vector.

SAD(k,l)=Σi=1 LΣj=1 L|x(i,j)−y(i+k,j+l)| …(13)
ここで、(k,l)を−w<k,1<wの範囲(wはウインドウサイズ)でSAD(k,l)を計算し、最小のSAD値を与えるベクトル(k,l)が動きベクトルとして選ばれる。3次元予測器の予測精度を向上させるために、通常、SADは各帯域毎に計算される。SADの計算には、かなりの時間を要する。これを考慮に入れ、符号化効率の低下をできるだけ抑えたうえで、計算時間を削減するために以下の3つの簡易符号化の手法(1),(2),(3)を提案する。
SAD (k, l) = Σi = 1 L Σj = 1 L | x (i, j) −y (i + k, j + l) | (13)
Here, SAD (k, l) is calculated in the range of (k, l) -w <k, 1 <w (w is the window size), and the vector (k, l) giving the minimum SAD value moves. Selected as a vector. In order to improve the prediction accuracy of the three-dimensional predictor, SAD is usually calculated for each band. The calculation of SAD takes a considerable amount of time. Considering this, the following three simple encoding methods (1), (2), and (3) are proposed to reduce the calculation time while minimizing the decrease in encoding efficiency.

(1)帯域分割された信号のフレーム間相関ならびにフレーム内相関は、低域ほど強く、高域ほど弱い。最低周波数帯域以外の信号はフレーム間相関ならびにフレーム内相関が弱いことから、時空間適応予測符号化の効果がそれほど顕著に現れてこない。その性質を利用して、時空間適応予測符号化を最低周波数帯域のみに適用する。SADの計算量が極端に減少するとともに、2次元および3次元予測処理時間も減少する。最低周波数帯域の動きベクトルと予測残差信号はエントロピー符号化され、最低周波数帯域以外の信号は、直接エントロピー符号化される。   (1) The inter-frame correlation and intra-frame correlation of the band-divided signal are stronger as the frequency is lower and weaker as the frequency is higher. Since signals other than the lowest frequency band have weak inter-frame correlation and intra-frame correlation, the effect of space-time adaptive prediction coding does not appear so significantly. Using this property, space-time adaptive predictive coding is applied only to the lowest frequency band. The calculation amount of SAD is extremely reduced, and the two-dimensional and three-dimensional prediction processing times are also reduced. The motion vector in the lowest frequency band and the prediction residual signal are entropy coded, and the signal other than the lowest frequency band is directly entropy coded.

図8に本方法を実現するための基本構成図を示す。図8において、50は帯域分割部、51は最低周波数帯域用の時空間適応予測符号化部、52はエントロピー符号化部52である。まず、入力された画像信号は帯域分割部50において、複数の空間解像度の帯域に分割される。次に、分割した帯域のうち最低周波数帯域についてのみ時空間適応予測符号化部51で残差信号を生成し、エントロピー符号化部52でエントロピー符号化する。それ以外の帯域の信号はエントロピー符号化部52において直接符号化する。   FIG. 8 shows a basic configuration diagram for realizing this method. In FIG. 8, 50 is a band dividing unit, 51 is a space-time adaptive prediction encoding unit for the lowest frequency band, and 52 is an entropy encoding unit 52. First, the input image signal is divided into a plurality of spatial resolution bands by the band dividing unit 50. Next, a residual signal is generated by the spatio-temporal adaptive prediction encoding unit 51 only for the lowest frequency band among the divided bands, and entropy encoding unit 52 performs entropy encoding. The entropy encoding unit 52 directly encodes signals in other bands.

(2)動き推定を最低周波数帯域のみにて行い、動きベクトルを求める。他の帯域では、最低周波数帯域の動きベクトルを基準にした動きベクトルを用いて時空間適応予測符号化を行う。対象物体の動きは、帯域毎に変化するわけではないので、高域の物体の動きも低域の物体の動きも等しいはずである。すなわち、低域から高域に向けて同じ方向に存在する小ブロック動きベクトルは同じであると仮定する。例えば、図3の矢印で示した小ブロックの動きはほぼ等しい。但し、一つ高域に帯域が上がる毎に、画素数は縦および横方向に2倍になるので、一つ高域での動きベクトルは、
(2k,2l)
となる。N段高域の動きベクトルは、
(N×k,N×l)
となる。
(2) A motion vector is obtained by performing motion estimation only in the lowest frequency band. In other bands, space-time adaptive prediction encoding is performed using motion vectors based on the motion vector in the lowest frequency band. Since the movement of the target object does not change for each band, the movement of the high-frequency object and the movement of the low-frequency object should be equal. That is, it is assumed that the small block motion vectors existing in the same direction from the low range to the high range are the same. For example, the movements of the small blocks indicated by the arrows in FIG. However, the number of pixels doubles in the vertical and horizontal directions each time the band increases in one high region, so the motion vector in one high region is
(2k, 2l)
It becomes. The motion vector of the N stage high region is
(N × k, N × l)
It becomes.

本方法を実現するための基本構成図は、図1と同様であるが、各帯域毎の時空間適応予測符号化部11で用いる動きベクトルは最低周波数帯域の動きベクトルを基準にした動きベクトルを用いる。最低周波数帯域の動きベクトルおよび全帯域の予測残差信号はエントロピー符号化部12でエントロピー符号化される。   The basic configuration diagram for realizing this method is the same as that in FIG. 1, but the motion vector used in the space-time adaptive prediction encoding unit 11 for each band is a motion vector based on the motion vector in the lowest frequency band. Use. The motion vector in the lowest frequency band and the prediction residual signal in the entire band are entropy encoded by the entropy encoding unit 12.

(3)SADを計算するときに低域から高域に向かって行う。図3の例においては、LL3→HL3→LH3→HH3→HL2→LH2→HH2→HL1→LH1→HH1の順となる。まず、最低周波数帯域の各小ブロックに対してSADを計算する。SADが、
SAD(k,l)>T(閾値) …(14)
の小ブロック内の信号に関してはフレーム間相関が弱いと判断し、時空間適応予測処理は行わず2次元予測を行う。および対応する高域の小ブロックの信号に関しては時空間適応予測符号化を行わず、直接エントロピー符号化を行う。
(3) When calculating SAD, it is performed from low to high. In the example of FIG. 3, the order is LL3->HL3->LH3->HH3->HL2->LH2->HH2->HL1->LH1-> HH1. First, SAD is calculated for each small block in the lowest frequency band. SAD
SAD (k, l)> T (threshold value) (14)
For the signals in the small blocks, it is determined that the inter-frame correlation is weak, and the two-dimensional prediction is performed without performing the spatiotemporal adaptive prediction process. In addition, the entropy coding is directly performed on the corresponding high-frequency small block signals without performing the space-time adaptive prediction coding.

式(14)を満たさないブロック内の信号に関しては、通常どおり、時空間適応予測符号化を行う。引き続く高帯域のブロックにおいて、SADが、
SAD(k,l)>Tx(高帯域での閾値。帯域によって閾値は異なる。) …(15)
の場合にはフレーム間相関が弱いと判断し、時空間適応予測符号化を行わず、直接エントロピー符号化を行う。なお、対応する低域のブロックのSADが既に式(14)を満足している場合には、直接エントロピー符号化を行うことが確定しているため、SADの計算ならびに式(15)の判断は行わない。
For a signal in a block that does not satisfy Expression (14), space-time adaptive prediction coding is performed as usual. In the subsequent high-band block, SAD
SAD (k, l)> Tx (threshold in high band. Threshold varies depending on band) (15)
In this case, it is determined that the correlation between frames is weak, and direct entropy coding is performed without performing space-time adaptive prediction coding. In addition, when the SAD of the corresponding low-frequency block already satisfies the equation (14), it is determined that the direct entropy encoding is performed, so the calculation of the SAD and the determination of the equation (15) Not performed.

式(14)および(15)の条件を満足する小ブロックは、付加情報として動きベクトルの代りに固有の符号LIMITを伝送し、対応する高域の小ブロックでは付加情報を伝送しない。動きベクトルならびに固有の符号LIMIT、予測残差信号がエントロピー符号化される。   A small block that satisfies the conditions of equations (14) and (15) transmits a unique code LIMIT instead of a motion vector as additional information, and does not transmit additional information in the corresponding high-frequency small block. The motion vector, the unique code LIMIT, and the prediction residual signal are entropy encoded.

本方法を実現するための基本構成図は、図1と同様であるが、各時空間適応予測符号化器11は、ブロック単位動き推定において、低域から高域に向かってSADを計算する機能、時空間適応予測符号化を行うか否かの判断機能、及び固有の符号LIMITを伝送する機能等を有する。エントロピー符号化部12は、各時空間適応予測符号化器11からの、動きベクトルまたは固有の符号LIMIT、時空間適応予測符号化されない信号または予測残差信号をエントロピー符号化する。   The basic configuration diagram for realizing this method is the same as that in FIG. 1, but each space-time adaptive predictive encoder 11 has a function of calculating SAD from low to high in block unit motion estimation. And a function for determining whether to perform space-time adaptive predictive coding, a function for transmitting a unique code LIMIT, and the like. The entropy encoder 12 entropy-encodes the motion vector, the unique code LIMIT, a signal not subjected to space-time adaptive prediction encoding, or a prediction residual signal from each space-time adaptive prediction encoder 11.

[第4実施形態例]
第3実施形態例による簡易符号化の手法で符号化された信号の簡易復号化方法を示す。
[Fourth Embodiment]
A simple decoding method of a signal encoded by a simple encoding method according to a third embodiment will be described.

(1)図9に、簡易符号化(1)で符号化された信号を復号するための基本構成図を示す。図9において、60はエントロピー復号部、61は最低周波数帯域用の時空間適応予測復号化部、62は帯域合成部である。   (1) FIG. 9 shows a basic configuration diagram for decoding a signal encoded by the simple encoding (1). In FIG. 9, 60 is an entropy decoding unit, 61 is a space-time adaptive prediction decoding unit for the lowest frequency band, and 62 is a band synthesizing unit.

本方法では、エントロピー復号部60でエントロピー復号化された動きベクトルと予測残差信号を用いて、最低周波数帯域は時空間予測復号化部61により信号を復号する。それ以外の帯域は、エントロピー復号部60でエントロピー復号化により、直接復号される。帯域合成部62は、各帯域の出力を合成して画像を復号化する。   In this method, using the motion vector entropy-decoded by the entropy decoding unit 60 and the prediction residual signal, the spatio-temporal prediction decoding unit 61 decodes the signal in the lowest frequency band. Other bands are directly decoded by the entropy decoding unit 60 by entropy decoding. The band synthesizer 62 synthesizes the output of each band and decodes the image.

(2)簡易符号化(2)で符号化された信号を復号する復号化方法を実現するための基本構成図は、図4と同様であるが、各帯域毎の時空間適応予測復号化部21で用いる動きベクトルは最低周波数帯域の動きベクトルを基準にした動きベクトルを用いる。すなわち、エントロピー復号部20でエントロピー復号化された最低周波数帯域の動きベクトル(k,l)をもとにして、N段高域の動きベクトルを、
(N×k,N×l)
により計算する。その結果をもとに、各帯域毎に時空間適応予測復号化部21で復号処理を行い、帯域合成部22において、各帯域の出力を合成して画像を復号化する。
(2) The basic configuration diagram for realizing the decoding method for decoding the signal encoded by the simple encoding (2) is the same as that in FIG. 4, but the spatio-temporal adaptive predictive decoding unit for each band. The motion vector used in 21 is a motion vector based on the motion vector in the lowest frequency band. That is, based on the motion vector (k, l) of the lowest frequency band entropy decoded by the entropy decoding unit 20, the motion vector of the N-stage high band is
(N × k, N × l)
Calculate according to Based on the result, the spatio-temporal adaptive predictive decoding unit 21 performs decoding processing for each band, and the band synthesizing unit 22 synthesizes the output of each band to decode the image.

(3)簡易符号化(3)で符号化された信号を復号する復号化方法を実現するための基本構成図も、図4と同様であるが、各帯域毎の時空間適応予測復号化部21では、エントロピー復号部20でエントロピー復号化された最低周波数帯域の動きベクトル(k,l)ならびに予測残差信号を用いて、最低周波数帯帯域から最高周波数帯域の順番(図3の例においては、LL3→HL3→LH3→HH3→HL2→LH2→HH2→HL1→LH1→HH1の順)で、時空間適応予測復号処理を行って出力するか、または固有符号LIMITにより、エントロピー復号化された高周波数帯域の信号を直接出力する。帯域合成部22は、各帯域の出力を合成して画像を復号化する。   (3) The basic configuration diagram for realizing the decoding method for decoding the signal encoded by the simple encoding (3) is the same as that in FIG. 4, but the space-time adaptive predictive decoding unit for each band. 21, using the motion vector (k, l) of the lowest frequency band entropy decoded by the entropy decoding unit 20 and the prediction residual signal, the lowest frequency band to the highest frequency band (in the example of FIG. 3). LL3-> HL3-> LH3-> HH3-> HL2-> LH2-> HH2-> HL1-> LH1-> HH1) in order, and output by performing spatio-temporal adaptive predictive decoding processing or by entropy decoding by eigencode LIMIT Direct output of frequency band signals. The band synthesizer 22 synthesizes the output of each band and decodes the image.

本発明の第1実施形態例による動画像符号化方法を実現するための基本構成を示す図である。It is a figure which shows the basic composition for implement | achieving the moving image encoding method by 1st Embodiment of this invention. オクターブ分割を説明する図である。It is a figure explaining an octave division. 画像の帯域分割を説明する図である。It is a figure explaining the zone | band division | segmentation of an image. 本発明の第2実施形態例による動画像復号化方法を実現するための基本構成を示す図である。It is a figure which shows the basic composition for implement | achieving the moving image decoding method by 2nd Example of this invention. 本発明における時空間適応予測符号化部の基本構成を示す図である。It is a figure which shows the basic composition of the space-time adaptive prediction encoding part in this invention. 本発明における時空間適応予測復号化部の基本構成を示す図である。It is a figure which shows the basic composition of the space-time adaptive prediction decoding part in this invention. (a),(b)は、予測に用いる信号を説明する図である。(A), (b) is a figure explaining the signal used for prediction. 本発明の第3実施形態例による簡易符号化(1)を実現するための基本構成を示す図である。It is a figure which shows the basic composition for implement | achieving simple encoding (1) by 3rd Example of this invention. 本発明の第4実施形態例による簡易復号化(1)を実現するための基本構成を示す図である。It is a figure which shows the basic composition for implement | achieving simple decoding (1) by 4th Example of this invention.

符号の説明Explanation of symbols

10…帯域分割部
11…時空間適応予測符号化部
12…エントロピー符号化部
20…エントロピー復号部
21…時空間適応予測復号化部
22…帯域合成部
31…ブロック単位動き推定手段
32…シフト手段
33…2次元予測器
34…動き推定3次元予測器
35…相関係数R計算手段
36…第1の判断分岐手段
37…加減算手段
38…加減算手段
41…シフト手段
42…2次元予測器
43…加算手段
44…動き推定3次元予測器
45…加算手段
46…相関係数R計算手段
47…第1の判断分岐手段
50…帯域分割部
51…時空間適応予測符号化部
52…エントロピー符号化部
60…エントロピー復号部
61…時空間適応予測復号化部
62…帯域合成部
DESCRIPTION OF SYMBOLS 10 ... Band division part 11 ... Spatio-temporal adaptive prediction encoding part 12 ... Entropy encoding part 20 ... Entropy decoding part 21 ... Spatio-temporal adaptive prediction decoding part 22 ... Band synthesis part 31 ... Block unit motion estimation means 32 ... Shift means 33 ... Two-dimensional predictor 34 ... Motion estimation three-dimensional predictor 35 ... Correlation coefficient R calculating means 36 ... First decision branching means 37 ... Addition / subtraction means 38 ... Addition / subtraction means 41 ... Shift means 42 ... Two-dimensional predictor 43 ... Addition means 44 ... Motion estimation three-dimensional predictor 45 ... Addition means 46 ... Correlation coefficient R calculation means 47 ... First decision branch means 50 ... Band division section 51 ... Spatio-temporal adaptive prediction encoding section 52 ... Entropy encoding section 60 ... Entropy decoding unit 61 ... Spatio-temporal adaptive prediction decoding unit 62 ... Band synthesis unit

Claims (5)

動画像を対象とする可逆符号化方法において、
原画像を帯域分割し、
該分割した帯域のうち最低周波数帯域についてブロック単位にSAD計算を行って動きベクトルを求め、所定の閾値Tより大きいSAD値を与えるブロック内の画素は2次元予測を行い、所定の閾値T以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化し、
二番目に低い周波数帯域の符号化では、最低周波数帯域において2次元予測を行ったブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、所定の閾値T2より大きいSAD値を与えるブロック内の画素は直接符号化し、前記閾値T2以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化し、
以降の高周波数帯域の符号化では、直前に符号化された周波数帯域において直接符号化したブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、周波数帯域ごとに定められた閾値Txより大きいSAD値を与えるブロック内の画素は直接符号化し、所定の閾値Tx以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する際に、
該時空間適応予測では、前記SAD計算で求めた動きベクトルを用いて現フレームと、シフト手段でシフトした参照フレームの被符号化対象画素近傍信号値の相関係数を計算し、相関係数が大きい場合には、現フレームと参照フレームの被符号化対象画素近傍信号値を用いて予測を行う3次元予測に切換え、相関係数が小さい場合には、現フレームの被符号化対象画素近傍信号値のみを用いて予測を行う2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレームの被符号化対象画素近傍信号値から画素毎に複数の2次元予測器を切換えて予測残差信号を算出し、
該3次元予測に切換えられた場合には、現フレームと参照フレームの被符号化対象画素近傍信号値から画素毎に複数の3次元予測器を切換えて予測残差信号を算出することを特徴とする動画像可逆符号化方法。
In a lossless encoding method for moving images,
The original image is divided into bands,
A motion vector is obtained by performing SAD calculation for each lowest frequency band among the divided bands to obtain a motion vector. Pixels in a block that give an SAD value larger than a predetermined threshold T are subjected to two-dimensional prediction, and are equal to or lower than the predetermined threshold T. Pixels in the block giving the SAD value perform space-time adaptive prediction to obtain a prediction residual signal, encode the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the second lowest frequency band coding, the pixels of the spatial block corresponding to the block for which the two-dimensional prediction is performed in the lowest frequency band are directly coded, and the other blocks are subjected to SAD calculation to obtain a motion vector. The pixels in the block that give a SAD value greater than a predetermined threshold T2 are directly encoded, and the pixels in the block that give a SAD value less than or equal to the threshold T2 are subjected to spatiotemporal adaptive prediction to obtain a prediction residual signal. Encode the residual signal and the motion vector used in the space-time adaptive prediction,
In the subsequent high frequency band encoding, the pixels of the spatial block corresponding to the block directly encoded in the frequency band encoded immediately before are directly encoded, and the other blocks perform the SAD calculation to obtain the motion vector. The pixels in the block that give a SAD value larger than the threshold value Tx determined for each frequency band are directly encoded, and the pixels in the block that give a SAD value less than or equal to the predetermined threshold value Tx are predicted by performing space-time adaptive prediction. When obtaining a residual signal and encoding the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the spatio-temporal adaptive prediction, the correlation coefficient between the current pixel and the reference frame pixel value to be encoded between the current frame and the reference frame shifted by the shift means is calculated using the motion vector obtained by the SAD calculation. If the correlation coefficient is small, switch to three-dimensional prediction that performs prediction using the encoding target pixel neighboring signal values of the current frame and the reference frame. If the correlation coefficient is small, the encoding target pixel neighboring signal of the current frame Switch to two-dimensional prediction that uses only values to make predictions,
In the case of switching to the two-dimensional prediction, a prediction residual signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the encoding target pixel vicinity signal value of the current frame,
When switching to the three-dimensional prediction, the prediction residual signal is calculated by switching a plurality of three-dimensional predictors for each pixel from the encoding target pixel neighboring signal values of the current frame and the reference frame. A moving image lossless encoding method.
閾値より大きいSAD値が得られたブロックの符号化信号に、時空間適応予測処理をしなかったことを示す符号を付加することを特徴とする請求項1に記載の動画像可逆符号化方法。   The video lossless encoding method according to claim 1, wherein a code indicating that the spatio-temporal adaptive prediction processing has not been performed is added to an encoded signal of a block in which an SAD value larger than a threshold value is obtained. 動画像を出力する可逆復号化方法において、
請求項1記載の動画像可逆符号化方法により符号化された帯域別の直接符号化ブロック、予測残差信号および動きベクトルを受信し、
最低周波数帯域から最高周波数帯域の順番で、該帯域別に、直接符号化ブロック、予測残差信号および動きベクトルを復号し、予測残差信号と動きベクトルからさらに時空間適応予測復号を行い、
復号された帯域を帯域合成して動画像を復号する際に、
該時空間適応予測復号では、該動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値と、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値との相関係数を計算し、相関係数が大きい場合には3次元予測に切換え、相関係数が小さい場合には2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値から、画素毎に複数の2次元予測器を切換えて予測信号を算出し、
該3次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値と、動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値から、画素毎に複数の3次元予測器を切換えて予測信号を算出し、
該予測信号に該予測残差信号を付加して対象信号を復号化することを特徴とする動画像可逆復号化方法。
In a lossless decoding method for outputting a moving image,
Receiving a direct coding block for each band, a prediction residual signal and a motion vector encoded by the video lossless encoding method according to claim 1;
In the order of the lowest frequency band to the highest frequency band, for each band, the direct coding block, the prediction residual signal and the motion vector are decoded, and the space-time adaptive prediction decoding is further performed from the prediction residual signal and the motion vector,
When decoding a moving image by combining the decoded bands,
In the spatio-temporal adaptive prediction decoding, a correlation coefficient between a decoding target pixel neighboring signal value of a reference frame shifted using the motion vector and a decoding target pixel neighboring signal value composed of a decoded signal of a signal in the current frame When the correlation coefficient is large, switch to 3D prediction, and when the correlation coefficient is small, switch to 2D prediction.
In the case of switching to the two-dimensional prediction, a prediction signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the decoding target pixel neighboring signal value including the decoded signal of the signal in the current frame,
In the case of switching to the three-dimensional prediction, from the decoding target pixel neighboring signal value composed of the decoded signal of the signal in the current frame and the decoding target pixel neighboring signal value of the reference frame shifted using the motion vector, Calculate prediction signals by switching multiple 3D predictors for each pixel,
A moving picture lossless decoding method comprising decoding the target signal by adding the prediction residual signal to the prediction signal.
動画像を対象とする可逆符号化装置に、
原画像を帯域分割する手順、
該分割した帯域のうち最低周波数帯域についてブロック単位にSAD計算を行って動きベクトルを求め、所定の閾値Tより大きいSAD値を与えるブロック内の画素は2次元予測を行い、所定の閾値T以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順、
二番目に低い周波数帯域の符号化では、最低周波数帯域において2次元予測を行ったブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、所定の閾値T2より大きいSAD値を与えるブロック内の画素は直接符号化し、前記閾値T2以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順、
以降の高周波数帯域の符号化では、直前に符号化された周波数帯域において直接符号化したブロックと対応する空間位置のブロックの画素は直接符号化し、それ以外のブロックはSAD計算を行って動きベクトルを求め、周波数帯域ごとに定められた閾値Txより大きいSAD値を与えるブロック内の画素は直接符号化し、所定の閾値Tx以下のSAD値を与えるブロック内の画素は時空間適応予測を行って予測残差信号を求め、該予測残差信号と該時空間適応予測で用いた動きベクトルとを符号化する手順を実行させ、さらに、
該時空間適応予測では、前記SAD計算で求めた動きベクトルを用いて現フレームと、シフト手段でシフトした参照フレームの被符号化対象画素近傍信号値の相関係数を計算し、相関係数が大きい場合には、現フレームと参照フレームの被符号化対象画素近傍信号値を用いて予測を行う3次元予測に切換え、相関係数が小さい場合には、現フレームの被符号化対象画素近傍信号値のみを用いて予測を行う2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレームの被符号化対象画素近傍信号値から画素毎に複数の2次元予測器を切換えて予測残差信号を算出し、
該3次元予測に切換えられた場合には、現フレームと参照フレームの被符号化対象画素近傍信号値から画素毎に複数の3次元予測器を切換えて予測残差信号を算出する手順を実行させるためのプログラム。
In a lossless encoding device for moving images,
The procedure for dividing the original image into bands,
A motion vector is obtained by performing SAD calculation for each lowest frequency band among the divided bands to obtain a motion vector. Pixels in a block that give an SAD value larger than a predetermined threshold T are subjected to two-dimensional prediction, and are equal to or lower than the predetermined threshold T. A pixel in the block that gives the SAD value performs a spatiotemporal adaptive prediction to obtain a prediction residual signal, and encodes the prediction residual signal and the motion vector used in the spatiotemporal adaptive prediction.
In the second lowest frequency band coding, the pixels of the spatial block corresponding to the block for which the two-dimensional prediction is performed in the lowest frequency band are directly coded, and the other blocks are subjected to SAD calculation to obtain a motion vector. The pixels in the block that give a SAD value greater than a predetermined threshold T2 are directly encoded, and the pixels in the block that give a SAD value less than or equal to the threshold T2 are subjected to spatiotemporal adaptive prediction to obtain a prediction residual signal. A procedure for encoding a residual signal and a motion vector used in the space-time adaptive prediction;
In the subsequent high frequency band encoding, the pixels of the spatial block corresponding to the block directly encoded in the frequency band encoded immediately before are directly encoded, and the other blocks perform the SAD calculation to obtain the motion vector. The pixels in the block that give a SAD value larger than the threshold value Tx determined for each frequency band are directly encoded, and the pixels in the block that give a SAD value less than or equal to the predetermined threshold value Tx are predicted by performing space-time adaptive prediction. Obtaining a residual signal, and executing a procedure for encoding the prediction residual signal and the motion vector used in the space-time adaptive prediction,
In the spatio-temporal adaptive prediction, the correlation coefficient between the current pixel and the reference frame pixel value to be encoded between the current frame and the reference frame shifted by the shift means is calculated using the motion vector obtained by the SAD calculation. If the correlation coefficient is small, switch to three-dimensional prediction that performs prediction using the encoding target pixel neighboring signal values of the current frame and the reference frame. If the correlation coefficient is small, the encoding target pixel neighboring signal of the current frame Switch to two-dimensional prediction that uses only values to make predictions,
In the case of switching to the two-dimensional prediction, a prediction residual signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the encoding target pixel vicinity signal value of the current frame,
When switching to the three-dimensional prediction, a procedure for calculating a prediction residual signal by switching a plurality of three-dimensional predictors for each pixel from the signal to be encoded pixel vicinity signal values of the current frame and the reference frame is executed. Program for.
動画像を出力する可逆復号化装置に、
請求項1記載の動画像可逆符号化方法により符号化された帯域別の直接符号化ブロック、予測残差信号および動きベクトルを受信させる手順、
最低周波数帯域から最高周波数帯域の順番で、該帯域別に、直接符号化ブロック、予測残差信号および動きベクトルを復号し、予測残差信号と動きベクトルからさらに時空間適応予測復号を行わせる手順、
復号された帯域を帯域合成して動画像を復号する手順を実行させ、さらに、
該時空間適応予測復号では、該動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値と、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値との相関係数を計算し、相関係数が大きい場合には3次元予測に切換え、相関係数が小さい場合には2次元予測に切換え、
該2次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値から、画素毎に複数の2次元予測器を切換えて予測信号を算出し、
該3次元予測に切換えられた場合には、現フレーム内信号の復号済み信号からなる復号化対象画素近傍信号値と、動きベクトルを用いてシフトした参照フレームの復号化対象画素近傍信号値から、画素毎に複数の3次元予測器を切換えて予測信号を算出し、
該予測信号に該予測残差信号を付加して対象信号を復号化する手順を実行させるためのプログラム。
In a lossless decoding device that outputs moving images,
A procedure for receiving a direct coding block for each band, a prediction residual signal, and a motion vector encoded by the moving image lossless encoding method according to claim 1;
A procedure for decoding a direct coding block, a prediction residual signal, and a motion vector for each band in order from the lowest frequency band to the highest frequency band, and further performing space-time adaptive prediction decoding from the prediction residual signal and the motion vector,
A procedure for decoding the moving image by performing band synthesis on the decoded band,
In the spatio-temporal adaptive prediction decoding, a correlation coefficient between a decoding target pixel neighboring signal value of a reference frame shifted using the motion vector and a decoding target pixel neighboring signal value composed of a decoded signal of a signal in the current frame When the correlation coefficient is large, switch to 3D prediction, and when the correlation coefficient is small, switch to 2D prediction.
In the case of switching to the two-dimensional prediction, a prediction signal is calculated by switching a plurality of two-dimensional predictors for each pixel from the decoding target pixel neighboring signal value including the decoded signal of the signal in the current frame,
In the case of switching to the three-dimensional prediction, from the decoding target pixel neighboring signal value composed of the decoded signal of the signal in the current frame and the decoding target pixel neighboring signal value of the reference frame shifted using the motion vector, Calculate prediction signals by switching multiple 3D predictors for each pixel,
A program for executing a procedure for decoding a target signal by adding the prediction residual signal to the prediction signal.
JP2008059225A 2008-03-10 2008-03-10 Lossless video encoding method, decoding method thereof, and program thereof Expired - Fee Related JP4511607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008059225A JP4511607B2 (en) 2008-03-10 2008-03-10 Lossless video encoding method, decoding method thereof, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008059225A JP4511607B2 (en) 2008-03-10 2008-03-10 Lossless video encoding method, decoding method thereof, and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001308796A Division JP4113696B2 (en) 2001-10-04 2001-10-04 Lossless video encoding method, decoding method thereof, and apparatus thereof

Publications (2)

Publication Number Publication Date
JP2008211810A true JP2008211810A (en) 2008-09-11
JP4511607B2 JP4511607B2 (en) 2010-07-28

Family

ID=39787678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008059225A Expired - Fee Related JP4511607B2 (en) 2008-03-10 2008-03-10 Lossless video encoding method, decoding method thereof, and program thereof

Country Status (1)

Country Link
JP (1) JP4511607B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591498A (en) * 1991-09-30 1993-04-09 Mitsubishi Electric Corp Band division moving picture encoder
JPH08172630A (en) * 1994-12-16 1996-07-02 Matsushita Electric Ind Co Ltd Moving image coder
JPH09238350A (en) * 1996-03-01 1997-09-09 Matsushita Electric Ind Co Ltd Dynamic image coder
JP2001112007A (en) * 1999-10-06 2001-04-20 Sony Corp Image compressor and image expander

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591498A (en) * 1991-09-30 1993-04-09 Mitsubishi Electric Corp Band division moving picture encoder
JPH08172630A (en) * 1994-12-16 1996-07-02 Matsushita Electric Ind Co Ltd Moving image coder
JPH09238350A (en) * 1996-03-01 1997-09-09 Matsushita Electric Ind Co Ltd Dynamic image coder
JP2001112007A (en) * 1999-10-06 2001-04-20 Sony Corp Image compressor and image expander

Also Published As

Publication number Publication date
JP4511607B2 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
KR101053628B1 (en) Method for scalably encoding and decoding video signal
KR102132409B1 (en) Method and apparatus for video encoding/decoding using error compensation
EP1723606B1 (en) Method for encoding interlaced digital video data
US8948243B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
KR20060109249A (en) Method and apparatus for predicting motion vector of a macro block using motion vectors of a picture of base layer when encoding/decoding video signal
KR20190084009A (en) Method for intra prediction and apparatus thereof
WO2019069602A1 (en) Video coding device, video decoding device, video coding method, video decoding method, program and video system
KR20120105396A (en) Techniques for motion estimation
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
JP2018107580A (en) Moving image encoder, moving image encoding method, moving image encoding computer program, moving image decoder, moving image decoding method and moving image decoding computer program
WO2011070730A1 (en) Video coding device and video decoding device
KR20060059769A (en) Method for coding vector refinement for using vectors of base layer picturs and decoding method using the vector refinement
JP4113696B2 (en) Lossless video encoding method, decoding method thereof, and apparatus thereof
WO2014084674A2 (en) Intra prediction method and intra prediction apparatus using residual transform
JP4511607B2 (en) Lossless video encoding method, decoding method thereof, and program thereof
JP2021129148A (en) Prediction device, encoding device, decoding device, and program
JP4697802B2 (en) Video predictive coding method and apparatus
KR102111437B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR20060063604A (en) Method for encoding and decoding video signal
JP2003116141A (en) Moving picture prediction encoding method and its decoding method, and apparatus for the same
KR20110067648A (en) Method for encoding/decoding image and apparatus for performing the same
JP4153774B2 (en) Video encoding method, decoding method thereof, and apparatus thereof
JP2022070176A (en) Encoding device and program
KR101285841B1 (en) Motion vector encoder and decoder, and method for encoding and decoding thereof
KR20060045797A (en) Method and apparatus for adaptively dividing the size of gop in video coding based on hierarchical b-picture

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees