JP2018032900A - Video encoder and video decoder - Google Patents

Video encoder and video decoder Download PDF

Info

Publication number
JP2018032900A
JP2018032900A JP2016162039A JP2016162039A JP2018032900A JP 2018032900 A JP2018032900 A JP 2018032900A JP 2016162039 A JP2016162039 A JP 2016162039A JP 2016162039 A JP2016162039 A JP 2016162039A JP 2018032900 A JP2018032900 A JP 2018032900A
Authority
JP
Japan
Prior art keywords
unit
waveform
sequence
video
orthogonal transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016162039A
Other languages
Japanese (ja)
Other versions
JP6846134B2 (en
Inventor
俊枝 三須
Toshie Misu
俊枝 三須
慎平 根本
Shimpei Nemoto
慎平 根本
康孝 松尾
Yasutaka Matsuo
康孝 松尾
境田 慎一
Shinichi Sakaida
慎一 境田
菊文 神田
Kikufumi Kanda
菊文 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016162039A priority Critical patent/JP6846134B2/en
Publication of JP2018032900A publication Critical patent/JP2018032900A/en
Application granted granted Critical
Publication of JP6846134B2 publication Critical patent/JP6846134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve coding efficiency of video encoding.SOLUTION: A video encoder includes an orthogonal transformation unit 14 and an entropy coding unit 17, a waveform approximation unit 30 finds parameters by performing parametric waveform fitting for an orthogonal transformation factor string outputted from the orthogonal transformation unit 14, and the entropy coding section 17 encodes the encoding object when generating a bit string while adding the parameter or a quantized number value thereof. A video decoder decodes the parameters or quantized number value thereof from the bit string in an entropy decoding unit 50, and obtains decode value of orthogonal transformation factor string to be fed to an inverse orthogonal transformation unit 53, by reproducing the approximate waveform of the orthogonal transformation factor string in a factor restoration unit 51.SELECTED DRAWING: Figure 1

Description

本発明は、映像の符号化装置及び復号装置に関する。   The present invention relates to a video encoding device and decoding device.

近年、4K(空間解像度/フレーム周波数:3840x2160/60pなど)、8K(空間解像度/フレーム周波数:7680x4320/60p, 7680x4320/120pなど)といった超高解像度映像の普及が進んでいる。超高解像度映像のデータ量は膨大であり、放送波やIP網で伝送するためには映像のデータ量を圧縮する必要がある。   In recent years, ultra-high resolution images such as 4K (spatial resolution / frame frequency: 3840x2160 / 60p, etc.) and 8K (spatial resolution / frame frequency: 7680x4320 / 60p, 7680x4320 / 120p, etc.) have been widely used. The amount of data of ultra-high resolution video is enormous, and it is necessary to compress the amount of video data for transmission over broadcast waves and IP networks.

映像や画像のデータ圧縮として、画像をブロック分割し、ブロック毎に離散コサイン変換(DCT;Discrete Cosine Transform)などの直交変換を施し、その結果である変換係数を量子化し、量子化された変換係数をエントロピー符号化するハイブリッド符号化方式が良く知られている。   As data compression of video and images, the image is divided into blocks, orthogonal transform such as discrete cosine transform (DCT) is performed for each block, the resulting transform coefficient is quantized, and the quantized transform coefficient A hybrid coding method for entropy coding is well known.

HEVC(MPEG-H Part2 High Efficiency Video Coding)/H.265においては、離散コサイン変換に加えて、小さな輝度ブロックのイントラ予測の残差信号を符号化するために離散サイン変換(DST;Discrete Sine Transform)も利用される(特許文献1)。   In HEVC (MPEG-H Part 2 High Efficiency Video Coding) /H.265, in addition to discrete cosine transform, discrete sine transform (DST) is used to encode the residual signal of intra prediction of small luminance blocks. ) Is also used (Patent Document 1).

また、原画像信号を解像度変換し、低解像化した画像である構造成分を符号化するとともに、原画像信号から構造成分を符号化・復号した信号を逆解像度変換したものを減じて得たテクスチャ成分について、そのヒストグラム情報を符号化する手法が提案されている(特許文献2)。   Also, the resolution was obtained by converting the resolution of the original image signal and coding the structural component, which is a low-resolution image, and subtracting the signal obtained by encoding / decoding the structural component from the original image signal and performing the reverse resolution conversion. A technique for encoding histogram information of a texture component has been proposed (Patent Document 2).

従来、自然画像の信号の統計的性質から、その主成分ベクトルであるカルーネン・レーベ変換基底が離散コサイン変換基底により近似可能であることを根拠として、画像符号化や映像符号化では離散コサイン変換が多用されてきた。また、とくに動画像の符号化においては、フレーム間やフレーム内の相関を利用して予測処理が行われ、その予測残差に対して変換処理を行うことが一般的になってきている。   Conventionally, because of the statistical properties of natural image signals, discrete cosine transform is used for image coding and video coding based on the fact that the Kalunen-Loeve transform basis, which is the principal component vector, can be approximated by a discrete cosine transform basis. It has been used a lot. In particular, in moving picture encoding, prediction processing is performed using correlation between frames or within frames, and conversion processing is generally performed on the prediction residual.

まず、直交変換と予測処理を利用して映像信号のデータ圧縮を行う、従来の映像符号化装置の一例を説明する。   First, an example of a conventional video encoding device that performs data compression of a video signal using orthogonal transform and prediction processing will be described.

図9は、離散コサイン変換等の直交変換を有する従来型の映像符号化装置の構成の一例を示したブロック図である。映像符号化装置は、ブロック分割部10と、メモリ11と、予測部12と、減算部13と、直交変換部14と、走査部15と、量子化部16と、エントロピー符号化部17と、逆量子化部18と、走査部19と、逆直交変換部20と、加算部21と、によって構成される。   FIG. 9 is a block diagram showing an example of a configuration of a conventional video encoding apparatus having orthogonal transform such as discrete cosine transform. The video encoding device includes a block division unit 10, a memory 11, a prediction unit 12, a subtraction unit 13, an orthogonal transformation unit 14, a scanning unit 15, a quantization unit 16, an entropy encoding unit 17, The inverse quantization unit 18, the scanning unit 19, the inverse orthogonal transform unit 20, and the addition unit 21 are configured.

ブロック分割部10は、入力映像のフレームを以後の処理を行う単位となる部分領域に分割する。ブロック分割は例えば、以後の予測部12や直交変換部14に応じて分割の仕方を変えても構わないし、同一としても構わない。ブロック分割形状は、矩形(正方形や長方形)とするのが典型的であるが、これらに限られない。ブロック分割部10は、図9には示さない最適化処理部によって他の処理部(予測部12、直交変換部14、走査部15、量子化部18など)の処理パラメータ(例えば、予測部12において予測に用いる参照フレーム、直交変換部14において用いる基底関数、走査部15における係数の走査順序、量子化部18における量子化幅や係数のシグナリングの有無など)とともにレート歪関数(ビットレートと符号化誤差に基づいて定義される評価値)が最適値をとるよう、その分割形状や分割サイズを適応的に制御しても構わない。   The block division unit 10 divides the frame of the input video into partial areas that are units for performing subsequent processing. For example, the block division may be changed according to the prediction unit 12 or the orthogonal transform unit 14 or may be the same. The block division shape is typically rectangular (square or rectangular), but is not limited thereto. The block dividing unit 10 uses processing parameters (for example, the prediction unit 12) of other processing units (prediction unit 12, orthogonal transform unit 14, scanning unit 15, quantization unit 18, etc.) by an optimization processing unit not shown in FIG. 9. A rate distortion function (bit rate and code) together with reference frames used for prediction, basis functions used in the orthogonal transform unit 14, coefficient scanning order in the scanning unit 15, quantization width in the quantization unit 18 and presence / absence of coefficient signaling, etc. The division shape and the division size may be adaptively controlled so that the evaluation value defined based on the conversion error takes an optimum value.

メモリ11は、映像符号化装置の動作の各段階において、当該段階までに符号化を完了した映像の部分領域(すでに符号化を完了したフレームや、現に符号化を行っているフレームの中のすでに符号化済みの部分領域)における局部復号画像を保持する。この局部復号画像は、映像符号化装置内において復号操作(逆量子化部18、走査部19、逆直交変換部20、及び加算部21の処理)を行った結果を指す。   At each stage of the operation of the video encoding device, the memory 11 stores a partial area of the video that has been encoded up to that stage (a frame that has already been encoded or has already been encoded. The local decoded image in the encoded partial area) is held. This local decoded image indicates a result of performing a decoding operation (processing of the inverse quantization unit 18, the scanning unit 19, the inverse orthogonal transform unit 20, and the addition unit 21) in the video encoding device.

予測部12は、メモリ11に記憶された局部復号画像から、ブロック分割部10出力のブロック(以下、対象ブロック)内の画素値列の近似(予測という)を試み、当該近似結果を予測ブロックとして出力する。予測には、例えば動き補償予測及び画面内予測が含まれる。   The prediction unit 12 tries to approximate (referred to as prediction) a pixel value sequence in a block (hereinafter referred to as a target block) output from the block division unit 10 from the locally decoded image stored in the memory 11, and uses the approximation result as a prediction block. Output. The prediction includes, for example, motion compensation prediction and intra-screen prediction.

動き補償予測は、対象ブロック内画素値列を近似する部分領域をメモリ11内に保持された他の時刻(ブロック分割部10がブロック分割を行ったフレームとは異なる時刻)のフレーム内から探索し、最も近似度の高い(例えば、二乗誤差和の小さい)部分領域を求める。この最も近似度の高い部分領域が対象ブロック位置に対してどこにあるかを表す相対位置を動きベクトルとして求めてエントロピー符号化部17に渡すとともに、当該最も近似度の高い部分領域の画素値列を予測ブロックとして減算手段13に渡す。   In motion compensated prediction, a partial area approximating the pixel value sequence in the target block is searched from a frame at another time (a time different from the frame in which the block dividing unit 10 performs block division) held in the memory 11. The partial region having the highest degree of approximation (for example, the smallest sum of squared errors) is obtained. A relative position indicating where the partial area with the highest degree of approximation is located with respect to the target block position is obtained as a motion vector and passed to the entropy encoding unit 17, and a pixel value sequence of the partial area with the highest degree of approximation is obtained. It passes to the subtraction means 13 as a prediction block.

画面内予測は、例えば、メモリ11内に保持された現フレーム(ブロック分割部10がブロック分割を行ったフレームと同時刻のフレーム)の符号化済み部分領域の画素値列から、対象ブロック内の画素値列の近似を試みる。例えば、対象ブロックの周囲に存在する符号化済み画素(参照画素)の画素値列に基づき、その平均値を求め、予測ブロックの画素値をすべて当該平均値とすることで予測ブロックを生成する(平均値予測)。あるいは、4画素からなる参照画素列から例えば双一次演算によって予測ブロックの画素値を生成する(平面予測、プレーナ予測)。また、例えば、参照画素列を所定の方向に外挿することで予測ブロックを生成する(方向予測)。さらに例えば、対象ブロックの画素値列を最も近似する部分領域を、メモリ11内に保持された現フレームの符号化済み部分領域の画素値列内から探索し、この最も近似度の高い部分領域が対象ブロック位置に対してどこにあるかを表す相対位置を動きベクトルとして求めてエントロピー符号化部17に渡すとともに、当該最も近似度の高い部分領域の画素値列を減算手段13に渡す(イントラブロックコピー)。   For example, the intra-screen prediction is performed based on the pixel value sequence in the encoded partial area of the current frame (the frame at the same time as the frame on which the block dividing unit 10 performs block division) held in the memory 11. Try to approximate the pixel value sequence. For example, based on a pixel value sequence of encoded pixels (reference pixels) existing around the target block, an average value thereof is obtained, and a prediction block is generated by setting all pixel values of the prediction block to the average value ( Average prediction). Or the pixel value of a prediction block is produced | generated by the bilinear calculation, for example from the reference pixel row | line which consists of 4 pixels (planar prediction, planar prediction). Further, for example, a prediction block is generated by extrapolating the reference pixel column in a predetermined direction (direction prediction). Further, for example, a partial region that most closely approximates the pixel value sequence of the target block is searched from the pixel value sequence of the encoded partial region of the current frame held in the memory 11, and the partial region having the highest degree of approximation is found. A relative position indicating where the target block position is located is obtained as a motion vector and passed to the entropy coding unit 17 and the pixel value sequence of the partial area having the highest degree of approximation is passed to the subtracting unit 13 (intra block copy). ).

減算部13は、ブロック分割部10出力の対象ブロックの各画素値から、予測部12出力の予測ブロックの各画素値を減じ、その結果を残差ブロックとして出力する。   The subtraction unit 13 subtracts each pixel value of the prediction block output from the prediction unit 12 from each pixel value of the target block output from the block division unit 10 and outputs the result as a residual block.

直交変換部14は、残差ブロックに対して直交変換を適用し、その結果たる変換係数列(変換係数値列)を出力する。直交変換としては、例えば離散コサイン変換、離散サイン変換、アダマール変換、ウェーブレット変換や、それらを整数近似した変換を用いることができる。   The orthogonal transform unit 14 applies orthogonal transform to the residual block and outputs a transform coefficient sequence (transform coefficient value sequence) as a result. As the orthogonal transform, for example, a discrete cosine transform, a discrete sine transform, a Hadamard transform, a wavelet transform, or a transform that approximates them can be used.

走査部15は、直交変換部14の出力する2次元の変換係数列を所定の順序において走査し、1次元的な数列に並べ替えて出力する。走査部15の走査順序は例えば、直流成分から低周波成分そして高周波成分へとジグザグ状に走査(ジグザグ走査)したり、主走査(例えば、水平周波数の昇順)と副走査(例えば、垂直周波数の昇順)の組によるラスタ走査を適用したり、あるいはヒルベルト走査を適用することができる。   The scanning unit 15 scans the two-dimensional transform coefficient sequence output from the orthogonal transform unit 14 in a predetermined order, rearranges it into a one-dimensional number sequence, and outputs the result. The scanning order of the scanning unit 15 is, for example, zigzag scanning from a direct current component to a low frequency component and a high frequency component (zigzag scanning), or main scanning (for example, ascending order of horizontal frequency) and sub scanning (for example, vertical frequency). Ascending order) raster scanning or Hilbert scanning can be applied.

量子化部16は、走査部15からの変換係数列に対して量子化を行い、量子化インデックス列に変換する。量子化は、例えば所定の数値(量子化幅)によって各変換係数値を除し、その商を量子化インデックスとする。この量子化幅は、変換係数列の何番目か(周波数がいずれであるか)に依らず一定であっても構わないし、周波数に応じて量子化幅を違えても構わない。周波数に応じて量子化幅を違える場合には、例えば、周波数ごとの量子化幅を表(量子化テーブル)として定義しておく。   The quantization unit 16 quantizes the conversion coefficient sequence from the scanning unit 15 and converts it into a quantization index sequence. In the quantization, for example, each transform coefficient value is divided by a predetermined numerical value (quantization width), and the quotient is used as a quantization index. The quantization width may be constant regardless of the number of the transform coefficient sequence (which frequency is), or the quantization width may be different depending on the frequency. When the quantization width differs according to the frequency, for example, the quantization width for each frequency is defined as a table (quantization table).

また、量子化部16は、変換係数列を途中で打ち切っても構わない。例えば、量子化部16は、変換係数列のn番目(nは1以上かつ変換係数列の総数以下の整数値)以降の変換係数の絶対値が所定の閾値(例えば、0、1あるいは2など)以下となった場合に、n番目以降の係数がすべて0であるものとして、以降のエントロピー符号化17への数値の受け渡しを打ち切っても構わない。   Further, the quantization unit 16 may terminate the transform coefficient sequence halfway. For example, the quantization unit 16 determines that the absolute value of the transform coefficient after the nth transform coefficient sequence (n is an integer value equal to or greater than 1 and equal to or less than the total number of transform coefficient sequences) is a predetermined threshold (for example, 0, 1 or 2) ) In the case of the following, it may be assumed that all the nth and subsequent coefficients are 0, and the subsequent numerical value transfer to the entropy encoding 17 may be terminated.

エントロピー符号化部17は、量子化部16から出力された量子化インデックス列や、予測部12から出力された動きベクトルに対してエントロピー符号化を適用し、その結果たるビット列を出力する。エントロピー符号化部17は、このほか予測部12がいかなる予測を行ったかの識別子(モード情報)や、直交変換部14が適用した基底関数の種別、ブロック分割部10におけるブロック分割形状、量子化部16における量子化幅に関する情報などを符号化対象に含めても構わない。   The entropy encoding unit 17 applies entropy encoding to the quantization index sequence output from the quantization unit 16 and the motion vector output from the prediction unit 12, and outputs the resulting bit sequence. In addition, the entropy encoding unit 17 also includes an identifier (mode information) indicating what prediction the prediction unit 12 has performed, the type of basis function applied by the orthogonal transformation unit 14, the block division shape in the block division unit 10, and the quantization unit 16 Information regarding the quantization width in the above may be included in the encoding target.

逆量子化部18は、量子化インデックス列を変換係数列に変換する。逆量子化部18は、量子化部16がある量子化インデックスを出力する場合に、その入力値がとり得る範囲の代表値を求める操作である。この代表値は、例えば、入力値がとり得る範囲の上限値及び下限値の相加平均値とすることができる。   The inverse quantization unit 18 converts the quantization index sequence into a transform coefficient sequence. The inverse quantization unit 18 is an operation for obtaining a representative value in a range that the input value can take when the quantization unit 16 outputs a quantization index. This representative value can be, for example, an arithmetic average value of an upper limit value and a lower limit value of a range that the input value can take.

走査部19は、走査部16の逆操作により、逆量子化部18から出力された1次元の変換係数列を2次元の変換係数列に変換する。   The scanning unit 19 converts the one-dimensional conversion coefficient sequence output from the inverse quantization unit 18 into a two-dimensional conversion coefficient sequence by the reverse operation of the scanning unit 16.

逆直交変換部20は、直交変換部14の逆変換を実行し、走査部19からの2次元の変換係数列を2次元の残差画素値列(復号残差ブロック)に変換する。例えば、直交変換部14が離散コサイン変換を行う場合には、逆直交変換部20は逆離散コサイン変換を実行する。また、例えば、直交変換部14が離散サイン変換を行う場合には、逆直交変換部20は逆離散サイン変換を実行する。なお、逆直交変換部20により得られた2次元残差画素値列は、減算部13の出力の残差ブロックに対応するが、途中の直交変換及び量子化等に伴う情報誤差を含んでいることから、「復号残差ブロック」と呼んで区別する。   The inverse orthogonal transform unit 20 performs the inverse transform of the orthogonal transform unit 14 and converts the two-dimensional transform coefficient sequence from the scanning unit 19 into a two-dimensional residual pixel value sequence (decoded residual block). For example, when the orthogonal transform unit 14 performs discrete cosine transform, the inverse orthogonal transform unit 20 performs inverse discrete cosine transform. For example, when the orthogonal transform unit 14 performs discrete sine transform, the inverse orthogonal transform unit 20 performs inverse discrete sine transform. Note that the two-dimensional residual pixel value sequence obtained by the inverse orthogonal transform unit 20 corresponds to the residual block of the output of the subtraction unit 13, but includes information errors due to intermediate orthogonal transform, quantization, and the like. For this reason, it is called “decoded residual block”.

加算部21は、逆直交変換手段からの復号残差ブロックの画素値列と、予測部21からの予測ブロックの画素値列を画素ごとに加算し、その結果の画素値列を復号ブロックとして出力する。得られた復号ブロックはメモリ11の当該ブロック位置の画素値列として記録される。   The addition unit 21 adds the pixel value sequence of the decoded residual block from the inverse orthogonal transform unit and the pixel value sequence of the prediction block from the prediction unit 21 for each pixel, and outputs the resulting pixel value sequence as a decoded block To do. The obtained decoded block is recorded as a pixel value sequence at the block position in the memory 11.

以上が、従来型の映像符号化装置の構成及び動作の一例である。   The above is an example of the configuration and operation of a conventional video encoding device.

特許第5302256号公報Japanese Patent No. 5302256 特許第5700666号公報Japanese Patent No. 5700666

予測処理を利用した映像符号化装置において、予測残差信号は、自然画像とは統計的性質を異にするため、離散コサイン変換基底が必ずしも最適な基底とはいえない。そこで、方向予測によるイントラ予測において、参照画素に近い対象ブロック内の残差値がゼロに近くなることに着目し、その境界条件から奇関数の基底である離散サイン変換を用いることが提案され、HEVC/H.265において採用され、効を奏している。このように、離散コサイン変換や離散サイン変換等の直交変換を利用し、変換結果たる変換係数列により映像を符号化して、高い圧縮符号化率で伝送することが従来から行われている。   In a video encoding apparatus using a prediction process, a prediction residual signal has a statistical property different from that of a natural image, and thus a discrete cosine transform base is not necessarily an optimal base. Therefore, in intra prediction by direction prediction, focusing on the fact that the residual value in the target block close to the reference pixel is close to zero, it is proposed to use the discrete sine transform that is the basis of the odd function from the boundary condition, Used in HEVC / H.265, it is effective. As described above, it has been conventionally performed that an orthogonal transformation such as a discrete cosine transformation or a discrete sine transformation is used to encode a video with a transformation coefficient sequence as a transformation result and transmit the video at a high compression coding rate.

しかしながら、直交変換を利用し、変換係数列により映像を符号化する符号化処理において、離散コサイン変換及び離散サイン変換のいずれを用いた場合であっても、変換結果たる変換係数列は、低域成分とりわけ直流成分において大きなパワーを有し、高域になるほどそのパワーが減衰する傾向がある。このような統計的な性質が表れるということは、すなわち離散コサイン変換や離散サイン変換では未だ信号の相関を活用しきれておらず、さらなる情報圧縮が可能であることを意味する。   However, in the encoding process that uses orthogonal transform and encodes a video with a transform coefficient sequence, the transform coefficient sequence that is the transform result is a low frequency band, regardless of whether discrete cosine transform or discrete sine transform is used. The component, particularly the direct current component has a large power, and the power tends to attenuate as the frequency becomes higher. The appearance of such a statistical property means that the signal correlation has not been fully utilized in discrete cosine transform or discrete sine transform, and further information compression is possible.

従って、上記のような問題点に鑑みてなされた本発明の目的は、離散コサイン変換等の直交変換を有する映像符号化方式において、直交変換係数列に尚も残る統計的な傾向を利用することにより、符号化効率を改善することができる符号化装置及び復号装置を提供することにある。   Accordingly, an object of the present invention made in view of the above problems is to use a statistical tendency still remaining in an orthogonal transform coefficient sequence in a video encoding method having an orthogonal transform such as a discrete cosine transform. Accordingly, an object of the present invention is to provide an encoding device and a decoding device that can improve the encoding efficiency.

上記課題を解決するために本発明に係る映像符号化装置は、直交変換部とエントロピー符号化部を有する映像符号化装置であって、前記直交変換部の出力する直交変換係数列に対し、パラメトリックな波形フィッティングを行う波形近似部を備え、前記波形近似部は、前記波形フィッティングの結果のパラメータを出力し、前記エントロピー符号化部は、ビット列を生成する際の符号化対象に前記パラメータを含めることを特徴とする。   In order to solve the above problems, a video encoding device according to the present invention is a video encoding device having an orthogonal transform unit and an entropy coding unit, and is a parametric method for the orthogonal transform coefficient sequence output from the orthogonal transform unit. A waveform approximating unit for performing appropriate waveform fitting, wherein the waveform approximating unit outputs a parameter as a result of the waveform fitting, and the entropy encoding unit includes the parameter in an encoding target when generating a bit string It is characterized by.

また、前記映像符号化装置は、前記波形近似部は、さらに前記直交変換係数列から前記パラメータを用いて近似した近似波形を減じて得られる残差列に基づく残差情報を出力し、前記エントロピー符号化部は、ビット列を生成する際の符号化対象に、さらに前記残差情報を含めることが望ましい。   Further, in the video encoding device, the waveform approximation unit further outputs residual information based on a residual sequence obtained by subtracting an approximate waveform approximated using the parameter from the orthogonal transform coefficient sequence, and the entropy It is desirable that the encoding unit further includes the residual information in an encoding target when generating a bit string.

また、上記課題を解決するために本発明に係る映像復号装置は、前記映像符号化装置の出力するビット列を復号する映像復号装置であって、前記映像符号化装置のエントロピー符号化部に呼応するエントロピー復号部を備え、前記エントロピー復号部は前記ビット列から前記パラメータを復号し、前記パラメータに基づいて直交変換係数列の近似波形を再生することで直交変換係数列の復号値を得ることを特徴とする。   In order to solve the above problem, a video decoding apparatus according to the present invention is a video decoding apparatus that decodes a bit string output from the video encoding apparatus, and corresponds to an entropy encoding unit of the video encoding apparatus. An entropy decoding unit, wherein the entropy decoding unit decodes the parameter from the bit sequence, and obtains a decoded value of the orthogonal transform coefficient sequence by reproducing an approximate waveform of the orthogonal transform coefficient sequence based on the parameter. To do.

また、前記映像復号装置は、前記エントロピー復号部は、さらに前記ビット列から前記残差情報を復号又は作成し、前記パラメータに基づいて直交変換係数列の近似波形を再生し、これに前記残差情報から求めた残差列を加算することで直交変換係数列の復号値を得ることが望ましい。   Further, in the video decoding device, the entropy decoding unit further decodes or creates the residual information from the bit sequence, reproduces an approximate waveform of an orthogonal transform coefficient sequence based on the parameters, and adds the residual information to the residual information. It is desirable to obtain the decoded value of the orthogonal transform coefficient sequence by adding the residual sequences obtained from the above.

本発明によれば、離散コサイン変換等の直交変換を有する映像符号化方式において、直交変換係数列に尚も残る統計的な傾向を利用することにより、符号化効率を改善することができる。直交変換係数列をパラメトリックに近似するパラメータ及び近似の際生じる誤差を補償するための残差情報によって伝送する際に、パラメータはすべての変換係数列を伝送するよりも数少なく設定することが可能であるし、また残差情報(残差値列)は0付近に集中させることができるため、エントロピー符号化による圧縮効果を高めることが可能となる。   According to the present invention, in a video encoding system having orthogonal transform such as discrete cosine transform, encoding efficiency can be improved by utilizing a statistical tendency still remaining in an orthogonal transform coefficient sequence. When transmitting orthogonal transform coefficient sequences with parametric approximation parameters and residual information to compensate for errors that occur during approximation, the parameters can be set to be fewer than when all transform coefficient sequences are transmitted. In addition, since the residual information (residual value sequence) can be concentrated in the vicinity of 0, it is possible to enhance the compression effect by entropy coding.

本発明に係る映像符号化装置の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the video coding apparatus which concerns on this invention. 波形近似部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the waveform approximation part. 変換係数列をパラメトリックな関数により近似する過程を例示した図である。It is the figure which illustrated the process of approximating a conversion coefficient sequence by a parametric function. 波形フィッティング部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of a waveform fitting part. 本発明に係る映像復号装置の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the video decoding apparatus which concerns on this invention. 係数復元部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of a coefficient decompression | restoration part. 本発明に係る映像符号化装置(予測処理部を有しないもの)の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the video coding apparatus (what does not have a prediction process part) which concerns on this invention. 本発明に係る映像復号装置(予測処理部を有しないもの)の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the video decoding apparatus (what does not have a prediction process part) which concerns on this invention. 従来型の映像符号化装置の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the conventional video coding apparatus.

以下、本発明の実施の形態について、図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る映像符号化装置の構成の一例を示したブロック図である。実施の形態1に係る映像符号化装置は予測処理を利用するものであり、以下では、映像(動画像)の符号化装置の構成及び動作について、図9に示した従来型の映像符号化装置との差異に注目しつつ説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing an example of the configuration of a video encoding apparatus according to Embodiment 1 of the present invention. The video encoding apparatus according to Embodiment 1 uses a prediction process. Hereinafter, the configuration and operation of a video (moving image) encoding apparatus will be described with reference to the conventional video encoding apparatus shown in FIG. The explanation will be made while paying attention to the difference.

本構成において映像符号化装置100は、ブロック分割部10と、メモリ11と、予測部12と、減算部13と、直交変換部14と、走査部15と、波形近似部30と、エントロピー符号化部17と、走査部19と、逆直交変換部20と、加算部21と、によって構成される。   In this configuration, the video encoding apparatus 100 includes a block division unit 10, a memory 11, a prediction unit 12, a subtraction unit 13, an orthogonal transformation unit 14, a scanning unit 15, a waveform approximation unit 30, and entropy encoding. The unit 17, the scanning unit 19, the inverse orthogonal transform unit 20, and the addition unit 21 are configured.

ブロック分割部10と、メモリ11と、予測部12と、減算部13と、直交変換部14と、走査部15と、走査部19と、逆直交変換部20と、加算部21と、については図9の従来型の映像符号化装置の動作と同様であるから説明を省略する。   About the block division unit 10, the memory 11, the prediction unit 12, the subtraction unit 13, the orthogonal transformation unit 14, the scanning unit 15, the scanning unit 19, the inverse orthogonal transformation unit 20, and the addition unit 21 Since this is the same as the operation of the conventional video encoding apparatus in FIG.

波形近似部30は、走査部15からの1次元の変換係数列の入力に対し、該変換係数列をパラメトリックな関数により近似する際のパラメータと、当該近似により近似しきれなかった波形成分(残差情報)とを、エントロピー符号化部17へ出力するとともに、当該近似及び残差情報により近似表現した変換係数列を、復号係数ベクトル(復号変換係数列)として走査部19へ出力する。   The waveform approximating unit 30 receives parameters of a one-dimensional transform coefficient sequence from the scanning unit 15 and approximates the transform coefficient sequence with a parametric function, and waveform components (residuals that cannot be approximated by the approximation). Difference information) is output to the entropy encoding unit 17, and a transform coefficient sequence approximated by the approximation and residual information is output to the scanning unit 19 as a decoded coefficient vector (decoded transform coefficient sequence).

図2は、波形近似部30の構成の一例を示したブロック図である。図2において、波形近似部30は、波形フィッティング部31(31,31,31)と、量子化部32と、逆量子化部33と、加算部34とによって構成される。なお、後述のとおり、量子化部32、逆量子化部33、及び加算部34は、必須の構成ではない。波形フィッティング部31は1つだけで構成してもよいし、多段接続によって構成しても構わない。図2の例では、波形フィッティング部31乃至31の3段の接続により構成されている。すなわち、波形フィッティング部31により第一の波形近似を行い、この波形近似で近似しきれなかった成分を波形フィッティング部31で波形近似する。さらに波形フィッティング31及び31で波形近似しきれなかった成分を波形フィッティング部31で近似する。 FIG. 2 is a block diagram illustrating an example of the configuration of the waveform approximating unit 30. In FIG. 2, the waveform approximation unit 30 includes a waveform fitting unit 31 (31 1 , 31 2 , 31 3 ), a quantization unit 32, an inverse quantization unit 33, and an addition unit 34. As will be described later, the quantization unit 32, the inverse quantization unit 33, and the addition unit 34 are not essential components. The waveform fitting unit 31 may be configured by only one, or may be configured by multistage connection. In the example of FIG. 2, the waveform fitting units 31 1 to 31 3 are configured by connecting in three stages. That performs a first waveform approximated by the waveform fitting portion 31 1, waveform approximates a component which can not be approximated by the waveform approximated by a waveform fitting portion 31 2. Further approximates the component which has not been waveform approximating the waveform fitting 31 1 and 31 2 by the waveform fitting portion 31 3.

波形フィッティング部31 (m∈{1,2,3})までで近似しきれなかった成分(残差成分)をs(m)とおく(ここで、s(m)はベクトル又は数値列である)。なお、iは1以上変換係数列の総数以下の整数とし、s(m)のi番目の成分値をs(m)(i)とおく。ただし、s(0)は走査部15からの変換係数列を意味し、s(0)(i)はそのi番目の成分とする。 A component (residual component) that could not be approximated up to the waveform fitting unit 31 m (m∈ {1, 2, 3}) is set as s (m) (where s (m) is a vector or a numerical sequence. is there). Incidentally, i is set to 1 or more transform coefficients sequence of the total number less integral, placing the i-th component value of s (m) and s (m) (i). However, s (0) means a conversion coefficient sequence from the scanning unit 15, and s (0) (i) is the i-th component.

波形フィッティング部31は、入力されたベクトルs(m−1)をパラメトリックな関数(基底ベクトルb(m))により波形近似し、その近似のためのパラメータc(m)と、残差成分s(m)とを出力する。さらに、波形フィッティング部31は、波形フィッティング部31までのパラメータc(1)乃至c(m)により近似した変換係数列r(m) (そのi番目の成分をr(m)(i)とおく)も出力する。 The waveform fitting unit 31 m approximates the waveform of the input vector s (m−1) with a parametric function (basic vector b (m) ), the parameter c (m) for the approximation, and the residual component s. (M) is output. Furthermore, the waveform fitting unit 31 m includes a transform coefficient sequence r (m) approximated by parameters c (1) to c (m) up to the waveform fitting unit 31 m (its i-th component is represented by r (m) (i) Output).

図2の波形近似部30(特に、波形フィッティング部31)の行う処理について、図3に基づいて説明する。図3は、変換係数列をパラメトリックな関数により近似する過程を例示した図である。 Processing performed by the waveform approximating unit 30 (particularly, the waveform fitting unit 31 1 ) in FIG. 2 will be described with reference to FIG. FIG. 3 is a diagram illustrating a process of approximating the transform coefficient sequence by a parametric function.

波形の近似処理に際して、予め、各波形フィッティング部31(31〜31)において使用される基底ベクトルb(1)乃至b(m)を準備する。基底ベクトルbは所定の関数に基づく数値列として設定することができ、例えば、b(1)を指数関数に基づくものとし、b(2)を低周波振動関数に基づくものとし、b(3)を高周波振動関数に基づくものとするといったように、走査部15から入力される変換係数列のパラメトリックな性質に基づいて、基底ベクトルbを定めることができる。基底ベクトルは、予め代表的な関数に基づく数値列を基底ベクトルとして設定しても良く、或いは、実験的に類似する画像の特性を調べ、例えば主成分抽出分析等をしてカルーネン・レーベ変換基底を求める等、最適な基底ベクトルを作成しても良い。 In waveform approximation processing, base vectors b (1) to b (m) used in each waveform fitting unit 31 (31 1 to 31 m ) are prepared in advance. The basis vector b can be set as a numerical sequence based on a predetermined function. For example, b (1) is based on an exponential function, b (2) is based on a low-frequency oscillation function, and b (3) The basis vector b can be determined based on the parametric nature of the transform coefficient sequence input from the scanning unit 15 such that is based on a high-frequency oscillation function. As the basis vector, a numerical sequence based on a representative function may be set as a basis vector in advance, or the characteristics of similar images are experimentally examined, and, for example, a principal component extraction analysis is performed to perform a Karhunen-Labe transformation basis. For example, an optimal basis vector may be created.

図3において、s(0)は走査部15からの変換係数列の一例である。これに対して、波形フィッティング部31では、例えば、基底ベクトルb(1)として指数関数exp(−Ax):[Aは定数]に基づく数値列を準備し、この基底ベクトルb(1)に乗算してs(0)の変換係数列にフィッティングさせるための最も適切なフィッティング係数(スカラー係数)を求め、当該係数を量子化してc(1)(この場合はスカラー)を求め、これをパラメータとする。 In FIG. 3, s (0) is an example of a conversion coefficient sequence from the scanning unit 15. In contrast, the waveform fitting unit 31 1, for example, an exponential function exp as basis vectors b (1) (-Ax): [A constant] Prepare the numerical sequence based on, on the basis vectors b (1) The most appropriate fitting coefficient (scalar coefficient) to be multiplied and fitted to the transform coefficient sequence of s (0) is obtained, and the coefficient is quantized to obtain c (1) (scalar in this case), which is used as a parameter. And

なお、基底ベクトルb(1)として指数関数αexp(−βx)に基づく数値列を利用し、指数関数のフィッティングをα、βの2つの係数で行うこともできる。このような複数の係数を含む関数を用いるときは、パラメータc(1)を、α、βに基づく複数のスカラーを含むパラメータ、又はベクトルとして取り扱うこととなる。 Note that a numerical sequence based on the exponential function αexp (−βx) can be used as the basis vector b (1) , and the fitting of the exponential function can be performed with two coefficients α and β. When such a function including a plurality of coefficients is used, the parameter c (1) is handled as a parameter or a vector including a plurality of scalars based on α and β.

波形フィッティング部31では、基底ベクトルb(1)にフィッティング係数を乗算して近似した変換係数列r(1)を出力するとともに、変換係数列s(0)と近似した変換係数列r(1)との差分を残差成分s(1)として出力する。この近似した変換係数列r(1)と、その残差成分s(1)は、次の波形フィッティング部31の入力信号となる。 The waveform fitting portion 31 1, basis vectors b (1) and outputs a transform coefficient sequence r approximated by multiplying the fitting coefficients (1), the transform coefficient sequence s (0) transform coefficients to approximate the sequence r (1 ) Is output as a residual component s (1) . This approximated transform coefficients sequence r (1), the residual component s (1) is a next input signal waveform fitting portion 31 2.

次の波形フィッティング部31では、基底ベクトルb(2)として例えばサイン関数sin(ωx):[ωは定数]に基づく数値列を準備し、この基底ベクトルb(2)に乗算して、残差成分s(1)にフィッティングさせるための最も適切なフィッティング係数を求め、当該係数を量子化してパラメータc(2)とする。なお、波形フィッティング部31では、ここまでの基底ベクトルb(1)、b(2)とパラメータc(1)、c(2)で近似した変換係数列r(2)と、さらに残る残差成分s(2)を出力し(図示せず)、次の波形フィッティング部31の入力データとする。一般には、各波形フィッティング部31は、それまでのフィッティングで再構築された変換係数列rと、残った残差成分sを出力する。 In the next waveform fitting portion 31 2, and a basis vector b (2) for example the sine function sin (ω 1 x): [ ω 1 is constant] Prepare the numerical sequence based on, multiplies this basis vector b (2) Thus, the most appropriate fitting coefficient for fitting to the residual component s (1) is obtained, and the coefficient is quantized to obtain a parameter c (2) . In the waveform fitting portion 31 2, basis vector b so far (1), b (2) a parameter c (1), and c (2) transform coefficient sequence r approximated by (2), further remains residual component s (2) and outputs (not shown), the next waveform fitting portion 31 3 of the input data. In general, each waveform fitting unit 31 outputs the transform coefficient sequence r reconstructed by the previous fitting and the remaining residual component s.

図4は、波形フィッティング部31(31)の構成の一例を示すブロック図である。図4において、波形フィッティング部31は、内積演算部40と、量子化部41と、逆量子化部42と、スカラー乗法部43と、減算部44と、加算部45と、によって構成される。 FIG. 4 is a block diagram illustrating an example of the configuration of the waveform fitting unit 31 (31 m ). In FIG. 4, the waveform fitting unit 31 includes an inner product calculation unit 40, a quantization unit 41, an inverse quantization unit 42, a scalar multiplication unit 43, a subtraction unit 44, and an addition unit 45.

内積演算部40は、入力された残差成分s(m−1)を全成分並べたベクトルと基底ベクトルb(m)との内積を演算し、その結果たる内積値p(m)を出力する。好ましくは、基底ベクトルb(m)は単位ベクトルとする。内積値p(m)は次式(1)で算出される。なお、Nは変換係数列の総数である。 The inner product calculation unit 40 calculates an inner product of a vector in which all input residual components s (m−1) are arranged and a base vector b (m), and outputs an inner product value p (m) as a result. . Preferably, the basis vector b (m) is a unit vector. The inner product value p (m) is calculated by the following equation (1). N is the total number of transform coefficient sequences.

Figure 2018032900
Figure 2018032900

係数値列(s(m−1)(i))i=1,2,…,Nを数列(t(m)・b(m) (i)i=1,2,…,Nにより近似する場合の最適なフィッティング係数(ここではスカラー係数)t(m)は、次式(2)で求められる。 Coefficient value sequence (s (m−1) (i)) i = 1, 2,..., N is approximated by a sequence (t (m) · b (m) (i) ) i = 1, 2 ,. The optimum fitting coefficient (scalar coefficient in this case) t (m) in this case is obtained by the following equation (2).

Figure 2018032900
Figure 2018032900

図4の波形フィッティング部31は、フィッティング係数t(m)を量子化した数値c(m)をパラメータとして出力すべく動作するものであるが、後述のように、波形フィッティング部31は、このフィッティング係数t(m)をパラメータとして出力しても良い。 The waveform fitting unit 31 m in FIG. 4 operates to output a numerical value c (m) obtained by quantizing the fitting coefficient t (m ) as a parameter. As will be described later, the waveform fitting unit 31 The fitting coefficient t (m) may be output as a parameter.

量子化部41は、内積値p(m)を所定の量子化幅q(m) (q(m)は正の実数)によって量子化し、その結果c(m)を出力する。例えば、基底ベクトルb(m)が単位ベクトルの場合には、次式(3)の演算を行う。 The quantization unit 41 quantizes the inner product value p (m) by a predetermined quantization width q (m) (q (m) is a positive real number), and outputs the result c (m) . For example, when the basis vector b (m) is a unit vector, the following equation (3) is calculated.

Figure 2018032900
Figure 2018032900

なお、

Figure 2018032900
は、zより大きくない最大の整数を表す(床関数)。 In addition,
Figure 2018032900
Represents the largest integer not greater than z (floor function).

あるいは、基底ベクトルb(m)が単位ベクトルとは限らない場合には、量子化部41はより一般的に、次式(5)を実行してc(m)を求める。 Alternatively, when the basis vector b (m) is not necessarily a unit vector, the quantization unit 41 more generally executes the following equation (5 ) to obtain c (m) .

Figure 2018032900
Figure 2018032900

なお、内積演算部40と量子化部41を別々に設けず、これらを一体化した処理部により、次式(6)の演算を実行して、直接c(m)を求めても構わない。 The inner product calculation unit 40 and the quantization unit 41 may not be separately provided, and the calculation of the following equation (6) may be performed by a processing unit in which these are integrated to directly obtain c (m) .

Figure 2018032900
Figure 2018032900

数式(3)、(5)及び(6)のいずれも、数式(2)のフィッティング係数を量子化幅q(m)により量子化した数値c(m)を演算する数式に相当する。 Any of the mathematical formulas (3), (5), and (6) corresponds to a mathematical formula that calculates a numerical value c (m) obtained by quantizing the fitting coefficient of the mathematical formula (2) by the quantization width q (m) .

逆量子化部42は、量子化した数値c(m)に量子化幅q(m)を乗じ、その結果をフィッティング係数(ここではスカラー係数)t(m)の近似値u(m)として出力する。すなわち、近似値u(m)を、次式(7)で求める。 The inverse quantization unit 42 multiplies the quantized numerical value c (m) by the quantization width q (m) and outputs the result as an approximate value u (m) of the fitting coefficient (here, scalar coefficient) t (m). To do. That is, the approximate value u (m) is obtained by the following equation (7).

Figure 2018032900
Figure 2018032900

スカラー乗法部43は、基底ベクトルb(m)の各成分にスカラーu(m)を乗じ、次式(8)により、近似波形σ(m)(i) (i∈{1,2,…,N}) (これをiに関して列ベクトルとして並べたものを単にベクトルσ(m)と表記する)を得る。 The scalar multiplication unit 43 multiplies each component of the basis vector b (m) by the scalar u (m), and calculates the approximate waveform σ (m) (i) (i∈ {1, 2,... N}) (the arrangement of this as a column vector with respect to i is simply expressed as a vector σ (m)) .

Figure 2018032900
Figure 2018032900

なお、逆量子化部42とスカラー乗法部43を別々に設けず、これらを一体化した処理部により、次式(9)の演算を実行して、直接近似波形σ(m)(i)を求めても構わない。 Note that the inverse quantization unit 42 and the scalar multiplication unit 43 are not provided separately, and a processing unit in which these units are integrated performs the calculation of the following equation (9) to directly calculate the approximate waveform σ (m) (i). You can ask for it.

Figure 2018032900
Figure 2018032900

減算部44は、次式(10)に基づいて、入力された各残差成分s(m−1)(i)から近似波形の各標本値σ(m)(i)を減じ、その結果を各残差成分s(m)(i)として出力する。 The subtraction unit 44 subtracts each sample value σ (m) (i) of the approximate waveform from each input residual component s (m−1) (i) based on the following equation (10), and obtains the result. Each residual component s (m ) is output as (i).

Figure 2018032900
Figure 2018032900

加算部45は、次式(11)に基づいて、入力された各変換係数列r(m−1)(i)に近似波形の各標本値σ(m)(i)を加え、その結果を各変換係数列r(m)(i)として出力する。 The adding unit 45 adds each sample value σ (m) (i) of the approximate waveform to each input transform coefficient sequence r (m−1) (i) based on the following equation (11), and the result is Each conversion coefficient sequence r (m ) is output as (i).

Figure 2018032900
Figure 2018032900

図2に戻って波形近似部30の動作を説明する。   Returning to FIG. 2, the operation of the waveform approximation unit 30 will be described.

波形フィッティング部31 (mは1以上M以下の整数、図3の例ではM=3)は、入力された数列(s(m−1)(i))i∈{1,2,…,N}、数列(r(m−1)(i))i∈{1,2,…,N}及び基底ベクトルb(m)に対し前述の処理を行い、パラメータc(m)、残差成分の数列(s(m)(i))i∈{1,2,…,N}、及び近似波形の変換係数列(r(m)(i))i∈{1,2,…,N}を出力する。なお、以下の説明及び図面においては、数列(s(m)(i))i∈{1,2,…,N}や数列(r(m)(i))i∈{1,2,…,N}を、iに関して列に並べて列ベクトルs(m)や列ベクトルr(m)と表記する場合がある。 The waveform fitting unit 31 m (m is an integer greater than or equal to 1 and less than or equal to M, M = 3 in the example of FIG. 3) is an input sequence (s (m−1) (i)) i∈ {1, 2,. N} , the sequence (r (m−1) (i)) iε {1, 2,..., N} and the basis vector b (m) are processed as described above, and the parameter c (m) and the residual component are processed. (S (m) (i)) i∈ {1, 2,..., N} , and approximate waveform conversion coefficient series (r (m) (i)) i∈ {1, 2,. Is output. In the following description and drawings, a sequence (s (m) (i)) iε {1, 2,..., N} or a sequence (r (m) (i)) iε {1, 2,. , N} may be described as a column vector s (m) or a column vector r (m) arranged in a column with respect to i.

初段の波形フィッティング部31の入力については、すべてのi∈{1,2,…,N}に対し、r(0)(i)=0とする。また、i∈{1,2,…,N}に対し、s(0)(i)には走査部15から出力される1次元の変換係数列の第i項の値を設定する。 The first stage of the input of the waveform fitting portion 31 1, all i∈ {1,2, ..., N} to, and r (0) (i) = 0. For iε {1, 2,..., N}, the value of the i-th term of the one-dimensional transform coefficient sequence output from the scanning unit 15 is set in s (0) (i).

なお、これまで、各波形フィッティング部31は、フィッティング係数t(m)を量子化した数値c(m)をパラメータとして出力すると説明したが、数式(2)で求めたフィッティング係数t(m)を、近似のためのパラメータとして出力しても良い。本発明において、波形フィッティングの結果のパラメータとは、フィッティング係数t(m)又はこのフィッティング係数t(m)を量子化した数値c(m)を意味する。前述のとおり、各パラメータはベクトル(複数のスカラーを含む)の場合もある。 Heretofore, it has been described that each waveform fitting unit 31 outputs a numerical value c (m) obtained by quantizing the fitting coefficient t (m) as a parameter. However, the fitting coefficient t (m) obtained by Expression (2 ) is used. Alternatively, it may be output as a parameter for approximation. In the present invention, the parameter resulting from the waveform fitting means the fitting coefficient t (m) or a numerical value c (m) obtained by quantizing the fitting coefficient t (m) . As described above, each parameter may be a vector (including a plurality of scalars).

量子化部32は、波形フィッティング部31から出力された残差成分の数列(s(3)(i))i∈{1,2,…,N}を量子化し、量子化インデックス列を出力する。量子化部32は、例えば、残差成分s(3)(i) (i∈{1,2,…,N})を量子化幅Q(i)で量子化し、その結果を量子化インデックスd(i)として出力する。量子化インデックスd(i)は、次式(12)で求められる。 Quantization unit 32, the sequence of the residual component output from the waveform fitting portion 31 3 (s (3) ( i)) i∈ {1,2, ..., N} quantizes and outputs the quantization index column To do. For example, the quantization unit 32 quantizes the residual component s (3) (i) (i∈ {1, 2,..., N}) with the quantization width Q (i), and the result is a quantization index d. Output as (i). The quantization index d (i) is obtained by the following equation (12).

Figure 2018032900
Figure 2018032900

なお、周波数ごとに定義された量子化幅Q(i)の数列(Q(i))i∈{1,2,…,N}は、例えば、量子化テーブルとして定義しておくことができる。 Note that the sequence (Q (i)) iε {1, 2,..., N} of the quantization width Q (i) defined for each frequency can be defined as a quantization table, for example.

ここでは、波形近似部30は、残差成分の数列(s(3)(i))i∈{1,2,…,N}を量子化した量子化インデックスd(i)を出力すると説明したが、波形フィッティング部31の最終段で求めた残差成分の数列(s(m)(i))i∈{1,2,…,N}をそのまま、近似の際に生じる誤差を補償するための残差情報として出力しても良い。また、数列の一部を残差情報としても良い。本発明において、残差情報とは、波形フィッティング部31の最終段で求めた残差成分の数列(s(m)(i))i∈{1,2,…,N}又はこの残差成分の数列(s(m)(i))を量子化した量子化インデックス(d(i))i∈{1,2,…,N}の少なくとも一部を含む情報を意味する。 Here, it has been described that the waveform approximating unit 30 outputs a quantization index d (i) obtained by quantizing the sequence of residual components (s (3) (i)) iε {1, 2,..., N} . However, in order to compensate for an error occurring in the approximation, the sequence of residual components (s (m) (i)) iε {1, 2,..., N} obtained at the final stage of the waveform fitting unit 31 is used as it is. May be output as residual information. A part of the sequence may be used as residual information. In the present invention, the residual information is a sequence of residual components (s (m) (i)) iε {1, 2,..., N} obtained at the final stage of the waveform fitting unit 31 or the residual components. Quantization index (d (i)) obtained by quantizing the number sequence (s (m) (i)) is information including at least a part of i∈ {1, 2,..., N} .

例えば、波形近似部30は、残差情報の出力を途中で打ち切っても構わない。波形近似部30は、量子化インデックス列のn番目(nは1以上かつインデックス列の総数以下の整数値)以降の量子化インデックスの絶対値が所定の閾値以下となった場合に、n番目以降の係数がすべて0であるものとして、以降のエントロピー符号化部17への数値の受け渡しを打ち切っても構わない。同様に、波形フィッティングの結果のパラメータについても、残差成分の数列(ベクトル)全体の絶対値が所定の閾値以下となった場合に、それ以降の波形フィッティングの結果のパラメータがすべて0であるものとして、以降のエントロピー符号化部17への数値の受け渡しを打ち切っても構わない。   For example, the waveform approximating unit 30 may stop outputting the residual information halfway. When the absolute value of the quantization index after the nth (n is an integer value greater than or equal to 1 and less than or equal to the total number of index sequences) after the quantization index sequence becomes equal to or less than a predetermined threshold, the waveform approximation unit 30 Assuming that all of the coefficients are 0, the numerical value transfer to the entropy encoding unit 17 thereafter may be terminated. Similarly, with respect to the parameters of the waveform fitting result, when the absolute value of the entire sequence (vector) of residual components is equal to or less than a predetermined threshold, all the parameters of the waveform fitting result thereafter are 0. As a result, the numerical value transfer to the entropy encoding unit 17 may be terminated.

逆量子化部33は、各量子化インデックスd(i)に量子化テーブル内の各量子化幅Q(i)を乗じ、その結果をe(i)として出力する。   The inverse quantization unit 33 multiplies each quantization index d (i) by each quantization width Q (i) in the quantization table, and outputs the result as e (i).

Figure 2018032900
Figure 2018032900

加算部34は、波形フィッティング部31の最終段(図2の構成では波形フィッティング部31)の出力する近似波形の変換係数列(r(3)(i))i∈{1,2,…,N}に、逆量子化部33の出力する(e(i))i∈{1,2,…,N}をそれぞれ加算し、その結果を復号変換係数列(f(i))i∈{1,2,…,N}として出力する。すなわち、f(i)は次式(14)で表わされる。 The adding unit 34 converts the approximate waveform conversion coefficient sequence (r (3) (i)) iε {1, 2,... Output from the final stage of the waveform fitting unit 31 (the waveform fitting unit 31 3 in the configuration of FIG. 2) . , N} is added with (e (i)) iε {1, 2,..., N} output from the inverse quantization unit 33, and the result is decoded transform coefficient sequence (f (i)) iε. Output as {1, 2,..., N} . That is, f (i) is expressed by the following equation (14).

Figure 2018032900
Figure 2018032900

なお、波形近似部30は、量子化部32、逆量子化部33、及び加算部34を設けず、波形フィッティング部の最終段(図3の例では波形フィッティング部31)の出力する近似波形の変換係数列(r(3)i∈{1,2,…,N}を復号変換係数列(f(i))i∈{1,2,…,N}として出力するよう構成しても構わない。この場合は、f(i)は次式(15)となる。 The waveform approximating unit 30 does not include the quantizing unit 32, the inverse quantizing unit 33, and the adding unit 34, and the approximate waveform output from the final stage of the waveform fitting unit (the waveform fitting unit 31 3 in the example of FIG. 3 ). The transform coefficient sequence (r (3) ) i∈ {1, 2,..., N} is output as a decoded transform coefficient string (f (i)) i∈ {1, 2,. It doesn't matter. In this case, f (i) is expressed by the following equation (15).

Figure 2018032900
Figure 2018032900

図1において、エントロピー符号化部17は、波形近似部30から出力されたパラメータ列c(1),c(2),…,c(M) (Mは波形近似部30内の波形フィッティング部の段数を表す整数で、図3の例ではM=3)や、残差情報(量子化インデックス列)d(1),d(2),…,d(N) (Nは直交変換部14の出力する変換係数列の総数を表す整数)、予測部12から出力された動きベクトル等に対してエントロピー符号化を適用し、その結果たるビット列を出力する。エントロピー符号化部17は、このほか予測部12がいかなる予測を行ったかの識別子(モード情報)や、直交変換部14が適用した基底関数の種別、ブロック分割部10におけるブロック分割形状、量子化部16における量子化幅に関する情報などを符号化対象に含めても構わない。 In FIG. 1, the entropy encoding unit 17 includes parameter strings c (1) , c (2) ,..., C (M) output from the waveform approximating unit 30 (M is a waveform fitting unit in the waveform approximating unit 30 ) . 3 is an integer representing the number of stages, M = 3 in the example of FIG. 3, and residual information (quantized index sequence) d (1), d (2),..., D (N) (N is the orthogonal transform unit 14) An integer representing the total number of transform coefficient sequences to be output), entropy coding is applied to the motion vector output from the prediction unit 12, and the resulting bit sequence is output. In addition, the entropy encoding unit 17 also includes an identifier (mode information) indicating what prediction the prediction unit 12 has performed, the type of basis function applied by the orthogonal transformation unit 14, the block division shape in the block division unit 10, and the quantization unit 16 Information regarding the quantization width in the above may be included in the encoding target.

エントロピー符号化部17は、残差情報(量子化インデックス列)d(1),d(2),…,d(N)の一部又は全部を符号化しなくても構わない。また、エントロピー符号化部17はパラメータ列c(1),c(2),…,c(M) の一部を符号化しなくても構わないし、またそれら全部を符号化しないことがあっても構わない。 The entropy encoding unit 17 may not encode part or all of the residual information (quantization index sequence) d (1), d (2),..., D (N). Further, the entropy encoding unit 17 may not encode a part of the parameter string c (1) , c (2) ,..., C (M) , or may not encode all of them. I do not care.

例えば、量子化インデックス列d(1),d(2),…,d(N)は、小さい数値に収束した場合は符号化及び出力をしなくても良い。また、波形フィッティング部31の残差成分s(3)が十分小さく、c(4)以下のパラメータが十分に小さくなる場合には、パラメータ列としてc(1),c(2),c(3)のみを符号化して伝送するだけであっても良い。 For example, the quantization index string d (1), d (2),..., D (N) may not be encoded and output when it converges to a small numerical value. Further, when the residual component s (3) of the waveform fitting unit 31 3 is sufficiently small and the parameters below c (4 ) are sufficiently small, c (1) , c (2) , c ( Only 3) may be encoded and transmitted.

このように、重要性の低いデータについて、符号化を行わず、出力ビット列から削除することは、波形近似部30又はエントロピー符号化部の処理として行うことができる。このような符号化の省略により、一層のデータ圧縮ができる。   As described above, it is possible to delete the less important data from the output bit string without encoding, as processing of the waveform approximation unit 30 or the entropy encoding unit. By omitting such encoding, further data compression can be performed.

なお、波形近似部30からの出力情報を全てエントロピー符号化したとしても、波形フィッティングのパラメータの高次のものや、残差情報はほぼ0に収束するから、変換係数列を直接エントロピー符号化したときよりも、全体のデータ量が減少する場合が多い。   Even if all the output information from the waveform approximation unit 30 is entropy-encoded, the higher-order waveform fitting parameters and the residual information converge to almost 0, so the transform coefficient sequence is directly entropy-encoded. In many cases, the total amount of data decreases.

次に、映像復号装置について説明する。   Next, the video decoding device will be described.

図5は、本発明に係る映像復号装置の構成の一例を示したブロック図である。図5において映像復号装置200は、エントロピー符号化部50と、係数復元部51と、走査部52と、逆直交変換部53と、メモリ54と、予測部55と、加算部56と、によって構成される。   FIG. 5 is a block diagram showing an example of the configuration of the video decoding apparatus according to the present invention. 5, the video decoding apparatus 200 includes an entropy encoding unit 50, a coefficient restoration unit 51, a scanning unit 52, an inverse orthogonal transform unit 53, a memory 54, a prediction unit 55, and an addition unit 56. Is done.

エントロピー復号部50は、映像符号化装置100のエントロピー符号化部17によって符号化されたビット列を復号し、パラメータ(例えば、フィッティング係数を量子化した数値列)c(1),c(2),…,c(M)及び残差情報(例えば、量子化インデックス列)d(1),d(2),…,d(N)を得る。 The entropy decoding unit 50 decodes the bit sequence encoded by the entropy encoding unit 17 of the video encoding device 100, and parameters (for example, a numerical sequence obtained by quantizing the fitting coefficient) c (1) , c (2) , .., C (M) and residual information (for example, quantization index sequence) d (1), d (2),..., D (N) are obtained.

係数復元部51は、パラメータ列c(1),c(2),…,c(M)及び量子化インデックス列d(1),d(2),…,d(N)から復号変換係数列f(1),f(2),…,f(N)を得る。 The coefficient restoration unit 51 decodes the transformed transform coefficient sequence from the parameter sequence c (1) , c (2) ,..., C (M) and the quantization index sequence d (1), d (2),. f (1), f (2),..., f (N) are obtained.

図6は、係数復元部51の構成の一例を示したブロック図である。係数復号部51は、逆量子化部59(59乃至59)と、スカラー乗法部60(60乃至60)と、加算部61(61乃至61)と、逆量子化部62とによって構成される。なお、図6においてはM=3である。また、後述のとおり、逆量子化部62と加算部61は必須のものではない。 FIG. 6 is a block diagram illustrating an example of the configuration of the coefficient restoration unit 51. The coefficient decoding unit 51 includes an inverse quantization unit 59 (59 1 to 59 M ), a scalar multiplication unit 60 (60 1 to 60 M ), an addition unit 61 (61 1 to 61 M ), and an inverse quantization unit 62. It is comprised by. In FIG. 6, M = 3. Further, as described below, the addition unit 61 M and the inverse quantization unit 62 is not essential.

逆量子化部59 (mは1以上M以下の整数)は、波形フィッティング部31の逆量子化部42と同様に、各パラメータc(m) (m∈{1,2,…,M})に量子化テーブル内の各量子化幅q(m)を乗じ、その結果を係数u(m)として出力する。 Similarly to the inverse quantization unit 42 of the waveform fitting unit 31, the inverse quantization unit 59 m (m is an integer of 1 or more and M or less) uses each parameter c (m) (m∈ {1, 2,..., M}). ) Is multiplied by each quantization width q (m ) in the quantization table, and the result is output as a coefficient u (m) .

Figure 2018032900
Figure 2018032900

スカラー乗法部60 (mは1以上M以下の整数)は基底ベクトルb(m)に係数u(m)を乗じ、その結果をベクトルσ(m)として出力する。 The scalar multiplication unit 60 m (m is an integer of 1 to M) multiplies the basis vector b (m) by a coefficient u (m) and outputs the result as a vector σ (m) .

加算部61は、スカラー乗法部60の出力するベクトルσ(1)と、スカラー乗法部60の出力するベクトルσ(2)とのベクトル加算を行い、その結果を出力する。 Addition unit 61 1 includes a vector sigma (1) to the output of the scalar multiplication unit 601 performs vector addition of the vector sigma (2) to the output of the scalar multiplication portion 60 2, and outputs the result.

加算部61は、2≦m≦M−1において、加算部61(m−1)の出力するベクトルと、スカラー乗法部60(m+1)の出力するベクトルσ(m+1)とのベクトル加算を行い、その結果を出力する。 The addition unit 61 m performs vector addition of the vector output from the addition unit 61 (m−1) and the vector σ (m + 1) output from the scalar multiplication unit 60 (m + 1) when 2 ≦ m ≦ M−1. , Output the result.

逆量子化部62は、波形近似部30の逆量子化部33と同様に、各量子化インデックスd(i) (i∈{1,2,…,N})に量子化テーブル内の各量子化幅Q(i)を乗じ、その結果をe(i)として出力する。   Similar to the inverse quantization unit 33 of the waveform approximation unit 30, the inverse quantization unit 62 assigns each quantization index d (i) (i∈ {1, 2,..., N}) to each quantum in the quantization table. Multiply by the quantization width Q (i) and output the result as e (i).

Figure 2018032900
Figure 2018032900

加算部61は、加算部61(M−1)の出力値と、逆量子化部62の出力値e(i)とのベクトル加算を行い、その結果を復号変換係数列f(1),f(2),…,f(N)として出力する。 The adder 61 M performs vector addition of the output value of the adder 61 (M−1) and the output value e (i) of the inverse quantization unit 62, and the result is decoded into a transform transform coefficient sequence f (1), Output as f (2),..., f (N).

なお、係数復元部51において、逆量子化部62と加算部61を設けず、加算部61(M−1)の出力を以て復号変換係数列f(1),f(2),…,f(N)としても構わない。 Incidentally, in the coefficient restoring unit 51, inverse quantization unit 62 and without providing the adding unit 61 M, the addition unit 61 (M-1) output with a decoded transform coefficients sequence f of (1), f (2) , ..., f (N) may be used.

図5に戻って映像復号装置200の構成及び動作の説明を続ける。   Returning to FIG. 5, the description of the configuration and operation of the video decoding apparatus 200 will be continued.

走査部52は、映像符号化装置100の走査部16の逆操作により、係数復元部51から出力された1次元の復号変換係数列f(1),f(2),…,f(N)を2次元の復号変換係数列に変換する。   The scanning unit 52 performs one-dimensional decoded transform coefficient sequences f (1), f (2),..., F (N) output from the coefficient restoration unit 51 by the reverse operation of the scanning unit 16 of the video encoding device 100. Is converted into a two-dimensional decoded transform coefficient sequence.

逆直交変換部53は、映像符号化装置100の直交変換部14の逆変換を実行し、走査部52からの2次元の復号変換係数列を2次元の残差画素値列(復号残差ブロック)に変換する。例えば、直交変換部14が離散コサイン変換を行う場合には、逆直交変換部53は逆離散コサイン変換を実行する。また、例えば、直交変換部14が離散サイン変換を行う場合には、逆直交変換部53は逆離散サイン変換を実行する。なお、得られた復号残差ブロックは、映像符号化装置100の減算部13の出力の残差ブロックに対応するものであり、逆直交変換部20の出力と同一のものである。   The inverse orthogonal transform unit 53 performs the inverse transform of the orthogonal transform unit 14 of the video encoding device 100, and converts the two-dimensional decoded transform coefficient sequence from the scanning unit 52 into a two-dimensional residual pixel value sequence (decoded residual block). ). For example, when the orthogonal transform unit 14 performs discrete cosine transform, the inverse orthogonal transform unit 53 performs inverse discrete cosine transform. For example, when the orthogonal transform unit 14 performs discrete sine transform, the inverse orthogonal transform unit 53 performs inverse discrete sine transform. The obtained decoded residual block corresponds to the residual block of the output of the subtracting unit 13 of the video encoding device 100 and is the same as the output of the inverse orthogonal transform unit 20.

メモリ54はブロック単位で順次復号される映像の部分領域を、ブロック位置に対応する所定の記憶領域に順次書き込むことで復号画像を構成する。メモリ54には、復号処理の各段階において、それまでに復号された映像のフレームが蓄積されている。   The memory 54 constructs a decoded image by sequentially writing partial areas of video sequentially decoded in units of blocks into a predetermined storage area corresponding to the block position. The memory 54 stores frames of video that have been decoded so far in each stage of the decoding process.

予測部55は、メモリ54に記憶された復号画像から、ブロック分割部10出力のブロック(対象ブロック)内の画素値列の近似(予測)を試み、当該近似結果を予測ブロックとして出力する。予測部55の予測の動作は、映像符号化装置100の予測部12の動作と同様である。   The prediction unit 55 tries to approximate (predict) the pixel value sequence in the block (target block) output from the block dividing unit 10 from the decoded image stored in the memory 54, and outputs the approximation result as a prediction block. The prediction operation of the prediction unit 55 is the same as the operation of the prediction unit 12 of the video encoding device 100.

加算部56は、予測部55による予測ブロックの各画素値と、逆直交変換部53からの復号残差ブロックの各画素値との和を画素ごとに求めることで復号ブロックを生成する。加算部56により生成された復号ブロックの画素値列は、メモリ54の中のブロック位置に対応する記憶領域に記録される。   The adding unit 56 generates a decoded block by obtaining, for each pixel, the sum of each pixel value of the prediction block by the prediction unit 55 and each pixel value of the decoded residual block from the inverse orthogonal transform unit 53. The pixel value sequence of the decoded block generated by the adding unit 56 is recorded in a storage area corresponding to the block position in the memory 54.

メモリ54内において復号画像フレームが所定の枚数だけ構成されるまで以上の動作を繰り返す。ここで所定の枚数とは、画像フレームを正しい表示順で表示するのに必要な枚数で、例えば映像符号化のGOP(Group Of Pictures)構造の1周期分である。メモリ54からは、表示順で復号画像フレームを読みだすことで、出力映像が得られる。   The above operation is repeated until a predetermined number of decoded image frames are configured in the memory 54. Here, the predetermined number is the number necessary to display the image frames in the correct display order, and is, for example, one period of a video coding GOP (Group Of Pictures) structure. An output video is obtained from the memory 54 by reading the decoded image frames in the display order.

なお、映像符号化装置100側から伝送されたビット列と、映像復号装置200の構成の組み合わせとしては、様々なケースが考えられるが、過不足の情報を適宜削除又は補充して処理を行うことができる。例えば、映像符号化装置100側から伝送された符号化ビット列が、パラメータ列c(1),c(2),…,c(M)及び量子化インデックス列d(1),d(2),…,d(N)を含み、映像復号装置200の係数復号部51が逆量子化部62と加算部61を有しない場合、映像復号装置200側では、エントロピー復号されたデータから、パラメータ列c(1),c(2),…,c(M)のみを抽出して、このパラメータ列c(1),c(2),…,c(M)から復号変換係数列f(1),f(2),…,f(N)を得て、処理を行うことができる。 Various combinations of the bit string transmitted from the video encoding device 100 side and the configuration of the video decoding device 200 can be considered. However, processing may be performed by appropriately deleting or supplementing excess / deficiency information. it can. For example, an encoded bit sequence transmitted from the video encoding device 100 side is a parameter sequence c (1) , c (2) ,..., C (M) and a quantization index sequence d (1), d (2), ... includes a d (N), if no and the coefficient decoding unit 51 inverse quantization unit 62 of video decoder 200 to the adding unit 61 M, the video decoder 200, the entropy decoded data, parameter sequence c (1), c (2 ), ..., c by extracting only (M), this parameter sequence c (1), c (2 ), ..., c decoded transform coefficients sequence f from (M) (1) , F (2),..., F (N) can be obtained and processed.

また反対に、映像復号装置200の係数復号部51が、逆量子化部59(59乃至59)と、スカラー乗法部60(60乃至60)と、加算部61(61乃至61)と、逆量子化部62とを全て備えている場合において、映像符号化装置100側から伝送されたビット列が、パラメータ列c(1),c(2),…,c(M)を含み、残差情報を含んでいないとき、復号装置側で適宜残差情報(量子化インデックス列)d(1),d(2),…,d(N)を補って(例えば、これら量子化インデックス列を全て0データとして作成して)処理を行い、復号変換係数列f(1),f(2),…,f(N)を得ることができる。 On the other hand, the coefficient decoding unit 51 of the video decoding device 200 includes an inverse quantization unit 59 (59 1 to 59 M ), a scalar multiplication unit 60 (60 1 to 60 M ), and an addition unit 61 (61 1 to 61 and M), when provided with all the inverse quantization unit 62, the bit string transmitted from the video encoding apparatus 100 side, parameter sequence c (1), c (2 ), ..., c (M) is When the residual information is not included, the decoding apparatus side appropriately supplements the residual information (quantization index sequence) d (1), d (2),..., D (N) (for example, these quantizations) Decoding conversion coefficient sequences f (1), f (2),..., F (N) can be obtained by performing processing by creating all index sequences as 0 data.

(実施の形態2)
以上では、予測処理を含む映像(動画像)の符号化装置及び復号装置を説明したが、本発明に係る波形近似部30を静止画用の符号化装置に適用し、また係数復元部51を静止画用の符号化装置に適用しても構わない。以下に、本発明の実施の形態2として、予測処理を含まない、静止画用の符号化装置及び復号装置について説明をする。
(Embodiment 2)
The video (moving image) encoding device and decoding device including the prediction process have been described above. However, the waveform approximating unit 30 according to the present invention is applied to the still image encoding device, and the coefficient restoration unit 51 is provided. You may apply to the encoding apparatus for still images. Hereinafter, as a second embodiment of the present invention, a coding apparatus and a decoding apparatus for still images that do not include a prediction process will be described.

動き補償予測や画面内予測といった予測処理を有しない静止画像の映像符号化装置(静止画の集合として動画像を符号化する場合を含む)の場合には、符号化装置内での復号処理や予測ブロックを求める処理が不要であり、符号化装置を簡略化して構成することができる。   In the case of a still image video encoding device (including a case where a moving image is encoded as a set of still images) that does not have a prediction process such as motion compensation prediction or in-screen prediction, a decoding process in the encoding device, A process for obtaining a prediction block is not necessary, and the encoding apparatus can be simplified.

図7は、本発明に係る映像符号化装置(予測処理部を有しないもの)の構成の一例を示したブロック図である。   FIG. 7 is a block diagram showing an example of the configuration of a video encoding device (without a prediction processing unit) according to the present invention.

本構成において映像符号化装置101は、ブロック分割部10と、直交変換部14と、走査部15と、波形近似部30と、エントロピー符号化部17と、によって構成される。   In this configuration, the video encoding device 101 includes a block dividing unit 10, an orthogonal transform unit 14, a scanning unit 15, a waveform approximation unit 30, and an entropy encoding unit 17.

ブロック分割部10については図9の従来型の映像符号化装置の動作と同様であるから説明を省略する。   The block dividing unit 10 is the same as the operation of the conventional video encoding apparatus in FIG.

直交変換部14は、予測残差ではなく、ブロック分割部10から出力された画像の画素値そのものに対して直交変換を適用し、その結果たる変換係数列を出力する。直交変換としては、例えば離散コサイン変換、離散サイン変換、アダマール変換、ウェーブレット変換や、それらを整数近似した変換を用いることができることは従来と同様である。   The orthogonal transform unit 14 applies orthogonal transform to the pixel values of the image output from the block dividing unit 10 instead of the prediction residual, and outputs a transform coefficient sequence as a result. As the orthogonal transform, for example, discrete cosine transform, discrete sine transform, Hadamard transform, wavelet transform, and transforms obtained by approximating them can be used as in the conventional case.

走査部15は、直交変換部14の出力する2次元の変換係数列を所定の順序において走査し、1次元的な数列に並べ替えて出力する。これは従来型の映像符号化装置の動作と同様である。   The scanning unit 15 scans the two-dimensional transform coefficient sequence output from the orthogonal transform unit 14 in a predetermined order, rearranges it into a one-dimensional number sequence, and outputs the result. This is the same as the operation of the conventional video encoding apparatus.

波形近似部30は、図2で説明した波形近似部30の構成と基本的に同様であり、波形フィッティング部31(31,31,31)と、量子化部32とを備え、パラメータ(フィッティング係数を量子化した数値列)c(1),c(2),…,c(M)及び残差情報(量子化インデックス列)d(1),d(2),…,d(N)を出力する。なお、映像符号化装置101は予測処理を行わないから、逆量子化部33と、加算部34は不要であり、復号変換係数列f(1),f(2),…,f(N)は出力しない。 The waveform approximating unit 30 is basically the same as the configuration of the waveform approximating unit 30 described with reference to FIG. 2, and includes a waveform fitting unit 31 (31 1 , 31 2 , 31 3 ) and a quantizing unit 32, and parameters. (Numerical sequence obtained by quantizing the fitting coefficient) c (1) , c (2) ,..., C (M) and residual information (quantized index sequence) d (1), d (2),. N) is output. Since the video encoding apparatus 101 does not perform the prediction process, the inverse quantization unit 33 and the addition unit 34 are unnecessary, and the decoded transform coefficient sequences f (1), f (2),..., F (N) Is not output.

エントロピー符号化部17は、図1の映像符号化装置100のエントロピー符号化部17と同様に、波形近似部30から出力されたパラメータ列c(1),c(2),…,c(M)や、量子化インデックス列d(1),d(2),…,d(N)に対してエントロピー符号化を適用し、その結果たるビット列を出力する。 The entropy encoding unit 17 is similar to the entropy encoding unit 17 of the video encoding device 100 of FIG. 1, and the parameter sequence c (1) , c (2) ,. ), And entropy coding is applied to the quantized index string d (1), d (2),..., D (N), and the resulting bit string is output.

以上が、符号化装置101の構成と動作の概要である。次に、図7の符号化装置に対応する復号装置の構成例について説明する。   The above is the outline of the configuration and operation of the encoding apparatus 101. Next, a configuration example of a decoding device corresponding to the encoding device in FIG. 7 will be described.

図8は、本発明に係る映像復号装置(予測処理部を有しないもの)の構成の一例を示したブロック図である。   FIG. 8 is a block diagram showing an example of the configuration of a video decoding apparatus (without a prediction processing unit) according to the present invention.

本構成において映像復号装置201は、エントロピー符号化部50と、係数復元部51と、走査部52と、逆直交変換部53と、メモリ54と、によって構成される。   In this configuration, the video decoding apparatus 201 includes an entropy encoding unit 50, a coefficient restoration unit 51, a scanning unit 52, an inverse orthogonal transform unit 53, and a memory 54.

エントロピー符号化部50と、係数復元部51と、走査部52の構成及び動作は、図5の映像復号装置200の各部の構成及び動作と同様であり、係数復元部51は、パラメータ列c(1),c(2),…,c(M)及び残差情報(量子化インデックス列)d(1),d(2),…,d(N)から復号変換係数列f(1),f(2),…,f(N)を得る。また、走査部52は、係数復元部51から出力された1次元の復号変換係数列f(1),f(2),…,f(N)を2次元の復号変換係数列に変換する。 An entropy coding unit 50, a coefficient restoring unit 51, the configuration and operation of the scanning unit 52 has the same configuration and operation of each part of the video decoding apparatus 200 of FIG. 5, the coefficient restoring unit 51, parameter sequence c ( 1) , c (2) ,..., C (M) and residual information (quantized index sequence) d (1), d (2),..., D (N) to decoded transform coefficient sequence f (1), f (2),..., f (N) are obtained. The scanning unit 52 converts the one-dimensional decoded transform coefficient sequence f (1), f (2),..., F (N) output from the coefficient restoring unit 51 into a two-dimensional decoded transform coefficient sequence.

図8の映像復号装置201は、予測処理を行わないため、逆直交変換部53が予測残差の復号値ではなく、画像の復号値を出力し、この画像の復号値をメモリ54に書き込むことで復号画像が構成される。   Since the video decoding apparatus 201 in FIG. 8 does not perform the prediction process, the inverse orthogonal transform unit 53 outputs the decoded value of the image instead of the decoded value of the prediction residual, and writes the decoded value of the image into the memory 54. A decoded image is constructed.

このように実施の形態2に係る映像符号化装置101及び映像復号装置201によれば、静止画について、従来よりも符号化効率を高めることができる。   As described above, according to the video encoding device 101 and the video decoding device 201 according to the second embodiment, it is possible to increase the encoding efficiency of a still image as compared with the conventional art.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。   Although the above embodiment has been described as a representative example, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiments can be combined into one, or one constituent block can be divided.

10 ブロック分割部
11 メモリ
12 予測部
13 減算部
14 直交変換部
15 走査部
16 量子化部
17 エントロピー符号化部
18 逆量子化部
19 走査部
20 逆直交変換部
21 加算部
30 波形近似部
31(31,31,31,31) 波形フィッティング部
32 量子化部
33 逆量子化部
34 加算部
40 内積演算部
41 量子化部
42 逆量子化部
43 スカラー乗法部
44 減算部
45 加算部
50 エントロピー復号部
51 係数復元部
52 走査部
53 逆直交変換部
54 メモリ
55 予測部
56 加算部
59(59,59,59,59) 逆量子化部
60(60,60,60,60) スカラー乗法部
61(61,61,61,61) 加算部
62 逆量子化部
100,101 映像符号化装置
200,201 映像復号装置
10 block division unit 11 memory 12 prediction unit 13 subtraction unit 14 orthogonal transformation unit 15 scanning unit 16 quantization unit 17 entropy encoding unit 18 inverse quantization unit 19 scanning unit 20 inverse orthogonal transformation unit 21 addition unit 30 waveform approximation unit 31 ( 31 1 , 31 2 , 31 3 , 31 m ) Waveform fitting section 32 Quantization section 33 Inverse quantization section 34 Addition section 40 Inner product calculation section 41 Quantization section 42 Inverse quantization section 43 Scalar multiplication section 44 Subtraction section 45 Addition section 50 Entropy Decoding Unit 51 Coefficient Restoration Unit 52 Scanning Unit 53 Inverse Orthogonal Transform Unit 54 Memory 55 Prediction Unit 56 Addition Unit 59 (59 1 , 59 2 , 59 3 , 59 m ) Inverse Quantization Unit 60 (60 1 , 60 2 , 60 3 , 60 m ) Scalar multiplication unit 61 (61 1 , 61 2 , 61 3 , 61 m ) Adder 62 Inverse quantization unit 100, 101 Video encoding device 200, 201 Video decoding device

Claims (4)

直交変換部とエントロピー符号化部を有する映像符号化装置であって、
前記直交変換部の出力する直交変換係数列に対し、パラメトリックな波形フィッティングを行う波形近似部を備え、
前記波形近似部は、前記波形フィッティングの結果のパラメータを出力し、
前記エントロピー符号化部は、ビット列を生成する際の符号化対象に前記パラメータを含めること
を特徴とする映像符号化装置。
A video encoding device having an orthogonal transform unit and an entropy encoding unit,
A waveform approximation unit that performs parametric waveform fitting on the orthogonal transform coefficient sequence output by the orthogonal transform unit,
The waveform approximation unit outputs a parameter as a result of the waveform fitting,
The entropy encoding unit includes the parameter as an encoding target when generating a bit string.
請求項1に記載の映像符号化装置であって、
前記波形近似部は、さらに前記直交変換係数列から前記パラメータを用いて近似した近似波形を減じて得られる残差列に基づく残差情報を出力し、
前記エントロピー符号化部は、ビット列を生成する際の符号化対象に、さらに前記残差情報を含めること
を特徴とする映像符号化装置。
The video encoding device according to claim 1,
The waveform approximation unit further outputs residual information based on a residual sequence obtained by subtracting an approximate waveform approximated using the parameter from the orthogonal transform coefficient sequence,
The entropy encoding unit further includes the residual information in an encoding target when generating a bit string.
請求項1又は請求項2に係る映像符号化装置の出力するビット列を復号する映像復号装置であって、
前記映像符号化装置のエントロピー符号化部に呼応するエントロピー復号部を備え、
前記エントロピー復号部は前記ビット列から前記パラメータを復号し、
前記パラメータに基づいて直交変換係数列の近似波形を再生することで直交変換係数列の復号値を得ること
を特徴とする映像復号装置。
A video decoding device that decodes a bit string output by the video encoding device according to claim 1 or 2,
An entropy decoding unit corresponding to the entropy encoding unit of the video encoding device,
The entropy decoding unit decodes the parameter from the bit string,
A video decoding device, wherein a decoded value of an orthogonal transform coefficient sequence is obtained by reproducing an approximate waveform of the orthogonal transform coefficient sequence based on the parameter.
請求項3に記載の映像復号装置であって、
前記エントロピー復号部は、さらに前記ビット列から前記残差情報を復号又は作成し、
前記パラメータに基づいて直交変換係数列の近似波形を再生し、これに前記残差情報から求めた残差列を加算することで直交変換係数列の復号値を得ること
を特徴とする映像復号装置。
The video decoding device according to claim 3,
The entropy decoding unit further decodes or creates the residual information from the bit string,
A video decoding device characterized in that an approximate waveform of an orthogonal transform coefficient sequence is reproduced based on the parameter, and a decoded value of the orthogonal transform coefficient sequence is obtained by adding a residual sequence obtained from the residual information to the approximate waveform .
JP2016162039A 2016-08-22 2016-08-22 Video coding device and video decoding device Active JP6846134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016162039A JP6846134B2 (en) 2016-08-22 2016-08-22 Video coding device and video decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016162039A JP6846134B2 (en) 2016-08-22 2016-08-22 Video coding device and video decoding device

Publications (2)

Publication Number Publication Date
JP2018032900A true JP2018032900A (en) 2018-03-01
JP6846134B2 JP6846134B2 (en) 2021-03-24

Family

ID=61304964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016162039A Active JP6846134B2 (en) 2016-08-22 2016-08-22 Video coding device and video decoding device

Country Status (1)

Country Link
JP (1) JP6846134B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179924A (en) * 1996-09-21 2003-06-27 Samsung Electronics Co Ltd Method for predicting discrete cosine transfer coefficient
JP2004215296A (en) * 1996-05-28 2004-07-29 Matsushita Electric Ind Co Ltd Image predictive encoding method and apparatus
JP2008109424A (en) * 2006-10-26 2008-05-08 Victor Co Of Japan Ltd Moving image encoding device, moving image encoding program, moving image decoding device, and moving image decoding program
JP2011217083A (en) * 2010-03-31 2011-10-27 Jvc Kenwood Corp Image encoding device, image encoding method and image encoding program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004215296A (en) * 1996-05-28 2004-07-29 Matsushita Electric Ind Co Ltd Image predictive encoding method and apparatus
JP2003179924A (en) * 1996-09-21 2003-06-27 Samsung Electronics Co Ltd Method for predicting discrete cosine transfer coefficient
JP2008109424A (en) * 2006-10-26 2008-05-08 Victor Co Of Japan Ltd Moving image encoding device, moving image encoding program, moving image decoding device, and moving image decoding program
JP2011217083A (en) * 2010-03-31 2011-10-27 Jvc Kenwood Corp Image encoding device, image encoding method and image encoding program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
根本 慎平 他: "変換係数の曲線近似による符号化効率改善の検討 Improvement of Coding Efficiency by using Curve Approxi", 電子情報通信学会2016年総合大会講演論文集 情報・システム2, vol. D-11-47, JPN6020022881, March 2016 (2016-03-01), pages 47, ISSN: 0004295819 *

Also Published As

Publication number Publication date
JP6846134B2 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
JP7047119B2 (en) Methods and equipment for residual code prediction in the conversion region
JP6949990B2 (en) Image coding / decoding method and equipment for that
JP5700970B2 (en) Decoding method of encoded data stream representing image sequence and encoding method of image sequence
JP6245888B2 (en) Encoder and encoding method
KR101758954B1 (en) Decoder and method
KR20090097688A (en) Method and apparatus of encoding/decoding image based on intra prediction
KR20110135787A (en) Image/video coding and decoding system and method using edge-adaptive transform
JP2015111953A (en) Method and apparatus for encoding and decoding video by using large-sized transform unit
JP2013538471A (en) How to code a video using a dictionary
JP2010528555A (en) Video signal processing method and apparatus
KR20110114524A (en) Device, method and program for image prediction encoding, device, method and program for image prediction decoding, and encoding/decoding system and method
JP7092920B2 (en) Image decoder and program
CA3108454A1 (en) Transformations for signal enhancement coding
Kumar et al. Performance Comparison of Jpeg, Jpeg XT, Jpeg LS, Jpeg 2000, Jpeg XR, HEVC, EVC and VVC for Images
EP3022845A1 (en) Encoder and decoder, and method of operation
JP6564315B2 (en) Encoding device, decoding device, and program
JP6846134B2 (en) Video coding device and video decoding device
KR102409138B1 (en) Image encoding apparatus, image decoding apparatus and program
JP6992825B2 (en) Video coding device, video coding method, video decoding device, video decoding method, and video coding system
CN108432254B (en) Image encoding and decoding method, apparatus and computer storage medium
JP6557483B2 (en) Encoding apparatus, encoding system, and program
WO2012128209A1 (en) Image encoding device, image decoding device, program, and encoded data
JP6641149B2 (en) Video encoding device, video decoding device, and program
JP4451759B2 (en) Lossless video encoding device, lossless video encoding method, lossless video decoding device, lossless video decoding method, lossless video encoding program, lossless video decoding program, and recording medium for those programs
JP2013017128A (en) Intra-prediction mode estimation device, image encoder, image decoder and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6846134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150