JP2008271371A - Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program - Google Patents
Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program Download PDFInfo
- Publication number
- JP2008271371A JP2008271371A JP2007113989A JP2007113989A JP2008271371A JP 2008271371 A JP2008271371 A JP 2008271371A JP 2007113989 A JP2007113989 A JP 2007113989A JP 2007113989 A JP2007113989 A JP 2007113989A JP 2008271371 A JP2008271371 A JP 2008271371A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- value
- block
- moving image
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラム、特に動画像を構成する画像をブロックに分割し、該ブロックの画素の値を周囲の画素の値に基づき予測する動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラムに関する。 The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, and a program, and in particular, divides an image constituting a moving image into blocks, and sets pixel values of the block to surroundings The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, and a program that perform prediction based on pixel values.
従来の動画像の符号化方法、例えば、H.264あるいはMPEG−4AVC(Advanced Video Coding)においては、動画像を構成する画像は、4×4の画素、8×8の画素、あるいは16×16の画素からなる複数のブロックに分割され、該ブロックの画素の値を、同じ画像の符号化済みで該ブロックに隣接する画素の値から予測するイントラ予測、もしくは符号化済みの画像の画素の値から予測するインター予測を行い、このイントラ予測、もしくはインター予測による予測結果と実画像との差分を、離散コサイン変換を一部修正した直交変換を用いて変換し、さらに量子化およびエントロピー符号化した結果を符号化画像データとしている(例えば、非特許文献1、非特許文献2参照)。
しかしながら、従来の符号化方法にあっては、HDTV(High Definition Television)のように画素数が多くなると符号化前の情報量が多いために、符号化画像データの情報量も多くなってしまうという問題がある。 However, in the conventional encoding method, when the number of pixels increases as in HDTV (High Definition Television), the amount of information before encoding increases, so the amount of information of encoded image data also increases. There's a problem.
本発明は、このような事情に鑑みてなされたもので、その目的は、優れた符号化効率を奏する動画像符号の動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a moving picture coding apparatus, a moving picture decoding apparatus, a moving picture coding method, and a moving picture for a moving picture code exhibiting excellent coding efficiency. It is to provide a decoding method and a program.
この発明は上述した課題を解決するためになされたもので、本発明の動画像符号化装置は、動画像を構成する画像を複数のブロックに分割して符号化する動画像符号化装置において、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部と、前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する予測残差算出部と、前記差分を符号化して符号化動画像を生成する符号化部とを具備することを特徴とする。 The present invention has been made to solve the above-described problems, and a moving image encoding apparatus according to the present invention is a moving image encoding apparatus that divides and encodes an image constituting a moving image into a plurality of blocks. An intra prediction unit that calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block; A prediction residual calculating unit that calculates a difference between a predicted value of each pixel and a value of a corresponding pixel of the input image; and an encoding unit that encodes the difference to generate an encoded moving image. It is characterized by.
本発明の動画像符号化装置は、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから1画素以上間をおいた画素の値も参照し、これらの画素の値に基づき各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差を小さな値となるので、これらは効率良く符号化することができ、優れた符号化効率を奏する。 The moving image coding apparatus of the present invention refers not only to the value of the pixel adjacent to the block to be processed, but also to the value of a pixel that is at least one pixel from the block, and based on the value of these pixels, Since the pixel value is predicted, the pixel value can be predicted with high accuracy. For this reason, since the prediction residual, which is the difference between the predicted image and the input image, becomes a small value, these can be efficiently encoded, and excellent encoding efficiency is achieved.
また、本発明の動画像符号化装置は、上述の動画像符号化装置であって、前記イントラ予測部は、前記隣接する画素の値と前記1画素以上間をおいた画素の値との外挿により予測値を算出することを特徴とする。 Also, the moving image encoding device of the present invention is the above-described moving image encoding device, wherein the intra prediction unit is configured to calculate an external value between the adjacent pixel value and the pixel value between the one or more pixels. A predicted value is calculated by insertion.
また、本発明の動画像符号化装置は、上述の動画像符号化装置であって、前記イントラ予測部は、前記隣接する画素の値と前記1画素以上間をおいた画素の値との平均値を予測値とすることを特徴とする。 Moreover, the moving image encoding device of the present invention is the above-described moving image encoding device, wherein the intra prediction unit calculates an average of the value of the adjacent pixel and the value of the pixel between the one or more pixels. The value is a predicted value.
また、本発明の動画像符号化装置は、上述のいずれかの動画像符号化装置であって、前記イントラ予測部は、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする。 The moving picture encoding apparatus of the present invention is any one of the moving picture encoding apparatuses described above, wherein the intra prediction unit includes a value of a pixel adjacent to the block and a vertical or horizontal direction from the block. A predicted value of each pixel constituting the block is calculated on the basis of the value of the pixel between one pixel.
また、本発明の動画像符号化装置は、上述のいずれかの動画像符号化装置であって、前記イントラ予測部は、前記ブロックから1画素以上間をおいた画素の中から画素を選択し、該選択した画素の値と前記ブロックに隣接する画素の値とに基づき、該ブロックを構成する各画素の予測値を算出し、前記符号化部は、前記差分に加えて、前記イントラ予測部が用いた前記1画素以上間をおいた画素の位置を表す情報を符号化画像に含めることを特徴とする。 The moving picture encoding apparatus according to the present invention is any one of the moving picture encoding apparatuses described above, wherein the intra prediction unit selects a pixel from among pixels at least one pixel away from the block. The prediction value of each pixel constituting the block is calculated based on the value of the selected pixel and the value of the pixel adjacent to the block, and the encoding unit adds the difference to the intra prediction unit. The encoded image includes information indicating the position of the pixel between the one or more pixels used in the encoded image.
また、本発明の動画像符号化装置は、上述のいずれかの動画像符号化装置であって、前記イントラ予測部は、前記ブロックから1画素以上間をおいた画素のうち予め決められた規則に基づき選択された画素の値と前記ブロックに隣接する画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする。 The moving picture encoding apparatus of the present invention is any one of the moving picture encoding apparatuses described above, wherein the intra prediction unit determines a predetermined rule among pixels at least one pixel from the block. The prediction value of each pixel constituting the block is calculated based on the value of the pixel selected based on and the value of the pixel adjacent to the block.
また、本発明の動画像復号装置は、動画像を構成する画像を複数のブロックに分割して符号化された動画像を復号する動画像復号装置において、前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する復号部と、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値に基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部と、各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する加算部とを具備することを特徴とする。 Also, the moving image decoding apparatus of the present invention decodes the encoded moving image in the moving image decoding apparatus that decodes the encoded moving image by dividing the image constituting the moving image into a plurality of blocks. A decoding unit for calculating a prediction residual of each pixel constituting the block, a value of a pixel adjacent to the block, and a value of a pixel at least one pixel in the vertical or horizontal direction from the block An intra prediction unit that calculates a prediction value of each pixel that constitutes the block; and an addition unit that calculates the value of each pixel by adding the prediction residual and the prediction value for each pixel. It is characterized by.
本発明の動画像復号装置は、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから1画素以上間をおいた画素の値も参照し、これらの画素の値に基づき各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差が小さな値となるので、これらは効率良く符号化することができ、優れた符号化効率を奏する。 The moving image decoding apparatus according to the present invention refers not only to the value of the pixel adjacent to the block to be processed, but also to the value of a pixel at least one pixel from the block, and based on the value of these pixels, each pixel Therefore, the pixel value can be predicted with high accuracy. For this reason, since the prediction residual, which is the difference between the predicted image and the input image, becomes a small value, these can be encoded efficiently, and excellent encoding efficiency is achieved.
また、本発明の動画像復号装置は、上述の動画像復号装置であって、前記イントラ予測部は、前記隣接する画素の値と前記1画素以上間をおいた画素の値との外挿により予測値を算出することを特徴とする。 The moving picture decoding apparatus according to the present invention is the moving picture decoding apparatus described above, wherein the intra prediction unit performs extrapolation between a value of the adjacent pixel and a value of a pixel between the one or more pixels. A predicted value is calculated.
また、本発明の動画像復号装置は、上述の動画像復号装置であって、前記イントラ予測部は、前記隣接する画素の値と前記1画素以上間をおいた画素の値との平均値を予測値とすることを特徴とする。 The moving picture decoding apparatus according to the present invention is the moving picture decoding apparatus described above, wherein the intra prediction unit calculates an average value of the value of the adjacent pixel and the value of the pixel between the one or more pixels. It is characterized by a predicted value.
また、本発明の動画像復号装置は、上述のいずれかの動画像復号装置であって、前記イントラ予測部は、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする。 The moving picture decoding apparatus according to the present invention is any one of the moving picture decoding apparatuses described above, wherein the intra prediction unit includes a pixel value adjacent to the block and one pixel in the vertical or horizontal direction from the block. A predicted value of each pixel constituting the block is calculated on the basis of the value of the pixel having a gap.
また、本発明の動画像復号装置は、上述のいずれかの動画像復号装置であって、前記復号部は、前記符号化された動画像から、前記イントラ予測部による予測値の算出時に用いる前記1画素以上間をおいた画素の位置を表す情報を抽出し、前記イントラ予測部は、前記復号部の抽出した画素の位置を表す情報に従い、前記1画素以上間をおいた画素の中から画素を選択し、該選択した画素の値と前記ブロックに隣接する画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする。 The moving picture decoding apparatus according to the present invention is any one of the moving picture decoding apparatuses described above, wherein the decoding unit is used when the predicted value is calculated by the intra prediction unit from the encoded moving picture. Information indicating the position of a pixel between one or more pixels is extracted, and the intra prediction unit performs pixel detection from among the pixels between the one or more pixels according to the information indicating the pixel position extracted by the decoding unit. And a predicted value of each pixel constituting the block is calculated based on the value of the selected pixel and the value of the pixel adjacent to the block.
また、本発明の動画像復号装置は、上述のいずれかの動画像復号装置であって、前記イントラ予測部は、前記ブロックから1画素以上間をおいた画素のうち予め決められた規則に基づき選択された画素の値と前記ブロックに隣接する画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする。 The moving picture decoding apparatus according to the present invention is any one of the above-described moving picture decoding apparatuses, wherein the intra prediction unit is based on a predetermined rule among pixels at least one pixel from the block. Based on the value of a selected pixel and the value of a pixel adjacent to the block, a predicted value of each pixel constituting the block is calculated.
また、本発明の動画像符号化方法は、動画像を構成する画像を複数のブロックに分割して符号化する動画像符号化装置における動画像符号化方法において、前記動画像符号化装置が、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出する第1の過程と、前記動画像符号化装置が、前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する第2の過程と、前記動画像符号化装置が、前記差分を符号化して符号化動画像を生成する第3の過程とを備えることを特徴とする。 Further, the moving image encoding method of the present invention is a moving image encoding method in a moving image encoding device that divides and encodes an image constituting a moving image into a plurality of blocks. A first step of calculating a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block; A second process in which the moving image encoding device calculates a difference between a predicted value of each pixel and a value of a corresponding pixel of the input image; and the moving image encoding device encodes the difference. And a third step of generating an encoded moving image.
また、本発明の動画像復号方法は、動画像を構成する画像を複数のブロックに分割して符号化された動画像を復号する動画像復号装置における動画像復号方法において、
前記動画像復号装置が、前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する第1の過程と、前記動画像復号装置が、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出する第2の過程と、前記動画像復号装置が、各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する第3の過程とを備えることを特徴とする。
The moving picture decoding method of the present invention is a moving picture decoding method in a moving picture decoding apparatus for decoding a moving picture that is encoded by dividing an image constituting a moving picture into a plurality of blocks.
A first step in which the video decoding device decodes the encoded video and calculates a prediction residual of each pixel constituting the block; and the video decoding device is adjacent to the block. A second step of calculating a predicted value of each pixel constituting the block based on a value of the pixel to be processed and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block; The decoding apparatus includes a third process of calculating a value of each pixel by adding the prediction residual and the prediction value for each pixel.
また、本発明のプログラムは、動画像を構成する画像を複数のブロックに分割して符号化するコンピュータを、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部、前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する予測残差算出部、前記差分を符号化して符号化動画像を生成する符号化部として機能させる。 In addition, the program of the present invention provides a computer that divides and encodes an image constituting a moving image into a plurality of blocks, and includes a pixel value adjacent to the block and one or more pixels in the vertical or horizontal direction from the block. An intra prediction unit that calculates a predicted value of each pixel that constitutes the block based on the value of the pixel that has the pixel, and a prediction that calculates a difference between the predicted value of each pixel and the value of the corresponding pixel of the input image The residual calculation unit functions as an encoding unit that encodes the difference to generate an encoded moving image.
また、本発明のプログラムは、動画像を構成する画像を複数のブロックに分割して符号化された動画像を復号するコンピュータを、前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する復号部、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部、各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する加算部として機能させる。 Further, the program of the present invention configures the block by decoding a computer that decodes an encoded moving image by dividing an image constituting the moving image into a plurality of blocks, and decodes the encoded moving image. A decoding unit that calculates a prediction residual of each pixel to be configured, and configures the block based on a value of a pixel adjacent to the block and a value of a pixel that is at least one pixel in the vertical or horizontal direction from the block An intra prediction unit that calculates a prediction value of each pixel, and an addition unit that calculates the value of each pixel by adding the prediction residual and the prediction value for each pixel.
この発明によれば、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから1画素以上間をおいた画素の値も参照し、これらの画素の値に基づき各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差を小さな値となるので、これらは効率良く符号化することができ、優れた符号化効率を奏する。 According to the present invention, not only the value of the pixel adjacent to the block to be processed, but also the value of a pixel that is at least one pixel from the block is referred to, and the value of each pixel is determined based on the value of these pixels. Since the prediction is performed, the pixel value can be predicted with high accuracy. For this reason, since the prediction residual, which is the difference between the predicted image and the input image, becomes a small value, these can be efficiently encoded, and excellent encoding efficiency is achieved.
[第1の実施形態]
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の第1の実施形態による動画像符号化装置100の構成を示す概略ブロック図である。101は、入力画像と予測画像との差分をとり、この差分の結果である予測残差を出力する加算部である。102は、離散コサイン変換などの直交変換を用いて、この予測残差を変換して係数を求め、該係数を所定の量子化幅で量子化し、この量子化の結果である変換係数を出力する変換・量子化部である。103は、この変換係数と後述する予測情報とをハフマン符号もしくは算術符号などのエントロピー符号で符号化し、この符号化の結果である符号化画像データを出力する符号化部である。
[First Embodiment]
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a moving
104は、変換・量子化部102が出力した変換係数に対して、変換・量子化部102で行った量子化および直交変換の逆変換を行ない、この逆変換の結果である予測残差を出力する逆量子化・逆変換部である。105は、逆量子化・逆変換部104が出力した予測残差と予測画像とを加算し、この加算の結果である復号画像を出力する加算部である。106は、符号化の対象となっている画像のうち、既に符号化されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素についてイントラ予測を行い、このイントラ予測の結果である予測画像を出力するイントラ予測部である。また、イントラ予測部106は、イントラ予測に用いた予測モードを表す情報を含む予測情報を符号化部103に出力する。ここでブロックとは、動画像を構成する画像を縦4画素毎、横4画素毎に分割したブロックである。
104 performs inverse transformation of quantization and orthogonal transformation performed by the transformation /
107は、加算部105が出力した復号画像を記憶するフレームメモリである。108は、フレームメモリ107が記憶しており、符号化の対象となっている画像よりも前に符号化された画像の復号画像を参照して、時間方向の予測を行ない、この予測の結果である予測画像を出力するインター予測部である。またインター予測部108は、予測の際に参照した復号画像を識別する情報や予測に用いた動きベクトルを含む予測情報を符号化部103に出力する。109は、符号化の対象となっている画像が他の時間の復号画像を参照しないIピクチャであれば、イントラ予測部106が出力した予測画像を加算部101、105に出力し、他の時間の復号画像を参照するPピクチャもしくはBピクチャであれば、インター予測部108が出力した予測画像を加算部101、105に出力するスイッチ部である。なお、各画像をIピクチャ、Pピクチャ、Bピクチャのいずれとするかは、符号化コストやGOP(Group Of Pictures)構造やユーザ指示による符号化設定に基づき選択される。GOP構造は、少なくとも1枚のIピクチャと任意の枚数のPピクチャおよびBピクチャを含む、動画の構成単位である。
図2は、動画像符号化装置100の動作概要を説明するフローチャートである。動画像符号化装置100は、入力された動画像の画像毎に以下のステップSa2〜Sa10の処理を行う(Sa1)。まず、対象としている画像をイントラ予測を用いて符号化するか、インター予測を用いて符号化するかにより処理が分かれる(Sa2)。なお、本実施形態では、イントラ予測もしくはインター予測のどちらかに処理が分かれるとして説明するが、イントラ予測およびインター予測の両方の処理を行い、これらの処理の結果を比較して、符号化効率の良い方などを選択するようにしてもよい。イントラ予測を用いて符号化するときは、スイッチ部109がイントラ予測部106からの入力を出力するように設定され、当該画像を縦4画素、横4画素毎に分割したブロック毎に処理を行う(Sa3)。イントラ予測部106は、当該画像のうち符号化済みのブロックを復号した復号画像に基づき、処理対象ブロックの予測画像を生成する(Sa4)。加算部101は、イントラ予測部106が生成した処理対象ブロックの予測画像と、入力画像の対応するブロックとの差分をとり、処理対象ブロックの予測残差を算出する(Sa5)。変換・量子化部102は、この予測残差に対して、直交変換および量子化を施し、変換係数を算出する(Sa6)。
FIG. 2 is a flowchart for explaining an outline of the operation of the moving
逆量子化・逆変換部104は、変換・量子化部102が施した量子化と直交変換の逆操作である逆量子化と逆直交変換を施し、処理対象ブロックの予測残差を算出する(Sa7)。加算部105は、この予測残差にステップSa4で生成した予測画像を加算して、処理対象ブロックの復号画像を生成する(Sa8)。ここで、ステップSa7とステップSa8の処理は復号装置において行なう処理と同じため、この復号画像は、動画像符号化装置100にて符号化した符号化動画像を復号装置にて復号したときの画像と一致する。また、この復号画像は、ステップSa4のイントラ予測部106による予測画像の生成、および後述するステップSa12のインター予測部108による予測画像の生成の際に利用される。ステップSa8にて復号画像を生成した後、処理対象の画像に未処理のブロックがあるときは、ステップSa4に戻って全てのブロックを処理するまで、このステップSa4〜Sa8の処理を繰り返す(Sa9)。処理対象の画像の全てのブロックについてステップSa4〜Sa8の処理を行なった後、符号化部103は、ステップSa6にて各ブロックについて算出した変換係数と、ステップSa4のイントラ予測を行なった際のパラメータとをエントロピー符号化して、符号化画像データを生成する(Sa10)。入力された動画像に続きがあればステップSa1に戻って(Sa11)、以降の画像についてステップSa2〜Sa10の処理を繰り返す。
The inverse quantization /
一方、ステップSa2の条件分岐にてインター予測を用いるとしたときは、インター予測部108が、フレームメモリ107に格納されている符号化済みの画像の復号画像を参照して予測画像を生成し、加算部101がこの予測画像と入力画像との差分を算出して、予測残差を出力し、この予測残差に変換・量子化部102が直交変換および量子化を行い、その結果である変換係数を出力するとともに、該変換係数を、逆量子化・逆変換部104が逆量子化および逆直交変換を行い、さらに加算部105が予測画像に加算して復号画像を生成し、フレームメモリ107に格納する(Sa12)。そして、上述のステップSa10に遷移して、処理を続ける。
On the other hand, when inter prediction is used in the conditional branch of step Sa2, the
図3は、イントラ予測部106の構成を示す概略ブロック図である。本実施形態の動画像符号化装置100は、動画像を構成する画像のうち、Iピクチャについては、Iピクチャの画像を分割した縦4画素、横4画素のブロック毎に動作し、イントラ予測部106は、該ブロック毎にイントラ予測を行なう。161は、イントラ予測の対象とするブロックに隣接する画素のグループである第1参照画素群の各画素の値を復号画像から取得する第1参照画素群取得部である。162は、イントラ予測の対象とするブロックから縦方向もしくは横方向に1画素間をおいた画素のグループである第2参照画素群の各画素の値を復号画像から取得する第2参照画素群取得部である。なお、第1参照画素群取得部161および第2参照画素群取得部162は、イントラ予測の対象とするブロックが画像の上端や左端にあり、取得する画素がないときは、該画素が「利用不可」であることを出力する。また、第1参照画素群取得部161および第2参照画素群取得部162は、取得する画素が未だ符号化されていないときは(後述するモード3、7、8)、符号化済みの画素から取得した値を代わりに用いる。
FIG. 3 is a schematic block diagram showing the configuration of the
163は、第1参照画素群取得部161と第2参照画素群取得部162とが取得した参照画素の値と、イントラ予測モード選択部164からの予測情報により指定される予測モードにてイントラ予測を行ない、対象とするブロックの各画素の予測値を算出する画素値予測部である。イントラ予測モード選択部164は、画素値予測部163に対して、いくつかの仮の予測情報を出力してイントラ予測を試行し、これらの試行によって得られて予測値を比較して、例えば、符号化効率が最も良い予測値が得られる予測情報を選択し、スイッチ部165に該予測情報による予測値を予測画像として出力するように指示する。また、イントラ予測モード選択部164は、選択した予測情報を符号化部103に出力する。
なお、画素の値とは、該画素の輝度値Y、青色の色差値Cb、および赤色の色差値Crの3つの値を指し、第1参照画素群取得部161および第2参照画素群取得部162は、輝度値Y、青色の色差値Cb、および赤色の色差値Crを復号画像から取得し、画素値予測部163は、対象とするブロックの各画素の輝度値Y、青色の色差値Cb、および赤色の色差値Crを、それぞれ参照画素の輝度値Y、青色の色差値Cb、および赤色の色差値Crから算出する。ここで、輝度値Yおよび色差値Cb、Crは、それぞれ8ビットで表し、輝度値Yがとり得る値の範囲は0〜255であり、青色および赤色の色差値Cb,Crがとり得る値の範囲は−128〜127である。
The pixel value refers to three values of the luminance value Y, the blue color difference value Cb, and the red color difference value Cr of the pixel. The first reference pixel
図4は、画素値予測部163が行う予測値の算出を説明するための座標を定義する図である。以下のイントラ予測の説明では、図3に示すように、右向きの横軸にx座標、下向きの縦軸にy座標をとり、イントラ予測の対象となっているブロック(太枠で囲むもの)の左上の画素の座標を原点とする。各画素の値は、ブロックの左上の画素の値をp[0,0]、ブロックの右下の画素の値をp[3,3]というように、p[x,y]にて表す。
以降で、イントラ予測の対象となっているブロックから縦方向に1画素間をおいた画素とはy座標が−2の画素を指し、イントラ予測の対象となっているブロックから横方向に1画素間をおいた画素とはx座標が−2の画素を指す。
FIG. 4 is a diagram for defining coordinates for explaining calculation of a prediction value performed by the pixel
In the following, a pixel that is one pixel in the vertical direction from the block that is the target of intra prediction refers to a pixel whose y coordinate is −2, and one pixel in the horizontal direction from the block that is the target of intra prediction. An interleaved pixel is a pixel whose x coordinate is -2.
図5は、イントラ予測モード選択部164が画素値予測部163に指定する予測モード0から予測モード8までの各モードにおける画素値予測部163が行うイントラ予測の向きを示した図である。図5に示すように、予測モード0は上から下へ、予測モード1は左から右へ、予測モード2は向きがなく、参照画素の平均値を全ての画素の予測値とし、予測モード3は右上から左下へ、予測モード4は左上から右下へ、予測モード5は上よりの左上から下よりの右下へ、予測モード6は下よりの左上から上よりの右下へ、予測モード7は上よりの右上から下よりの左下へ、予測モード8は上よりの左下から下よりの右上へという向きに第1および第2の参照画素から算出した予測値を適用する。具体的な算出方法を、以下の図6〜14に示す。
FIG. 5 is a diagram illustrating the direction of intra prediction performed by the pixel
図6は、予測モード0における画素値予測部163の予測値算出方法を説明する図である。予測モード0では、予測値predは、イントラ予測対象のブロックの上側にある第1参照画素である画素[0,−1]〜[3,−1]と第2参照画素である画素[0,−2]〜[3,−2]とのうちx座標が同じ画素の平均値であり、参照画素値pを用いた以下の式(1)を用いて算出される。
pred[x,y]=(p[x,−1]+p[x,−2]+1)/2 ・・・(1)
ただし、x,y=0〜3であり、小数点以下は切捨て。なお、式(1)の右辺の小括弧内末尾にある“+1”は、この小括弧を2で割ったときの小数点以下切捨てを行なったときに、この“+1”が無い状態で2で割った値を四捨五入するのと同じになるようにするために割る数の半分の数が付されている。以降の各式においても割り算の結果を小数点以下切捨てにするときは、付されている。
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(1)’を用いて算出される。
pred[x,y]=p[x,−1] ・・・(1)’
ただし、x,y=0〜3であり、小数点以下は切捨て。
FIG. 6 is a diagram illustrating a prediction value calculation method of the pixel
pred [x, y] = (p [x, -1] + p [x, -2] +1) / 2 (1)
However, x, y = 0 to 3 and the decimal part is rounded down. Note that “+1” at the end of the parenthesis on the right side of Equation (1) is divided by 2 when there is no “+1” when the decimal point is rounded off when the parenthesis is divided by 2. The number is divided by half to make it the same as rounding off. In the following formulas, when the result of division is rounded down to the nearest decimal point, it is added.
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equation (1) ′.
pred [x, y] = p [x, −1] (1) ′
However, x, y = 0 to 3 and the decimal part is rounded down.
図7は、予測モード1における画素値予測部163の予測値算出方法を説明する図である。予測モード1では、予測値predは、イントラ予測対象のブロックの左側にある第1参照画素である画素[−1,0]〜[−1,3]と第2参照画素である画素[−2,0]〜[−2,3]とのうちy座標が同じ画素の平均値であり、参照画素値pを用いた以下の式(2)を用いて算出される。
pred[x,y]=(p[−1,y]+p[−2,y]+1)/2 ・・・(2)
ただし、x,y=0〜3であり、小数点以下は切捨て。
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(2)’を用いて算出される。
pred[x,y]=p[−1,y] ・・・(2)’
ただし、x,y=0〜3であり、小数点以下は切捨て。
FIG. 7 is a diagram for explaining a prediction value calculation method of the pixel
pred [x, y] = (p [-1, y] + p [-2, y] +1) / 2 (2)
However, x, y = 0 to 3 and the decimal part is rounded down.
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equation (2) ′.
pred [x, y] = p [-1, y] (2) ′
However, x, y = 0 to 3 and the decimal part is rounded down.
図8は、予測モード2における画素値予測部163の予測値算出方法を説明する図である。予測モード2では、予測値predは、イントラ予測対象のブロックの左側および上側にある第1参照画素である画素[−1,0]〜[−1,3]、[0,−1]〜[3,−1]と第2参照画素である画素[−2,0]〜[−2,3]、[0,−2]〜[3,−2]との平均値であり、参照画素値pを用いた以下の式(3)を用いて算出される。
pred[x,y]=(p[−1,0]+p[−1,1]+p[−1,2]+p[−1,3]+p[−2,0]+p[−2,1]+p[−2,2]+p[−2,3]+p[0,−1]+p[1,−1]+p[2,−1]+p[3,−1]+p[0,−2]+p[1,−2]+p[2,−2]+p[3,−2]+8)/16 ・・・(3)
ただし、x,y=0〜3であり、小数点以下は切捨て。
FIG. 8 is a diagram for explaining a prediction value calculation method of the pixel
pred [x, y] = (p [-1,0] + p [-1,1] + p [-1,2] + p [-1,3] + p [-2,0] + p [-2,1] + P [-2,2] + p [-2,3] + p [0, -1] + p [1, -1] + p [2, -1] + p [3, -1] + p [0, -2] + p [1, -2] + p [2, -2] + p [3, -2] +8) / 16 (3)
However, x, y = 0 to 3 and the decimal part is rounded down.
なお、イントラ予測対象のブロックが画像の上端にあるなどの理由で、上側にある参照画素の値を使えないときは、以下の式(4)を用いて算出される。
pred[x,y]=(p[−1,0]+p[−1,1]+p[−1,2]+p[−1,3]+p[−2,0]+p[−2,1]+p[−2,2]+p[−2,3]+4)/8 ・・・(4)
ただし、x,y=0〜3であり、小数点以下は切捨て。
When the value of the reference pixel on the upper side cannot be used because the intra prediction target block is at the upper end of the image, it is calculated using the following equation (4).
pred [x, y] = (p [-1,0] + p [-1,1] + p [-1,2] + p [-1,3] + p [-2,0] + p [-2,1] + P [-2,2] + p [-2,3] +4) / 8 (4)
However, x, y = 0 to 3 and the decimal part is rounded down.
同様に、イントラ予測対象のブロックが画像の左端にあるなどの理由で、左側にある参照画素の値を使えないときは、以下の式(5)を用いて算出される。
pred[x,y]=(p[0,−1]+p[1,−1]+p[2,−1]+p[3,−1]+p[0,−2]+p[1,−2]+p[2,−2]+p[3,−2]+4)/8 ・・・(5)
さらにイントラ予測対象のブロックが画像の左上端にあるなどの理由で、左側および上側の参照画素の値を使えないときは、以下の式(6)を用いて算出される。
pred[x,y]=128 ・・・(6)
ただし、x,y=0〜3であり、予測値が輝度値Yを対象としている場合。色差Cb,Crのときは“0”
Similarly, when the value of the reference pixel on the left side cannot be used because the intra prediction target block is at the left end of the image, it is calculated using the following equation (5).
pred [x, y] = (p [0, -1] + p [1, -1] + p [2, -1] + p [3, -1] + p [0, -2] + p [1, -2] + P [2, -2] + p [3, -2] +4) / 8 (5)
Further, when the values of the left and upper reference pixels cannot be used because the intra prediction target block is at the upper left corner of the image, it is calculated using the following equation (6).
pred [x, y] = 128 (6)
However, x, y = 0 to 3 and the predicted value is the luminance value Y. "0" for color differences Cb and Cr
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(3)’〜(6)’を用いて算出される。
pred[x,y]=(p[0,−1]+p[1,−1]+p[2,−1]+p[3,−1]+p[−1,0]+p[−1,1]+p[−1,2]+p[−1,3]+4)/8 ・・・(3)’
上側の参照画素の値が使えないとき
pred[x,y]=(p[−1,0]+p[−1,1]+p[−1,2]+p[−1,3]+2)/4 ・・・(4)’
左側の参照画素の値が使えないとき
pred[x,y]=(p[0,−1]+p[1,−1]+p[2,−1]+p[3,−1]+2)/4 ・・・(5)’
上側と左側の参照画素の値が両方使えないとき、
pred[x,y]=128(輝度のとき)、0(色差のとき) ・・・(6)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (3) ′ to (6) ′.
pred [x, y] = (p [0, -1] + p [1, -1] + p [2, -1] + p [3, -1] + p [-1,0] + p [-1,1] + P [−1,2] + p [−1,3] +4) / 8 (3) ′
When the value of the upper reference pixel cannot be used pred [x, y] = (p [−1,0] + p [−1,1] + p [−1,2] + p [−1,3] +2) / 4 ... (4) '
When the value of the left reference pixel cannot be used pred [x, y] = (p [0, −1] + p [1, −1] + p [2, −1] + p [3, −1] +2) / 4 ... (5) '
When both the upper and left reference pixel values cannot be used,
pred [x, y] = 128 (in the case of luminance), 0 (in the case of color difference) (6) ′
However, the decimal part is rounded down.
図9は、予測モード3における画素値予測部163の予測値算出方法を説明する図である。予測モード3では、予測値predは、イントラ予測対象のブロックの上側とそれに続く右側のブロックにある第1参照画素である画素[0,−1]〜[7,−1]と第2参照画素である画素[1,−2]〜[7,−2]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(7)を用いて算出される。
pred[x,y]=(p[x+y+1,−2]+2×p[x+y+2,−2]+p[x+y+3,−2]+p[x+y,−1]+2×p[x+y+1,−1]+p[x+y+2,−1]+4)/8 ・・・(7)
ただし、x,y=0〜3であり、小数点以下は切捨て。
FIG. 9 is a diagram for explaining a prediction value calculation method of the pixel
pred [x, y] = (p [x + y + 1, −2] + 2 × p [x + y + 2, −2] + p [x + y + 3, −2] + p [x + y, −1] + 2 × p [x + y + 1, −1] + p [x + y + 2 , -1] +4) / 8 (7)
However, x, y = 0 to 3 and the decimal part is rounded down.
なお、[x,y]=[2,3]または[3,2]のときは、予測値predは、以下の式(8)を用いて算出される。
pred[x,y]=(p[x+y+1,−2]+p[x+y+2,−2]+p[x+y,−1]+3×p[x+y+1,−1]+2×p[x+y+2,−1]+4)/8 ・・・(8)
ただし、小数点以下は切捨て。
また、[x,y]=[3,3]のときは、予測値predは、以下の式(9)を用いて算出される。
pred[x,y]=(p[6,−1]+2×p[7,−1]+p[7,−2]+2)/4 ・・・(9)
ただし、小数点以下は切捨て。
When [x, y] = [2, 3] or [3, 2], the predicted value pred is calculated using the following equation (8).
pred [x, y] = (p [x + y + 1, −2] + p [x + y + 2, −2] + p [x + y, −1] + 3 × p [x + y + 1, −1] + 2 × p [x + y + 2, −1] +4) / 8 (8)
However, the decimal part is rounded down.
When [x, y] = [3, 3], the predicted value pred is calculated using the following equation (9).
pred [x, y] = (p [6, -1] + 2 × p [7, -1] + p [7, -2] +2) / 4 (9)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(7)’、(9)’を用いて算出される。
[x,y]=[3,3]のとき
pred[x,y]=(p[6,−1]+3×p[7,−1]+2)/4・・・(7)’
それ以外のとき
pred[x,y]=(p[x+y,−1]+2×p[x+y+1,−1]+p[x+y+2,−1]+2)/4 ・・・(9)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (7) ′ and (9) ′.
When [x, y] = [3, 3] pred [x, y] = (p [6, -1] + 3 × p [7, -1] +2) / 4 (7) ′
Otherwise, pred [x, y] = (p [x + y, −1] + 2 × p [x + y + 1, −1] + p [x + y + 2, −1] +2) / 4 (9) ′
However, the decimal part is rounded down.
図10は、予測モード4における画素値予測部163の予測値算出方法を説明する図である。予測モード4では、予測値predは、イントラ予測対象のブロックの上側と左側の第1参照画素である画素[−1,−1]〜[3,−1]、[−1,0]〜[−1,3]と第2参照画素である画素[−2,−2]〜[2,−2]、[−2,−1]〜[−2,2]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(10)〜(12)のいずれかの式を用いて算出される。
FIG. 10 is a diagram for explaining a prediction value calculation method of the pixel
対象画素のx座標がy座標より大きい値のとき(x>yのとき)
pred[x,y]=(p[x−y−3,−2]+2×p[x−y−2,−2]+p[x−y−1,−2]+p[x−y−2,−1]+2×p[x−y−1,−1]+p[x−y,−1]+4)/8 ・・・(10)
対象画素のx座標がy座標より小さい値のとき(x<yのとき)
pred[x,y]=(p[−2,y−x−3]+2×p[−2,y−x−2]+p[−2,y−x−1]+p[−1,y−x−2]+2×p[−1,y−x−1]+p[−1,y−x]+4)/8 ・・・(11)
対象画素のx座標がy座標と同じ値のとき(x=yのとき)
pred[x,y]=(p[−2,−1]+2×p[−2,−2]+p[−1,−2]+p[0,−1]+2×p[−1,−1]+p[−1,0]+4)/8 ・・・(12)
ただし、小数点以下は切捨て。
When the x coordinate of the target pixel is larger than the y coordinate (when x> y)
pred [x, y] = (p [x−y−3, −2] + 2 × p [x−y−2, −2] + p [x−y−1, −2] + p [x−y−2] , -1] + 2 × p [xy-1, -1] + p [xy, -1] +4) / 8 (10)
When the x coordinate of the target pixel is smaller than the y coordinate (when x <y)
pred [x, y] = (p [−2, y−x−3] + 2 × p [−2, y−x−2] + p [−2, y−x−1] + p [−1, y−] x-2] + 2 × p [−1, y−x−1] + p [−1, y−x] +4) / 8 (11)
When the x coordinate of the target pixel is the same value as the y coordinate (when x = y)
pred [x, y] = (p [−2, −1] + 2 × p [−2, −2] + p [−1, −2] + p [0, −1] + 2 × p [−1, −1 ] + P [-1,0] +4) / 8 (12)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(10)’〜(12)’を用いて算出される。
x>yのとき
pred[x,y]=(p[x−y−2,−1]+2×p[x−y−1,−1]+p[x−y,−1]+2)/4 ・・・(10)’
x<yのとき
pred[x,y]=(p[−1,y−x−2]+2×p[−1,y−x−1]+p[−1,y−x]+2)/4 ・・・(11)’
x=yのとき
pred[x,y]=(p[0,−1]+2×p[−1,−1]+p[−1,0]+2)/4 ・・・(12)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (10) ′ to (12) ′.
When x> y pred [x, y] = (p [x−y−2, −1] + 2 × p [x−y−1, −1] + p [x−y, −1] +2) / 4 ... (10) '
When x <y pred [x, y] = (p [−1, y−x−2] + 2 × p [−1, y−x−1] + p [−1, y−x] +2) / 4 ... (11) '
When x = y pred [x, y] = (p [0, −1] + 2 × p [−1, −1] + p [−1,0] +2) / 4 (12) ′
However, the decimal part is rounded down.
図11は、予測モード5における画素値予測部163の予測値算出方法を説明する図である。予測モード5では、予測値predは、イントラ予測対象のブロックの上側と左側の第1参照画素である画素[−1,−1]〜[3,−1]、[−1,0]〜[−1,2]と第2参照画素である画素[−2,−2]〜[3,−2]、[−2,−1]〜[−2,0]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(13)〜(16)のいずれかの式を用いて算出される。
zVR=2x−y(x、yは対象画素のx座標とy座標)として、zVR=0、2、4、6のとき
pred[x,y]=(p[x−y/2−2,−2]+2×p[x−y/2−1,−2]+p[x−y/2,−2]+2×p[x−y/2−1,−1]+2×p[x−y/2,−1]+4)/8 ・・・(13)
zVR=1、3、5のとき
pred[x,y]=(2×p[x−y/2−2,−2]+2×p[x−y/2−1, −2]+p[x−y/2−2,−1]+2×p[x−y/2−1,−1]+p[x−y/2,−1]+4)/8 ・・・(14)
zVR=−1のとき
pred[x,y]=(2×p[−2,−2]+2×p[−1,−2]+p[−1,0]+2×p[−1,−1]+p[0,−1]+4)/8 ・・・(15)
zVR=−2、−3のとき
pred[x,y]=(3×p[−2,y−4]+p[−2,y−3]+p[−1,y−3]+2×p[−1,y−2]+p[−1,y−1]+4)/8 ・・・(16)
ただし、小数点以下は切捨て。
FIG. 11 is a diagram for explaining a prediction value calculation method of the pixel
zVR = 2x−y (where x and y are the x and y coordinates of the target pixel), and when zVR = 0, 2, 4, and 6, pred [x, y] = (p [xy / 2−2, -2] + 2 * p [xy / 2-1, -2] + p [xy / 2, -2] + 2 * p [xy / 2-1, -1] + 2 * p [x- y / 2, -1] +4) / 8 (13)
When zVR = 1, 3, 5 pred [x, y] = (2 × p [xy−2-2, −2] + 2 × p [xy / 2-1, −2] + p [x −y / 2−2, −1] + 2 × p [xy / 2−1, −1] + p [xy−2, −1] +4) / 8 (14)
When zVR = −1 pred [x, y] = (2 × p [−2, −2] + 2 × p [−1, −2] + p [−1,0] + 2 × p [−1, −1] ] + P [0, -1] +4) / 8 (15)
When zVR = −2, -3 pred [x, y] = (3 × p [−2, y−4] + p [−2, y−3] + p [−1, y−3] + 2 × p [ −1, y−2] + p [−1, y−1] +4) / 8 (16)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(13)’〜(16)’を用いて算出される。
zVR=0,2,4,6のとき
pred[x,y]=(p[x−y/2−1,−1]+p[x−y/2,−1]+1)/2 ・・・(13)’
zVR=1,3,5のとき
pred[x,y]=(p[x−y/2−2,−1]+2×p[x−y/2−1,−1]+p[x−y/2,−1]+2)/4 ・・・(14)’
zVR=−1のとき
pred[x,y]=(p[−1,0]+2×p[−1,−1]+p[0,−1]+2)/4 ・・・(15)’
zVR=−2または−3のとき
pred[x,y]=(p[−1,y−3]+2×p[−1,y−2]+p[−1,y−1]+2)/4 ・・・(16)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (13) ′ to (16) ′.
When zVR = 0, 2, 4, 6 pred [x, y] = (p [xy−2-1, −1] + p [xy / 2, −1] +1) / 2... (13) '
When zVR = 1, 3, 5 pred [x, y] = (p [x−y / 2−2, −1] + 2 × p [xy / 2-1, −1] + p [xy] / 2, -1] +2) / 4 (14) '
When zVR = −1 pred [x, y] = (p [−1,0] + 2 × p [−1, −1] + p [0, −1] +2) / 4 (15) ′
When zVR = −2 or −3 pred [x, y] = (p [−1, y−3] + 2 × p [−1, y−2] + p [−1, y−1] +2) / 4 ... (16) '
However, the decimal part is rounded down.
図12は、予測モード6における画素値予測部163の予測値算出方法を説明する図である。予測モード6では、予測値predは、イントラ予測対象のブロックの上側と左側の第1参照画素である画素[−1,−1]〜[2,−1]、[−1,0]〜[−1,3]と第2参照画素である画素[−2,−2]〜[0,−2]、[−2,−1]〜[−2,3]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(17)〜(20)のいずれかの式を用いて算出される。
FIG. 12 is a diagram for explaining a prediction value calculation method of the pixel
zHD=2y−x(x、yは対象画素のx座標とy座標)として、zHD=0、2、4、6のとき
pred[x,y]=(p[−2,y−x/2−2]+2×p[−2,y−x/2−1]+p[−2,y−x/2]+2×p[−1,y−x/2−1]+2×p[−1,y−x/2]+4)/8 ・・・(17)
zHD=1、3、5のとき
pred[x,y]=(2×p[−2,y−x/2−2]+2×p[−2,y−x/2−1]+p[−1,y−x/2−2]+2×p[−1,y−x/2−1]+p[−1,y−x/2]+4)/8 ・・・(18)
zHD=−1のとき
pred[x,y]=(2×p[−2,−2]+2×p[−2,−1]+p[−1,0]+2×p[−1,−1]+p[0,−1]+4)/8 ・・・(19)
zHD=−2、−3のとき
pred[x,y]=(3×p[x−4,−2]+p[x−3,−2]+p[x−3,−1]+2×p[x−2,−1]+p[x−1,−1]+4)/8 ・・・(20)
ただし、小数点以下は切捨て。
zHD = 2y−x (x and y are the x and y coordinates of the target pixel), and when zHD = 0, 2, 4, and 6, pred [x, y] = (p [−2, y−x / 2) −2] + 2 × p [−2, y−x / 2-1] + p [−2, y−x / 2] + 2 × p [−1, y−x / 2-1] + 2 × p [−1 , Y−x / 2] +4) / 8 (17)
When zHD = 1, 3, 5 pred [x, y] = (2 × p [−2, y−x / 2-2] + 2 × p [−2, y−x / 2-1] + p [− 1, y−x / 2-2] + 2 × p [−1, y−x / 2-1] + p [−1, y−x / 2] +4) / 8 (18)
When zHD = −1 pred [x, y] = (2 × p [−2, −2] + 2 × p [−2, −1] + p [−1,0] + 2 × p [−1, −1 ] + P [0, -1] +4) / 8 (19)
When zHD = −2, -3 pred [x, y] = (3 × p [x−4, −2] + p [x−3, −2] + p [x−3, −1] + 2 × p [ x-2, -1] + p [x-1, -1] +4) / 8 (20)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(17)’〜(20)’を用いて算出される。
zHD=0,2,4,6のとき
pred[x,y]=(p[−1,y−x/2−1]+p[−1,y−x/2]+1)/2 ・・・(17)’
zHD=1,3,5のとき
pred[x,y]=(p[−1,y−x/2−2]+2×p[−1,y−x/2−1]+p[−1,y−x/2]+2)/4 ・・・(18)’
zHD=−1のとき
pred[x,y]=(p[−1,0]+2×p[−1,−1]+p[0,−1]+2)/4 ・・・(19)’
zHD=−2 または −3 のとき
pred[x,y]=(p[x−3,−1]+2×p[x−2,−1]+p[x−1,−1]+2)/4 ・・・(20)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (17) ′ to (20) ′.
When zHD = 0, 2, 4, 6 pred [x, y] = (p [−1, y−x / 2-1] + p [−1, y−x / 2] +1) / 2... (17) '
When zHD = 1, 3, 5 pred [x, y] = (p [−1, y−x / 2-2] + 2 × p [−1, y−x / 2-1] + p [−1, y−x / 2] +2) / 4 (18) ′
When zHD = −1 pred [x, y] = (p [−1,0] + 2 × p [−1, −1] + p [0, −1] +2) / 4 (19) ′
When zHD = −2 or −3 pred [x, y] = (p [x−3, −1] + 2 × p [x−2, −1] + p [x−1, −1] +2) / 4 ... (20) '
However, the decimal part is rounded down.
図13は、予測モード7における画素値予測部163の予測値算出方法を説明する図である。予測モード7では、予測値predは、イントラ予測対象のブロックの上側とそれに続く右側のブロックの第1参照画素である画素[0,−1]〜[6,−1]と第2参照画素である画素[0,−2]〜[6,−2]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(21)〜(22)のいずれかの式を用いて算出される。
y=0、2のとき
pred[x,y]=(p[x+y/2,−2]+2×p[x+y/2+1,−2]+p[x+y/2+2,−2]+2×p[x+y/2,−1]+2×p[x+y/2+1,−1]+1)/2 ・・・(21)
y=1、3のとき
pred[x,y]=(2×p[x+y/2+1,−2]+2×p[x+y/2+2,−2]+p[x+y/2,−1]+2×p[x+y/2+1,−1]+p[x+y/2+2,−1]+2)/4 ・・・(22)
ただし、小数点以下は切捨て。
FIG. 13 is a diagram for explaining a prediction value calculation method of the pixel
When y = 0, 2, pred [x, y] = (p [x + y / 2, −2] + 2 × p [x + y / 2 + 1, −2] + p [x + y / 2 + 2, −2] + 2 × p [x + y / 2, −1] + 2 × p [x + y / 2 + 1, −1] +1) / 2 (21)
When y = 1, pred [x, y] = (2 × p [x + y / 2 + 1, −2] + 2 × p [x + y / 2 + 2, −2] + p [x + y / 2, −1] + 2 × p [ x + y / 2 + 1, -1] + p [x + y / 2 + 2, -1] +2) / 4 (22)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(21)’、(22)’を用いて算出される。
y=0または2のとき
pred[x,y]=(p[x+y/2,−1]+p[x+y/2+1,−1]+1)/2 ・・・(21)’
それ以外(y=1または3)のとき
pred[x,y]=(p[x+y/2,−1]+2×p[x+y/2+1,−1]+p[x+y/2+2,−1]+2)/4 ・・・(22)’
ただし、小数点以下は切捨て。
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (21) ′ and (22) ′.
When y = 0 or 2 pred [x, y] = (p [x + y / 2, −1] + p [x + y / 2 + 1, −1] +1) / 2 (21) ′
Otherwise (y = 1 or 3) pred [x, y] = (p [x + y / 2, -1] + 2 * p [x + y / 2 + 1, -1] + p [x + y / 2 + 2, -1] +2) / 4 (22) '
However, the decimal part is rounded down.
図14は、予測モード8における画素値予測部163の予測値算出方法を説明する図である。予測モード8では、予測値predは、イントラ予測対象のブロックの左側の第1参照画素である画素[−1,0]〜[−1,3]と第2参照画素である画素[−2,0]〜[−2,3]とのうち予測方向の根元近傍にある参照画素の加重平均値であり、参照画素値pを用いた以下の式(23)〜(26)のいずれかの式を用いて算出される。
zHU=x+2y(x、yは対象画素のx座標とy座標)として、zHU=0、2、4のとき
pred[x,y]=(p[−2,y+x/2]+2×p[−2,y+x/2+1]+p[−2,y+x/2+2]+2×p[−1,y+x/2]+2×p[−1,y+x/2+1]+4)/8 ・・・(23)
FIG. 14 is a diagram for explaining a prediction value calculation method of the pixel
zHU = x + 2y (x and y are the x and y coordinates of the target pixel), and when zHU = 0, 2, 4 pred [x, y] = (p [−2, y + x / 2] + 2 × p [− 2, y + x / 2 + 1] + p [−2, y + x / 2 + 2] + 2 × p [−1, y + x / 2] + 2 × p [−1, y + x / 2 + 1] +4) / 8 (23)
zHU=1、3のとき
pred[x,y]=(2×p[−2,y+x/2+1]+p[−2,y+x/2+2]+p[−1,y+x/2]+2×p[−1,y+x/2+1]+p[−1,y+x/2+2]+4)/8 ・・・(24)
zHU=5のとき、
pred[x,y]=(p[−1,2]+2×p[−1,3]+p[−2,3]+2)/4 ・・・(25)
zHU=0、1、2、3、4、5以外のとき
pred[x,y]=(p[−2,3]+7×p[−1,3]+4)/8 ・・・(26)
ただし、小数点以下は切捨て。
When zHU = 1, 3, pred [x, y] = (2 × p [−2, y + x / 2 + 1] + p [−2, y + x / 2 + 2] + p [−1, y + x / 2] + 2 × p [−1 , Y + x / 2 + 1] + p [-1, y + x / 2 + 2] +4) / 8 (24)
When zHU = 5,
pred [x, y] = (p [−1,2] + 2 × p [−1,3] + p [−2,3] +2) / 4 (25)
When other than zHU = 0, 1, 2, 3, 4, 5 pred [x, y] = (p [−2, 3] + 7 × p [−1, 3] +4) / 8 (26)
However, the decimal part is rounded down.
第2参照画素を参照できず、第1参照画素のみを参照可能なときは、予測値predは、以下の式(23)’〜(26)’を用いて算出される。
zHU=0,2,4のとき
pred[x,y]=(p[−1,y+x/2]+p[−1,y+x/2+1]+1)/2 ・・・(23)’
zHU=1,3のとき
pred[x,y]=(p[−1,y+x/2]+2×p[−1,y+x/2+1]+p[−1,y+x/2+2]+2)/4 ・・・(24)’
zHU=5のとき
pred[x,y]=(p[−1,2]+3×p[−1,3]+2)/4 ・・・(25)’
その他のとき
pred[x,y]=p[−1,3] ・・・(26)’
When the second reference pixel cannot be referred to and only the first reference pixel can be referred to, the predicted value pred is calculated using the following equations (23) ′ to (26) ′.
When zHU = 0, 2, 4, pred [x, y] = (p [-1, y + x / 2] + p [-1, y + x / 2 + 1] +1) / 2 (23) '
When zHU = 1, 3 pred [x, y] = (p [−1, y + x / 2] + 2 × p [−1, y + x / 2 + 1] + p [−1, y + x / 2 + 2] +2) / 4・ (24) '
When zHU = 5 pred [x, y] = (p [−1,2] + 3 × p [−1,3] +2) / 4 (25) ′
At other times pred [x, y] = p [−1, 3] (26) ′
図15は、本実施形態におけるイントラ予測部106の動作を説明するフローチャートである。イントラ予測部106では、まず第1参照画素群取得部161が、処理対象ブロックの左側、上側、上側の右に続くブロックから第1参照画素群の各画素の値を取得する(Sb1)。次に、第2参照画素群取得部162が、第1参照画素群取得部161と同様にして、第2参照画素群の各画素の値を取得する(Sb2)。イントラ予測モード選択部164は、予測モードを1つ選択して、該予測モードによる予測画像の生成を画素値予測部163に指示する(Sb3)。画素値予測部163は、ステップSb3にてイントラ予測モード選択部164が指定した予測モードにて、第1参照画素および第2参照画素を参照して予測画像を生成する(Sb4)。イントラ予測モード選択部164は、これまでにステップSb3にて指定した予測モード以外に使用可能な予測モードがあるか否かを判定し(Sb5)、あると判定した場合は、ステップSb3に戻って、未選択の予測モードの中から予測モードを選択して、前述と同様に処理を行う。なお、ここで予測モードが使用可能か否かの判定は、第1参照画素群取得部161と第2参照画群取得部162とが、その予測モードにて予測値を算出するのに使用する参照画素の値を取得しているか否かで判定する。一方、ステップSb5で、使用可能な予測モードがないと判定したときは、イントラ予測モード選択部164は、各予測モードにて画素値予測部163が生成した予測画像を比較し、例えば、最も符号化効率が良くなる予測画像を選択して、画素値予測部163に、該予測画像をスイッチ部109を介して加算部101に入力させるとともに、該予測画像を生成する際に用いた予測モードを予測情報として、符号化部103に出力する(Sb6)。
FIG. 15 is a flowchart for explaining the operation of the
図16は、本実施形態における画素値予測部163の動作を説明するフローチャートである。画素値予測部163は、イントラ予測モード選択部164から指定された予測モードにおいて参照する第1参照画素の値を、第1参照画素群取得部161から受けているか否かにより、第1参照画素を使用可能か否かを判定する(Sc1)。このステップSc1の判定にて、使用不可能と判定したときは、ステップSc5に遷移し、画素値予測部163は、予測不可であるとして処理を終了する。一方、ステップSc1の判定にて、使用可能と判定したときは、ステップSc2に遷移し、画素値予測部163は、指定された予測モードにおいて参照する第2参照画素の値を、第2参照画素群取得部162から受けているか否かにより、第2参照画素が使用可能か否かを判定する(Sc2)。このステップSc2の判定にて、使用不可能と判定したときは、ステップSc4に遷移し、図6から図14の各予測モードにおける予測値算出方法にて説明した第1参照画素のみのときの算出方法に従い、指定された予測モードによる予測画素値を算出する(Sc4)。一方、このステップSc2の判定にて、使用可能と判定したときは、ステップSc3に遷移し、図6から図14の各予測モードにおける予測値算出方法にて説明した算出方法に従い、指定された予測モードによる予測画素値を算出する(Sc3)。
FIG. 16 is a flowchart for explaining the operation of the pixel
このように、本実施形態における動画像符号化装置100は、その画素値予測部163が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値も参照し、これらの画素の平均値を用いて各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差が小さな値となる。符号化の対象となる情報が小さな値に集中すれば、算術符号化あるいは可変長符号化によって少ない符号量で符号化することができ、動画像符号化の符号化効率を良くすることができる。
As described above, in the moving
[第2の実施形態]
図17は、この発明の第2の実施形態による動画像復号装置200の構成を示す概略ブロック図である。本実施形態における動画像復号装置200は、第1の実施形態における動画像符号化装置100が生成した符号化画像データを復号する装置である。201は、入力された符号化画像データを、第1の実施形態における符号化部103にて行なったエントロピー符号化を復号し、変換係数と予測情報とを取得する復号部である。202は、第1の実施形態における逆量子化・逆変換部104と同様に、逆量子化と逆直交変換を行ない予測残差を得る逆量子化・逆変換部である。203は、逆量子化・逆変換部202が出力した予測残差と、後述するイントラ予測部204が生成した予測画像とを加算して復号画像を得る加算部である。イントラ予測部204は、復号部201から受けた予測情報から予測モードを取得し、復号の対象となっている画像のうち、既に復号されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素について取得した予測モードにてイントラ予測を行い、このイントラ予測の結果である予測画像を出力する。
[Second Embodiment]
FIG. 17 is a schematic block diagram showing the configuration of the moving
205は、加算部203が算出した復号画像を格納するフレームメモリである。206は、復号部201から受けた予測情報から予測モードを取得し、フレームメモリ205が記憶しており、復号の対象となっている画像よりも前に復号された画像の復号画像を参照して、取得した予測モードにて時間方向の予測を行ない、この予測の結果である予測画像を出力する。207は、復号の対象となっている画像が他の時間の復号画像を参照しないIピクチャであれば、イントラ予測部204が出力した予測画像を加算部203に出力し、他の時間の復号画像を参照するPピクチャもしくはBピクチャであれば、インター予測部206が出力した予測画像を加算部203に出力するスイッチ部である。
図18は、本実施形態におけるイントラ予測部204の構成を示す概略ブロック図である。図18に示すように、イントラ予測部204は、図3に示したイントラ予測部106からイントラ予測モード選択部164とスイッチ部165を取り除き、復号部201からの予測情報を画素値予測部163に入力した構成である。ここで、第1参照画素群取得部161、第2参照画素群取得部162、画素値予測部163は、図3に示したイントラ予測部106が具備し、対応する各部と同じ機能を備える。復号部201からの予測情報を直接受けた画素値予測部163が、第1参照画素群取得部161と第2参照画素群取得部162とから受けた参照画素を用いて、予測情報に含まれる予測モードにて各画素の予測値を算出する。
FIG. 18 is a schematic block diagram illustrating a configuration of the
このように、本実施形態における動画像復号装置200は、その画素値予測部163が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値も参照し、これらの画素の平均値を用いて各画素の値を予測するので、画素の値を精度よく予測することができる。これは動画像符号化装置100の予測方法に対応した予測方法であり、動画像符号化装置100の生成した符号化効率の良い符号化画像データを復号することができる。
As described above, in the moving
[第3の実施形態]
図19は、この発明の第3の実施形態による動画像符号化装置300の構成を示す概略ブロック図である。同図において図1の各部に対応する部分(101〜105、107〜109)には同一の符号を付け、その説明を省略する。306は、イントラ予測部106と同様に、符号化の対象となっている画像のうち、既に符号化されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素についてイントラ予測を行なうが、予測値の算出に外挿を用いる点がイントラ予測部106と異なる。
[Third Embodiment]
FIG. 19 is a schematic block diagram showing a configuration of a moving
図20は、本実施形態によるイントラ予測部306の構成を示す概略ブロック図である。同図において図3の各部に対応する部分(161、162、164、165)には同一の符号を付け、その説明を省略する。363は、画素値予測部163と同様に、第1参照画素群取得部161と第2参照画素群取得部162とが取得した参照画素の値と、イントラ予測モード選択部164により指定される予測モードにて各画素の予測値の算出を行なう画素値予測部だが、予測モード2以外の予測モード0、1、3〜8のときに予測値の算出に参照画素の平均値ではなく外挿を用いる点が画素値予測部163と異なる。予測モード2以外の各モードにおける予測値の算出方法を以下に説明する。
FIG. 20 is a schematic block diagram illustrating the configuration of the
画素値予測部363は、外挿による予測値を、以下の(27)にて算出する。
pred[x,y]=p[xa,ya]+(p[xa,ya]−p[xb,yb])×DR([x,y],[xa,ya],[xb,yb]) ・・・(27)
ここで、xa、ya、xb、ybは参照画素もしくは参照画素から求められる平均値の画素の座標であり、DR([x1,y1],[x2,y2],[x3,y3])は、「画素[x1,y1]と画素[x2,y2]との距離」/「画素[x2,y2]と画素[x3,y3]との距離」であり、|x1−x2|/|x2−x3|、もしくは|y1−y2|/|y2−y3|と等しい。
各予測モードにおけるxa、ya、xb、ybおよびp[xa,ya]、p[xb,ybを以下に示す。なお、第2参照画素が取得できないときは、第1の実施形態のおける画素値予測部163と同じ算出方法で第1参照画素から算出する。
The pixel
pred [x, y] = p [xa, ya] + (p [xa, ya] −p [xb, yb]) × DR ([x, y], [xa, ya], [xb, yb]) ... (27)
Here, xa, ya, xb, yb are the coordinates of the average pixel obtained from the reference pixel or the reference pixel, and DR ([x1, y1], [x2, y2], [x3, y3]) is "Distance between pixel [x1, y1] and pixel [x2, y2]" / "Distance between pixel [x2, y2] and pixel [x3, y3]", | x1-x2 | / | x2-x3 Or | y1-y2 | / | y2-y3 |.
Xa, ya, xb, yb and p [xa, ya] and p [xb, yb in each prediction mode are shown below. When the second reference pixel cannot be acquired, the second reference pixel is calculated from the first reference pixel by the same calculation method as the pixel
予測モード0における画素[x、y]に対するxa、ya、xb、ybは、以下の式(28)、(29)にて表される。
[xa,ya]=[x,−1] ・・・(28)
[xb,yb]=[x,−2] ・・・(29)
予測モード1における画素[x、y]に対するxa、ya、xb、ybは、以下の式(30)、(31)にて表される。
[xa,ya]=[−1,y] ・・・(30)
[xb,yb]=[−2,y] ・・・(31)
Xa, ya, xb, and yb for the pixel [x, y] in the
[Xa, ya] = [x, -1] (28)
[Xb, yb] = [x, -2] (29)
The xa, ya, xb, and yb for the pixel [x, y] in the
[Xa, ya] = [-1, y] (30)
[Xb, yb] = [− 2, y] (31)
予測モード3における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(32)〜(39)にて表される。[x,y]=[2,3]、または[3,2]のとき
[xa,ya]=[6,−1] ・・・(32)
[xb,yb]=[7,−2] ・・・(33)
p[xa,ya]=(p[5,−1]+2×p[6,−1]+p[7,−1]+2)/4 ・・・(34)
p[xb,yb]=(p[6,−2]+3×p[7,−2]+2)/4 ・・・(35)
それ以外のとき
[xa,ya]=[x+y,−1] ・・・(36)
[xb,yb]=[x+y+1,−2] ・・・(37)
p[xa,ya]=(p[x+y,−1]+2×p[x+y+1,−1]+p[x+y+2,−1]+2)/4 ・・・(38)
p[xb,yb]=(p[x+y+1,−2]+2×p[x+y+2,−2]+p[x+y+3,−2]+2)/4 ・・・(39)
ただし、[x,y]=[3,3]のときは、第2参照画素がないため、外挿ではなく式(40)にて平均値をとることで予測値を算出する。
pred[3,3]=(p[6,−1]+2×p[7,−1]p[7,−2]+2)/4 ・・・(40)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the
[Xb, yb] = [7, -2] (33)
p [xa, ya] = (p [5, -1] + 2 × p [6, -1] + p [7, -1] +2) / 4 (34)
p [xb, yb] = (p [6, −2] + 3 × p [7, −2] +2) / 4 (35)
In other cases [xa, ya] = [x + y, −1] (36)
[Xb, yb] = [x + y + 1, −2] (37)
p [xa, ya] = (p [x + y, −1] + 2 × p [x + y + 1, −1] + p [x + y + 2, −1] +2) / 4 (38)
p [xb, yb] = (p [x + y + 1, −2] + 2 × p [x + y + 2, −2] + p [x + y + 3, −2] +2) / 4 (39)
However, when [x, y] = [3, 3], since there is no second reference pixel, the predicted value is calculated not by extrapolation but by taking the average value using equation (40).
pred [3,3] = (p [6, -1] + 2 × p [7, -1] p [7, -2] +2) / 4 (40)
予測モード4における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(41)〜(52)にて表される。x>yのとき
[xa,ya]=[x−y−1,−1] ・・・(41)
[xb,yb]=[x−y−2,−2] ・・・(42)
p[xa,ya]=(p[x−y−3,−2]+2×p[x−y−2,−2]+p[x−y−1,−2]+2)/4 ・・・(43)
p[xb,yb]=(p[x−y−2,−1]+2×p[x−y−1,−1]+p[x−y,−1]+2)/4 ・・・(44)
x<yのとき
[xa,ya]=[−1,y−x−1] ・・・(45)
[xb,yb]=[−2,y−x−2] ・・・(46)
p[xa,ya]=(p[−1,y−x−2]+2×p[−1,y−x−1]+p[−1,y−x]+2)/4 ・・・(47)
p[xb,yb]=(p[−2,y−x−3]+2×p[−2,y−x−2]+p[−2,y−x−1]+2)/4 ・・・(48)
x=yのとき
[xa,ya]=[−1,−1] ・・・(49)
[xb,yb]=[−2,−2] ・・・(50)
p[xa,ya]=(p[0,−1]+2×p[−1,−1]+p[−1,0]+2)/4 ・・・(51)
p[xb,yb]=(p[−2,−1]+2×p[−2,−2]+p[−1,−2]+2)/4 ・・・(52)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the prediction mode 4 are expressed by the following equations (41) to (52). When x> y [xa, ya] = [x−y−1, −1] (41)
[Xb, yb] = [x−y−2, −2] (42)
p [xa, ya] = (p [x−y−3, −2] + 2 × p [x−y−2, −2] + p [x−y−1, −2] +2) / 4... (43)
p [xb, yb] = (p [x−y−2, −1] + 2 × p [x−y−1, −1] + p [x−y, −1] +2) / 4 (44) )
When x <y [xa, ya] = [− 1, y−x−1] (45)
[Xb, yb] = [− 2, y−x−2] (46)
p [xa, ya] = (p [−1, y−x−2] + 2 × p [−1, y−x−1] + p [−1, y−x] +2) / 4 (47) )
p [xb, yb] = (p [−2, y−x−3] + 2 × p [−2, y−x−2] + p [−2, y−x−1] +2) / 4... (48)
When x = y [xa, ya] = [-1, -1] (49)
[Xb, yb] = [− 2, −2] (50)
p [xa, ya] = (p [0, −1] + 2 × p [−1, −1] + p [−1,0] +2) / 4 (51)
p [xb, yb] = (p [−2, −1] + 2 × p [−2, −2] + p [−1, −2] +2) / 4 (52)
予測モード5における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(53)〜(68)にて表される。zVR=2x−yとする。
zVR=0,2,4,6のとき
[xa,ya]=[x−y/2−0.5,−1] ・・・(53)
[xb,yb]=[x−y/2−0.5,−2] ・・・(54)
p[xa,ya]=(p[x−y/2−1,−1]+p[x−y/2,−1]+1)/2 ・・・(55)p[xb,yb]=(p[x−y/2−2,−2]+2×p[x−y/2−1,−2]+p[x−y/2,−2]+2)/4 ・・・(56)
zVR=1,3,5のとき
[xa,ya]=[x−y/2−1,−1] ・・・(57)
[xb,yb]=[x−y/2−1.5,−2] ・・・(58)
p[xa,ya]=(p[x−y/2−2,−1]+2×p[x−y/2−1,−1]+p[x−y/2,−1]+2)/4 ・・・(59)p[xb,yb]=(p[x−y/2−2,−2]+p[x−y/2−1,−2]+1)/2 ・・・(60)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the prediction mode 5 are expressed by the following equations (53) to (68). zVR = 2x−y.
When zVR = 0, 2, 4, 6 [xa, ya] = [xy / 2-0.5, -1] (53)
[Xb, yb] = [xy / 2-0.5, -2] (54)
p [xa, ya] = (p [xy / 2-1, -1] + p [x−y / 2, −1] +1) / 2 (55) p [xb, yb] = ( p [x−y / 2−2−2] + 2 × p [x−y / 2−1−2] + p [x−y / 2, −2] +2) / 4 (56)
When zVR = 1, 3, 5 [xa, ya] = [xy / 2-1, −1] (57)
[Xb, yb] = [xy / 2-1.5, -2] (58)
p [xa, ya] = (p [xy / 2-2, -1] + 2 * p [xy / 2-1, -1] + p [xy / 2, -1] +2) / 4 (59) p [xb, yb] = (p [x−y / 2−2−2] + p [x−y / 2−1−2] +1) / 2 (60) )
zVR=−1のとき
[xa,ya]=[−1,−1] ・・・(61)
[xb,yb]=[−1.5,−2] ・・・(62)
p[xa,ya]=(p[−1,0]+2×p[−1,−1]+p[0,−1]+2)/4 ・・・(63)
p[xb,yb]=(p[−2,−2]+p[−1,−2]+1)/2 ・・・(64)zVR=−2、または−3のとき
[xa,ya]=[−1,y−2] ・・・(65)
[xb,yb]=[−2,y−3.5] ・・・(66)
p[xa,ya]=(p[−1,y−3]+2×p[−2,y−2]+p[−1,y−1]+2)/4 ・・・(67)p[xb,yb]=(3×p[−2,y−4]+p[−2,y−3]+2)/4 ・・・(68)
When zVR = −1 [xa, ya] = [− 1, −1] (61)
[Xb, yb] = [− 1.5, −2] (62)
p [xa, ya] = (p [-1,0] + 2 × p [-1, -1] + p [0, -1] +2) / 4 (63)
p [xb, yb] = (p [−2, −2] + p [−1, −2] +1) / 2 (64) When zVR = −2 or −3, [xa, ya] = [-1, y-2] (65)
[Xb, yb] = [− 2, y−3.5] (66)
p [xa, ya] = (p [−1, y−3] + 2 × p [−2, y−2] + p [−1, y−1] +2) / 4 (67) p [xb , Yb] = (3 × p [−2, y−4] + p [−2, y−3] +2) / 4 (68)
予測モード6における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(69)〜(84)にて表される。zHD=2y−xとする。
zHD=0,2,4,6のとき
[xa,ya]=[−1,y−x/2−0.5] ・・・(69)
[xb,yb]=[−2,y−x/2−1] ・・・(70)
p[xa,ya]=(p[−1,y−x/2−1]+p[−1,y−x/2]+1)/2 ・・・(71)
p[xb,yb]=(p[−2,y−x/2−2]+2×p[−2,y−x/2−1]+p[−2,y−x/2]+2)/4 ・・・(72)
zHD=1,3,5のとき
[xa,ya]=[−1,y−x/2−1] ・・・(73)
[xb,yb]=[−2,y−x/2−1.5] ・・・(74)
p[xa,ya]=(p[−1,y−x/2−2]+2×p[−1,y−x/2−1]+p[−1,y−x/2]+2)/4 ・・・(75)
p[xb,yb]=(p[−2,y−x/2−2]+p[−2,y−x/2−1]+1)/2 ・・・(76)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the prediction mode 6 are expressed by the following equations (69) to (84). Let zHD = 2y−x.
When zHD = 0, 2, 4, 6 [xa, ya] = [− 1, y−x / 2−0.5] (69)
[Xb, yb] = [− 2, y−x / 2-1] (70)
p [xa, ya] = (p [−1, y−x / 2−1] + p [−1, y−x / 2] +1) / 2 (71)
p [xb, yb] = (p [−2, y−x / 2-2] + 2 × p [−2, y−x / 2-1] + p [−2, y−x / 2] +2) / 4 ... (72)
When zHD = 1, 3, 5 [xa, ya] = [− 1, y−x / 2-1] (73)
[Xb, yb] = [− 2, y−x / 2−1.5] (74)
p [xa, ya] = (p [−1, y−x / 2-2] + 2 × p [−1, y−x / 2-1] + p [−1, y−x / 2] +2) / 4 (75)
p [xb, yb] = (p [−2, y−x / 2-2] + p [−2, y−x / 2-1] +1) / 2 (76)
zHD=−1のとき
[xa,ya]=[−1,−1] ・・・(77)
[xb,yb]=[−2,−1.5] ・・・(78)
p[xa,ya]=(p[−1,0]+2×p[−1,−1]+p[0,−1]+2)/4 ・・・(79)
p[xb,yb]=(p[−2,−2]+p[−2,−1]+1)/2 ・・・(80)
zHD=−2、または−3のとき
[xa,ya]=[x−2,−1] ・・・(81)
[xb,yb]=[x−3.5,−2] ・・・(82)
p[xa,ya]=(p[x−3,−1]+2×p[x−2,−1]+p[x−1,−1]+2)/4 ・・・(83)
p[xb,yb]=(3×p[x−4,−2]+p[x−3,−2]+2)/4 ・・・(84)
When zHD = −1 [xa, ya] = [− 1, −1] (77)
[Xb, yb] = [− 2, −1.5] (78)
p [xa, ya] = (p [-1, 0] + 2 × p [-1, -1] + p [0, -1] +2) / 4 (79)
p [xb, yb] = (p [−2, −2] + p [−2, −1] +1) / 2 (80)
When zHD = -2 or -3 [xa, ya] = [x-2, -1] (81)
[Xb, yb] = [x-3.5, -2] (82)
p [xa, ya] = (p [x−3, −1] + 2 × p [x−2, −1] + p [x−1, −1] +2) / 4 (83)
p [xb, yb] = (3 × p [x−4, −2] + p [x−3, −2] +2) / 4 (84)
予測モード7における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(85)〜(92)にて表される。y=0、または2のとき
[xa,ya]=[x+y/2+0.5,−1] ・・・(85)
[xb,yb]=[x+y/2+1,−2] ・・・(86)
p[xa,ya]=(p[x+y/2,−1]+p[x+y/2+1,−1]+1)/2 ・・・(87)
p[xb,yb]=(p[x+y/2,−2]+2×p[x+y/2+1,−2]+p[x+y/2+2,−2]+2)/4 ・・・(88)
それ以外(y=1、または3)のとき
[xa,ya]=[x+y/2+1,−1] ・・・(89)
[xb,yb]=[x+y/2+1.5,−2] ・・・(90)
p[xa,ya]=(p[x+y/2,−1]+2×p[x+y/2+1,−1]+p[x+y/2+2,−1]+2)/4 ・・・(91)
p[xb,yb]=(p[x+y/2+1,−2]+p[x+y/2+2]+1)/2 ・・・(92)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the prediction mode 7 are expressed by the following equations (85) to (92). When y = 0 or 2 [xa, ya] = [x + y / 2 + 0.5, −1] (85)
[Xb, yb] = [x + y / 2 + 1, -2] (86)
p [xa, ya] = (p [x + y / 2, -1] + p [x + y / 2 + 1, -1] +1) / 2 (87)
p [xb, yb] = (p [x + y / 2, −2] + 2 × p [x + y / 2 + 1, −2] + p [x + y / 2 + 2, −2] +2) / 4 (88)
In other cases (y = 1 or 3) [xa, ya] = [x + y / 2 + 1, −1] (89)
[Xb, yb] = [x + y / 2 + 1.5, −2] (90)
p [xa, ya] = (p [x + y / 2, −1] + 2 × p [x + y / 2 + 1, −1] + p [x + y / 2 + 2, −1] +2) / 4 (91)
p [xb, yb] = (p [x + y / 2 + 1, −2] + p [x + y / 2 + 2] +1) / 2 (92)
予測モード8における画素[x、y]に対するxa、ya、xb、ybおよびp[xa,ya]、p[xb,yb]は、以下の式(93)〜(100)にて表される。zHU=x+2yとする。
zHU=0,2,4のとき
[xa,ya]=[−1,y+x/2+0.5] ・・・(93)
[xb,yb]=[−2,y+x/2+1] ・・・(94)
p[xa,ya]=(p[−1,y+x/2]+p[−1,y+x/2+1]+1)/2 ・・・(95)
p[xb,yb]=(p[−2,y+x/2]+2×p[−2,y+x/2+1]+p[−2,y+x/2+2]+2)/4 ・・・(96)
Xa, ya, xb, yb and p [xa, ya], p [xb, yb] for the pixel [x, y] in the
When zHU = 0, 2, 4 [xa, ya] = [-1, y + x / 2 + 0.5] (93)
[Xb, yb] = [− 2, y + x / 2 + 1] (94)
p [xa, ya] = (p [-1, y + x / 2] + p [-1, y + x / 2 + 1] +1) / 2 (95)
p [xb, yb] = (p [−2, y + x / 2] + 2 × p [−2, y + x / 2 + 1] + p [−2, y + x / 2 + 2] +2) / 4 (96)
zHU=1,3のとき
[xa,ya]=[−1,y+x/2+1] ・・・(97)
[xb,yb]=[−2,y+x/2+1.5] ・・・(98)
p[xa,ya]=(p[−1,y+x/2]+2×p[−1,y+x/2+1]+p[−1,y+x/2+2]+2)/4 ・・・(99)
p[xb,yb]=(p[−2,y+x/2+1]+p[−2,y+x/2+2]+1)/2 ・・・(100)
以下の場合は、第2参照画素がないため、外挿ではなく式(101)、(102)にて平均値をとることで予測値を算出する。
zHU=5のとき
pred[x,y]=(p[−1,2]+2×p[−1,3]+p[−2,3]+2)/4 ・・・(101)その他のとき
pred[x,y]=(p[−2,3]+7×p[−1,3]+4)/8 ・・・(102)
When zHU = 1, 3 [xa, ya] = [− 1, y + x / 2 + 1] (97)
[Xb, yb] = [− 2, y + x / 2 + 1.5] (98)
p [xa, ya] = (p [-1, y + x / 2] + 2 * p [-1, y + x / 2 + 1] + p [-1, y + x / 2 + 2] +2) / 4 (99)
p [xb, yb] = (p [−2, y + x / 2 + 1] + p [−2, y + x / 2 + 2] +1) / 2 (100)
In the following cases, since there is no second reference pixel, the predicted value is calculated by taking the average value using Equations (101) and (102) instead of extrapolation.
When zHU = 5 pred [x, y] = (p [−1,2] + 2 × p [−1,3] + p [−2,3] +2) / 4 (101) In other cases pred [X, y] = (p [−2,3] + 7 × p [−1,3] +4) / 8 (102)
このように、本実施形態における動画像符号化装置300は、その画素値予測部363が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値も参照し、これらの画素の値に基づき外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差が小さな値となる。符号化の対象となる情報が小さな値に集中すれば、算術符号化あるいは可変長符号化によって少ない符号量で符号化することができ、動画像符号化の符号化効率を良くすることができる。
As described above, in the moving
[第4の実施形態]
図21は、この発明の第4の実施形態による動画像復号装置400の構成を示す概略ブロック図である。本実施形態における動画像復号装置400は、第3の実施形態における動画像符号化装置300が生成した符号化画像データを復号する装置である。同図において図17の各部に対応する部分(201〜203、205〜207)には同一の符号を付け、その説明を省略する。404は、復号部201から受けた予測情報から予測モードを取得し、復号の対象となっている画像のうち、既に復号されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素について取得した予測モードにてイントラ予測を行い、このイントラ予測の結果である予測画像を出力するイントラ予測部である。
[Fourth Embodiment]
FIG. 21 is a schematic block diagram showing the configuration of the moving
図22は、本実施形態におけるイントラ予測部404の構成を示す概略ブロック図である。図22に示すように、イントラ予測部404は、図20に示したイントラ予測部306からイントラ予測モード選択部164とスイッチ部165を取り除き、復号部201からの予測情報を画素値予測部363に入力した構成である。ここで、第1参照画素群取得部161、第2参照画素群取得部162、画素値予測部363は、図20に示したイントラ予測部306が具備し、対応する各部と同じ機能を備える。復号部201からの予測情報を直接受けた画素値予測部363が、第1参照画素群取得部161と第2参照画素群取得部162とから受けた参照画素を用いて、予測情報に含まれる予測モードにて各画素の予測値を算出する。
FIG. 22 is a schematic block diagram illustrating a configuration of the
このように、本実施形態における動画像復号装置400は、その画素値予測部363が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1画素間をおいた画素の値も参照し、これらの画素の値に基づき外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。これは動画像符号化装置300の予測方法に対応した予測方法であり、動画像符号化装置300の生成した符号化効率の良い符号化画像データを復号することができる。
As described above, in the
[第5の実施形態]
図23は、この発明の第5の実施形態による動画像符号化装置500の構成を示す概略ブロック図である。同図において図1の各部に対応する部分(101〜105、107〜109)には同一の符号を付け、その説明を省略する。506は、イントラ予測部106と同様に、符号化の対象となっている画像のうち、既に符号化されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素についてイントラ予測を行なうが、第2参照画素として予測対象ブロックから縦方向もしくは横方向に1画素から3画素間をおいた画素の中から選択した画素を用いる点がイントラ予測部106と異なる。
[Fifth Embodiment]
FIG. 23 is a schematic block diagram showing a configuration of a moving
図24は、本実施形態によるイントラ予測部506の構成を示す概略ブロック図である。同図において図3の各部に対応する部分(161、165)には同一の符号を付け、その説明を省略する。562は、イントラ予測の対象とするブロックから1画素から3画素間をおいた画素のグループである第2参照画素群の各画素の値を復号画像から取得する第2参照画素群取得部である。なお、第1参照画素群取得部161および第2参照画素群取得部562は、イントラ予測の対象とするブロックが画像の上端や左端にあり、取得する画素がないときは、該画素が「利用不可」であることを出力する。また、第1参照画素群取得部161および第2参照画素群取得部562は、取得する画素が未だ符号化されていないときは(後述するモード3、7、8)、符号化済みの画素から取得した値を代わりに用いる。
FIG. 24 is a schematic block diagram illustrating a configuration of the
563は、第1参照画素群取得部161と第2参照画素群取得部562とが取得した参照画素の値と、イントラ予測モード選択部564からの予測情報により指定される予測モードと第2参照画素のうち参照画素として用いる画素の位置とに従いイントラ予測を行ない、対象とするブロックの各画素の予測値を算出する画素値予測部である。画素値予測部563は、画素値予測部163のように参照画素の平均値を予測値とするようにしてもよいし、画素値予測部363のように参照画素の外挿により算出した値を予測値とするようにしてもよい。イントラ予測モード選択部564は、画素値予測部563に対して、いくつかの仮の予測情報(予測モードと参照する第2参照画素の位置)を出力してイントラ予測を試行し、これらの試行によって得られた予測値を比較して、例えば、符号化効率が最も良い予測値が得られる予測モードと参照する第2参照画素の位置との組合せの予測情報を選択し、スイッチ部165に該予測情報による予測値を予測画像として出力するように指示する。ここで符号化効率の良い予測モードを選択するためには発生符号量を得る必要があるが、これには、仮の予測情報を用いた仮の符号化をすることによって得た発生符号量を計測して比較する方法や、予測情報を入力として近似式により推定し比較する方法がある。これにより、最も良い予測画像が得られる予測モードと参照する第2参照画素の位置が選択される。また、イントラ予測モード選択部564は、選択した予測情報(予測モードと参照する第2参照画素の位置)を符号化部103に出力する。このため、符号化部103は、参照画素の位置についても、エントロピー符号化して符号化画像データに含める。
例えば、画素値予測部563は平均値を予測値とする場合で、イントラ予測モード選択部564イントラから予測モード0と画素位置n(nは1〜3)を指定されたときは、画素値予測部563は、以下の式(103)にて予測値predを算出する。ここで、画素位置nは予測対象ブロックから何画素間をおいた画素を参照画素として用いるかを表す数である。
pred[x,y]=(p[x,−1]+p[x,−1−n]+1)/2 ・・・(103)
また、予測モード1と画素位置nを指定されたときは、画素値予測部563は、以下の式(104)にて予測値predを算出する。
pred[x,y]=(p[−1,y]+p[−1−n,y]+1)/2 ・・・(104)
For example, the pixel
pred [x, y] = (p [x, −1] + p [x, −1−n] +1) / 2 (103)
Further, when the
pred [x, y] = (p [−1, y] + p [−1−n, y] +1) / 2 (104)
図25は、画素値予測部563の動作を説明するフローチャートである。画素値予測部563は、イントラ予測モード選択部564から指定された予測モードにおいて参照する第1参照画素の値を、第1参照画素群取得部161から受けているか否かにより、第1参照画素を使用可能か否かを判定する(Sd1)。このステップSd1の判定にて、使用不可能と判定したときは、ステップSd6に遷移し、画素値予測部563は、予測不可であるとして処理を終了する。一方、ステップSd1の判定にて、使用可能と判定したときは、ステップSd2に遷移し、画素値予測部563は、第2参照画素群取得部562から受けている第2参照画素の中から、予測情報により指定された予測モードおよび画素位置の画素を選択する(Sd2)。画素値予測部563は、ステップSd2にて選択した画素が第2参照画素群取得部562から受けた画素にあるか否かにより、第2参照画素を使用可能か否かを判定する(Sd3)。このステップSd3の判定にて、使用不可能と判定したときは、ステップSd5に遷移し、図6から図14の各予測モードにおける予測値算出方法にて説明した第1参照画素のみのときの算出方法に従い、指定された予測モードによる予測画素値を算出する(Sd5)。一方、このステップSd3の判定にて、使用可能と判定したときは、ステップSd4に遷移し、第1参照画素と指定された第2参照画素との平均もしくは外挿を、指定された予測モードについて行い予測画素値を算出し(Sd4)、処理を終了する。
FIG. 25 is a flowchart for explaining the operation of the pixel
このように、本実施形態における動画像符号化装置500は、その画素値予測部563が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1〜3画素間をおいた画素の値も参照し、これらの画素の値に基づき平均値の算出もしくは外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差は小さな値となる。符号化の対象となる情報が小さな値に集中すれば、算術符号化あるいは可変長符号化によって少ない符号量で符号化することができ、動画像符号化の符号化効率を良くすることができる。
As described above, in the moving
また、イントラ予測モード選択部564は、符号化効率が最も良くなる予測モードと参照する第2参照画素との組合せを、全ての予測モードと処理対象ブロックから縦方向もしくは横方向に1〜3画素間をおいた画素との組合せの中から選択するので、動画像符号化の符号化効率を良くすることができる。
Also, the intra prediction
[第6の実施形態]
図26は、この発明の第6の実施形態による動画像復号装置600の構成を示す概略ブロック図である。本実施形態における動画像復号装置600は、第5の実施形態における動画像符号化装置500が生成した符号化画像データを復号する装置である。同図において図17の各部に対応する部分(201〜203、205〜207)には同一の符号を付け、その説明を省略する。604は、復号部201から受けた予測情報から予測モードと画素位置とを取得し、復号の対象となっている画像で既に復号されたブロックのうち、指定された画素位置の画素と復号の対象となっているブロックに隣接する画素とを参照画素として、対象とするブロックの各画素について取得した予測モードにてイントラ予測を行い、このイントラ予測の結果である予測画像を出力するイントラ予測部である。
[Sixth Embodiment]
FIG. 26 is a schematic block diagram showing a configuration of a
図27は、本実施形態におけるイントラ予測部604の構成を示す概略ブロック図である。図27に示すように、イントラ予測部604は、図24に示したイントラ予測部506からイントラ予測モード選択部564とスイッチ部165を取り除き、復号部201からの予測情報を画素値予測部563に入力した構成である。ここで、予測情報には、予測モードを指定する情報と、予測対象ブロックから縦方向もしくは横方向に1から3画素間をおいた画素の中から参照する画素の位置を表す情報とを含む。また、第1参照画素群取得部161、第2参照画素群取得部562、画素値予測部563は、図24に示したイントラ予測部506が具備し、対応する各部と同じ機能を備える。復号部201からの予測情報を直接受けた画素値予測部563が、第1参照画素群取得部161と第2参照画素群取得部562とから受けた参照画素を用いて、予測情報に含まれる予測モードを用いて、予測情報に含まれる画素位置の画素を参照して、各画素の予測値を算出する。
FIG. 27 is a schematic block diagram illustrating the configuration of the
このように、本実施形態における動画像復号装置600は、その画素値予測部563が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1から3画素間をおいた画素のうち、予測情報にて指定された画素の値も参照し、これらの画素の値に基づき平均値の算出あるいは外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。これは動画像符号化装置500の予測方法に対応した予測方法であり、動画像符号化装置500の生成した符号化効率の良い符号化画像データを復号することができる。
As described above, in the moving
[第7の実施形態]
図28は、この発明の第7の実施形態による動画像符号化装置700の構成を示す概略ブロック図である。同図において図1の各部に対応する部分(101〜105、107〜109)には同一の符号を付け、その説明を省略する。706は、イントラ予測部106と同様に、符号化の対象となっている画像のうち、既に符号化されたブロックの復号画像の画素を参照画素として、対象とするブロックの各画素についてイントラ予測を行なうが、第2参照画素として予測対象ブロックから縦方向もしくは横方向に1画素から3画素間をおいた画素のうち、予め決められた規則に基づき選択された画素を用いる点がイントラ予測部106と異なる。
[Seventh Embodiment]
FIG. 28 is a schematic block diagram showing a configuration of a moving
図29は、本実施形態によるイントラ予測部706の構成を示す概略ブロック図である。同図において図3の各部に対応する部分(161、165)には同一の符号を付け、その説明を省略する。762は、イントラ予測の対象とするブロックから縦方向もしくは横方向に1画素から3画素間をおいた画素のグループである第2参照画素群の各画素の値を復号画像から取得する第2参照画素群取得部である。なお、第1参照画素群取得部161および第2参照画素群取得部762は、イントラ予測の対象とするブロックが画像の上端や左端にあり、取得する画素がないときは、該画素が「利用不可」であることを出力する。また、第1参照画素群取得部161および第2参照画素群取得部762は、取得する画素が未だ符号化されていないときは(後述するモード3、7、8)、符号化済みの画素から取得した値を代わりに用いる。
FIG. 29 is a schematic block diagram showing the configuration of the
763は、第1参照画素群取得部161と第2参照画素群取得部762とが取得した参照画素の値と、イントラ予測モード選択部164からの予測情報により指定される予測モードに従いイントラ予測を行ない、対象とするブロックの各画素の予測値を算出する画素値予測部である。画素値予測部763は、このとき第2参照画素として予測対象のブロックから縦方向もしくは横方向に1画素から3画素間をおいた画素を受けるが、各画素の予測値を算出する際に、これらの中の中央値を選択して参照する画素とする。また。画素値予測部763は、画素値予測部163のように参照画素の平均値を予測値とするようにしてもよいし、画素値予測部363のように参照画素の外挿により算出した値を予測値とするようにしてもよい。
763, intra prediction is performed according to the reference pixel values acquired by the first reference pixel
例えば、画素値予測部763は平均値を予測値とする場合で、イントラ予測モード選択部164イントラから予測モード0を指定されたときは、画素値予測部763は、以下の式(105)にて予測値predを算出する。
pred[x,y]=(p[x,−1]+CT(p[x,−2],p[x,−3],p[x,−4])+1)/2 ・・・(105)
ただし、CT(a,b,c)は、a,b,cの中から中央値を選択する関数である。
また、予測モード1を指定されたときは、画素値予測部763は、以下の式(106)にて予測値predを算出する。
pred[x,y]=(p[−1,y]+CT(p[−2,x],p[−3,x],p[−4,x])+1)/2 ・・・(106)
For example, when the pixel
pred [x, y] = (p [x, -1] + CT (p [x, -2], p [x, -3], p [x, -4]) + 1) / 2 (105) )
However, CT (a, b, c) is a function for selecting a median value from a, b, c.
When the
pred [x, y] = (p [-1, y] + CT (p [-2, x], p [-3, x], p [-4, x]) + 1) / 2 (106) )
図30は、画素値予測部763の動作を説明するフローチャートである。画素値予測部763は、イントラ予測モード選択部164から指定された予測モードにおいて参照する第1参照画素の値を、第1参照画素群取得部161から受けているか否かにより、第1参照画素を使用可能か否かを判定する(Se1)。このステップSe1の判定にて、使用不可能と判定したときは、ステップSe6に遷移し、画素値予測部763は、予測不可であるとして処理を終了する。一方、ステップSe1の判定にて、使用可能と判定したときは、ステップSe2に遷移し、画素値予測部763は、第2参照画素を第2参照画素群取得部762から受けているか否かにより、第2参照画素を使用可能か否かを判定する(Se2)。このステップSe2の判定にて、使用不可能と判定したときは、ステップSe5に遷移し、図6から図14の各予測モードにおける予測値算出方法にて説明した第1参照画素のみのときの算出方法に従い、指定された予測モードによる予測画素値を算出する(Se5)。一方、このステップSe2の判定にて、使用可能と判定したときは、ステップSe3に遷移し、予測対象の画素の予測方向の根元にある第2参照画素の中から中央値の画素を選択する(Se3)。画素値予測部763は、ステップSe3にて選択した第2参照画素と第1参照画素との平均もしくは外挿を、指定された予測モードについて行い予測画素値を算出し(Se4)、処理を終了する。
FIG. 30 is a flowchart for explaining the operation of the pixel
このように、本実施形態における動画像符号化装置700は、その画素値予測部763が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1〜3画素間をおいた画素の中から予め決められた規則に従い選択した画素も参照し、これらの画素の値に基づき平均値の算出もしくは外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。このため、予測画像と入力画像との差分である予測残差が小さな値となる。符号化の対象となる情報が小さな値に集中すれば、算術符号化あるいは可変長符号化によって少ない符号量で符号化することができ、動画像符号化の符号化効率を良くすることができる。
As described above, in the moving
[第8の実施形態]
図31は、この発明の第8の実施形態による動画像復号装置800の構成を示す概略ブロック図である。本実施形態における動画像復号装置800は、第7の実施形態における動画像符号化装置700が生成した符号化画像データを復号する装置である。同図において図17の各部に対応する部分(201〜203、205〜207)には同一の符号を付け、その説明を省略する。804は、復号部201から受けた予測情報から予測モードを取得し、復号の対象となっている画像のうち、既に復号されたブロックの復号画像の画素の中から予め決められた規則で選択された画素を参照画素として、対象とするブロックの各画素について取得した予測モードにてイントラ予測を行い、このイントラ予測の結果である予測画像を出力するイントラ予測部である。
[Eighth Embodiment]
FIG. 31 is a schematic block diagram showing the configuration of the moving
図32は、本実施形態におけるイントラ予測部804の構成を示す概略ブロック図である。図32に示すように、イントラ予測部804は、図29に示したイントラ予測部706からイントラ予測モード選択部164とスイッチ部165を取り除き、復号部201からの予測情報を画素値予測部763に入力した構成である。ここで、予測情報には、予測モードを指定する情報を含む。また、第1参照画素群取得部161、第2参照画素群取得部762、画素値予測部763は、図29に示したイントラ予測部706が具備し、対応する各部と同じ機能を備える。復号部201からの予測情報を直接受けた画素値予測部763が、第1参照画素群取得部161から受けた画素と、第2参照画素群取得部762から受けた参照画素の中の中央値の画素とに基づき、予測情報に含まれる予測モードを用いて各画素の予測値を算出する。
FIG. 32 is a schematic block diagram illustrating a configuration of the
このように、本実施形態における動画像復号装置800は、その画素値予測部763が、処理対象のブロックに隣接する画素の値だけでなく、さらに該ブロックから縦方向もしくは横方向に1から3画素間をおいた画素のうち、予め決められた規則、すなわち中央値の画素を参照し、これらの画素の値に基づき平均値の算出あるいは外挿を行い各画素の値を予測するので、画素の値を精度よく予測することができる。これは動画像符号化装置500の予測方法に対応した予測方法であり、動画像符号化装置500の生成した符号化効率の良い符号化画像データを復号することができる。
As described above, in the moving
なお、上述の第1から第8の実施形態において、画素の値として輝度値Yと色差値Cb、Crを用いるとして説明したが、用いる画素の値は、赤色値R、緑色値G、青色値Bであってもよいし、色相H、明度V、彩度Cなどの他の表色系であってもよい。
また、上述の第1から第8の実施形態において、インター予測とイントラ予測は、画像単位で切り替わるとして説明したが、ITU−T勧告H.264などのような、ブロックをいくつか集めた固定サイズブロックであるマクロブロック単位で切り替わる動画像符号方法に本発明のイントラ予測を適用してもよい。このとき、参照画素を含むブロックがインター予測を用いて符号化されている、あるいは、SIマクロブロックに属しており、constrained_intra_pred_flag=1のときは、その参照画素をイントラ予測に用いることはできない。
In the first to eighth embodiments, the luminance value Y and the color difference values Cb and Cr are described as the pixel values. However, the pixel values to be used are the red value R, the green value G, and the blue value. B or other color systems such as hue H, lightness V, and saturation C may be used.
In the first to eighth embodiments described above, the inter prediction and the intra prediction are described as being switched in units of images. The intra prediction of the present invention may be applied to a moving picture coding method such as H.264 that switches in units of macroblocks, which are fixed-size blocks obtained by collecting several blocks. At this time, when a block including a reference pixel is encoded using inter prediction or belongs to an SI macroblock and constrained_intra_pred_flag = 1, the reference pixel cannot be used for intra prediction.
また、上述の第1から第8の実施形態において、各予測モードでは、予測対象のブロックに隣接する第1参照画素と該ブロックから1から3うちのいずれかの画素数離れた第2参照画素との計2画素に基づき予測値を算出するとして説明したが、3画素以上を参照して予測値を算出するようにしてもよい。例えば、予測モード0であれば、式(27)に用いるxa、ya、xb、yb、p[xa,ya]、p[xb,yb]を以下の式(107)〜(110)のようにしてもよい。
[xa,ya]=[x,−1.5] ・・・(107)
[xb,yb]=[x,−3.5] ・・・(108)
p[xa,ya]=p[x,−1.5]=(p[x,−1]+p[x,−2]+1)/2 ・・・(109)
p[xb,yb]=p[x,−3.5]=(p[x,−3]+p[x,−4]+1)/2 ・・・(110)
In each of the first to eighth embodiments described above, in each prediction mode, the first reference pixel adjacent to the prediction target block and the second reference pixel separated from the block by any one of 1 to 3 pixels. However, the prediction value may be calculated with reference to three or more pixels. For example, in the case of the
[Xa, ya] = [x, −1.5] (107)
[Xb, yb] = [x, −3.5] (108)
p [xa, ya] = p [x, −1.5] = (p [x, −1] + p [x, −2] +1) / 2 (109)
p [xb, yb] = p [x, −3.5] = (p [x, −3] + p [x, −4] +1) / 2 (110)
また、予測モード1であればxa、ya、xb、yb、p[xa,ya]、p[xb,yb]を以下の式(111)〜(114)のようにしてもよい。
[xa,ya]=[−1.5,y] ・・・(111)
[xb,yb]=[−3.5,y] ・・・(112)
p[−1.5,y]=(p[−1,y]+p[−2,y]+1)/2 ・・・(113)
p[−3.5,y]=(p[−3,y]+p[−4,y]+1)/2 ・・・(114)
In the
[Xa, ya] = [− 1.5, y] (111)
[Xb, yb] = [− 3.5, y] (112)
p [−1.5, y] = (p [−1, y] + p [−2, y] +1) / 2 (113)
p [−3.5, y] = (p [−3, y] + p [−4, y] +1) / 2 (114)
また、上述の第1から第8の実施形態において、予測モードは予測方向を指定するとして説明したが、予測方向に加えて算出方法、例えば、平均値とするか外挿とするかを指定するようにしてもよい。この場合、画素値予測部は、予測モードにて指定された算出方法(平均値もしくは外挿)と予測方向とに基づき選択した算出式を用いて、予測値を算出する。 In the first to eighth embodiments described above, the prediction mode has been described as specifying the prediction direction. However, in addition to the prediction direction, a calculation method, for example, an average value or extrapolation is specified. You may do it. In this case, the pixel value prediction unit calculates a predicted value using a calculation formula selected based on the calculation method (average value or extrapolation) designated in the prediction mode and the prediction direction.
また、図1における加算部101、変換・量子化部102、符号化部103、逆量子化・逆変換部104、加算部105、イントラ予測部106、フレームメモリ107、インター予測部108、スイッチ部109 もしくは、図17における復号部201、逆量子化・逆変換部202、加算部203、イントラ予測部204、フレームメモリ205、インター予測部206、スイッチ部207、もしくは、図19における加算部101、変換・量子化部102、符号化部103、逆量子化・逆変換部104、加算部105、イントラ予測部306、フレームメモリ107、インター予測部108、スイッチ部109 もしくは、図21における復号部201、逆量子化・逆変換部202、加算部203、イントラ予測部404、フレームメモリ205、インター予測部206、スイッチ部207、もしくは、図23における加算部101、変換・量子化部102、符号化部103、逆量子化・逆変換部104、加算部105、イントラ予測部506、フレームメモリ107、インター予測部108、スイッチ部109 もしくは、図26における復号部201、逆量子化・逆変換部202、加算部203、イントラ予測部604、フレームメモリ205、インター予測部206、スイッチ部207、もしくは、図28における加算部101、変換・量子化部102、符号化部103、逆量子化・逆変換部104、加算部105、イントラ予測部706、フレームメモリ107、インター予測部108、スイッチ部109 もしくは、図31における復号部201、逆量子化・逆変換部202、加算部203、イントラ予測部804、フレームメモリ205、インター予測部206、スイッチ部207の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより動画像の符号化もしくは復号を行ってもよいし、専用のハードウェアにより実現されるものであってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Also, the
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.
本発明は、テレビジョン放送における動画像符号化装置、テレビジョン放送を受信して動画像を表示するテレビジョン装置が具備する動画像復号装置に用いて好適であるが、これに限定されない。 The present invention is suitable for use in a moving picture encoding apparatus in a television broadcast and a moving picture decoding apparatus included in a television apparatus that receives a television broadcast and displays a moving picture, but is not limited thereto.
100、300、500、700…動画像符号化装置
101、105…加算部
102…変換・量子化部
103…符号化部
104…逆量子化・逆変換部
106、306、506、706…イントラ予測部
107…フレームメモリ
108…インター予測部
109…スイッチ部
161…第1参照画素群取得部
162、562、762…第2参照画素群取得部
163、363、563、763…画素値予測部
164、564…イントラ予測モード選択部
165…スイッチ部
200、400、600、800…動画像復号装置
201…復号部
202…逆量子化・逆変換部
203…加算部
204、404、604、804…イントラ予測部
205…フレームメモリ
206…インター予測部
207…スイッチ部
DESCRIPTION OF
Claims (16)
前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部と、
前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する予測残差算出部と、
前記差分を符号化して符号化動画像を生成する符号化部と
を具備することを特徴とする動画像符号化装置。 In a moving image encoding apparatus that encodes an image constituting a moving image by dividing it into a plurality of blocks,
An intra prediction unit that calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block;
A prediction residual calculator that calculates a difference between the predicted value of each pixel and the value of the corresponding pixel of the input image;
And a coding unit configured to code the difference and generate a coded moving image.
前記符号化部は、前記差分に加えて、前記イントラ予測部が用いた前記1画素以上間をおいた画素の位置を表す情報を符号化画像に含めることを特徴とする請求項1から請求項3のいずれかの項に記載の動画像符号化装置。 The intra prediction unit selects a pixel from among pixels at least one pixel from the block, and configures each block constituting the block based on the value of the selected pixel and the value of a pixel adjacent to the block. Calculate the predicted value of the pixel,
The encoding unit includes, in addition to the difference, information indicating a pixel position between the one or more pixels used by the intra prediction unit in an encoded image. 4. The moving image encoding apparatus according to any one of items 3 to 4.
前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する復号部と、
前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値に基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部と、
各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する加算部と
を具備することを特徴とする動画像復号装置。 In a moving image decoding apparatus for decoding a moving image that is encoded by dividing an image constituting a moving image into a plurality of blocks,
A decoding unit that decodes the encoded moving image and calculates a prediction residual of each pixel constituting the block;
An intra prediction unit that calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block;
A moving picture decoding apparatus comprising: an adding unit that calculates the value of each pixel by adding the prediction residual and the prediction value for each pixel.
前記イントラ予測部は、前記復号部の抽出した画素の位置を表す情報に従い、前記1画素以上間をおいた画素の中から画素を選択し、該選択した画素の値と前記ブロックに隣接する画素の値とに基づき、該ブロックを構成する各画素の予測値を算出することを特徴とする請求項7から請求項9のいずれかの項に記載の動画像復号装置。 The decoding unit extracts, from the encoded moving image, information representing pixel positions between the one or more pixels used when calculating a predicted value by the intra prediction unit,
The intra-prediction unit selects a pixel from among the pixels between the one or more pixels according to the information indicating the pixel position extracted by the decoding unit, and the pixel value adjacent to the block and the value of the selected pixel 10. The moving picture decoding apparatus according to claim 7, wherein a predicted value of each pixel constituting the block is calculated based on the value of the video.
前記動画像符号化装置が、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出する第1の過程と、
前記動画像符号化装置が、前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する第2の過程と、
前記動画像符号化装置が、前記差分を符号化して符号化動画像を生成する第3の過程と
を備えることを特徴とする動画像符号化方法。 In a moving image encoding method in a moving image encoding apparatus that divides and encodes an image constituting a moving image into a plurality of blocks,
The moving image encoding device is configured to predict a predicted value of each pixel constituting the block on the basis of a value of a pixel adjacent to the block and a value of a pixel between the block in the vertical direction or the horizontal direction. A first process of calculating
A second process in which the moving image encoding device calculates a difference between the predicted value of each pixel and the value of the corresponding pixel of the input image;
A moving image encoding method comprising: a third process in which the moving image encoding device generates an encoded moving image by encoding the difference.
前記動画像復号装置が、前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する第1の過程と、
前記動画像復号装置が、前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出する第2の過程と、
前記動画像復号装置が、各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する第3の過程と
を備えることを特徴とする動画像復号方法。 In a moving image decoding method in a moving image decoding apparatus for decoding a moving image encoded by dividing an image constituting a moving image into a plurality of blocks,
A first process in which the video decoding device decodes the encoded video and calculates a prediction residual of each pixel constituting the block;
The moving picture decoding device calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block. A second process of calculating;
The moving picture decoding method comprising: a third step of calculating a value of each pixel by adding the prediction residual and the predicted value for each pixel.
前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部、
前記各画素の予測値と、入力画像の対応する画素の値との差分を算出する予測残差算出部、
前記差分を符号化して符号化動画像を生成する符号化部
として機能させるプログラム。 A computer that divides and encodes an image constituting a moving image into a plurality of blocks,
An intra prediction unit that calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block;
A prediction residual calculation unit that calculates a difference between the predicted value of each pixel and the value of the corresponding pixel of the input image;
A program that functions as an encoding unit that encodes the difference to generate an encoded moving image.
前記符号化された動画像を復号して、前記ブロックを構成する各画素の予測残差を算出する復号部、
前記ブロックに隣接する画素の値と該ブロックから縦方向もしくは横方向に1画素以上間をおいた画素の値とに基づき、該ブロックを構成する各画素の予測値を算出するイントラ予測部、
各画素について、前記予測残差と前記予測値とを加算して各画素の値を算出する加算部
として機能させるプログラム。 A computer that decodes a moving image encoded by dividing an image constituting a moving image into a plurality of blocks,
A decoding unit that decodes the encoded moving image and calculates a prediction residual of each pixel constituting the block;
An intra prediction unit that calculates a predicted value of each pixel constituting the block based on a value of a pixel adjacent to the block and a value of a pixel that is one or more pixels in the vertical or horizontal direction from the block;
A program causing each pixel to function as an adding unit that calculates the value of each pixel by adding the prediction residual and the prediction value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007113989A JP2008271371A (en) | 2007-04-24 | 2007-04-24 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007113989A JP2008271371A (en) | 2007-04-24 | 2007-04-24 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008271371A true JP2008271371A (en) | 2008-11-06 |
Family
ID=40050258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007113989A Pending JP2008271371A (en) | 2007-04-24 | 2007-04-24 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008271371A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010123056A1 (en) * | 2009-04-24 | 2010-10-28 | ソニー株式会社 | Image processing apparatus and method |
WO2012161444A3 (en) * | 2011-05-20 | 2013-01-17 | 주식회사 케이티 | Method and apparatus for intra prediction within display screen |
JP2013059131A (en) * | 2012-12-28 | 2013-03-28 | Sony Corp | Image processing device and method, and recording medium |
JP2013059132A (en) * | 2012-12-28 | 2013-03-28 | Sony Corp | Image processing device and method, and recording medium |
JP2014112941A (en) * | 2014-02-20 | 2014-06-19 | Sony Corp | Image processing device and method, and recording medium |
JP2014135742A (en) * | 2014-02-20 | 2014-07-24 | Sony Corp | Image processing device and method, and recording medium |
JP2015526004A (en) * | 2012-07-04 | 2015-09-07 | トムソン ライセンシングThomson Licensing | Spatial prediction method and spatial prediction apparatus |
JP2018050195A (en) * | 2016-09-21 | 2018-03-29 | Kddi株式会社 | Video decoder, video decoding method, video encoder, video encoding method and computer readable recording medium |
JP2019531663A (en) * | 2016-10-11 | 2019-10-31 | エルジー エレクトロニクス インコーポレイティド | Video decoding method and apparatus based on intra prediction in video coding system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006352181A (en) * | 2005-02-18 | 2006-12-28 | Hitachi Ltd | Image encoding/decoding device, encoding/decoding program and encoding/decoding method |
JP2008245088A (en) * | 2007-03-28 | 2008-10-09 | Kddi R & D Laboratories Inc | Intra prediction system for moving image encoding apparatus and moving image decoding apparatus |
-
2007
- 2007-04-24 JP JP2007113989A patent/JP2008271371A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006352181A (en) * | 2005-02-18 | 2006-12-28 | Hitachi Ltd | Image encoding/decoding device, encoding/decoding program and encoding/decoding method |
JP2008245088A (en) * | 2007-03-28 | 2008-10-09 | Kddi R & D Laboratories Inc | Intra prediction system for moving image encoding apparatus and moving image decoding apparatus |
Non-Patent Citations (2)
Title |
---|
PENG ZHANG, DEBIN ZHAO, SIWEI MA, YAN LU, WEN GAO: "Multiple modes intra-prediction in intra coding", 2004 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME '04), vol. 1, JPN6010066798, 30 June 2004 (2004-06-30), pages 419 - 422, XP010770800, ISSN: 0001967018, DOI: 10.1109/ICME.2004.1394218 * |
松尾翔平, 高村誠之, 上倉一人, 八島由幸: "周辺近傍画素を利用したイントラ予測改善手法の検討", 情報処理学会研究報告 2007-AVM-56, vol. 2007, no. 22, JPN6010069747, 5 March 2007 (2007-03-05), pages 37 - 42, ISSN: 0001792389 * |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104320664A (en) * | 2009-04-24 | 2015-01-28 | 索尼公司 | Image processing device and method |
JP2010258740A (en) * | 2009-04-24 | 2010-11-11 | Sony Corp | Image processing apparatus, method and program |
CN102396230A (en) * | 2009-04-24 | 2012-03-28 | 索尼公司 | Image processing apparatus and method |
US11107251B2 (en) | 2009-04-24 | 2021-08-31 | Sony Corporation | Image processing device and method |
US10755445B2 (en) | 2009-04-24 | 2020-08-25 | Sony Corporation | Image processing device and method |
US10755444B2 (en) | 2009-04-24 | 2020-08-25 | Sony Corporation | Image processing device and method |
CN104320664B (en) * | 2009-04-24 | 2018-09-14 | 索尼公司 | Image processing equipment and method |
WO2010123056A1 (en) * | 2009-04-24 | 2010-10-28 | ソニー株式会社 | Image processing apparatus and method |
US9123109B2 (en) | 2009-04-24 | 2015-09-01 | Sony Corporation | Image processing device and method |
CN102396230B (en) * | 2009-04-24 | 2015-06-17 | 索尼公司 | Image processing apparatus and method |
CN106851315A (en) * | 2011-05-20 | 2017-06-13 | 株式会社Kt | The method decoded to vision signal |
GB2506039A (en) * | 2011-05-20 | 2014-03-19 | Kt Corp | Method and apparatus for intra prediction within display screen |
ES2450643R1 (en) * | 2011-05-20 | 2014-12-11 | Kt Corporation | Procedure and apparatus for intra-prediction on screen |
WO2012161444A3 (en) * | 2011-05-20 | 2013-01-17 | 주식회사 케이티 | Method and apparatus for intra prediction within display screen |
KR101453897B1 (en) | 2011-05-20 | 2014-10-23 | 주식회사 케이티 | Method And Apparatus For Intra Prediction |
KR101453899B1 (en) | 2011-05-20 | 2014-10-23 | 주식회사 케이티 | Method And Apparatus For Intra Prediction |
KR101458794B1 (en) * | 2011-05-20 | 2014-11-07 | 주식회사 케이티 | Method And Apparatus For Intra Prediction |
US9154803B2 (en) | 2011-05-20 | 2015-10-06 | Kt Corporation | Method and apparatus for intra prediction within display screen |
ES2545039R1 (en) * | 2011-05-20 | 2015-12-28 | Kt Corporation | Procedure and apparatus for intra-prediction on screen |
US9288503B2 (en) | 2011-05-20 | 2016-03-15 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9432695B2 (en) | 2011-05-20 | 2016-08-30 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9432669B2 (en) | 2011-05-20 | 2016-08-30 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9445123B2 (en) | 2011-05-20 | 2016-09-13 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9584815B2 (en) | 2011-05-20 | 2017-02-28 | Kt Corporation | Method and apparatus for intra prediction within display screen |
KR101453898B1 (en) * | 2011-05-20 | 2014-10-23 | 주식회사 케이티 | Method And Apparatus For Intra Prediction |
US9749640B2 (en) | 2011-05-20 | 2017-08-29 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9749639B2 (en) | 2011-05-20 | 2017-08-29 | Kt Corporation | Method and apparatus for intra prediction within display screen |
US9756341B2 (en) | 2011-05-20 | 2017-09-05 | Kt Corporation | Method and apparatus for intra prediction within display screen |
CN103703773A (en) * | 2011-05-20 | 2014-04-02 | 株式会社Kt | Method and apparatus for intra prediction within display screen |
US9843808B2 (en) | 2011-05-20 | 2017-12-12 | Kt Corporation | Method and apparatus for intra prediction within display screen |
CN106851315B (en) * | 2011-05-20 | 2020-04-21 | 株式会社Kt | Method for decoding video signal |
US10158862B2 (en) | 2011-05-20 | 2018-12-18 | Kt Corporation | Method and apparatus for intra prediction within display screen |
GB2506039B (en) * | 2011-05-20 | 2018-10-24 | Kt Corp | Method and apparatus for intra prediction within display screen |
KR101383775B1 (en) * | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | Method And Apparatus For Intra Prediction |
US9848204B2 (en) | 2012-07-04 | 2017-12-19 | Thomson Licensing | Spatial prediction method and device, coding and decoding methods and devices |
JP2017195638A (en) * | 2012-07-04 | 2017-10-26 | トムソン ライセンシングThomson Licensing | Methods and devices for coding and decoding |
JP2015526004A (en) * | 2012-07-04 | 2015-09-07 | トムソン ライセンシングThomson Licensing | Spatial prediction method and spatial prediction apparatus |
JP2013059131A (en) * | 2012-12-28 | 2013-03-28 | Sony Corp | Image processing device and method, and recording medium |
JP2013059132A (en) * | 2012-12-28 | 2013-03-28 | Sony Corp | Image processing device and method, and recording medium |
JP2014135742A (en) * | 2014-02-20 | 2014-07-24 | Sony Corp | Image processing device and method, and recording medium |
JP2014112941A (en) * | 2014-02-20 | 2014-06-19 | Sony Corp | Image processing device and method, and recording medium |
US11451771B2 (en) | 2016-09-21 | 2022-09-20 | Kiddi Corporation | Moving-image decoder using intra-prediction, moving-image decoding method using intra-prediction, moving-image encoder using intra-prediction, moving-image encoding method using intra-prediction, and computer readable recording medium |
JP2018050195A (en) * | 2016-09-21 | 2018-03-29 | Kddi株式会社 | Video decoder, video decoding method, video encoder, video encoding method and computer readable recording medium |
US10805636B2 (en) | 2016-10-11 | 2020-10-13 | Lg Electronics Inc. | Image decoding method and apparatus relying on intra prediction in image coding system |
JP2021122146A (en) * | 2016-10-11 | 2021-08-26 | エルジー エレクトロニクス インコーポレイティド | Image decoding method and apparatus relying on intra prediction in image coding system |
US10924762B2 (en) | 2016-10-11 | 2021-02-16 | Lg Electronics Inc. | Image decoding method and apparatus relying on intra prediction in image coding system |
JP7074913B2 (en) | 2016-10-11 | 2022-05-24 | エルジー エレクトロニクス インコーポレイティド | Video decoding method and equipment by intra prediction in video coding system |
JP2019531663A (en) * | 2016-10-11 | 2019-10-31 | エルジー エレクトロニクス インコーポレイティド | Video decoding method and apparatus based on intra prediction in video coding system |
US11463728B2 (en) | 2016-10-11 | 2022-10-04 | Lg Electronics Inc. | Image decoding method and apparatus relying on intra prediction in image coding system |
JP7284318B2 (en) | 2016-10-11 | 2023-05-30 | エルジー エレクトロニクス インコーポレイティド | Video decoding method and apparatus using intra prediction in video coding system |
US11838546B2 (en) | 2016-10-11 | 2023-12-05 | Lg Electronics Inc. | Image decoding method and apparatus relying on intra prediction in image coding system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11647219B2 (en) | Image encoding and decoding method with merge flag and motion vectors | |
RU2603543C2 (en) | Method and apparatus for encoding video and method and apparatus for decoding video | |
JP6615287B2 (en) | Image decoding device | |
JP2008271371A (en) | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program | |
US20140105295A1 (en) | Moving image encoding method and apparatus, and moving image decoding method and apparatus | |
KR20190032642A (en) | Method for storing motion information and method for inducing temporal motion vector predictor using same | |
KR101974952B1 (en) | Methods of coding intra prediction mode using two candidate intra prediction modes and apparatuses using the same | |
WO2015045736A1 (en) | Image coding device, image decoding device, and programs therefor | |
JP2019022129A (en) | Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, moving picture decoding method, moving picture coding computer program, and moving picture decoding computer program | |
KR20130050899A (en) | Encoding method and apparatus, and decoding method and apparatus of image | |
JP2017200215A (en) | Moving image encoding method and moving image decoding method | |
KR102639255B1 (en) | Methods of coding intra prediction mode using two candidate intra prediction modes and apparatuses using the same | |
KR102069784B1 (en) | Methods of coding intra prediction mode using two candidate intra prediction modes and apparatuses using the same | |
JP2016106494A (en) | Moving image encoding method and moving image decoding method | |
JP5680778B2 (en) | Video encoding method and video decoding method | |
JP5893178B2 (en) | Video encoding method and video decoding method | |
JP2020048208A (en) | Moving image encoding method and moving image decoding method | |
JP2018085751A (en) | Moving image encoding method and moving image decoding method | |
KR20200075040A (en) | Intra prediction method and apparatus using the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120221 |