JP2008271422A - Moving image predictive coding apparatus, method and program, and moving image predictive decoding apparatus, method and program - Google Patents

Moving image predictive coding apparatus, method and program, and moving image predictive decoding apparatus, method and program Download PDF

Info

Publication number
JP2008271422A
JP2008271422A JP2007114669A JP2007114669A JP2008271422A JP 2008271422 A JP2008271422 A JP 2008271422A JP 2007114669 A JP2007114669 A JP 2007114669A JP 2007114669 A JP2007114669 A JP 2007114669A JP 2008271422 A JP2008271422 A JP 2008271422A
Authority
JP
Japan
Prior art keywords
signal
target
pixel group
approximate
adjacent pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007114669A
Other languages
Japanese (ja)
Other versions
JP5254565B2 (en
Inventor
Chunsen Bun
チュンセン ブン
Thiow Keng Tan
ティオ ケン タン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2007114669A priority Critical patent/JP5254565B2/en
Publication of JP2008271422A publication Critical patent/JP2008271422A/en
Application granted granted Critical
Publication of JP5254565B2 publication Critical patent/JP5254565B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more accurately approximate a predictive signal to a target signal, by correcting the predictive signal with less auxiliary information. <P>SOLUTION: A coding apparatus is provided with a regional dividing means for dividing an input image into a plurality of regions; a predictive signal generating means for generating an approximate signal for a target pixel signal in a target region to be processed in the plurality of regions; a residual signal generating means for generating a residual signal between the approximate signal and the target pixel signal; and a coding means for coding the residual signal, wherein the predictive signal generating means determines a predictive signal for the target region, uses a target adjacent pixel group, constituted of reproduced pixels adjacent to the target region and a predictive adjacent pixel group, constituted of reproduced pixels in the same positional relation, to a reference region that includes the predictive signal, as the positional relation between the target adjacent pixel group and the target region, to determine a parameter approximating the predictive adjacent pixel group to the target adjacent pixel group, and converts the predictive signal, on the basis of the parameter, generates an approximate signal for the target pixel signal in the target region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動画像予測符号化装置、方法及びプログラム、並びに、動画像予測復号装置、方法及びプログラムに関するものである。   The present invention relates to a moving picture predictive coding apparatus, method and program, and a moving picture predictive decoding apparatus, method and program.

動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合はMPEG1、MPEG2、MPEG4やH.261〜H.264の方式が広く用いられている。動画像の符号化では、時間方向で隣接する他の画像を用いて符号化の対象となる対象画像についての予測信号を生成して、対象画像の画像信号と予測信号との差分を符号化することにより、データ量の削減を実現する。   In order to efficiently transmit and store moving image data, a compression encoding technique is used. In the case of moving images, MPEG1, MPEG2, MPEG4, H.264, and so on. 261-H. H.264 is widely used. In encoding of a moving image, a prediction signal for a target image to be encoded is generated using another image adjacent in the time direction, and a difference between the image signal of the target image and the prediction signal is encoded. As a result, a reduction in the amount of data is realized.

例えばH.264では、1フレームの画像を16×16画素からなるブロックの領域に分割し、当該画像をこのブロック単位で符号化処理を行う。フレーム間符号化では、符号化対象となる画像内の対象ブロックについて、符号化済で復元された他のフレームを参照画像として動き検出を行い、誤差の最も少ない予測信号を決定する。次にこの対象ブロックの画像信号と該予測信号との差分値を求めて、離散コサイン変換と量子化処理を行う。そして、量子化された離散コサイン変換の係数と、予測信号を特定するための動きベクトルとをエントロピー符号化し符号化データを生成する。   For example, H.C. In H.264, an image of one frame is divided into block areas each having 16 × 16 pixels, and the image is encoded in units of blocks. In interframe coding, motion detection is performed on a target block in an image to be encoded using another frame that has been encoded and restored as a reference image, and a prediction signal with the least error is determined. Next, a difference value between the image signal of the target block and the prediction signal is obtained, and discrete cosine transform and quantization processing are performed. Then, the quantized discrete cosine transform coefficient and the motion vector for specifying the prediction signal are entropy-coded to generate encoded data.

画面内の符号化効率を高めるため、画面内においても予測符号化を行う。H.264の場合、対象ブロックと同じ画面内の隣接する画素群の既再生の画像信号(一旦圧縮された画像データから復元されたもの)を用いて予測信号を生成し、該予測信号を対象ブロックの画像信号から引き算して得られた差分(残差信号)を符号化する。   In order to increase the coding efficiency within the screen, predictive coding is also performed within the screen. H. In the case of H.264, a prediction signal is generated using an already reproduced image signal (reconstructed from image data once compressed) of an adjacent pixel group in the same screen as the target block, and the prediction signal is generated from the target block. The difference (residual signal) obtained by subtraction from the image signal is encoded.

画面間の予測信号を生成する具体的な方法は例えば特許文献1に、画面内の予測信号を生成する具体的な方法は例えば特許文献2に、それぞれ記載されている。   A specific method for generating a prediction signal between screens is described in, for example, Patent Document 1, and a specific method for generating a prediction signal in a screen is described in, for example, Patent Document 2.

一方、フェードインやフェードアウトのように部分的な輝度変化がある場合、画面間の予測信号について、さらに輝度の補正を行った上で、対象ブロックの画像信号と予測信号との差分を符号化する手法が知られている。このような輝度補正に関する従来技術は例えば特許文献3に記載されている。
米国特許公報第5200820号 米国特許公報第6765964号 米国特許公報第6934331号
On the other hand, when there is a partial luminance change such as fade-in and fade-out, the luminance of the prediction signal between screens is further corrected, and then the difference between the image signal of the target block and the prediction signal is encoded. Techniques are known. For example, Patent Document 3 discloses a related art relating to such luminance correction.
US Patent Publication No. 52008220 US Pat. No. 6,765,964 US Pat. No. 6,934,331

しかし、従来技術における輝度補正方法では、その補正に用いられる近似パラメータ(補正パラメータや補助情報ともいう)は、受信側で正しく予測信号を補正するために必要不可欠なものであるため、これらの近似パラメータは、残差信号とともに符号化され、蓄積もしくは伝送される必要がある。したがって、圧縮されたデータの量は近似パラメータの分だけ増加してしまう。   However, in the luminance correction method in the prior art, approximate parameters (also referred to as correction parameters and auxiliary information) used for the correction are indispensable to correct the prediction signal correctly on the receiving side. The parameters need to be encoded with the residual signal and stored or transmitted. Therefore, the amount of compressed data increases by the approximate parameter.

また、予測信号の性能を高めるには、画像を従来より細かい領域に分割して、それぞれの小領域に対し輝度補正を行うことが望ましい。しかし、増加する小領域の数に比例して近似パラメータのデータ量が急増するため、全体のデータ量が増大してしまう。   In order to improve the performance of the prediction signal, it is desirable to divide the image into smaller areas than before and perform luminance correction on each small area. However, since the data amount of the approximate parameter increases rapidly in proportion to the increasing number of small regions, the entire data amount increases.

更に、従来技術では、例えば輝度信号をスケーリングした上でオフセット値を加える場合、近似パラメータとして2つのパラメータが含まれることとなるが、もし対象ブロックの画像信号が予測信号に対し非線形的な変化を示す場合には、近似パラメータのパラメータ数がさらに増えることとなり、近似パラメータ等の補助情報のデータ量はさらに増大してしまう。   Furthermore, in the prior art, for example, when the offset value is added after scaling the luminance signal, two parameters are included as approximate parameters. If the image signal of the target block changes non-linearly with respect to the prediction signal, In the case shown, the number of parameters of the approximate parameter is further increased, and the amount of auxiliary information such as the approximate parameter is further increased.

本発明は、上記の課題を解決し、少ない補助情報で予測信号を補正し、より精度良く対象信号に近似させることができる動画像予測符号化装置、方法及びプログラム、並びに、動画像予測復号装置、方法及びプログラムを提供することを目的とする。   The present invention solves the above-described problem, corrects a prediction signal with a small amount of auxiliary information, and can approximate a target signal with higher accuracy, a video prediction encoding apparatus, a method and a program, and a video prediction decoding apparatus It is an object to provide a method and a program.

本発明に係る動画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、予測信号生成手段により生成された近似信号と対象画素信号との残差信号を生成する残差信号生成手段と、残差信号生成手段により生成された残差信号を符号化する符号化手段と、を備え、予測信号生成手段は、所定の方法で対象領域についての予測信号を決定し、対象領域に隣接する既再生画素からなる対象隣接画素群と、予測信号を含む参照領域に対し、対象領域と対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   The moving picture predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target pixel signal of a target region that is a processing target among the plurality of regions divided by the region dividing unit. Generated by the prediction signal generation means, the residual signal generation means for generating the residual signal between the approximate signal generated by the prediction signal generation means and the target pixel signal, and the residual signal generation means Encoding means for encoding the residual signal, and the prediction signal generation means determines a prediction signal for the target area by a predetermined method, and a target adjacent pixel group composed of already reproduced pixels adjacent to the target area; The predicted adjacent pixel group is defined as the target adjacent pixel group using the predicted adjacent pixel group including the already-reproduced pixels, which is in the same positional relationship as the positional relationship between the target region and the target adjacent pixel group with respect to the reference region including the predicted signal. In Determining the approximate parameters for causing the similar, by converting a prediction signal for the target region based on the approximation parameters, and generates an approximate signal for the target pixel signals of the target area, characterized in that.

また、本発明に係る動画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、予測信号生成手段により生成された近似信号と対象画素信号との残差信号を生成する残差信号生成手段と、残差信号生成手段により生成された残差信号を符号化する符号化手段と、を備え、予測信号生成手段は、対象領域より前に再生された画素から構成される領域を参照領域とし、対象領域に隣接する既再生画素からなる対象隣接画素群に対して、参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、対象隣接画素群と対象領域の位置関係と同じ位置関係にある、予測隣接画素群に対応した参照領域の画素信号を、対象領域についての予測信号として取得し、予測隣接画素群と対象隣接画素群とを用いて予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   The moving picture predictive encoding apparatus according to the present invention includes an area dividing unit that divides an input image into a plurality of areas, and a target pixel of a target area that is a processing target among the plurality of areas divided by the area dividing unit. Prediction signal generation means for generating an approximate signal for the signal, residual signal generation means for generating a residual signal between the approximate signal generated by the prediction signal generation means and the target pixel signal, and generation by the residual signal generation means Encoding means for encoding the residual signal, and the prediction signal generating means uses a region composed of pixels reproduced before the target region as a reference region, and has already been reproduced pixels adjacent to the target region A pixel group having the highest correlation among the reference regions is derived as a predicted adjacent pixel group, and is in the same positional relationship as the positional relationship between the target adjacent pixel group and the target region. Is obtained as a prediction signal for the target region, and approximate parameters for approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group are obtained. An approximate signal for the target pixel signal of the target area is generated by determining and converting a prediction signal for the target area based on the approximate parameter.

本発明に係る動画像予測復号装置は、圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析手段と、データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、予測信号生成手段により生成された近似信号と残差信号復元手段により復元された再生残差信号とを加算することによって、対象領域の対象画素信号を復元する画像復元手段と、を備え、予測信号生成手段は、所定の方法で対象領域についての予測信号を取得し、対象領域に隣接する既再生画素からなる対象隣接画素群と、予測信号を含む参照領域に対し、対象領域と対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   The video predictive decoding apparatus according to the present invention includes a data analysis unit that extracts encoded data of a residual signal for a target region to be processed from compressed data, and a residual signal extracted by the data analysis unit. A residual signal restoring means for restoring a reproduction residual signal from the encoded data of the target area, a prediction signal generating means for generating an approximate signal for the target pixel signal in the target area, an approximate signal generated by the prediction signal generating means and the residual signal Image restoration means for restoring the target pixel signal of the target area by adding the reproduction residual signal restored by the difference signal restoration means, and the prediction signal generating means The prediction signal is obtained, and the target adjacent pixel group including the already reproduced pixels adjacent to the target region and the reference region including the prediction signal are the same as the positional relationship between the target region and the target adjacent pixel group. An approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group is determined using the predicted adjacent pixel group composed of already reproduced pixels, and a prediction signal for the target region based on the approximate parameter To generate an approximate signal for the target pixel signal in the target region.

また、本発明に係る動画像予測復号装置は、圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析手段と、データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、予測信号生成手段により生成された近似信号と残差信号復元手段により復元された再生残差信号とを加算することによって、対象領域の対象画素信号を復元する画像復元手段と、を備え、予測信号生成手段は、対象領域より前に再生された画素から構成される領域を参照領域とし、対象領域に隣接する既再生画素からなる対象隣接画素群に対して、参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、予測隣接画素群と対象隣接画素群とを用いて予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、対象隣接画素群と対象領域の位置関係と同じ位置関係にある、予測隣接画素群に対応した参照領域の画素信号を近似パラメータに基づいて変換することで、対象領域についての近似信号を生成する、ことを特徴とする。   The moving picture predictive decoding apparatus according to the present invention includes a data analysis unit that extracts encoded data of a residual signal for a target region that is a processing target from compressed data, and a residual that is extracted by the data analysis unit. Residual signal restoring means for restoring the reproduction residual signal from the encoded data of the difference signal, predicted signal generating means for generating an approximate signal for the target pixel signal in the target region, and the approximate signal generated by the predicted signal generating means And a restoration residual signal restored by the residual signal restoration means, and an image restoration means for restoring the target pixel signal of the target area, and the prediction signal generation means reproduces before the target area. The region composed of the processed pixels is used as a reference region, and the pixel group having the highest correlation from the reference region is predicted adjacent to the target adjacent pixel group composed of already reproduced pixels adjacent to the target region. Deriving as a pixel group, determining an approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group, and the positional relationship between the target adjacent pixel group and the target region An approximate signal for the target region is generated by converting pixel signals in the reference region corresponding to the predicted adjacent pixel group having the same positional relationship based on the approximate parameter.

本発明に係る動画像予測符号化方法は、動画像予測符号化装置により実行される動画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、予測信号生成ステップにより生成された近似信号と対象画素信号との残差信号を生成する残差信号生成ステップと、残差信号生成ステップにより生成された残差信号を符号化する符号化ステップと、を備え、予測信号生成ステップでは、所定の方法で対象領域についての予測信号を決定し、対象領域に隣接する既再生画素からなる対象隣接画素群と、予測信号を含む参照領域に対し、対象領域と対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   The moving picture predictive coding method according to the present invention is a moving picture predictive coding method executed by a moving picture predictive coding apparatus, and includes a region dividing step for dividing an input image into a plurality of regions, and a region dividing step. A prediction signal generation step for generating an approximate signal for a target pixel signal in a target region that is a processing target of the plurality of divided regions, and a residual between the approximate signal generated by the prediction signal generation step and the target pixel signal A residual signal generation step for generating a signal, and an encoding step for encoding the residual signal generated by the residual signal generation step. In the prediction signal generation step, the prediction of the target region is performed by a predetermined method. The position relationship between the target area and the target adjacent pixel group is determined with respect to the target adjacent pixel group including the already reproduced pixels adjacent to the target area and the reference area including the prediction signal The approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group is determined using the predicted adjacent pixel group consisting of the already reproduced pixels that are in the same positional relationship as the target region based on the approximate parameter. By converting the predicted signal, an approximate signal for the target pixel signal in the target region is generated.

また、本発明に係る動画像予測符号化方法は、動画像予測符号化装置により実行される動画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、予測信号生成ステップにより生成された近似信号と対象画素信号との残差信号を生成する残差信号生成ステップと、残差信号生成ステップにより生成された残差信号を符号化する符号化ステップと、を備え、予測信号生成ステップでは、対象領域より前に再生された画素から構成される領域を参照領域とし、対象領域に隣接する既再生画素からなる対象隣接画素群に対して、参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、対象隣接画素群と対象領域の位置関係と同じ位置関係にある、予測隣接画素群に対応した参照領域の画素信号を、対象領域についての予測信号として取得し、予測隣接画素群と対象隣接画素群とを用いて予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   The moving picture predictive coding method according to the present invention is a moving picture predictive coding method executed by a moving picture predictive coding apparatus, and includes a region dividing step for dividing an input image into a plurality of regions, A prediction signal generation step for generating an approximate signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the step, and the approximate signal generated by the prediction signal generation step and the target pixel signal A residual signal generation step for generating a residual signal; and an encoding step for encoding the residual signal generated by the residual signal generation step. In the prediction signal generation step, the residual signal is reproduced before the target region. A pixel that has the highest correlation among the reference area with respect to the target adjacent pixel group consisting of the already reproduced pixels adjacent to the target area. Is obtained as a predicted adjacent pixel group, and the pixel signal of the reference region corresponding to the predicted adjacent pixel group that is in the same positional relationship as the positional relationship between the target adjacent pixel group and the target region is acquired as a predicted signal for the target region, By determining the approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group, and converting the prediction signal for the target region based on the approximate parameter An approximate signal for the target pixel signal in the target region is generated.

本発明に係る動画像予測復号方法は、動画像予測復号装置により実行される動画像予測復号方法であって、圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析ステップと、データ解析ステップにより抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、予測信号生成ステップにより生成された近似信号と残差信号復元ステップにより復元された再生残差信号とを加算することによって、対象領域の対象画素信号を復元する画像復元ステップと、を備え、予測信号生成ステップでは、所定の方法で対象領域についての予測信号を取得し、対象領域に隣接する既再生画素からなる対象隣接画素群と、予測信号を含む参照領域に対し、対象領域と対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、近似パラメータをもとに対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、ことを特徴とする。   A moving picture predictive decoding method according to the present invention is a moving picture predictive decoding method executed by a moving picture predictive decoding apparatus, and includes encoded data of a residual signal for a target region to be processed from compressed data. A data analysis step for extracting the residual signal, a residual signal restoration step for restoring the reproduction residual signal from the encoded data of the residual signal extracted by the data analysis step, and generating an approximate signal for the target pixel signal in the target region A prediction signal generation step; and an image restoration step of restoring the target pixel signal of the target region by adding the approximate signal generated by the prediction signal generation step and the reproduction residual signal restored by the residual signal restoration step; In the prediction signal generation step, the prediction signal for the target area is obtained by a predetermined method, and the reproduced signal adjacent to the target area is obtained. Predicted adjacent pixels using a predicted adjacent pixel group composed of already-reproduced pixels that are in the same positional relationship as the positional relationship between the target region and the target adjacent pixel group with respect to the target adjacent pixel group and the reference region including the prediction signal. Determining an approximate parameter for approximating the group to the target adjacent pixel group, and generating an approximate signal for the target pixel signal of the target region by converting a prediction signal for the target region based on the approximate parameter; It is characterized by that.

また、本発明に係る動画像予測復号方法は、動画像予測復号装置により実行される動画像予測復号方法であって、圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析ステップと、データ解析ステップにより抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、予測信号生成ステップにより生成された近似信号と残差信号復元ステップにより復元された再生残差信号とを加算することによって、対象領域の対象画素信号を復元する画像復元ステップと、を備え、予測信号生成ステップでは、対象領域より前に再生された画素から構成される領域を参照領域とし、対象領域に隣接する既再生画素からなる対象隣接画素群に対して、参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、予測隣接画素群と対象隣接画素群とを用いて予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、対象隣接画素群と対象領域の位置関係と同じ位置関係にある、予測隣接画素群に対応した参照領域の画素信号を近似パラメータに基づいて変換することで、対象領域についての近似信号を生成する、ことを特徴とする。   The moving picture predictive decoding method according to the present invention is a moving picture predictive decoding method executed by a moving picture predictive decoding apparatus, and includes coding of a residual signal for a target region to be processed from compressed data. A data analysis step for extracting the encoded data, a residual signal restoration step for restoring the reproduction residual signal from the encoded data of the residual signal extracted by the data analysis step, and an approximation signal for the target pixel signal of the target region Image restoration for restoring the target pixel signal of the target region by adding the prediction signal generation step to be generated, and the approximate signal generated by the prediction signal generation step and the reproduction residual signal restored by the residual signal restoration step A prediction signal generating step, wherein an area composed of pixels reproduced before the target area is set as a reference area, and the target area A pixel group having the highest correlation from the reference region is derived as a predicted adjacent pixel group with respect to a target adjacent pixel group including adjacent already-reproduced pixels, and predicted adjacent using the predicted adjacent pixel group and the target adjacent pixel group Approximate parameter for approximating the pixel group to the target adjacent pixel group is determined, and the pixel signal of the reference area corresponding to the predicted adjacent pixel group that is in the same positional relationship as that of the target adjacent pixel group and the target area is an approximate parameter An approximate signal for the target region is generated by performing conversion based on the above.

本発明に係る動画像予測符号化プログラムは、コンピュータを、特許請求の範囲の請求項1又は2に記載の動画像予測符号化装置として機能させるための動画像予測符号化プログラムである。   A moving image predictive coding program according to the present invention is a moving image predictive coding program for causing a computer to function as the moving image predictive coding device according to claim 1 or 2.

本発明に係る動画像予測復号プログラムは、コンピュータを、特許請求の範囲の請求項3又は4に記載の動画像予測復号装置として機能させるための動画像予測復号プログラムである。   The moving picture predictive decoding program according to the present invention is a moving picture predictive decoding program for causing a computer to function as the moving picture predictive decoding device according to claim 3 or 4.

本発明によれば、対象領域に隣接する既再生画素からなる対象隣接画素群と、予測信号を含む参照領域に対し、対象領域と対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、該近似パラメータを用いて予測信号を変換することで対象領域についての近似信号を求める。このため、受信側でも近似パラメータを正しく導出することができ、近似パラメータを残差信号とともに符号化した上で蓄積もしくは伝送する必要がなくなり、近似パラメータによるデータ量の増加を抑えることができる。   According to the present invention, the target adjacent pixel group composed of the already reproduced pixels adjacent to the target area and the reference area including the prediction signal are in the same positional relationship as the positional relation between the target area and the target adjacent pixel group. An approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group is determined using the predicted adjacent pixel group composed of pixels, and an approximation for the target region is performed by converting the predicted signal using the approximate parameter Find the signal. For this reason, it is possible to correctly derive the approximate parameter even on the receiving side, and it is not necessary to store or transmit the approximate parameter together with the residual signal, and it is possible to suppress an increase in the data amount due to the approximate parameter.

これに伴い、画像を従来よりも細かい領域に分割して、それぞれの小領域に対し輝度補正を行う場合や、対象信号が予測信号に対し非線形的な変化を示す場合でも、近似パラメータの増加に起因した補助情報のデータ量の増加を回避しつつ、高精度な近似信号を生成することできる。   Along with this, even when the image is divided into smaller areas than before and luminance correction is performed for each small area, or even when the target signal shows a nonlinear change with respect to the prediction signal, the approximate parameter increases. It is possible to generate a high-precision approximate signal while avoiding an increase in the amount of auxiliary information data caused.

以上より、本発明によれば、少ない補助情報で高精度の近似信号を生成することができる。このため、残差信号が減少し、動画像全体の符号量を大きく減らすことができる。   As described above, according to the present invention, a highly accurate approximate signal can be generated with a small amount of auxiliary information. For this reason, the residual signal is reduced, and the code amount of the entire moving image can be greatly reduced.

以下、本発明に係る実施形態について、図1から図14を用いて説明する。   Embodiments according to the present invention will be described below with reference to FIGS.

[動画像予測符号化装置について]
図1は、本実施形態に係る動画像予測符号化装置100のブロック図を示す。図1に示すように、動画像予測符号化装置100は、入力端子101、ブロック分割器102、信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、及び、出力端子112を備えている。
[About video predictive coding apparatus]
FIG. 1 shows a block diagram of a video predictive coding apparatus 100 according to the present embodiment. As shown in FIG. 1, the moving picture predictive coding apparatus 100 includes an input terminal 101, a block divider 102, a signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, and an inverse quantization. A counter 108, an inverse transformer 109, an adder 110, an entropy encoder 111, and an output terminal 112.

[動画像予測符号化装置における動作概要]
このような動画像予測符号化装置100について、以下、各構成部の動作を述べる。複数枚の画像からなる動画像の信号は入力端子101に入力される。入力された画像に対し、ブロック分割器102は、符号化処理の対象となる画像を複数の領域に分割する。本実施形態では、例えば、8×8の画素からなるブロックに分割するが、それ以外のブロックの大きさ又は形に分割してもよい。次に、信号生成器103は、符号化処理の対象となる領域(以下「対象ブロック」とよぶ)についての近似信号を生成する。本実施形態では、信号生成器103は画面間予測と画面内予測の少なくとも一方で近似信号を生成する。その生成処理は、後述する。
[Outline of operation in video predictive coding apparatus]
Hereinafter, the operation of each component of the moving picture predictive coding apparatus 100 will be described. A moving image signal composed of a plurality of images is input to the input terminal 101. With respect to the input image, the block divider 102 divides the image to be encoded into a plurality of regions. In this embodiment, for example, the block is divided into 8 × 8 pixels, but may be divided into other block sizes or shapes. Next, the signal generator 103 generates an approximate signal for a region to be encoded (hereinafter referred to as “target block”). In the present embodiment, the signal generator 103 generates an approximate signal at least one of inter-screen prediction and intra-screen prediction. The generation process will be described later.

信号生成器103で生成された近似信号は、減算器105に送られる。減算器105は、ラインL102経由で入力される対象ブロックの信号から、ラインL103経由で入力される近似信号を引き算することで残差信号を生成する。この残差信号は変換器106により離散コサイン変換され、変換後の各係数は量子化器107により量子化される。量子化された変換後の各係数は、エントロピー符号化器111により符号化され出力端子112より送出される。   The approximate signal generated by the signal generator 103 is sent to the subtractor 105. The subtractor 105 generates a residual signal by subtracting the approximate signal input via the line L103 from the signal of the target block input via the line L102. This residual signal is subjected to discrete cosine transform by the transformer 106, and each coefficient after the transformation is quantized by the quantizer 107. Each quantized coefficient after conversion is encoded by the entropy encoder 111 and transmitted from the output terminal 112.

一方、後続の対象ブロックについて画面間予測と画面内予測の少なくとも一方を行うために、量子化器107により量子化された変換後の各係数は、以下のように逆変換処理され復元される。すなわち、量子化された変換後の各係数は、逆量子化器108にて逆量子化された後、逆変換器109にて逆離散コサイン変換される。これにより、残差信号が復元される。復元された残差信号は、加算器110により、ラインL103から入力された予測信号と加算される。これにより、対象ブロックの信号が再生され、該再生された信号はフレームメモリ104に格納される。なお、本実施形態では、変換器106と逆変換器109を用いているが、これらの変換器に代わる他の変換処理を用いてもよい。場合によっては、動画像予測符号化装置100が変換器106と逆変換器109を備えずに、変換処理及び逆変換処理を実行しない態様を採用してもよい。   On the other hand, in order to perform at least one of inter-frame prediction and intra-screen prediction for the subsequent target block, each transformed coefficient quantized by the quantizer 107 is subjected to inverse transformation processing and restored as follows. That is, each quantized coefficient after transform is inversely quantized by the inverse quantizer 108 and then inverse discrete cosine transformed by the inverse transformer 109. Thereby, the residual signal is restored. The restored residual signal is added by the adder 110 to the prediction signal input from the line L103. As a result, the signal of the target block is reproduced, and the reproduced signal is stored in the frame memory 104. In this embodiment, the converter 106 and the inverse converter 109 are used. However, other conversion processes in place of these converters may be used. In some cases, the moving image predictive coding apparatus 100 may not include the converter 106 and the inverse transformer 109 and may adopt a mode in which the conversion process and the inverse conversion process are not performed.

次に、図2を用いて、動画像予測符号化装置100に設けられた信号生成器103の構成・動作について説明する。図2に示すように信号生成器103は、予測信号を生成する予測信号生成器201、近似パラメータを推定するパラメータ推定器202、及び、近似信号を生成する近似信号生成器203を備える。以下、信号生成器103の動作について、(1)画面間予測の場合、(2)画面内予測の場合の順に説明する。   Next, the configuration and operation of the signal generator 103 provided in the video predictive encoding device 100 will be described with reference to FIG. As shown in FIG. 2, the signal generator 103 includes a prediction signal generator 201 that generates a prediction signal, a parameter estimator 202 that estimates an approximate parameter, and an approximate signal generator 203 that generates an approximate signal. Hereinafter, operations of the signal generator 103 will be described in the order of (1) inter-screen prediction and (2) intra-screen prediction.

[(1)画面間予測の場合]
本実施形態の画面間予測では、信号生成器103に設けられた予測信号生成器201は、過去に符号化された後に復元された再生画像を参照画像として、該参照画像から、対象ブロックについての誤差の最も小さい予測信号を与える動き情報(「動きベクトル」ともいうが本明細書では「動き情報」を用いる。)を求める。具体的には、対象ブロックの画像信号はラインL102経由で、参照画像の画像信号はL104経由で、それぞれ予測信号生成器201に入力され、予測信号生成器201は、参照画像から、対象ブロックについての誤差の最も小さい予測信号(最適な予測信号)を与える動き情報を、ブロックマッチングの方法で検出する。なお、動き情報の検出の一例は、前述した特許文献1に記載されている。本実施形態では、過去に符号化された後に復元された1枚もしくは複数枚の画像を参照画像として用いるが、場合に応じて、対象ブロックを再分割し、再分割された小領域について画面間予測を行い、動き情報を求めてもよい。この場合、各種の分割方法の各々で、対象ブロックを再分割して画面間予測を行い動き情報を求めてみて、対象ブロック全体のトータルの誤差が最も小さくなる(対象ブロック全体に対し最も効率のよい)分割方法及び該分割方法で得られた動き情報を決定することが望ましい。
[(1) Inter-screen prediction]
In the inter-screen prediction of the present embodiment, the prediction signal generator 201 provided in the signal generator 103 uses a reconstructed image that has been encoded in the past as a reference image, and uses the reference image to calculate the target block. Motion information that gives a prediction signal with the smallest error (also referred to as “motion vector”, but “motion information” is used in this specification) is obtained. Specifically, the image signal of the target block is input to the prediction signal generator 201 via the line L102, and the image signal of the reference image is input to the prediction signal generator 201 via L104, and the prediction signal generator 201 extracts the target block from the reference image. The motion information that gives the prediction signal with the smallest error (the optimal prediction signal) is detected by the block matching method. An example of motion information detection is described in Patent Document 1 described above. In this embodiment, one or a plurality of images restored after being encoded in the past is used as a reference image. However, depending on the case, the target block is subdivided, and the subdivided subregions are Prediction may be performed to obtain motion information. In this case, in each of the various division methods, when the target block is subdivided and inter-frame prediction is performed to obtain motion information, the total error of the entire target block is minimized (the most efficient for the entire target block). (Good) It is desirable to determine the division method and the motion information obtained by the division method.

このように決定された動き情報は、ラインL112経由で図1のエントロピー符号化器111に送られ、エントロピー符号化器111により符号化され出力端子112から送出される。また、上記動き情報はラインL201経由でパラメータ推定器202に送られる。パラメータ推定器202は、予測信号生成器201にて決定された動き情報により与えられる最適な予測信号をさらに近似させるための近似パラメータを以下のようにして推定する。   The motion information determined in this way is sent to the entropy encoder 111 in FIG. 1 via the line L112, encoded by the entropy encoder 111, and sent from the output terminal 112. The motion information is sent to the parameter estimator 202 via the line L201. The parameter estimator 202 estimates an approximate parameter for further approximating the optimal prediction signal given by the motion information determined by the prediction signal generator 201 as follows.

図3を用いて、パラメータ推定器202の動作を説明する。図3に示す領域302は、現在の処理対象とする対象ブロック302である。対象画像301のうち、対象ブロック302を含まない領域304は既に符号化された後に復元された画素(以下「既再生画素」という)からなる領域であり、対象ブロック302を含む領域305は符号化及び復元が未だ行われていない画素からなる領域である。   The operation of the parameter estimator 202 will be described with reference to FIG. An area 302 illustrated in FIG. 3 is a target block 302 that is a current processing target. Of the target image 301, a region 304 that does not include the target block 302 is a region that includes pixels that have already been encoded and restored (hereinafter referred to as “reproduced pixels”), and a region 305 that includes the target block 302 is encoded. And an area composed of pixels that have not yet been restored.

パラメータ推定器202は、対象ブロック302の位置情報に基づいて、該対象ブロック302に隣接する画素群303を、ラインL104経由でフレームメモリ104から取得する。本実施形態では、画素群303を「対象隣接画素群303」とよび、対象ブロック302の上と左に隣接するN/2画素を含む逆「L」字の領域にある既再生画素から構成されている。ここでNは対象ブロック302の縦または横の画素数である。   The parameter estimator 202 acquires the pixel group 303 adjacent to the target block 302 from the frame memory 104 via the line L104 based on the position information of the target block 302. In the present embodiment, the pixel group 303 is referred to as a “target adjacent pixel group 303”, and is composed of already-reproduced pixels in an inverted “L” -shaped region including N / 2 pixels adjacent to the top and left of the target block 302. ing. Here, N is the number of vertical or horizontal pixels of the target block 302.

次に、パラメータ推定器202は、ラインL201経由で入力された動き情報に基づいて、参照画像306において該動き情報により与えられる最適予測信号307に隣接する画素群308を取得する。本実施形態では、動き情報によって予測信号307の左上端の画素が特定され、該左上端の画素から上と左にN/2画素を離れた逆「L」字の画素群308を取得する。この画素群308を「予測隣接画素群308」とよぶ。図3より明らかなように、予測信号307と予測隣接画素群308との位置関係は、対象ブロック302と対象隣接画素群303との位置関係に等しいことがわかる。なお、逆「L」字のほかに、対象画像301において対象ブロック302の上に位置するN×N個の画素からなるブロックを対象隣接画素群としてもよいし、対象ブロック302の左に位置するN×N個の画素からなるブロックを対象隣接画素群としてもよいし、さらに、対象ブロック302の上に位置するN×N個の画素からなるブロックと、対象ブロック302の左に位置するN×N個の画素からなるブロックの計2個のブロックを対象隣接画素群としてもよい。これらの場合、予測隣接画素群308は、対象隣接画素群303に対応させる必要がある。   Next, the parameter estimator 202 acquires a pixel group 308 adjacent to the optimal prediction signal 307 given by the motion information in the reference image 306 based on the motion information input via the line L201. In the present embodiment, the pixel at the upper left corner of the prediction signal 307 is specified by the motion information, and an inverted “L” pixel group 308 that is N / 2 pixels away from the upper left pixel upward and left is acquired. This pixel group 308 is referred to as a “predicted adjacent pixel group 308”. As can be seen from FIG. 3, the positional relationship between the prediction signal 307 and the predicted adjacent pixel group 308 is equal to the positional relationship between the target block 302 and the target adjacent pixel group 303. In addition to the inverted “L” shape, a block composed of N × N pixels positioned above the target block 302 in the target image 301 may be set as the target adjacent pixel group, or positioned to the left of the target block 302. A block composed of N × N pixels may be used as a target adjacent pixel group, and further, a block composed of N × N pixels located on the target block 302 and N × located on the left of the target block 302. A total of two blocks of N pixels may be used as the target adjacent pixel group. In these cases, the predicted adjacent pixel group 308 needs to correspond to the target adjacent pixel group 303.

さらに、パラメータ推定器202は、取得された対象隣接画素群303と予測隣接画素群308とを用いて近似パラメータを以下のように導出する。本実施形態では、以下の式(1)により、予測隣接画素群308を対象隣接画素群303の近似とする。

Figure 2008271422


ここで、x(i,j)は対象隣接画素群303にある(i,j)番目の画素であり、y(i,j)は予測隣接画素群308にある(i,j)番目の画素である。また、近似パラメータsとvを用いて予測隣接画素群308を変換する。これら近似パラメータsとvは最小2乗法で決定する。即ち、以下の式(2)に示す評価式の最小点を与えるsとvを求める。sとvはそれぞれ式(3)と式(4)に示すように対象隣接領域と予測隣接領域の全ての画素によって決定される。ここで、Mは対象隣接領域(または予測隣接領域)に含まれる画素の数である。
Figure 2008271422


なお、式(1)の代わりにそれ以外の近似式(例えば上記の式(5))を用いてもよい。式(5)を用いる場合、近似パラメータはa,b,cとなる。この場合、予測信号を湾曲させて近似することができる。 Further, the parameter estimator 202 uses the acquired target adjacent pixel group 303 and predicted adjacent pixel group 308 to derive approximate parameters as follows. In the present embodiment, the predicted adjacent pixel group 308 is approximated to the target adjacent pixel group 303 by the following equation (1).
Figure 2008271422


Here, x (i, j) is the (i, j) th pixel in the target adjacent pixel group 303, and y (i, j) is the (i, j) th pixel in the predicted adjacent pixel group 308. It is. Also, the predicted adjacent pixel group 308 is converted using the approximate parameters s and v. These approximate parameters s and v are determined by the least square method. That is, s and v giving the minimum point of the evaluation formula shown in the following formula (2) are obtained. s and v are determined by all the pixels in the target adjacent region and the predicted adjacent region as shown in Equation (3) and Equation (4), respectively. Here, M is the number of pixels included in the target adjacent region (or predicted adjacent region).
Figure 2008271422


Note that an approximate expression other than that (for example, the above expression (5)) may be used instead of the expression (1). When equation (5) is used, the approximate parameters are a, b, and c. In this case, the prediction signal can be approximated by curving.

このようにして求められた近似パラメータは、動き情報とともに、図2のラインL202経由で近似信号生成器203に送られる。近似信号生成器203は、近似パラメータを用いて近似信号を生成する。具体的には、近似信号生成器203は、ラインL202経由で送られた動き情報に基づいて、ラインL104経由でフレームメモリ104から、図3の予測信号307を取得する。この予測信号307の各画素を以下の式(6)のy(i,j)として、近似パラメータsとvを用いて式(6)に示すように予測信号を変換し、近似信号の各画素x(i,j)を得る。このように求めた近似信号は、ラインL103経由で図1の減算器105に送られる。

Figure 2008271422


なお、近似信号生成器203は、必ずしもフレームメモリ104から予測信号を取得する必要はなく、例えば予測信号生成器201により決定された最適な予測信号を予測信号生成器201から取得してもよい。本実施形態では、上記の近似パラメータsとvは、符号化されて蓄積又は送信されることはない。 The approximate parameter obtained in this way is sent to the approximate signal generator 203 via the line L202 in FIG. 2 together with the motion information. The approximate signal generator 203 generates an approximate signal using the approximate parameters. Specifically, the approximate signal generator 203 acquires the prediction signal 307 of FIG. 3 from the frame memory 104 via the line L104 based on the motion information sent via the line L202. Each pixel of the prediction signal 307 is converted into y * (i, j) in the following equation (6), and the prediction signal is converted as shown in equation (6) using the approximation parameters s and v. Pixel x * (i, j) is obtained. The approximate signal obtained in this way is sent to the subtracter 105 in FIG. 1 via the line L103.
Figure 2008271422


Note that the approximate signal generator 203 does not necessarily need to acquire a prediction signal from the frame memory 104. For example, an optimal prediction signal determined by the prediction signal generator 201 may be acquired from the prediction signal generator 201. In the present embodiment, the approximate parameters s and v are not encoded and stored or transmitted.

図4は、信号生成器103により実行される、近似信号を生成するための画面間予測処理の流れ図を示す。図4のステップ411では、予測信号生成器201は、前述したようにブロックマッチングの方法で対象ブロックに対する最適な予測信号を求める。これにより、最適な予測信号のアドレスを示す動き情報が決定され、パラメータ推定器202に入力される。ステップ412では、パラメータ推定器202は、対象ブロックに隣接する対象隣接画素群の画素を取得する。対象隣接画素群としては、例えば図3に示す対象隣接画素群303が用いられる。ステップ413では、パラメータ推定器202は、ステップ411にて決定された動き情報によって特定される予測信号、に隣接する図3の予測隣接画素群308を取得する。   FIG. 4 shows a flowchart of inter-screen prediction processing for generating an approximate signal, which is executed by the signal generator 103. In step 411 of FIG. 4, the prediction signal generator 201 obtains an optimal prediction signal for the target block by the block matching method as described above. Thereby, motion information indicating the address of the optimal prediction signal is determined and input to the parameter estimator 202. In step 412, the parameter estimator 202 obtains pixels of the target adjacent pixel group adjacent to the target block. As the target adjacent pixel group, for example, the target adjacent pixel group 303 shown in FIG. 3 is used. In step 413, the parameter estimator 202 acquires the prediction adjacent pixel group 308 of FIG. 3 adjacent to the prediction signal specified by the motion information determined in step 411.

次に、パラメータ推定器202は、対象隣接画素群と予測隣接画素群とを用いて近似パラメータを求める(ステップ414)。具体的には、上記式(2)の最小値を与える式(3)と式(4)を用いて、近似パラメータsとvを求める。求められた近似パラメータsとvは、動き情報とともに、近似信号生成器203に入力される。   Next, the parameter estimator 202 obtains an approximate parameter using the target adjacent pixel group and the predicted adjacent pixel group (step 414). More specifically, approximate parameters s and v are obtained using equations (3) and (4) that give the minimum value of equation (2). The obtained approximate parameters s and v are input to the approximate signal generator 203 together with the motion information.

そして、ステップ415では、近似信号生成器203は、近似パラメータsとvを用いて、動き情報によって特定される図3の予測信号307を式(6)のように変換し、近似信号x(i,j)を算出する。最後に、近似信号生成器203は、算出された近似信号を減算器105に送出する(ステップ416)。以上の図4の処理は、符号化対象の画像にある対象ブロックの全部について実行してもよいし、符号化対象の画像にある対象ブロックの一部について実行してもよい。 In step 415, the approximate signal generator 203 uses the approximate parameters s and v to convert the prediction signal 307 of FIG. 3 specified by the motion information as shown in Expression (6), and approximate signal x * ( i, j) is calculated. Finally, the approximate signal generator 203 sends the calculated approximate signal to the subtractor 105 (step 416). The above processing of FIG. 4 may be executed for all the target blocks in the encoding target image, or may be executed for a part of the target blocks in the encoding target image.

[(2)画面内予測の場合]
次に、本実施形態の画面内予測の場合について説明する。画面内予測では、信号生成器103に設けられた予測信号生成器201は、対象ブロックに空間的に隣接する既再生の画素値を用いて画面内予測信号を生成する。予測信号生成器201は、フレームメモリ104から、対象ブロックと同じ画面内にある既再生の画素信号を取得し、例えば図5(A)〜図5(I)に示す9通りの方法で画面内の予測信号を生成し、生成された9通りの予測信号の中から対象ブロックに最も近い(誤差の少ない)予測信号を決定し、該最も近い予測信号(最適な予測信号)を生成するための補間方法を上記9通りの方法の中から決定する。
[(2) In-screen prediction]
Next, the case of intra prediction according to the present embodiment will be described. In the intra prediction, the prediction signal generator 201 provided in the signal generator 103 generates an intra prediction signal using already reproduced pixel values spatially adjacent to the target block. The prediction signal generator 201 acquires the already-reproduced pixel signal in the same screen as the target block from the frame memory 104, and uses the nine methods shown in FIGS. 5 (A) to 5 (I) for example. The prediction signal is generated, the prediction signal closest to the target block (with a small error) is determined from the generated nine prediction signals, and the closest prediction signal (optimal prediction signal) is generated. The interpolation method is determined from the above nine methods.

なお、図5(A)〜図5(I)は、画面内予測で予測信号を生成する具体的な方法を示す模式図であり、該具体的な方法は例えば前述した特許文献2に記載されている。図5(A)〜図5(I)のうち、例えば図5(A)では、ブロック502は対象ブロックを示し、その対象ブロック502の境界に隣接する画素A〜Mからなる画素群501は、過去の処理において既に再生された画像信号(既再生の画像信号)である。この図5(A)では、対象ブロック502の各列に下向きの矢印が示されているように、対象ブロック502における最も左側の列の4つの画素の画像信号は全て、真上にある画素Aの画像信号と同じとする。対象ブロック502における他の列についても同様に、それぞれの真上にある画素B〜Dの画像信号と同じとする。このようにして対象ブロック502についての予測信号を生成する。また、図5(B)では、対象ブロック504の各列に右向きの矢印が示されているように、対象ブロック504における最も上の行の4つの画素の画像信号は全て、当該行の左にある画素Iの画像信号と同じとする。対象ブロック504における他の行についても同様に、それぞれの左にある画素J〜Lの画像信号と同じとする。このようにして対象ブロック504についての予測信号を生成する。また、図5(C)では、対象ブロック506の各画素の画像信号は全て、計8つの画素A〜D、I〜Lの画像信号の平均値とすることで、対象ブロック506についての予測信号を生成する。その他の図5(D)〜図5(I)では、各図内の矢印に沿った方向に位置する複数の画素の既再生画像信号に対し、該矢印に相関した所定の加重平均演算式による加重平均演算を行うことで、対象ブロックの各画素の画像信号を求め、対象ブロックについての予測信号を生成する。   FIGS. 5A to 5I are schematic diagrams showing a specific method for generating a prediction signal by intra prediction, and the specific method is described in, for example, Patent Document 2 described above. ing. 5A to 5I, for example, in FIG. 5A, a block 502 indicates a target block, and a pixel group 501 including pixels A to M adjacent to the boundary of the target block 502 is It is an image signal that has already been reproduced in the past processing (an already reproduced image signal). In FIG. 5A, all the image signals of the four pixels in the leftmost column in the target block 502 are all directly above the pixel A, as indicated by a downward arrow in each column of the target block 502. It is the same as the image signal. Similarly, the other columns in the target block 502 are assumed to be the same as the image signals of the pixels B to D immediately above the respective columns. In this way, a prediction signal for the target block 502 is generated. In FIG. 5B, all the image signals of the four pixels in the uppermost row in the target block 504 are placed to the left of the row, as indicated by a right-pointing arrow in each column of the target block 504. The same as the image signal of a certain pixel I. Similarly, the other rows in the target block 504 are the same as the image signals of the pixels J to L on the left side. In this way, a prediction signal for the target block 504 is generated. Further, in FIG. 5C, the image signal of each pixel of the target block 506 is the average value of the image signals of a total of eight pixels A to D and I to L, so that the prediction signal for the target block 506 is obtained. Is generated. In other FIGS. 5 (D) to 5 (I), a predetermined weighted average arithmetic expression correlated with the arrows is used for the already reproduced image signals of a plurality of pixels located in the directions along the arrows in each drawing. By performing a weighted average calculation, an image signal of each pixel of the target block is obtained, and a prediction signal for the target block is generated.

このように図5(A)〜図5(I)に示す方法で生成された9通りの予測信号のそれぞれについて、対象ブロックの画素信号との差分を算出し、該差分が最も小さい予測信号を最適な予測信号として決定し、該最適な予測信号を求める際に用いた方法を最適な補間方法として決定する。   Thus, for each of the nine prediction signals generated by the method shown in FIGS. 5A to 5I, the difference from the pixel signal of the target block is calculated, and the prediction signal having the smallest difference is calculated. The optimum prediction signal is determined, and the method used for obtaining the optimum prediction signal is determined as the optimum interpolation method.

このようにして決定された補間方法に関する情報は、ラインL112経由で図1のエントロピー符号化器111に送られ、エントロピー符号化器111により符号化された上で出力端子112から出力される。また、上記補間方法に関する情報は、ラインL201経由でパラメータ推定器202に送られ、パラメータ推定器202は、以下のようにして、予測信号生成器201にて決定された最適な予測信号をさらに近似させるための近似パラメータを推定する。   Information regarding the interpolation method determined in this way is sent to the entropy encoder 111 in FIG. 1 via the line L112, encoded by the entropy encoder 111, and then output from the output terminal 112. Further, the information on the interpolation method is sent to the parameter estimator 202 via the line L201, and the parameter estimator 202 further approximates the optimum prediction signal determined by the prediction signal generator 201 as follows. Estimate approximate parameters for

図6を用いてパラメータ推定器202の動作を説明する。ブロック601は現在の処理対象とする対象ブロックである。パラメータ推定器202は、対象ブロック601の位置情報に基づいて、該対象ブロック601に隣接する画素群602をラインL104経由でフレームメモリ104から取得する。本実施形態では、対象ブロック601に隣接する画素群602を「対象隣接画素群602」とよび、対象隣接画素群602は、対象ブロック601の上と左に隣接するN/2画素を含む逆「L」字の領域にある既再生画素から構成されている。ここでNは対象ブロック601の縦または横の画素数である。   The operation of the parameter estimator 202 will be described with reference to FIG. A block 601 is a target block that is a current processing target. The parameter estimator 202 acquires the pixel group 602 adjacent to the target block 601 from the frame memory 104 via the line L104 based on the position information of the target block 601. In the present embodiment, the pixel group 602 adjacent to the target block 601 is referred to as a “target adjacent pixel group 602”, and the target adjacent pixel group 602 includes an N / 2 pixel adjacent to the top and left of the target block 601. It consists of already reproduced pixels in the “L” -shaped region. Here, N is the number of vertical or horizontal pixels of the target block 601.

次に、パラメータ推定器202は、ラインL201経由で入力された補間方法に関する情報によって指定される補間方法で、対象隣接画素群602に隣接する画素603〜621を用いて、対象隣接画素群602に対応する補間信号を生成する。生成された補間信号は対象隣接画素群602と同じ形状をもち、同じ数の画素から構成される。この生成された補間信号は、画面内予測の場合の「予測隣接画素群」である。なお、上記の逆「L」字のほかに、対象ブロック601の上に位置するN×N個の画素からなるブロックを対象隣接画素群としてもよいし、対象ブロック601の左に位置するN×N個の画素からなるブロックを対象隣接画素群としてもよいし、さらに、対象ブロック601の上に位置するN×N個の画素からなるブロックと、対象ブロック601の左に位置するN×N個の画素からなるブロックの計2個のブロックを対象隣接画素群としてもよい。これらの場合、予測隣接画素群は、対象隣接画素群に対応させる必要がある。   Next, the parameter estimator 202 uses the pixels 603 to 621 adjacent to the target adjacent pixel group 602 in the interpolation method specified by the information regarding the interpolation method input via the line L201, and sets the target adjacent pixel group 602. A corresponding interpolation signal is generated. The generated interpolation signal has the same shape as the target adjacent pixel group 602 and is composed of the same number of pixels. The generated interpolation signal is a “predicted adjacent pixel group” in the case of intra prediction. In addition to the above inverted “L” character, a block composed of N × N pixels positioned on the target block 601 may be used as a target adjacent pixel group, or N × positioned on the left of the target block 601. A block composed of N pixels may be set as a target adjacent pixel group, and further, a block composed of N × N pixels positioned on the target block 601 and N × N pixels positioned on the left of the target block 601. A total of two blocks of blocks composed of the pixels may be set as the target adjacent pixel group. In these cases, the predicted adjacent pixel group needs to correspond to the target adjacent pixel group.

次に、パラメータ推定器202は、対象隣接画素群602と上記のように補間により生成した予測隣接画素群とを用いて近似パラメータを以下のように導出する。本実施形態では、前述した式(1)により、予測隣接画素群を対象隣接画素群602の近似とする。   Next, the parameter estimator 202 derives approximate parameters using the target adjacent pixel group 602 and the predicted adjacent pixel group generated by interpolation as described above as follows. In the present embodiment, the predicted adjacent pixel group is approximated to the target adjacent pixel group 602 by the above-described equation (1).

式(1)でのx(i,j)は対象隣接画素群602にある(i,j)番目の画素であり、y(i,j)は予測隣接画素群にある(i,j)番目の画素である。sとvは近似パラメータであり、これら近似パラメータsとvは、前述した式(2)に示す評価式の最小点を与えるsとvを算出することで求める。なお、式(1)の代わりにそれ以外の近似式(例えば前述した式(5))を用いてもよい。式(5)を用いる場合、近似パラメータはa,b,cとなる。この場合、予測信号を湾曲させて近似することができる。   In equation (1), x (i, j) is the (i, j) th pixel in the target adjacent pixel group 602, and y (i, j) is the (i, j) th in the predicted adjacent pixel group. Pixels. s and v are approximate parameters, and these approximate parameters s and v are obtained by calculating s and v that give the minimum point of the evaluation formula shown in the above-described formula (2). Instead of the formula (1), another approximate formula (for example, the formula (5) described above) may be used. When equation (5) is used, the approximate parameters are a, b, and c. In this case, the prediction signal can be approximated by curving.

このようにして求めた近似パラメータは、補間方法に関する情報とともに、図2のラインL202経由で近似信号生成器203に送られる。近似信号生成器203は、近似パラメータを用いて近似信号を生成する。具体的には、近似信号生成器203は、ラインL104経由でフレームメモリ104から、対象ブロックに隣接する画素(図5の画素A〜M)を取得し、ラインL202経由で入力された補間方法に関する情報に基づいて、予測信号を生成する。この予測信号の各画素を前述した式(6)のy(i,j)として、近似パラメータsとvを用いて式(6)に示すように予測信号を変換し、近似信号の各画素x(i,j)を得る。このように求めた近似信号は、ラインL103経由で図1の減算器105に送られる。 The approximate parameter obtained in this way is sent to the approximate signal generator 203 via the line L202 in FIG. 2 together with information on the interpolation method. The approximate signal generator 203 generates an approximate signal using the approximate parameters. Specifically, the approximate signal generator 203 obtains pixels (pixels A to M in FIG. 5) adjacent to the target block from the frame memory 104 via the line L104, and relates to an interpolation method input via the line L202. A prediction signal is generated based on the information. Each pixel of this prediction signal is converted into y * (i, j) in the above-described equation (6), and the prediction signal is converted as shown in equation (6) using the approximation parameters s and v. x * (i, j) is obtained. The approximate signal obtained in this way is sent to the subtracter 105 in FIG. 1 via the line L103.

なお、近似信号生成器203は、必ずしも予測信号を生成する必要はなく、例えば予測信号生成器201により決定された最適な予測信号を予測信号生成器201から取得してもよい。本実施形態では、上記の近似パラメータsとvは、符号化されて蓄積又は送信されることはない。   Note that the approximate signal generator 203 is not necessarily required to generate a prediction signal. For example, an optimal prediction signal determined by the prediction signal generator 201 may be acquired from the prediction signal generator 201. In the present embodiment, the approximate parameters s and v are not encoded and stored or transmitted.

図7は、信号生成器103により実行される、近似信号を生成するための画面内予測処理の流れ図を示す。図7のステップ711では、予測信号生成器201は、前述したように図5(A)〜図5(I)に示す9通りの方法の中から、周辺画素を用いて対象ブロックについての最適な予測信号を決定し、該最適な予測信号を求めることができる補間方法(即ち、最適な補間方法)を決定する。これにより、最適な補間方法が決定され、該補間方法に関する情報はパラメータ推定器202に入力される。ステップ712では、パラメータ推定器202は、対象ブロックに隣接する対象隣接画素群の画素を取得する。対象隣接画素群としては、例えば図6に示す対象隣接画素群602が用いられる。ステップ713では、パラメータ推定器202は、ステップ711にて決定された補間方法に従って、対象隣接画素群の周辺画素(図6の画素603〜621)を用いて対象隣接画素群602に対応する予測隣接画素群の補間信号を生成する。   FIG. 7 shows a flowchart of the intra-screen prediction process for generating an approximate signal, which is executed by the signal generator 103. In step 711 of FIG. 7, the prediction signal generator 201 uses the neighboring pixels to select the optimum for the target block from among the nine methods shown in FIGS. 5A to 5I as described above. A prediction signal is determined, and an interpolation method (that is, an optimal interpolation method) capable of obtaining the optimal prediction signal is determined. Thereby, an optimal interpolation method is determined, and information regarding the interpolation method is input to the parameter estimator 202. In step 712, the parameter estimator 202 obtains pixels of the target adjacent pixel group adjacent to the target block. As the target adjacent pixel group, for example, a target adjacent pixel group 602 shown in FIG. 6 is used. In step 713, the parameter estimator 202 uses the neighboring pixels (pixels 603 to 621 in FIG. 6) of the target adjacent pixel group according to the interpolation method determined in step 711, and predictive adjacent corresponding to the target adjacent pixel group 602. An interpolation signal for a pixel group is generated.

次に、パラメータ推定器202は、対象隣接画素群と予測隣接画素群とを用いて近似パラメータを求める(ステップ714)。具体的には、前述した式(2)の最小値を与える式(3)と式(4)を用いて、近似パラメータsとvを求める。求められた近似パラメータsとvは、ステップ711にて決定された補間方法に関する情報とともに、近似信号生成器203に入力される。   Next, the parameter estimator 202 obtains an approximate parameter using the target adjacent pixel group and the predicted adjacent pixel group (step 714). Specifically, the approximation parameters s and v are obtained using Equation (3) and Equation (4) that give the minimum value of Equation (2) described above. The obtained approximate parameters s and v are input to the approximate signal generator 203 together with information on the interpolation method determined in step 711.

そして、ステップ715では、近似信号生成器203は、近似パラメータを用いて近似信号を生成する。具体的には、近似信号生成器203は、ラインL104経由でフレームメモリ104から、対象ブロックに隣接する画素(図5の画素A〜M)を取得し、ラインL202経由で入力された補間方法に関する情報に基づいて、予測信号を生成する。さらに近似信号生成器203は、近似パラメータsとvを用いて、上記予測信号を、前述した式(6)により変換し、近似信号x(i,j)を算出する。最後に、近似信号生成器203は、算出された近似信号を減算器105に送出する(ステップ716)。以上の図7の処理は、符号化対象の画像にある対象ブロックの全部について実行してもよいし、符号化対象の画像にある対象ブロックの一部について実行してもよい。 In step 715, the approximate signal generator 203 generates an approximate signal using the approximate parameter. Specifically, the approximate signal generator 203 obtains pixels (pixels A to M in FIG. 5) adjacent to the target block from the frame memory 104 via the line L104, and relates to an interpolation method input via the line L202. A prediction signal is generated based on the information. Further, the approximate signal generator 203 uses the approximate parameters s and v to convert the predicted signal according to the above-described equation (6), and calculates an approximate signal x * (i, j). Finally, the approximate signal generator 203 sends the calculated approximate signal to the subtractor 105 (step 716). The above processing of FIG. 7 may be executed for all the target blocks in the encoding target image, or may be executed for a part of the target blocks in the encoding target image.

[信号生成器の別の形態]
図8は、本実施形態に係る信号生成器103の別の形態を示すブロック図である。この図8に示す信号生成器103には、図1のラインL102とラインL112が接続されていない。それ以外の構成については、図8の信号生成器103は図2の信号生成器と同じである。なお、動画像予測符号化装置に図8の信号生成器と図2の信号生成器の両方を設け、これらの信号生成器を切り替えて動作させる構成としてもよい。以下、図8に示す信号生成器103の動作を述べる。
[Another form of signal generator]
FIG. 8 is a block diagram showing another form of the signal generator 103 according to the present embodiment. The signal generator 103 shown in FIG. 8 is not connected to the line L102 and the line L112 shown in FIG. For other configurations, the signal generator 103 of FIG. 8 is the same as the signal generator of FIG. Note that the moving picture predictive encoding apparatus may be configured to include both the signal generator of FIG. 8 and the signal generator of FIG. 2 and switch these signal generators to operate. Hereinafter, the operation of the signal generator 103 shown in FIG. 8 will be described.

信号生成器103に設けられた予測信号生成器801は、対象ブロックについての最適な予測信号を生成する。再び図3を用いて予測信号生成器801の処理を説明する。現在の処理対象となる対象ブロック302は、システム全体の制御部(不図示)によって管理されている位置情報によって特定される。予測信号生成器801は、対象ブロック302の位置情報に基づいて、該対象ブロック302に隣接する画素群303を、ラインL104経由でフレームメモリ104から取得する。本実施形態では、画素群303を「対象隣接画素群303」とよび、この対象隣接画素群は、対象ブロック302の上と左に隣接するN/2画素を含む逆「L」字の領域にある既再生された画素から構成されている。ここでNは対象ブロック302の縦または横の画素数である。   A prediction signal generator 801 provided in the signal generator 103 generates an optimal prediction signal for the target block. The process of the prediction signal generator 801 will be described using FIG. 3 again. The target block 302 that is the current processing target is specified by position information managed by a control unit (not shown) of the entire system. The prediction signal generator 801 acquires a pixel group 303 adjacent to the target block 302 from the frame memory 104 via the line L104 based on the position information of the target block 302. In the present embodiment, the pixel group 303 is referred to as a “target adjacent pixel group 303”, and this target adjacent pixel group is an inverted “L” -shaped region including N / 2 pixels adjacent to the top and left of the target block 302. It is composed of some already reproduced pixels. Here, N is the number of vertical or horizontal pixels of the target block 302.

次に、予測信号生成器801は、対象画像301とは異なる参照画像306にある参照領域309の範囲内で、対象隣接画素群303との間で最も誤差の少ない画素群を求める。具体的には、予測信号生成器801は、参照領域309の範囲内にある画素群を一画素ずつ、ずらしながら、該画素群と対象隣接画素群303とのマッチングをとり、画素群同士の差分の絶対値の和が最も小さいものを見つけ、該差分の絶対値の和が最も小さくなる画素群を対象隣接画素群303についての予測信号とする。この予測信号を「予測隣接画素群」とよぶ。図3では画素群308を、対象隣接画素群303についての予測隣接画素群308として取得する。そして、予測信号生成器801は、対象隣接画素群303と対象ブロック302の位置関係と同じ位置関係にある、予測隣接画素群308に対応した領域307の画素信号を、対象ブロック302についての予測信号307として取得する。このようなマッチング方法はテンプレートマッチングと呼ぶ。上記のように逆「L」字の対象隣接画素群を用いたマッチングを行うことにより、対象ブロックについての予測信号を特定することができる。そのため、予測信号を特定するための動き情報を符号化する必要がない。   Next, the prediction signal generator 801 obtains a pixel group having the smallest error with respect to the target adjacent pixel group 303 within the range of the reference region 309 in the reference image 306 different from the target image 301. Specifically, the prediction signal generator 801 performs matching between the pixel group and the target adjacent pixel group 303 while shifting the pixel group within the range of the reference region 309 by one pixel, and the difference between the pixel groups. A pixel group having the smallest absolute value sum is found, and a pixel group having the smallest sum of absolute values of the differences is used as a prediction signal for the target adjacent pixel group 303. This prediction signal is called a “predicted adjacent pixel group”. In FIG. 3, the pixel group 308 is acquired as the predicted adjacent pixel group 308 for the target adjacent pixel group 303. Then, the prediction signal generator 801 uses the pixel signal of the region 307 corresponding to the prediction adjacent pixel group 308 that has the same positional relationship as the positional relationship between the target adjacent pixel group 303 and the target block 302 as a prediction signal for the target block 302. Acquired as 307. Such a matching method is called template matching. As described above, the prediction signal for the target block can be identified by performing the matching using the inverted “L” target adjacent pixel group. Therefore, it is not necessary to encode motion information for specifying a prediction signal.

次に、パラメータ推定器802は、上記のように取得した対象隣接画素群303と予測隣接画素群308とを用いて、前述した方法で近似パラメータを導出する。導出した近似パラメータは近似信号生成器803に送られ、近似信号生成器803は、前述した方法で近似パラメータを用いて予測信号307を変換することで、対象ブロック302についての近似信号を生成する。生成された近似信号は、ラインL103経由で図1の減算器105に送られる。   Next, the parameter estimator 802 uses the target adjacent pixel group 303 and the predicted adjacent pixel group 308 acquired as described above to derive approximate parameters by the method described above. The derived approximate parameter is sent to the approximate signal generator 803, and the approximate signal generator 803 generates an approximate signal for the target block 302 by converting the prediction signal 307 using the approximate parameter by the method described above. The generated approximate signal is sent to the subtracter 105 in FIG. 1 via the line L103.

なお、上記の方法では、対象画像301とは異なる参照画像306を参照領域としたが、対象画像301にある既再生画素からなる領域304又は該領域304の一部を参照領域とし、上記と同様にマッチング処理を行うことにより画面内予測を実現することができる。この場合、受信側でも、同じマッチング処理を行うことにより対象ブロックについての予測信号を特定することができる。そのため、動画像予測符号化装置において、予測信号を生成するための補間方法に関する情報を符号化し送信する必要がない。   In the above method, the reference image 306 different from the target image 301 is used as the reference region. However, the region 304 including the already reproduced pixels in the target image 301 or a part of the region 304 is used as the reference region, and the same as above. In-screen prediction can be realized by performing a matching process. In this case, the receiving side can identify the prediction signal for the target block by performing the same matching process. Therefore, it is not necessary to encode and transmit information related to the interpolation method for generating the prediction signal in the moving image predictive encoding device.

図9は、図8に示した実施形態による近似信号を生成するための予測処理の流れ図である。図9のステップ911では、予測信号生成器801は、対象ブロック302の位置情報に基づいて、該対象ブロック302に隣接する対象隣接画素群303を、ラインL104経由でフレームメモリ104から取得し、前述したテンプレートマッチングの方法で、対象隣接画素群303との間で最も誤差の少ない予測隣接画素群308を参照領域から取得する。次のステップ912で予測信号生成器801は、対象隣接画素群303と対象ブロック302の位置関係と同じ位置関係にある、予測隣接画素群308に対応した領域307の画素信号を、対象ブロック302についての予測信号307として取得する。   FIG. 9 is a flowchart of a prediction process for generating an approximate signal according to the embodiment shown in FIG. In step 911 in FIG. 9, the prediction signal generator 801 obtains the target adjacent pixel group 303 adjacent to the target block 302 from the frame memory 104 via the line L104 based on the position information of the target block 302. The predicted neighboring pixel group 308 having the smallest error with the target neighboring pixel group 303 is acquired from the reference region by the template matching method. In the next step 912, the prediction signal generator 801 outputs the pixel signal of the region 307 corresponding to the prediction adjacent pixel group 308, which has the same positional relationship as that of the target adjacent pixel group 303 and the target block 302, for the target block 302. Obtained as a predicted signal 307.

次にステップ913では、パラメータ推定器802は、上記のように取得した対象隣接画素群303と予測隣接画素群308とを用いて、前述した方法で近似パラメータを求める。具体的には、前述した式(2)の最小値を与える式(3)と式(4)を用いて、近似パラメータsとvを求める。   Next, in step 913, the parameter estimator 802 obtains an approximate parameter by the method described above using the target adjacent pixel group 303 and the predicted adjacent pixel group 308 acquired as described above. Specifically, the approximation parameters s and v are obtained using Equation (3) and Equation (4) that give the minimum value of Equation (2) described above.

求められた近似パラメータsとvは近似信号生成器803に送られ、近似信号生成器803は、前述した方法で近似パラメータsとvを用いて予測信号を式(6)のように変換することで、対象ブロック302についての近似信号x(i,j)を生成する(ステップ914)。最後に、近似信号生成器803は、生成した近似信号を図1の減算器105に出力する(ステップ915)。 The obtained approximate parameters s and v are sent to the approximate signal generator 803, and the approximate signal generator 803 converts the prediction signal as shown in Expression (6) using the approximate parameters s and v by the method described above. Thus, the approximate signal x * (i, j) for the target block 302 is generated (step 914). Finally, the approximate signal generator 803 outputs the generated approximate signal to the subtractor 105 in FIG. 1 (step 915).

なお、以上の図9の処理は、符号化対象の画像にある対象ブロックの全部について実行してもよいし、符号化対象の画像にある対象ブロックの一部について実行してもよい。また、ステップ914で変換される予測信号は、近似信号生成器803が生成したものでもよいし、ステップ912で予測信号生成器801により生成され近似信号生成器803に送られたものでもよい。   9 may be executed for all the target blocks in the encoding target image or may be executed for a part of the target blocks in the encoding target image. Further, the prediction signal converted in step 914 may be generated by the approximate signal generator 803 or may be generated by the prediction signal generator 801 in step 912 and sent to the approximate signal generator 803.

[動画像予測復号装置について]
次に、本実施形態に係る動画像予測復号装置について説明する。図10は、本実施形態に係る動画像予測復号装置1000のブロック図を示す。図10に示すように、動画像予測復号装置1000は、入力端子1001、データ解析器1002、逆量子化器1003、逆変換器1004、加算器1005、信号生成器1008、フレームメモリ1007、及び、出力端子1006を備えている。
[About video predictive decoding apparatus]
Next, the video predictive decoding device according to the present embodiment will be described. FIG. 10 is a block diagram of the video predictive decoding device 1000 according to this embodiment. As shown in FIG. 10, the moving picture predictive decoding apparatus 1000 includes an input terminal 1001, a data analyzer 1002, an inverse quantizer 1003, an inverse transformer 1004, an adder 1005, a signal generator 1008, a frame memory 1007, and An output terminal 1006 is provided.

[動画像予測復号装置における動作概要]
このような動画像予測復号装置1000について、以下、各構成部の動作を述べる。上述した図1の動画像予測符号化装置100により圧縮符号化された圧縮データは入力端子1001から入力される。この圧縮データには、符号化された残差信号、量子化パラメータ、及び、近似信号の生成に関連する情報が含まれている。近似信号の生成に関連する情報としては、前述した画面間予測のための動き情報、及び画面内予測のための補間方法に関する情報の少なくとも一方が含まれる。なお、テンプレートマッチングにより近似信号を生成する場合には、近似信号の生成に関連する情報は含まれない。
[Outline of operation in moving picture predictive decoding apparatus]
Hereinafter, the operation of each component of the moving picture predictive decoding apparatus 1000 will be described. The compressed data that has been compression-encoded by the moving picture predictive encoding apparatus 100 in FIG. 1 described above is input from the input terminal 1001. The compressed data includes information related to the generation of the encoded residual signal, the quantization parameter, and the approximate signal. Information related to the generation of the approximate signal includes at least one of the above-described motion information for inter-screen prediction and information related to an interpolation method for intra-screen prediction. Note that when an approximate signal is generated by template matching, information related to the generation of the approximate signal is not included.

データ解析器1002は、圧縮データより、対象ブロックの残差信号、近似信号の生成に関連する情報、量子化パラメータを抽出する。このうち対象ブロックの残差信号と量子化パラメータはラインL1002経由で逆量子化器1003に送られ、逆量子化器1003は量子化パラメータをもとに対象ブロックの残差信号を逆量子化する。逆量子化後の残差信号はラインL1003経由で逆変換器1004に送られ、逆変換器1004は該逆量子化後の残差信号を逆離散コサイン変換する。これにより残差信号は復元され、復元された残差信号はラインL1004経由で加算器1005に送られる。   The data analyzer 1002 extracts the residual signal of the target block, information related to generation of the approximate signal, and the quantization parameter from the compressed data. Among these, the residual signal and quantization parameter of the target block are sent to the inverse quantizer 1003 via the line L1002, and the inverse quantizer 1003 inversely quantizes the residual signal of the target block based on the quantization parameter. . The residual signal after inverse quantization is sent to an inverse transformer 1004 via a line L1003, and the inverse transformer 1004 performs inverse discrete cosine transform on the residual signal after inverse quantization. As a result, the residual signal is restored, and the restored residual signal is sent to the adder 1005 via the line L1004.

一方、近似信号の生成に関連する情報はラインL1002b経由で信号生成器1008に送られ、信号生成器1008は、近似信号の生成に関連する情報をもとに、ラインL1007経由でフレームメモリ1007から参照信号を取得し、後述する方法で近似信号を生成する。この近似信号はラインL1008経由で加算器1005に送られ、加算器1005は上記復元された残差信号と近似信号とを加算することで対象ブロック信号を再生する。再生された対象ブロック信号は、ラインL1005経由で、出力端子1006から外部へ出力されるとともにフレームメモリ1007に格納される。   On the other hand, information related to the generation of the approximate signal is sent to the signal generator 1008 via the line L1002b, and the signal generator 1008 receives the information related to the generation of the approximate signal from the frame memory 1007 via the line L1007. A reference signal is acquired, and an approximate signal is generated by a method described later. This approximate signal is sent to the adder 1005 via the line L1008, and the adder 1005 adds the restored residual signal and the approximate signal to reproduce the target block signal. The reproduced target block signal is output to the outside from the output terminal 1006 via the line L1005 and stored in the frame memory 1007.

次に、図11を用いて、動画像予測復号装置1000に設けられた信号生成器1008の構成・動作について説明する。図11に示すように信号生成器1008は、近似パラメータを推定するパラメータ推定器1101、及び、近似信号を生成する近似信号生成器1102を備える。以下、信号生成器1008の動作について、(1)画面間予測の場合、(2)画面内予測の場合の順に説明する。   Next, the configuration and operation of the signal generator 1008 provided in the video predictive decoding apparatus 1000 will be described with reference to FIG. As shown in FIG. 11, the signal generator 1008 includes a parameter estimator 1101 that estimates an approximate parameter, and an approximate signal generator 1102 that generates an approximate signal. Hereinafter, the operation of the signal generator 1008 will be described in the order of (1) inter-screen prediction and (2) intra-screen prediction.

[(1)画面間予測の場合]
本実施形態の画面間予測では、信号生成器1008に設けられたパラメータ推定器1101は、予測信号を変換するための近似パラメータを以下のようにして推定する。具体的には、パラメータ推定器1101は、現在の復号対象となる対象ブロックの位置情報に基づいて、該対象ブロックに隣接する画素群をラインL1007経由でフレームメモリ1007から取得する。対象ブロックの位置情報は、システム全体の制御部(不図示)によって管理されている。本実施形態では、対象ブロックに隣接する画素群を「対象隣接画素群」とよび、図3では対象隣接画素群303が該当する。
[(1) Inter-screen prediction]
In the inter-screen prediction of the present embodiment, the parameter estimator 1101 provided in the signal generator 1008 estimates an approximate parameter for converting the prediction signal as follows. Specifically, the parameter estimator 1101 acquires a pixel group adjacent to the target block from the frame memory 1007 via the line L1007 based on the current position information of the target block to be decoded. The position information of the target block is managed by a control unit (not shown) of the entire system. In this embodiment, a pixel group adjacent to the target block is referred to as a “target adjacent pixel group”, and the target adjacent pixel group 303 corresponds to FIG.

次に、パラメータ推定器1101は、参照画像からラインL1002b経由で送られた動き情報によって特定される予測信号に隣接する画素群を取得する。この画素群を「予測隣接画素群」とよぶ。予測隣接画素群と予測信号との位置関係は、対象隣接画素群と対象ブロックとの位置関係と同じである。   Next, the parameter estimator 1101 acquires a pixel group adjacent to the prediction signal specified by the motion information sent from the reference image via the line L1002b. This pixel group is called a “predicted adjacent pixel group”. The positional relationship between the predicted adjacent pixel group and the predicted signal is the same as the positional relationship between the target adjacent pixel group and the target block.

そして、パラメータ推定器1101は、取得した対象隣接画素群x(i,j)と予測隣接画素群y(i,j)とを用いて近似パラメータを導出する。本実施形態では、前述した式(2)の最小値を与える式(3)と式(4)を用いて、近似パラメータsとvを求める。これらの近似パラメータsとvはラインL1101経由で近似信号生成器1102に送られる。   Then, the parameter estimator 1101 derives approximate parameters using the acquired target adjacent pixel group x (i, j) and predicted adjacent pixel group y (i, j). In the present embodiment, approximate parameters s and v are obtained using Equation (3) and Equation (4) that give the minimum value of Equation (2) described above. These approximate parameters s and v are sent to the approximate signal generator 1102 via line L1101.

近似信号生成器1102は、ラインL1002b経由で送られた動き情報をもとに、対象ブロックに対応した予測信号をフレームメモリ1007から取得する。次に、近似信号生成器1102は、近似パラメータsとvを用いて、予測信号を式(6)のように変換し、近似信号の各画素x(i,j)を得る。このように求めた近似信号は、ラインL1008経由で図10の加算器1005に送られる。 The approximate signal generator 1102 acquires a prediction signal corresponding to the target block from the frame memory 1007 based on the motion information sent via the line L1002b. Next, the approximate signal generator 1102 uses the approximate parameters s and v to convert the prediction signal as in Expression (6) to obtain each pixel x * (i, j) of the approximate signal. The approximate signal obtained in this way is sent to the adder 1005 in FIG. 10 via the line L1008.

[(2)画面内予測の場合]
画面内予測の場合も画面間予測と類似する処理で近似信号が生成される。具体的には、パラメータ推定器1101は、現在の復号対象となる対象ブロックの位置情報に基づいて、該対象ブロックに隣接する画素群(対象隣接画素群)をラインL1007経由でフレームメモリ1007から取得する。対象ブロックの位置情報はシステム全体の制御部(不図示)によって管理されている。対象隣接画素群は例えば図6の画素群602に該当する。
[(2) In-screen prediction]
In the case of intra prediction, an approximate signal is generated by processing similar to inter prediction. Specifically, the parameter estimator 1101 obtains a pixel group (target adjacent pixel group) adjacent to the target block from the frame memory 1007 via the line L1007 based on the current position information of the target block to be decoded. To do. The position information of the target block is managed by a control unit (not shown) of the entire system. The target adjacent pixel group corresponds to, for example, the pixel group 602 in FIG.

次に、パラメータ推定器1101は、ラインL1002b経由で送られた補間方法に関する情報に基づいて対象隣接画素群についての補間信号を生成する。具体的には、パラメータ推定器1101は、ラインL1002b経由で送られた補間方法に関する情報によって特定される補間方法で、対象隣接画素群に隣接する画素(図6の画素603〜621)を用いて、対象隣接画素群に対応した補間信号(予測隣接画素群)を生成する。生成された予測隣接画素群は対象隣接画素群と同じ形状をもち、同じ数の画素から構成される。   Next, the parameter estimator 1101 generates an interpolation signal for the target adjacent pixel group based on the information related to the interpolation method sent via the line L1002b. Specifically, the parameter estimator 1101 is an interpolation method specified by information regarding the interpolation method sent via the line L1002b, and uses pixels adjacent to the target adjacent pixel group (pixels 603 to 621 in FIG. 6). Then, an interpolation signal (predicted adjacent pixel group) corresponding to the target adjacent pixel group is generated. The generated predicted adjacent pixel group has the same shape as the target adjacent pixel group, and includes the same number of pixels.

さらに、パラメータ推定器1101は、このようにして生成された予測隣接画素群y(i,j)と対象隣接画素群x(i,j)とを用いて近似パラメータを導出する。本実施形態では、前述した式(2)の最小値を与える式(3)と式(4)を用いて近似パラメータsとvを求める。これらの近似パラメータsとvはラインL1101経由で近似信号生成器1102に送られる。   Further, the parameter estimator 1101 derives an approximate parameter using the predicted adjacent pixel group y (i, j) and the target adjacent pixel group x (i, j) generated in this way. In the present embodiment, approximate parameters s and v are obtained using Equation (3) and Equation (4) that give the minimum value of Equation (2) described above. These approximate parameters s and v are sent to the approximate signal generator 1102 via line L1101.

近似信号生成器1102は、ラインL1002b経由で入力される補間方法に関する情報により特定される補間方法で、対象ブロックの周辺にある既に再生された画素を用いて予測信号を生成する。具体的には、近似信号生成器1102は、ラインL1007経由でフレームメモリ1007から、対象ブロックに隣接する画素(図5の画素A〜M)を取得し、ラインL1002b経由で送られた補間方法に関する情報に基づいて、予測信号を生成する。この予測信号の各画素を式(6)のy(i,j)とし、近似パラメータsとvを用いて式(6)に示すように予測信号を変換することで、近似信号の各画素x(i,j)を求める。求められた近似信号はラインL1008経由で加算器1005に送られる。 The approximate signal generator 1102 generates a prediction signal by using the already reproduced pixels around the target block by an interpolation method specified by information regarding the interpolation method input via the line L1002b. Specifically, the approximate signal generator 1102 obtains pixels (pixels A to M in FIG. 5) adjacent to the target block from the frame memory 1007 via the line L1007, and relates to the interpolation method sent via the line L1002b. A prediction signal is generated based on the information. Each pixel of the prediction signal is represented by y * (i, j) in Expression (6), and the prediction signal is converted as shown in Expression (6) using the approximation parameters s and v. Find x * (i, j). The obtained approximate signal is sent to the adder 1005 via the line L1008.

図12は、信号生成器1008により実行される、近似信号を生成するための予測処理の流れ図を示す。この流れ図は、画面間予測の場合と画面内予測の場合で共通なので、以下、両方の場合を併せて説明する。   FIG. 12 shows a flowchart of a prediction process performed by the signal generator 1008 to generate an approximate signal. Since this flowchart is common to the case of inter prediction and the case of intra prediction, both cases will be described below.

図12のステップ1211では、パラメータ推定器1101は、現在の復号対象となる対象ブロックの位置情報に基づいて、該対象ブロックに隣接する画素群(対象隣接画素群)をラインL1007経由でフレームメモリ1007から取得する。次にステップ1212では、パラメータ推定器1101は、外部から入力された識別情報に基づいて、予測隣接画素群の信号を取得もしくは生成する。画面間予測の場合は、識別情報は動き情報であり、パラメータ推定器1101は動き情報に基づいて予測隣接画素群を取得する。一方、画面内予測の場合は、識別情報は補間方法に関する情報であり、パラメータ推定器1101は、補間方法に関する情報に基づいて予測隣接画素群を生成する。次のステップ1213では、パラメータ推定器1101は、対象隣接画素群と予測隣接画素群とから上述した方法で近似パラメータを求める。求められた近似パラメータは、近似信号生成器1102へ送られる。   In step 1211 of FIG. 12, the parameter estimator 1101 selects a pixel group (target adjacent pixel group) adjacent to the target block based on the position information of the current target block to be decoded via the line L1007 and the frame memory 1007. Get from. Next, in step 1212, the parameter estimator 1101 acquires or generates a signal of the predicted adjacent pixel group based on the identification information input from the outside. In the case of inter-screen prediction, the identification information is motion information, and the parameter estimator 1101 acquires a prediction adjacent pixel group based on the motion information. On the other hand, in the case of intra prediction, the identification information is information related to the interpolation method, and the parameter estimator 1101 generates a prediction adjacent pixel group based on the information related to the interpolation method. In the next step 1213, the parameter estimator 1101 obtains an approximate parameter from the target adjacent pixel group and the predicted adjacent pixel group by the method described above. The obtained approximate parameter is sent to the approximate signal generator 1102.

次のステップ1214では、近似信号生成器1102は、ステップ1212と同じ識別情報に基づいて、予測信号を取得もしくは生成する。画面間予測の場合は、識別情報は動き情報であり、近似信号生成器1102は動き情報に基づいて予測信号を取得する。一方、画面内予測の場合は、識別情報は補間方法に関する情報であり、近似信号生成器1102は、補間方法に関する情報に基づいて予測信号を生成する。さらにステップ1215では、近似信号生成器1102は、取得または生成された予測信号を、ステップ1213で求められた近似パラメータにより変換することで、近似信号を生成する。生成された近似信号はラインL1008経由で加算器1005に出力される(ステップ1216)。   In the next step 1214, the approximate signal generator 1102 acquires or generates a prediction signal based on the same identification information as in step 1212. In the case of inter-screen prediction, the identification information is motion information, and the approximate signal generator 1102 acquires a prediction signal based on the motion information. On the other hand, in the case of intra prediction, the identification information is information regarding the interpolation method, and the approximate signal generator 1102 generates a prediction signal based on the information regarding the interpolation method. Further, in step 1215, the approximate signal generator 1102 generates an approximate signal by converting the acquired or generated prediction signal using the approximate parameter obtained in step 1213. The generated approximate signal is output to the adder 1005 via the line L1008 (step 1216).

なお、動画像予測符号化装置における図2の信号生成器103は、動画像予測復号装置における図11の信号生成器1008に対応し、信号生成処理の流れ図(画面間予測の場合は図4、画面内予測の場合は図7)は図12の流れ図に対応する。   2 in the video predictive coding apparatus corresponds to the signal generator 1008 in FIG. 11 in the video predictive decoding apparatus, and is a flowchart of signal generation processing (in the case of inter-screen prediction, FIG. In the case of intra prediction, FIG. 7) corresponds to the flowchart of FIG.

ところで、図8に示す信号生成器103の別の形態は、動画像予測符号化装置に設けられた場合と、動画像予測復号装置に設けられた場合とで同じ動作をし、図9の信号生成処理の流れ図も同様に、符号化処理と復号処理とで同じ処理となる。即ち、動画像予測復号装置に設けられた信号生成器103は、前述した動画像予測符号化装置に設けられた場合の動作と同じ動作をするため、ここでは、重複した説明は省略する。   By the way, another form of the signal generator 103 shown in FIG. 8 performs the same operation when it is provided in the moving picture predictive coding apparatus and when it is provided in the moving picture predictive decoding apparatus. Similarly, the flowchart of the generation process is the same for the encoding process and the decoding process. That is, the signal generator 103 provided in the moving picture predictive decoding apparatus performs the same operation as that provided in the above-described moving picture predictive encoding apparatus, and therefore, redundant description is omitted here.

つまり、受信側となる動画像予測復号装置の信号生成器103でも、動画像予測符号化装置の信号生成器と同じマッチング処理を行うことにより、対象ブロックについての予測信号を特定することができる。そのため、動画像予測復号装置は、動画像予測符号化装置から、予測信号を生成するための補間方法に関する情報を受信する必要がない。   That is, the signal generator 103 of the video predictive decoding device on the receiving side can specify the prediction signal for the target block by performing the same matching process as the signal generator of the video predictive encoding device. Therefore, the video predictive decoding device does not need to receive information on the interpolation method for generating the prediction signal from the video predictive encoding device.

[動画像予測符号化プログラム・動画像予測復号プログラムと動作環境]
ところで、動画像予測符号化装置に係る発明は、コンピュータを動画像予測符号化装置として機能させるための動画像予測符号化プログラムに係る発明として捉えることができる。また、動画像予測復号装置に係る発明は、コンピュータを動画像予測復号装置として機能させるための動画像予測復号プログラムに係る発明として捉えることができる。動画像予測符号化プログラム及び動画像予測復号プログラムは、例えば、記録媒体に格納されて提供される。記録媒体としては、フレキシブルディスク、CD−ROM、DVD等の記録媒体や、半導体メモリ等が例示される。
[Video Predictive Encoding Program / Video Predictive Decoding Program and Operating Environment]
By the way, the invention according to the video predictive coding apparatus can be understood as an invention according to a video predictive coding program for causing a computer to function as a video predictive coding apparatus. The invention relating to the moving picture predictive decoding apparatus can be regarded as an invention relating to a moving picture predictive decoding program for causing a computer to function as a moving picture predictive decoding apparatus. The moving picture predictive encoding program and the moving picture predictive decoding program are provided by being stored in a recording medium, for example. Examples of the recording medium include a recording medium such as a flexible disk, a CD-ROM, and a DVD, a semiconductor memory, and the like.

図13は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30のハードウェア構成を示す図であり、図14は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30の斜視図である。ここでのコンピュータ30としては、CPUを具備しソフトウエアによる処理や制御を行うDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 13 is a diagram illustrating a hardware configuration of the computer 30 for executing the program recorded on the recording medium 10, and FIG. 14 is a perspective view of the computer 30 for executing the program recorded on the recording medium 10. FIG. Here, the computer 30 includes a DVD player, a set top box, a mobile phone, and the like that have a CPU and perform processing and control by software.

図13に示すように、コンピュータ30は、フレキシブルディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読み取り装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイ18と、入力装置であるマウス20及びキーボード22と、データ等の送受信を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読み取り装置12に挿入されると、読み取り装置12から記録媒体10に格納された動画像予測符号化プログラム及び動画像予測復号プログラムにアクセス可能になり、当該動画像予測符号化プログラム及び動画像予測復号プログラムによって、コンピュータ30は、本実施形態に係る動画像予測符号化装置及び動画像予測復号装置として動作することが可能になる。   As shown in FIG. 13, the computer 30 includes a reading device 12 such as a flexible disk drive device, a CD-ROM drive device, and a DVD drive device, a working memory (RAM) 14 in which an operating system is resident, and a recording medium 10. A memory 16 for storing the program stored therein, a display 18, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and a CPU 26 for controlling execution of the program. ing. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the moving image predictive encoding program and the moving image predictive decoding program stored in the recording medium 10 from the reading device 12. The encoding program and the video predictive decoding program allow the computer 30 to operate as the video predictive encoding device and the video predictive decoding device according to the present embodiment.

図14に示すように、動画像予測符号化プログラム及び動画像予測復号プログラムは、搬送波に重畳されたコンピュータデータ信号40として、有線ネットワーク・無線ネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した動画像予測符号化プログラム及び動画像予測復号プログラムをメモリ16に格納し、当該動画像予測符号化プログラム及び動画像予測復号プログラムを実行することができる。   As shown in FIG. 14, the moving picture predictive encoding program and the moving picture predictive decoding program may be provided as a computer data signal 40 superimposed on a carrier wave via a wired network / wireless network. In this case, the computer 30 may store the moving picture predictive encoding program and the moving picture predictive decoding program received by the communication device 24 in the memory 16 and execute the moving picture predictive encoding program and the moving picture predictive decoding program. it can.

以上説明した本実施形態によれば、既再生画素からなる対象隣接画素群と、予測信号を含む予測ブロックに対し、対象隣接画素群と対象ブロックの位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、予測隣接画素群を対象隣接画素群に近似させるための近似パラメータを決定し、該近似パラメータを用いて予測信号を変換することで対象ブロックについての近似信号を求めるため、受信側でも近似パラメータを正しく導出することができ、近似パラメータを残差信号とともに符号化した上で蓄積もしくは伝送する必要がなくなり、近似パラメータによるデータ量の増加を抑えることができる。   According to the present embodiment described above, the already-reproduced pixels that are in the same positional relationship as the positional relationship between the target adjacent pixel group and the target block with respect to the target adjacent pixel group including the already-reproduced pixels and the prediction block including the prediction signal. An approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group is determined using the predicted adjacent pixel group consisting of and the predicted signal is converted by using the approximate parameter to approximate the target block. Therefore, it is not necessary to store or transmit the approximate parameter after encoding it with the residual signal, and to suppress an increase in the amount of data due to the approximate parameter.

これに伴い、画像を従来よりも細かいブロックに分割して、それぞれの小ブロックに対し輝度補正を行う場合や、対象信号が予測信号に対し非線形的な変化を示す場合でも、近似パラメータの増加に起因した補助情報のデータ量の増加を回避しつつ、高精度な近似信号を生成することできる。   Along with this, even when the image is divided into smaller blocks than before and luminance correction is performed on each small block, or when the target signal shows a non-linear change with respect to the prediction signal, the approximate parameter increases. It is possible to generate a high-precision approximate signal while avoiding an increase in the amount of auxiliary information data caused.

以上より、少ない補助情報で高精度の近似信号を生成することができ、残差信号が減少し、動画像全体の符号量を大きく減らすことができる。   As described above, a highly accurate approximate signal can be generated with a small amount of auxiliary information, the residual signal can be reduced, and the code amount of the entire moving image can be greatly reduced.

なお、受信側で上述の方法に従い近似パラメータを導出せずに、圧縮データの中に近似パラメータを示す関連情報(近似パラメータそのものか、あらかじめ定められた近似パラメータを識別するための識別情報)を含め、受信側でその近似パラメータを示す関連情報を抽出した上で、補間方法によって指定された方法に従い生成した予測信号、もしくはテンプレートマッチングで決定した予測信号にその近似パラメータを適用して近似信号を生成する。また、図5に示す補間方法の場合、近似パラメータを対象ブロックの境界に隣接する画素群(図5のA〜M)に直接に適用した上で予測信号を生成してもよい。   The receiving side does not derive approximate parameters according to the above-described method, but includes related information (approximate parameters themselves or identification information for identifying predetermined approximate parameters) in the compressed data. After extracting the relevant information indicating the approximation parameter on the receiving side, the approximation signal is generated by applying the approximation parameter to the prediction signal generated according to the method specified by the interpolation method or the prediction signal determined by template matching. To do. In the case of the interpolation method shown in FIG. 5, the prediction signal may be generated after the approximation parameter is directly applied to the pixel group (A to M in FIG. 5) adjacent to the boundary of the target block.

また、上記の近似方法を予測信号に適用するかどうかについて動画像予測符号化装置が決定した上で、近似方法を適用する場合に識別情報「1」を、近似方法を適用しない場合に「0」を、動画像予測復号装置に送信してもよい。この識別情報はシーケンス単位、フレーム単位または小領域単位で送受信される。識別情報の決定方法としては、例えば、予測信号と対象ブロックの信号との誤差値Aと、予測信号に近似パラメータを適用することによって生成された近似信号と対象ブロックの信号との誤差値Bとを求め、誤差値Aが誤差値Bより大きい場合に識別情報を「1」とし、誤差値Bが誤差値Aより大きい場合に識別情報を「0」とする方法を採用することができる。そして、動画像予測復号装置は、受信された識別情報をもとに近似信号を生成する。すなわち、動画像予測復号装置は、識別情報が「1」のときには上述した方法で予測信号を生成した上で近似パラメータを適用して近似信号を生成し、識別情報が「0」のときには近似パラメータを適用しないで予測信号をそのまま近似信号とする。   Also, after the moving picture predictive coding apparatus determines whether or not to apply the above approximation method to the prediction signal, the identification information “1” is applied when the approximation method is applied, and “0” when the approximation method is not applied. May be transmitted to the video predictive decoding apparatus. This identification information is transmitted and received in sequence units, frame units, or small area units. As a method for determining the identification information, for example, an error value A between the prediction signal and the signal of the target block, and an error value B between the approximate signal generated by applying the approximation parameter to the prediction signal and the signal of the target block, The identification information is set to “1” when the error value A is larger than the error value B, and the identification information is set to “0” when the error value B is larger than the error value A. Then, the moving picture predictive decoding apparatus generates an approximate signal based on the received identification information. That is, the moving picture predictive decoding apparatus generates an approximate signal by applying an approximate parameter after generating a prediction signal by the above-described method when the identification information is “1”, and approximate parameter when the identification information is “0”. The prediction signal is used as an approximate signal without applying the above.

本実施形態の動画像予測符号化装置を示すブロック図である。It is a block diagram which shows the moving image predictive encoding apparatus of this embodiment. 動画像予測符号化装置に用いられる信号生成器を示すブロック図である。It is a block diagram which shows the signal generator used for a moving image predictive coding apparatus. 近似信号の生成を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation of an approximate signal. 動画像予測符号化装置で実行される画面間予測に係る近似信号生成の第1の処理を示す流れ図である。It is a flowchart which shows the 1st process of the approximate signal generation which concerns on the inter-screen prediction performed with a moving image predictive coding apparatus. 画面内予測で予測信号を生成する具体的な方法を示す模式図である。It is a schematic diagram which shows the specific method of producing | generating a prediction signal by the prediction in a screen. 画面内における近似信号の生成を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation of the approximate signal in a screen. 動画像予測符号化装置で実行される画面内予測に係る近似信号生成の第2の処理を示す流れ図である。It is a flowchart which shows the 2nd process of the approximate signal generation which concerns on the prediction in a screen performed with a moving image predictive coding apparatus. 動画像予測符号化装置及び動画像予測復号装置に用いられる別の信号生成器を示すブロック図である。It is a block diagram which shows another signal generator used for a moving image predictive coding apparatus and a moving image predictive decoding apparatus. 図8の信号生成器によりテンプレートマッチングで近似信号を生成するため第3の処理を示す流れ図である。FIG. 9 is a flowchart showing a third process for generating an approximate signal by template matching by the signal generator of FIG. 8. FIG. 本実施形態の動画像予測復号装置を示すブロック図である。It is a block diagram which shows the moving image predictive decoding apparatus of this embodiment. 動画像予測復号装置に用いられる信号生成器を示すブロック図である。It is a block diagram which shows the signal generator used for a moving image predictive decoding apparatus. 動画像予測復号装置で実行される画面間予測及び画面内予測に係る近似信号生成の処理を示す流れ図である。It is a flowchart which shows the process of the approximate signal generation which concerns on the prediction between screens performed in a moving image prediction decoding apparatus, and the prediction in a screen. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であるIt is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium.

符号の説明Explanation of symbols

10…記録媒体、12…読み取り装置、14…作業用メモリ、16…メモリ、18…ディスプレイ、20…マウス、22…キーボード、24…通信装置、30…コンピュータ、40…コンピュータデータ信号、100…動画像予測符号化装置、101…入力端子、102…ブロック分割器、103…信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、201…予測信号生成器、202…パラメータ推定器、203…近似信号生成器、801…予測信号生成器、802…パラメータ推定器、803…近似信号生成器、1000…動画像予測復号装置、1001…入力端子、1002…データ解析器、1003…逆量子化器、1004…逆変換器、1005…加算器、1006…出力端子、1007…フレームメモリ、1008…信号生成器、1101…パラメータ推定器、1102…近似信号生成器。
DESCRIPTION OF SYMBOLS 10 ... Recording medium, 12 ... Reading apparatus, 14 ... Working memory, 16 ... Memory, 18 ... Display, 20 ... Mouse, 22 ... Keyboard, 24 ... Communication apparatus, 30 ... Computer, 40 ... Computer data signal, 100 ... Movie Image predictive coding apparatus 101... Input terminal 102 102 block divider 103 signal generator 104 frame memory 105 subtractor 106 converter 107 quantizer 108 inverse quantizer , 109: inverse transformer, 110: adder, 111: entropy encoder, 112: output terminal, 201: prediction signal generator, 202 ... parameter estimator, 203 ... approximate signal generator, 801 ... prediction signal generator , 802 ... Parameter estimator, 803 ... Approximate signal generator, 1000 ... Moving picture predictive decoding apparatus, 1001 ... Input terminal, 1002 ... 1003 ... Inverse quantizer, 1004 ... Inverse transformer, 1005 ... Adder, 1006 ... Output terminal, 1007 ... Frame memory, 1008 ... Signal generator, 1101 ... Parameter estimator, 1102 ... Approximate signal generator .

Claims (10)

入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された近似信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された残差信号を符号化する符号化手段と、
を備え、
前記予測信号生成手段は、所定の方法で前記対象領域についての予測信号を決定し、前記対象領域に隣接する既再生画素からなる対象隣接画素群と、前記予測信号を含む参照領域に対し、前記対象領域と前記対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generating unit that generates an approximate signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the approximate signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means;
With
The prediction signal generation means determines a prediction signal for the target region by a predetermined method, and a target adjacent pixel group including already reproduced pixels adjacent to the target region, and a reference region including the prediction signal, Approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using a predicted adjacent pixel group consisting of already reproduced pixels that has the same positional relationship as the positional relationship between the target region and the target adjacent pixel group And generating an approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter.
A video predictive coding apparatus characterized by the above.
入力画像を複数の領域に分割する領域分割手段と、
前記領域分割手段により分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された近似信号と前記対象画素信号との残差信号を生成する残差信号生成手段と、
前記残差信号生成手段により生成された残差信号を符号化する符号化手段と、
を備え、
前記予測信号生成手段は、前記対象領域より前に再生された画素から構成される領域を参照領域とし、前記対象領域に隣接する既再生画素からなる対象隣接画素群に対して、前記参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、前記対象隣接画素群と前記対象領域の位置関係と同じ位置関係にある、前記予測隣接画素群に対応した参照領域の画素信号を、前記対象領域についての予測信号として取得し、前記予測隣接画素群と前記対象隣接画素群とを用いて前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測符号化装置。
Area dividing means for dividing the input image into a plurality of areas;
A prediction signal generating unit that generates an approximate signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing unit;
Residual signal generation means for generating a residual signal between the approximate signal generated by the prediction signal generation means and the target pixel signal;
Encoding means for encoding the residual signal generated by the residual signal generating means;
With
The prediction signal generation means uses a region composed of pixels reproduced before the target region as a reference region, and applies a reference region of the reference region to a target adjacent pixel group composed of already reproduced pixels adjacent to the target region. A pixel group having the highest correlation among them is derived as a predicted adjacent pixel group, and a pixel signal of a reference region corresponding to the predicted adjacent pixel group having the same positional relationship as the positional relationship between the target adjacent pixel group and the target region is obtained. , Obtaining as a prediction signal for the target region, determining an approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group, By generating the approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter,
A video predictive coding apparatus characterized by the above.
圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析手段と、
前記データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された近似信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の対象画素信号を復元する画像復元手段と、
を備え、
前記予測信号生成手段は、所定の方法で前記対象領域についての予測信号を取得し、前記対象領域に隣接する既再生画素からなる対象隣接画素群と、前記予測信号を含む参照領域に対し、前記対象領域と前記対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測復号装置。
Data analysis means for extracting encoded data of the residual signal for the target region to be processed from the compressed data;
Residual signal restoration means for restoring a reproduction residual signal from encoded data of the residual signal extracted by the data analysis means;
Predicted signal generating means for generating an approximate signal for the target pixel signal of the target region;
Image restoration means for restoring the target pixel signal of the target area by adding the approximate signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means;
With
The prediction signal generation unit obtains a prediction signal for the target region by a predetermined method, and a target adjacent pixel group composed of already reproduced pixels adjacent to the target region, and a reference region including the prediction signal, Approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using a predicted adjacent pixel group consisting of already reproduced pixels that has the same positional relationship as the positional relationship between the target region and the target adjacent pixel group And generating an approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter.
A video predictive decoding apparatus characterized by the above.
圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析手段と、
前記データ解析手段により抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元手段と、
前記対象領域の対象画素信号についての近似信号を生成する予測信号生成手段と、
前記予測信号生成手段により生成された近似信号と前記残差信号復元手段により復元された再生残差信号とを加算することによって、前記対象領域の対象画素信号を復元する画像復元手段と、
を備え、
前記予測信号生成手段は、前記対象領域より前に再生された画素から構成される領域を参照領域とし、前記対象領域に隣接する既再生画素からなる対象隣接画素群に対して、前記参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、前記予測隣接画素群と前記対象隣接画素群とを用いて前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記対象隣接画素群と前記対象領域の位置関係と同じ位置関係にある、前記予測隣接画素群に対応した参照領域の画素信号を前記近似パラメータに基づいて変換することで、前記対象領域についての近似信号を生成する、
ことを特徴とする動画像予測復号装置。
Data analysis means for extracting encoded data of the residual signal for the target region to be processed from the compressed data;
Residual signal restoration means for restoring a reproduction residual signal from encoded data of the residual signal extracted by the data analysis means;
Predicted signal generating means for generating an approximate signal for the target pixel signal of the target region;
Image restoration means for restoring the target pixel signal of the target area by adding the approximate signal generated by the prediction signal generation means and the reproduction residual signal restored by the residual signal restoration means;
With
The prediction signal generation means uses a region composed of pixels reproduced before the target region as a reference region, and applies a reference region of the reference region to a target adjacent pixel group composed of already reproduced pixels adjacent to the target region. An approximate parameter for deriving the pixel group having the highest correlation from among the predicted adjacent pixel groups and approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group And converting the pixel signal of the reference region corresponding to the predicted adjacent pixel group, which is in the same positional relationship as the positional relationship between the target adjacent pixel group and the target region, based on the approximation parameter, Generate an approximate signal for the region,
A video predictive decoding apparatus characterized by the above.
動画像予測符号化装置により実行される動画像予測符号化方法であって、
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された近似信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された残差信号を符号化する符号化ステップと、
を備え、
前記予測信号生成ステップでは、所定の方法で前記対象領域についての予測信号を決定し、前記対象領域に隣接する既再生画素からなる対象隣接画素群と、前記予測信号を含む参照領域に対し、前記対象領域と前記対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測符号化方法。
A video predictive encoding method executed by a video predictive encoding device,
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating an approximate signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the approximate signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step;
With
In the prediction signal generation step, a prediction signal for the target region is determined by a predetermined method, and a target adjacent pixel group including already reproduced pixels adjacent to the target region and a reference region including the prediction signal, Approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using a predicted adjacent pixel group consisting of already reproduced pixels that has the same positional relationship as the positional relationship between the target region and the target adjacent pixel group And generating an approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter.
A video predictive encoding method characterized by the above.
動画像予測符号化装置により実行される動画像予測符号化方法であって、
入力画像を複数の領域に分割する領域分割ステップと、
前記領域分割ステップにより分割された複数の領域のうちの処理対象である対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された近似信号と前記対象画素信号との残差信号を生成する残差信号生成ステップと、
前記残差信号生成ステップにより生成された残差信号を符号化する符号化ステップと、
を備え、
前記予測信号生成ステップでは、前記対象領域より前に再生された画素から構成される領域を参照領域とし、前記対象領域に隣接する既再生画素からなる対象隣接画素群に対して、前記参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、前記対象隣接画素群と前記対象領域の位置関係と同じ位置関係にある、前記予測隣接画素群に対応した参照領域の画素信号を、前記対象領域についての予測信号として取得し、前記予測隣接画素群と前記対象隣接画素群とを用いて前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測符号化方法。
A video predictive encoding method executed by a video predictive encoding device,
A region dividing step for dividing the input image into a plurality of regions;
A prediction signal generating step for generating an approximate signal for a target pixel signal of a target region that is a processing target among a plurality of regions divided by the region dividing step;
A residual signal generation step for generating a residual signal between the approximate signal generated by the prediction signal generation step and the target pixel signal;
An encoding step for encoding the residual signal generated by the residual signal generation step;
With
In the predicted signal generation step, an area composed of pixels reproduced before the target area is set as a reference area, and a target adjacent pixel group consisting of already reproduced pixels adjacent to the target area is compared with the reference area. A pixel group having the highest correlation among them is derived as a predicted adjacent pixel group, and a pixel signal of a reference region corresponding to the predicted adjacent pixel group having the same positional relationship as the positional relationship between the target adjacent pixel group and the target region is obtained. , Obtaining as a prediction signal for the target region, determining an approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group, By generating the approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter,
A video predictive encoding method characterized by the above.
動画像予測復号装置により実行される動画像予測復号方法であって、
圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析ステップと、
前記データ解析ステップにより抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された近似信号と前記残差信号復元ステップにより復元された再生残差信号とを加算することによって、前記対象領域の対象画素信号を復元する画像復元ステップと、
を備え、
前記予測信号生成ステップでは、所定の方法で前記対象領域についての予測信号を取得し、前記対象領域に隣接する既再生画素からなる対象隣接画素群と、前記予測信号を含む参照領域に対し、前記対象領域と前記対象隣接画素群の位置関係と同じ位置関係にある、既再生画素からなる予測隣接画素群とを用いて、前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記近似パラメータをもとに前記対象領域についての予測信号を変換することで、当該対象領域の対象画素信号についての近似信号を生成する、
ことを特徴とする動画像予測復号方法。
A video predictive decoding method executed by a video predictive decoding device,
A data analysis step for extracting encoded data of the residual signal for the target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the encoded data of the residual signal extracted by the data analysis step;
A prediction signal generation step of generating an approximate signal for the target pixel signal of the target region;
An image restoration step of restoring the target pixel signal of the target region by adding the approximate signal generated by the prediction signal generation step and the reproduction residual signal restored by the residual signal restoration step;
With
In the prediction signal generation step, a prediction signal for the target region is obtained by a predetermined method, and the target adjacent pixel group including already reproduced pixels adjacent to the target region, and the reference region including the prediction signal, Approximate parameter for approximating the predicted adjacent pixel group to the target adjacent pixel group using a predicted adjacent pixel group consisting of already reproduced pixels that has the same positional relationship as the positional relationship between the target region and the target adjacent pixel group And generating an approximate signal for the target pixel signal of the target region by converting the prediction signal for the target region based on the approximate parameter.
A video predictive decoding method characterized by the above.
動画像予測復号装置により実行される動画像予測復号方法であって、
圧縮データの中から、処理対象である対象領域についての残差信号の符号化データを抽出するデータ解析ステップと、
前記データ解析ステップにより抽出された残差信号の符号化データから再生残差信号を復元する残差信号復元ステップと、
前記対象領域の対象画素信号についての近似信号を生成する予測信号生成ステップと、
前記予測信号生成ステップにより生成された近似信号と前記残差信号復元ステップにより復元された再生残差信号とを加算することによって、前記対象領域の対象画素信号を復元する画像復元ステップと、
を備え、
前記予測信号生成ステップでは、前記対象領域より前に再生された画素から構成される領域を参照領域とし、前記対象領域に隣接する既再生画素からなる対象隣接画素群に対して、前記参照領域の中から最も相関の高い画素群を予測隣接画素群として導出し、前記予測隣接画素群と前記対象隣接画素群とを用いて前記予測隣接画素群を前記対象隣接画素群に近似させるための近似パラメータを決定し、前記対象隣接画素群と前記対象領域の位置関係と同じ位置関係にある、前記予測隣接画素群に対応した参照領域の画素信号を前記近似パラメータに基づいて変換することで、前記対象領域についての近似信号を生成する、
ことを特徴とする動画像予測復号方法。
A video predictive decoding method executed by a video predictive decoding device,
A data analysis step for extracting encoded data of the residual signal for the target region to be processed from the compressed data;
A residual signal restoration step for restoring a reproduction residual signal from the encoded data of the residual signal extracted by the data analysis step;
A prediction signal generation step of generating an approximate signal for the target pixel signal of the target region;
An image restoration step of restoring the target pixel signal of the target region by adding the approximate signal generated by the prediction signal generation step and the reproduction residual signal restored by the residual signal restoration step;
With
In the predicted signal generation step, an area composed of pixels reproduced before the target area is set as a reference area, and a target adjacent pixel group consisting of already reproduced pixels adjacent to the target area is compared with the reference area. An approximate parameter for deriving the pixel group having the highest correlation from among the predicted adjacent pixel groups and approximating the predicted adjacent pixel group to the target adjacent pixel group using the predicted adjacent pixel group and the target adjacent pixel group And converting the pixel signal of the reference region corresponding to the predicted adjacent pixel group, which is in the same positional relationship as the positional relationship between the target adjacent pixel group and the target region, based on the approximation parameter, Generate an approximate signal for the region,
A video predictive decoding method characterized by the above.
コンピュータを、請求項1又は2に記載の動画像予測符号化装置として機能させるための動画像予測符号化プログラム。   A moving picture predictive coding program for causing a computer to function as the moving picture predictive coding apparatus according to claim 1. コンピュータを、請求項3又は4に記載の動画像予測復号装置として機能させるための動画像予測復号プログラム。
A moving picture predictive decoding program for causing a computer to function as the moving picture predictive decoding apparatus according to claim 3 or 4.
JP2007114669A 2007-04-24 2007-04-24 Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program Expired - Fee Related JP5254565B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007114669A JP5254565B2 (en) 2007-04-24 2007-04-24 Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007114669A JP5254565B2 (en) 2007-04-24 2007-04-24 Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2008271422A true JP2008271422A (en) 2008-11-06
JP5254565B2 JP5254565B2 (en) 2013-08-07

Family

ID=40050305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007114669A Expired - Fee Related JP5254565B2 (en) 2007-04-24 2007-04-24 Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program

Country Status (1)

Country Link
JP (1) JP5254565B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015046431A1 (en) * 2013-09-30 2015-04-02 Kddi株式会社 Moving image coding device, moving image decoding device, moving image coding method, moving image decoding method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108932A (en) * 2004-10-01 2006-04-20 Ntt Docomo Inc Motion picture encoding device using plural reference pictures, motion picture decoding device, motion picture encoding method, motion picture decoding method, motion picture encoding program and motion picture decoding program
WO2007081176A1 (en) * 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108932A (en) * 2004-10-01 2006-04-20 Ntt Docomo Inc Motion picture encoding device using plural reference pictures, motion picture decoding device, motion picture encoding method, motion picture decoding method, motion picture encoding program and motion picture decoding program
WO2007081176A1 (en) * 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200600621015; 鈴木輝彦: 'AVC|H.264におけるイントラ符号化の業務用拡張の検討' 電子情報通信学会技術研究報告[IE] 第104巻, 第649号, 20050128, P.89-94, 社団法人電子情報通信学会 *
JPN6013000559; Jeong-Hyu Yang: 'CE09: Derivation of MVC IC Information' JVT-V063.doc , 20070116, p.1-11, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6013000560; Jae-Ho Hur (外11名): 'CE11 : Illumination Compensation' JVT- U052.doc , 20061026, p.1-16, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6013016418; 鈴木輝彦: 'AVC|H.264におけるイントラ符号化の業務用拡張の検討' 電子情報通信学会技術研究報告[IE] 第104巻, 第649号, 20050128, P.89-94, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015046431A1 (en) * 2013-09-30 2015-04-02 Kddi株式会社 Moving image coding device, moving image decoding device, moving image coding method, moving image decoding method, and program
US10057573B2 (en) 2013-09-30 2018-08-21 Kddi Corporation Moving image coding device, moving image decoding device, moving image coding method and moving image decoding method

Also Published As

Publication number Publication date
JP5254565B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP6220023B2 (en) Image predictive decoding method
US8761254B2 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP5372910B2 (en) Direction change for intra coding
JP6559309B2 (en) Image predictive decoding method
JP5277257B2 (en) Video decoding method and video encoding method
JP5686499B2 (en) Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method
JP2007043651A (en) Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP2008306719A (en) Method and apparatus for encoding and decoding video by using inter color compensation
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP5909149B2 (en) COLOR CONVERTER, ENCODER AND DECODER, AND PROGRAM THEREOF
JP5254565B2 (en) Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program
JP2005244749A (en) Dynamic image encoding device
JP2006005659A (en) Device and method for image encoding
JP2015076765A (en) Image processing device, control method thereof, and computer program
JP2008193501A (en) Image encoding device and image encoding method
JP6557483B2 (en) Encoding apparatus, encoding system, and program
JP4451759B2 (en) Lossless video encoding device, lossless video encoding method, lossless video decoding device, lossless video decoding method, lossless video encoding program, lossless video decoding program, and recording medium for those programs
JP2616552B2 (en) Video encoding / decoding device
JP4505729B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2010010768A (en) Image encoding apparatus and image encoding method
JP5318827B2 (en) Image predictive coding apparatus, method and program, and image predictive decoding apparatus, method and program
JP5645589B2 (en) Video encoding device
JP2022145499A (en) Encoder and method
JP5415495B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2008227602A (en) Device conducting orthogonal transformation and quantization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130418

R150 Certificate of patent or registration of utility model

Ref document number: 5254565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees