JP4561688B2 - Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program - Google Patents

Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program Download PDF

Info

Publication number
JP4561688B2
JP4561688B2 JP2006138704A JP2006138704A JP4561688B2 JP 4561688 B2 JP4561688 B2 JP 4561688B2 JP 2006138704 A JP2006138704 A JP 2006138704A JP 2006138704 A JP2006138704 A JP 2006138704A JP 4561688 B2 JP4561688 B2 JP 4561688B2
Authority
JP
Japan
Prior art keywords
picture
difference
information
motion vector
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006138704A
Other languages
Japanese (ja)
Other versions
JP2007312072A (en
Inventor
智 坂爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006138704A priority Critical patent/JP4561688B2/en
Publication of JP2007312072A publication Critical patent/JP2007312072A/en
Application granted granted Critical
Publication of JP4561688B2 publication Critical patent/JP4561688B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は動画像符号化装置、動画像符号化プログラム、動画像復号化装置、及び動画像復号化プログラムに係り、特に動画像に対して符号化を行う際に、ポアソン方程式を満たす条件を境界条件及び動画像に適したソースモデルに基づいて導出し、その結果を符号化及び復号化に適用する動画像符号化装置、動画像符号化プログラム、動画像復号化装置、及び動画像復号化プログラムに関する。   The present invention relates to a moving image encoding device, a moving image encoding program, a moving image decoding device, and a moving image decoding program. In particular, when encoding a moving image, a boundary that satisfies a condition that satisfies the Poisson equation is defined. A moving picture coding apparatus, a moving picture coding program, a moving picture decoding apparatus, and a moving picture decoding program that are derived based on conditions and a source model suitable for a moving picture and apply the result to coding and decoding About.

近年、ディジタル放送やネットワークを介した様々な動画像配信サービスが一般的となり、より高画質・高品質の動画像をより多く記録したいという要求から、更なる動画像の符号化効率向上が望まれている。   In recent years, various moving image distribution services via digital broadcasting and networks have become common, and in order to record more high-quality and high-quality moving images, further improvement in the coding efficiency of moving images is desired. ing.

一般に伝送される映像情報は、ディジタル化された音声、画像、その他のデータが組み合わされて作成されたマルチメディア情報であることが多い。このような映像情報の情報量は、単純にデータをディジタル化して換算した場合、一般に文字情報の情報量は1〜2バイトである。音声の場合には電話品質で1秒あたり64Kbitsである。動画の場合にはSD(Standard Definition)のアナログ地上波テレビ放送品質であっても1秒あたり100Mbits以上の情報量が必要になる。このような膨大なディジタル情報をそのままの状態で扱うことは、現状における伝送路や記録媒体を利用する際のコストを勘案すると現実的ではない。   Generally, video information to be transmitted is often multimedia information created by combining digitized voice, image, and other data. The information amount of such video information is generally 1 to 2 bytes when the data is simply digitized and converted. In the case of voice, the telephone quality is 64 Kbits per second. In the case of a moving image, an amount of information of 100 Mbits or more per second is required even for SD (Standard Definition) analog terrestrial television broadcast quality. It is not practical to handle such a large amount of digital information as it is in view of the cost of using the current transmission path and recording medium.

そこで、このような膨大な情報量を圧縮するための符号化技術が現在盛んに研究開発されている。映像の符号化技術において代表的なものとしては、MPEG(Moving Picture Experts Group)が挙げられる。MPEGは、動画像データの符号化技術に関する国際標準規格である。現在このMPEG標準規格では、主にビデオCDなどの1.5Mbps程度の蓄積メディア向けのMPEG−1、ディジタル放送などのような通信や放送などの多様なアプリケーションに対応することを可能にするMPEG−2、オブジェクト符号化やその制御によってより高度なマルチメディアコンテンツを実現することができるMPEG−4、コンテンツ記述向けのMPEG−7を規定している。このような符号化技術を適用することで膨大な情報量を持つ映像データを効率よく符号化し、情報量を概ね1/20〜1/40程度にまで圧縮することが可能になる。   Therefore, an encoding technique for compressing such an enormous amount of information is currently being actively researched and developed. MPEG (Moving Picture Experts Group) is a representative example of video encoding technology. MPEG is an international standard for moving image data encoding technology. At present, the MPEG standard mainly includes MPEG-1 for storage media of about 1.5 Mbps such as a video CD, and MPEG- which can correspond to various applications such as communication and broadcasting such as digital broadcasting. 2. MPEG-4 that can realize more advanced multimedia contents by object coding and control thereof, and MPEG-7 for content description are defined. By applying such an encoding technique, it is possible to efficiently encode video data having an enormous amount of information and compress the information amount to about 1/20 to 1/40.

更に、従来の符号化技術の符号化効率を大幅に向上させたMPEG−4 AVC(以後、AVCもしくはH.264)などの新たな符号化方法を導入したものも存在し、これらを導入することでより効果的な情報の符号化を行うことができる(例えば、非特許文献1,非特許文献2参照)。上述のような符号化方法では、通常、MC(動き補償)とDCT(離散余弦変換)を組み合わせることで映像の情報圧縮を行う。   Furthermore, there are some that have introduced a new encoding method such as MPEG-4 AVC (hereinafter referred to as AVC or H.264) which has greatly improved the encoding efficiency of the conventional encoding technology. Thus, more effective information encoding can be performed (see, for example, Non-Patent Document 1 and Non-Patent Document 2). In the encoding method as described above, information compression of video is usually performed by combining MC (motion compensation) and DCT (discrete cosine transform).

しかし、従来の符号化方法においては、MCは処理単位となる矩形領域(通常は所定の正方ブロック、以後、MCブロック又は単にブロックと呼ぶ)内の全画素が同一の動きを持つことを前提として動き量の検出を行って動きベクトル情報を生成することから、MCブロックを空間配置して構成される予測ピクチャでは、MCブロック境界において画像信号が不連続な状態となる場合がある。このMCブロック境界の不連続な状態は、動き量の探索やその後の直交変換、量子化などの符号化処理単位がブロック単位であることに起因する。この現象は符号化時に利用できる符号量が少ないほど顕著に現れ、一般にブロック歪みとして知覚することができる。   However, in the conventional encoding method, MC is based on the assumption that all pixels in a rectangular area (usually a predetermined square block, hereinafter referred to as MC block or simply block) have the same motion. Since motion vector information is generated by detecting the amount of motion, an image signal may be in a discontinuous state at the MC block boundary in a predicted picture configured by spatially arranging MC blocks. This discontinuous state of the MC block boundary results from the fact that the encoding processing unit such as the search for the motion amount, the subsequent orthogonal transform, and the quantization is the block unit. This phenomenon appears more prominently as the amount of code that can be used at the time of encoding is smaller, and can generally be perceived as block distortion.

上述のMCブロック境界の不連続な状態を改善するための方法として、ブロック単位の動き補償によって生成される予測ピクチャに対して、そのMCブロック間に生じる不連続波形を適応的に平滑化する処理を比較的簡易な演算で行い、動き補償を用いた低ビットレートの符号化効率を改善することができる構成が提案されている(例えば、特許文献1参照)。   As a method for improving the above-described discontinuous state of the MC block boundary, a process of adaptively smoothing a discontinuous waveform generated between MC blocks for a predicted picture generated by block-based motion compensation Has been proposed (see, for example, Patent Document 1), which can improve the coding efficiency at a low bit rate using motion compensation.

次に、従来のMPEG符号化装置及び復号化装置を代表してAVCの基本構成に加え、特許文献1で用いられる平滑化処理を導入した場合の符号化装置及び復号化装置の構成及び動作について、簡単に説明する(非特許文献1,非特許文献2,特許文献1参照)。   Next, the configuration and operation of the encoding device and the decoding device when the smoothing process used in Patent Document 1 is introduced in addition to the basic configuration of AVC on behalf of the conventional MPEG encoding device and decoding device. This will be briefly described (see Non-Patent Document 1, Non-Patent Document 2, and Patent Document 1).

図22はAVCの符号化装置に、動き補償後の予測ピクチャに対して特許文献1で用いられる平滑化処理を導入した場合の符号化装置の一例のブロック図を示す。この符号化装置の基本動作について図23のフローチャートを併せ参照して説明する。図22において、入力画像である符号化ピクチャが準備された後(ステップS701)、順次に入力される符号化ピクチャ(入力符号101)は、符号化制御器117によってイントラ符号化されるかそうでないか判定され(ステップS702)、イントラ符号化される場合はイントラ予測器105によりイントラ予測して予測ピクチャを生成し(ステップS703)、その予測ピクチャをスイッチ501により選択する。一方、イントラ符号化でない場合は後述する動き推定器502で動き推定された後(ステップS704)、後述する動き補償器503で動き補償され(ステップS705)、更に後述する平滑化フィルタ131により平滑化し(ステップS706)、これにより得られた予測ピクチャをスイッチ501により選択する。   FIG. 22 shows a block diagram of an example of an encoding apparatus when the smoothing process used in Patent Document 1 is introduced to the predicted picture after motion compensation in the AVC encoding apparatus. The basic operation of this encoding apparatus will be described with reference to the flowchart of FIG. In FIG. 22, after an encoded picture as an input image is prepared (step S701), encoded pictures (input code 101) sequentially input are intra-coded by the encoding controller 117 or not. (Step S702), if intra coding is performed, the intra predictor 105 performs intra prediction to generate a predicted picture (Step S703), and the predicted picture is selected by the switch 501. On the other hand, if it is not intra coding, after motion estimation is performed by a motion estimator 502 described later (step S704), motion compensation is performed by a motion compensator 503 described later (step S705), and further smoothed by a smoothing filter 131 described later. (Step S706), the prediction picture obtained thereby is selected by the switch 501.

スイッチ501により選択された予測ピクチャは差分器106に供給され、ここで符号化ピクチャである入力符号101との間で差分をとられることで時間方向に含まれる冗長成分を削減される(ステップS707)。   The predicted picture selected by the switch 501 is supplied to the differentiator 106, where the redundant component included in the time direction is reduced by taking the difference from the input code 101 which is the coded picture (step S707). ).

ここで、AVCには、面内予測(Intra)符号化、前方向予測(Predictively)符号化、双予測(Bidirectionaly)符号化の3つの予測モードが存在する。面内予測符号化では、動き補償器503の出力を利用せずに面内の情報及びイントラ予測器105による面内からの予測情報を利用した後、後述する直交変換器107による変換を行う。この面内予測符号化モードで符号化したものをIピクチャと呼ぶ。Iピクチャは、復号化時に他のピクチャに依存することなく復号することができる。AVCでは通常1ピクチャ内に複数のスライスという単位を含むことができるが、話を簡単にするため以後1ピクチャは1スライスのみで構成されているものとする。   Here, there are three prediction modes for AVC: in-plane prediction (Intra) coding, forward prediction (Predictively) coding, and bi-prediction (Bidirectionaly) coding. In the intra prediction encoding, after using the information in the plane and the prediction information from the plane by the intra predictor 105 without using the output of the motion compensator 503, the conversion by the orthogonal transformer 107 described later is performed. What is coded in this in-plane predictive coding mode is called an I picture. An I picture can be decoded without depending on other pictures at the time of decoding. In AVC, normally, one picture can include a unit of a plurality of slices. However, for the sake of simplicity, it is assumed that one picture is composed of only one slice.

前方向予測符号化では、動き補償器503により過去に符号化したピクチャを補償し、現在符号化対象となっているピクチャに対する予測を行う。この予測によって生成された予測ピクチャと入力符号101からの符号化ピクチャとの差分によって生成した差分ピクチャに対して直交変換器107による直交変換を行う。直交変換器107で行う直交変換は、MPEG−1,−2及び4ではDCT(Discrete Cosine Transform;離散余弦変換)が使用される。直交変換は、アダマール基底や、ウェーブレット基底といった他の変換基底を用いても行うことができる。AVCでは、整数精度DCTとアダマール変換を用いて直交変換を行う。前方向予測モードで符号化されたものをPピクチャと呼ぶ。Pピクチャは、他のピクチャに依存するため、Iピクチャのように独立して復号することはできないが、Iピクチャよりも圧縮率を高めることができる。   In forward predictive coding, the motion compensator 503 compensates for a previously coded picture and performs prediction for the current coding target picture. Orthogonal transformation by the orthogonal transformer 107 is performed on the difference picture generated by the difference between the prediction picture generated by this prediction and the encoded picture from the input code 101. As the orthogonal transform performed by the orthogonal transformer 107, DCT (Discrete Cosine Transform) is used in MPEG-1, -2, and 4. Orthogonal transformation can also be performed using other transformation bases such as Hadamard bases and wavelet bases. In AVC, orthogonal transform is performed using integer precision DCT and Hadamard transform. What is encoded in the forward prediction mode is called a P picture. P pictures depend on other pictures and cannot be decoded independently like I pictures, but can have a higher compression rate than I pictures.

双予測符号化では、動き補償器503により過去と未来の双方向に限らず、任意の符号化された2枚のフレームを補償し、現在符号化対象となっているピクチャに対する予測を行う。この予測によって生成した予測ピクチャと入力符号101からの符号化ピクチャとの差分を行うことにより生成する差分ピクチャに対して直交変換器107による変換を行う。双予測モードで符号化されたピクチャをBピクチャと呼ぶ。Bピクチャは、過去や未来の他のピクチャに依存するため、Iピクチャ、Pピクチャのように独立して復号することはできないが、Iピクチャ、Pピクチャよりも更に圧縮率を高めることができる。   In bi-predictive coding, the motion compensator 503 compensates not only for past and future bi-directional, but also for any two encoded frames, and performs prediction for the current coding target picture. The difference picture generated by performing the difference between the predicted picture generated by this prediction and the encoded picture from the input code 101 is converted by the orthogonal transformer 107. A picture encoded in the bi-prediction mode is called a B picture. The B picture depends on other pictures in the past and the future, so it cannot be decoded independently like the I picture and P picture, but the compression rate can be further increased than the I picture and P picture.

各フレーム及び各スライスは、所定の矩形領域として水平方向16画素、垂直方向16画素のMB(マクロブロック)毎に予測処理が行われる。また、更に細かいブロック単位やサブブロック単位に分割されて予測処理が行われることもある。以後、話を簡単にするため、予測処理は水平方向8画素,垂直方向8画素のブロック単位で行われるものとして進める。   Each frame and each slice are subjected to prediction processing for each MB (macroblock) of 16 pixels in the horizontal direction and 16 pixels in the vertical direction as a predetermined rectangular area. In addition, prediction processing may be performed by dividing into smaller block units or sub-block units. Hereinafter, in order to simplify the story, the prediction process proceeds on the basis of blocks of 8 pixels in the horizontal direction and 8 pixels in the vertical direction.

予測方向はIピクチャ、Pピクチャ、Bピクチャにより異なっている。全てのMBを独立して符号化するのがIピクチャである。過去のピクチャからの予測により符号化するモードと、予測をしないでそのMBを独立して符号化するモードの2つのモードが存在するのがPピクチャである。また、未来からの予測、過去からの予測、両方からの予測、予測をしないでそのMBを独立して符号化する4つのモードが存在するのがBピクチャである。   The prediction direction differs depending on the I picture, P picture, and B picture. It is the I picture that encodes all MBs independently. The P picture has two modes: a mode in which encoding is performed by prediction from a past picture, and a mode in which the MB is independently encoded without prediction. In addition, there are four modes in which the MB is independently encoded without prediction, prediction from the future, prediction from the past, prediction from both, and prediction.

動き推定は、動き推定器502により符号化対象となっている符号化ピクチャ内の各ブロックに対して、誤差が最小となる領域を参照ピクチャから特定するために、1/2もしくは1/4画素の精度で所定のパターンマッチングを行い、動き情報を生成する。ここで、動き情報は少なくとも、パターンマッチングによって検出した、それぞれのブロックに対応する領域までの空間位置を特定するための動きベクトル情報と、参照ピクチャを特定するための参照ピクチャ情報とによって構成される。動き補償は、動き補償器503により、動き推定器502によって推定した動き情報に基づいて、参照ピクチャから予測ピクチャを生成することで行う。   In motion estimation, 1/2 or 1/4 pixel is used to identify an area in which the error is minimized for each block in the encoded picture to be encoded by the motion estimator 502 from the reference picture. A predetermined pattern matching is performed with the accuracy of, and motion information is generated. Here, the motion information is composed of at least motion vector information for identifying a spatial position up to an area corresponding to each block detected by pattern matching and reference picture information for identifying a reference picture. . The motion compensation is performed by the motion compensator 503 generating a predicted picture from the reference picture based on the motion information estimated by the motion estimator 502.

差分器106から出力される差分ピクチャに対して直交変換器107により直交変換が行われる(ステップS708)。直交変換は、MPEG−1,−2及び4ではDCTを利用するが、AVCでは整数精度DCT及びアダマール変換を利用する。DCTでは、余弦関数を基底とした積分変換を有限空間へ離散変換する直交変換である。MPEG−1,−2及び4ではMBを4分割して所定の矩形領域である、水平方向8画素,垂直方向8画素のDCTブロックに対して、2次元DCTを行う。AVCでは、水平方向4画素,垂直方向4画素のブロックに対して2次元整数精度DCT及びアダマール変換を行う。一般にビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うことで係数を低域成分に集中させることができ、その後の量子化器108により効率の良い情報量の削減ができる。   Orthogonal transformation is performed on the differential picture output from the subtractor 106 by the orthogonal transformer 107 (step S708). The orthogonal transform uses DCT in MPEG-1, -2 and 4, but uses integer precision DCT and Hadamard transform in AVC. DCT is an orthogonal transform that discretely transforms an integral transform based on a cosine function into a finite space. In MPEG-1, -2, and 4, two-dimensional DCT is performed on a DCT block of 8 pixels in the horizontal direction and 8 pixels in the vertical direction, which is a predetermined rectangular area by dividing MB into four. In AVC, two-dimensional integer precision DCT and Hadamard transform are performed on a block of 4 pixels in the horizontal direction and 4 pixels in the vertical direction. In general, since a video signal has many low frequency components and few high frequency components, the coefficients can be concentrated on the low frequency components by performing DCT, and the subsequent quantizer 108 can efficiently reduce the amount of information.

直交変換器107によって得られたDCT係数は、量子化器108により量子化される(ステップS709)。量子化は量子化マトリックスというMPEG−1,−2及び4では水平方向8画素,垂直方向8画素の2次元周波数を視覚特性で重み付けした値、AVCでは水平方向4画素,垂直方向4画素の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で除算する。デコーダで逆量子化するときは量子化値で乗算することにより、元のDCT係数に近い値を得ることになる。   The DCT coefficient obtained by the orthogonal transformer 107 is quantized by the quantizer 108 (step S709). Quantization is a value obtained by weighting the two-dimensional frequency of 8 pixels in the horizontal direction and 8 pixels in the vertical direction by visual characteristics in MPEG-1, -2 and 4 which are quantization matrices, and 2 in the horizontal direction and 4 pixels in the AVC. The DCT coefficient is divided by the quantized value, with a value obtained by multiplying the dimension frequency weighted by visual characteristics and a value obtained by multiplying the whole of the dimension frequency by a scalar scale value as a quantized value. When inverse quantization is performed by the decoder, a value close to the original DCT coefficient is obtained by multiplying by the quantized value.

量子化器108から出力される量子化されたデータは、逆量子化器109によって逆量子化される(ステップS710)。更に、逆直交変換器110によって直交変換器107に対応する変換基底により逆直交変換される(ステップS711)。逆直交変換器110から出力された信号は、第1合成器111において、スイッチ103により選択された、平滑化フィルタ131若しくはイントラ予測器105からの予測ピクチャと合成された後(ステップS712)、イントラ予測器105に供給される一方、デブロックフィルタ112によって、主に直交変換や量子化によって発生したブロック歪みを低減するためのデブロッキング処理を施された後(ステップS713)、参照ピクチャの準備のためにフレームメモリ104に格納される(ステップS714)。フレームメモリ104に格納されたピクチャは、動き推定器502及び動き補償器503において、予測ピクチャを求めるための参照ピクチャとして使用される。   The quantized data output from the quantizer 108 is inversely quantized by the inverse quantizer 109 (step S710). Further, the inverse orthogonal transformer 110 performs inverse orthogonal transform using the transform base corresponding to the orthogonal transformer 107 (step S711). The signal output from the inverse orthogonal transformer 110 is combined with the predicted picture selected from the smoothing filter 131 or the intra predictor 105 selected by the switch 103 in the first combiner 111 (step S712), and then intra. While being supplied to the predictor 105, the deblocking filter 112 performs deblocking processing for reducing block distortion mainly generated by orthogonal transformation or quantization (step S713), and then prepares for reference picture preparation. Therefore, it is stored in the frame memory 104 (step S714). The picture stored in the frame memory 104 is used as a reference picture for obtaining a predicted picture in the motion estimator 502 and the motion compensator 503.

ここで、符号化装置において特許文献1では、上述の動き補償器503によって生成される予測ピクチャ内におけるブロック境界の不連続な状態を改善するために、動き補償器503の後段に平滑化フィルタ131を設け、ブロック単位の動き補償によって生成される予測ピクチャに対して、そのブロック間に生じる不連続波形を適応的に平滑化する処理を比較的簡易な演算で行うことにより、ブロック間の不連続な状態を緩和させる。   Here, in the encoding device, in Patent Document 1, in order to improve the discontinuous state of the block boundary in the predicted picture generated by the motion compensator 503 described above, the smoothing filter 131 is placed after the motion compensator 503. By performing a process that adaptively smoothes the discontinuous waveform generated between the blocks for the predicted picture generated by block-unit motion compensation, the discontinuity between blocks is To relieve the situation.

このような処理を行った平滑化後の予測ピクチャはスイッチ501を介して差分器106に供給されると共に、スイッチ103を介して第1合成器111に供給されるような構成とすることで、従来のAVCにおいて動き推定器502における動き推定の精度が十分ではない場合や、参照ピクチャ内に十分合致するブロックが検出できなかった場合であっても、符号化効率が低下することを軽減することができる。   The smoothed predicted picture subjected to such processing is supplied to the differencer 106 via the switch 501 and also supplied to the first combiner 111 via the switch 103. To reduce the decrease in coding efficiency even when the accuracy of motion estimation in the motion estimator 502 is not sufficient in the conventional AVC or when a block that sufficiently matches in the reference picture cannot be detected. Can do.

また、量子化器108で量子化されたデータは、エントロピー符号化器113で符号化される(ステップS715)。一般にエントロピー符号化は、VLC(Variable Length Code;可変調符号化)器であり、量子化されたデータに対して可変長符号化を行う。可変長符号化においては、一般にDCT係数の低域から高域にジグザグスキャンを行い、ゼロのラン長及び有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。また、このエントロピー符号化器113では、ハフマン符号化の代わりに算術符号化を利用することでより高い情報の圧縮を行うことも可能である。   The data quantized by the quantizer 108 is encoded by the entropy encoder 113 (step S715). In general, entropy coding is a VLC (Variable Length Code) device, and performs variable length coding on quantized data. In variable-length coding, in general, zigzag scanning is performed from the low range to the high range of the DCT coefficient, the run length of zero and the effective coefficient value are regarded as one event, and a code with a short code length is assigned from the one with the highest appearance probability. Huffman encoding is performed. The entropy encoder 113 can compress higher information by using arithmetic coding instead of Huffman coding.

AVCでは、このエントロピー符号化にCAVLC(Context-Adaptive Variable Length Coding;コンテキスト適応型可変長符号化方式)及びCABAC(Context-Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号化方式)を用いることで効率を高めている。エントロピー符号化されたデータは、多重化器114で多重化され(ステップS716)、出力伝送器115から所定の転送レートで出力符号(符号化データ)116として出力される(ステップS717)。   In AVC, CAVLC (Context-Adaptive Variable Length Coding) and CABAC (Context-Adaptive Binary Arithmetic Coding) are used for this entropy coding. Increases efficiency. The entropy-encoded data is multiplexed by the multiplexer 114 (step S716), and output as output code (encoded data) 116 at a predetermined transfer rate from the output transmitter 115 (step S717).

なお、図22では、符号化データを蓄積し、符号量を制御するための符号量制御器を備えることもできる。出力される符号化データのマクロブロック毎の符号量は、図22では図示していない符号量制御器に通知し、通知された符号量と目標とする符号量との誤差符号量を量子化器108に通知する。量子化器108は、通知された誤差符号量の情報を基に量子化スケールを調整することで符号量を制御することが可能となる。   In FIG. 22, a code amount controller for accumulating encoded data and controlling the code amount can also be provided. The code amount for each macroblock of the encoded data to be output is notified to a code amount controller not shown in FIG. 22, and the error code amount between the notified code amount and the target code amount is quantized. 108 is notified. The quantizer 108 can control the code amount by adjusting the quantization scale based on the notified error code amount information.

このようにして出力された出力符号116は、符号化ビットストリームとして蓄積媒体やネットワークによる伝送により配信され、端末装置によって再生されることになる。端末装置で再生する場合には、配信された符号化ビットストリームは端末装置の復号化装置によって復号化された後に再生される。   The output code 116 output in this way is distributed as an encoded bit stream by transmission through a storage medium or a network, and is reproduced by a terminal device. In the case of reproduction by the terminal device, the distributed coded bit stream is reproduced after being decoded by the decoding device of the terminal device.

次に、復号化装置について説明する。図24は従来の復号化装置の一例として、AVCの復号化装置の構成に、動き補償後の予測ピクチャに対して特許文献1で用いられる平滑化処理を導入した場合の復号化装置の一例のブロック図を示す。この復号化装置の基本動作について、図25のフローチャートを併せ参照して以下に説明する。   Next, the decoding apparatus will be described. FIG. 24 shows an example of a decoding apparatus in a case where the smoothing process used in Patent Document 1 is introduced to the predicted picture after motion compensation in the configuration of the AVC decoding apparatus as an example of a conventional decoding apparatus. A block diagram is shown. The basic operation of this decoding apparatus will be described below with reference to the flowchart of FIG.

図24において、符号化ビットストリームは、入力符号301として入力受信器303にて受信された後(ステップS801)、多重化分離器304によりエントロピー符号化された動きベクトル情報やテクスチャ情報などの各情報に分離され(ステップS802)、各情報がエントロピー復号化器305に通知される。エントロピー復号化器305は、エントロピー符号化されたテクスチャ情報を復号する(ステップS803)。復号化制御器313は、エントロピー復号化器305の復号化結果に基づき、イントラ復号化するかどうか判定し(ステップS804)、イントラ復号化すべきピクチャの場合は、イントラ予測器308でイントラ予測し(ステップS805)、それにより得られた予測ピクチャをスイッチ302により選択し、イントラ復号化でないときは後述する動き補償器317で動き補償され(ステップS806)、更に平滑化フィルタ321で平滑化処理され(ステップS807)、それにより得られた予測ピクチャをスイッチ302により選択する。   In FIG. 24, after the encoded bit stream is received by the input receiver 303 as the input code 301 (step S801), each information such as motion vector information and texture information entropy-encoded by the demultiplexer 304 is obtained. (Step S802), and each information is notified to the entropy decoder 305. The entropy decoder 305 decodes the entropy-encoded texture information (step S803). The decoding controller 313 determines whether or not to perform intra decoding based on the decoding result of the entropy decoder 305 (step S804). If the picture is to be intra decoded, the intra predictor 308 performs intra prediction ( In step S805), the prediction picture obtained thereby is selected by the switch 302. When it is not intra decoding, motion compensation is performed by a motion compensator 317 described later (step S806), and smoothing processing is further performed by the smoothing filter 321 (step S806). In step S807), the prediction picture obtained thereby is selected by the switch 302.

すなわち、上記のエントロピー復号化器305は、復号化結果を逆量子化器306に通知する一方、エントロピー符号化された動きベクトル情報を復号し、動き補償器317に通知する。一般にエントロピー復号化は、逆VLC器であり、多重化分離されたデータに対して可変長復号化を行う。AVCでは、逆CAVLC若しくは逆CABACによって可変調復号化を行う。また、動き補償器317はエントロピー復号化器305から得られる動きベクトル情報に基づいて予測ピクチャを生成する。この予測ピクチャは平滑化フィルタ321に供給されて平滑化処理される。   That is, the entropy decoder 305 notifies the inverse quantizer 306 of the decoding result, while decoding the entropy-encoded motion vector information and notifies the motion compensator 317. In general, entropy decoding is an inverse VLC unit that performs variable length decoding on demultiplexed data. In AVC, modulation modulation is performed by inverse CAVLC or inverse CABAC. Also, the motion compensator 317 generates a predicted picture based on the motion vector information obtained from the entropy decoder 305. The predicted picture is supplied to the smoothing filter 321 and smoothed.

逆量子化器306では、エントロピー復号化されたテクスチャ情報に対して量子化値で乗算することにより、元の直交変換係数に近い値を計算した後に、逆直交変換器307に供給する(ステップS808)。逆直交変換器307は、供給された直交変換係数を逆直交変換することにより復号された差分ピクチャを得る(ステップS809)。この逆直交変換は、MPEG−1,−2及び4ではIDCT(逆離散余弦変換)を利用する。AVCでは、整数精度のIDCT及びアダマール変換を利用する。   The inverse quantizer 306 multiplies the entropy-decoded texture information by the quantized value to calculate a value close to the original orthogonal transform coefficient and then supplies the calculated value to the inverse orthogonal transformer 307 (step S808). ). The inverse orthogonal transformer 307 obtains a decoded differential picture by performing inverse orthogonal transform on the supplied orthogonal transform coefficient (step S809). This inverse orthogonal transform uses IDCT (Inverse Discrete Cosine Transform) in MPEG-1, -2, and 4. AVC uses integer precision IDCT and Hadamard transform.

逆直交変換器307によって得られた差分ピクチャは、第1合成器309に供給され、ここでスイッチ302により選択された、平滑化フィルタ321若しくはイントラ予測器308からの予測ピクチャと合成された後に(ステップS810)、イントラ予測器308に供給されると共に、デブロックフィルタ310によりブロック歪み低減のためのデブロッキング処理が施された後(ステップS811)、フレームメモリ311に参照ピクチャとして格納される(ステップS812)。また、フレームメモリ311から復号画像フレームが出力符号312として出力される。このようにして、入力符号301は、端末装置の復号化装置によって復号化され、映像情報が再生される。   The difference picture obtained by the inverse orthogonal transformer 307 is supplied to the first synthesizer 309, where it is synthesized with the predicted picture from the smoothing filter 321 or the intra predictor 308 selected by the switch 302 ( Step S810) is supplied to the intra predictor 308, and after deblocking processing for reducing block distortion is performed by the deblocking filter 310 (Step S811), it is stored as a reference picture in the frame memory 311 (Step S810). S812). Also, the decoded image frame is output as the output code 312 from the frame memory 311. In this way, the input code 301 is decoded by the decoding device of the terminal device, and the video information is reproduced.

ここで、特許文献1では、符号化ビットストリームを生成した際に動き補償後の予測ピクチャに対して平滑化処理を行う構成を伴う符号化方法によって生成した、符号化ビットストリームに対して復号化を行う場合に、符号化方法で利用した平滑化フィルタ処理と同様の処理を行う平滑化フィルタ321を動き補償器317の後段に設けることで、正しい復号化処理を行うことができる。   Here, in Patent Document 1, when an encoded bitstream is generated, decoding is performed on the encoded bitstream generated by an encoding method that includes a configuration in which smoothing processing is performed on a predicted picture after motion compensation. When performing the above, a smoothing filter 321 that performs the same processing as the smoothing filter processing used in the encoding method is provided in the subsequent stage of the motion compensator 317, so that correct decoding processing can be performed.

また、近年、自然画像の符号化方式として知られるJPEG(Joint Photographic Experts Group)方式の符号化に対して、多重調和局所直交変換、特に多重調和局所余弦変換を用いて更なる符号化効率の向上を試みる手法が提案されている(例えば、非特許文献3参照)。この多重調和局所余弦変換手法では、ポアソン方程式の概念を導入してブロック内の原信号に対する推定信号を求め、原信号と求めた推定信号との差分である残差信号を生成することで、DCTを導入した際により高い周波数のDCT係数を早く収束させることが可能となり、結果として符号化効率を向上させることができる。   In addition, in recent years, JPEG (Joint Photographic Experts Group) encoding, which is known as a natural image encoding scheme, is further improved in encoding efficiency by using multiple harmonic local orthogonal transform, particularly multiple harmonic local cosine transform. There has been proposed a method for trying (see, for example, Non-Patent Document 3). In this multi-harmonic local cosine transform method, the concept of the Poisson equation is introduced to obtain an estimated signal for the original signal in the block, and a residual signal that is a difference between the original signal and the obtained estimated signal is generated. It is possible to quickly converge DCT coefficients having a higher frequency when introducing, and as a result, it is possible to improve the encoding efficiency.

図26は、この多重調和局所余弦変換手法の基本概念を示すための概念図である。図26は、原画像フレーム内のある特定のブロックにおいて、その中のある特定のラインに注目し、注目したラインの原信号と、ブロック境界上にあるその原信号の境界の状態が、この手法によってどのように推移するかを示している。   FIG. 26 is a conceptual diagram for illustrating the basic concept of this multiple harmonic local cosine transform method. FIG. 26 shows a particular block in the original image frame in which attention is paid to a particular line, and the state of the original signal on the noticed line and the boundary of the original signal on the block boundary is shown in FIG. Shows how it changes.

図26(a)が示す原信号2201に対して、ブロック境界2204,2205に対応する原信号の両端部分における画像信号の傾き2202、2203を求める。この両端部分の画像信号の傾き2202,2203を境界条件とする。多重調和局所余弦変換手法では、ブロック内の信号の振る舞いを規定する所定のソースモデルを適用し、ブロック内の信号をブロックの境界条件に基づいて推定信号を生成する。   With respect to the original signal 2201 shown in FIG. 26A, the inclinations 2202 and 2203 of the image signals at both ends of the original signal corresponding to the block boundaries 2204 and 2205 are obtained. The gradients 2202 and 2203 of the image signals at both ends are used as boundary conditions. In the multiple harmonic local cosine transform method, a predetermined source model that defines the behavior of a signal in a block is applied, and an estimated signal is generated from the signal in the block based on the boundary condition of the block.

ここでは、図26(b)が示すような原信号の両端部分の画像信号の傾きを境界条件として、推定信号2206を生成する。所定のソースモデルは、境界条件の下で原信号に最も近い信号を推定することができるモデルを採用することが望ましい。一般に、図26に示す1次元の信号の場合には、所定のソースモデルとして2次関数を適用することで容易に求めることが可能であるが、ここでは特にこのモデルに限定されるものではないことに注意する。このように所定のソースモデルを導入することで膨大な演算量を費やしてポアソン方程式を数値的に解くことなく、解析的にブロック内の推定信号を生成している。   Here, the estimated signal 2206 is generated using the gradients of the image signals at both ends of the original signal as shown in FIG. As the predetermined source model, it is desirable to adopt a model that can estimate a signal closest to the original signal under boundary conditions. In general, in the case of the one-dimensional signal shown in FIG. 26, it can be easily obtained by applying a quadratic function as a predetermined source model, but it is not limited to this model here. Note that. By introducing a predetermined source model in this way, an estimated signal in the block is generated analytically without spending a huge amount of computation and solving the Poisson equation numerically.

図26(b)に示すような境界条件に基づいた推定信号2206を生成した後、原信号と推定信号との間で差分を求めることで、図26(c)が示すような残差信号2207を生成する。このようにして求めた残差信号2207に対して通常の直交変換であるDCTや量子化及びエントロピー符号化を行うことで、この多重調和局所余弦変換手法を用いた自然画像の符号化が完了する。   After generating an estimated signal 2206 based on the boundary condition as shown in FIG. 26B, a difference between the original signal and the estimated signal is obtained to obtain a residual signal 2207 as shown in FIG. Is generated. The residual signal 2207 thus obtained is subjected to normal orthogonal transformation, such as DCT, quantization, and entropy coding, thereby completing the natural image coding using the multiple harmonic local cosine transformation method. .

図27及び図28は、多重調和局所余弦変換手法を用いることで通常のDCTとどのような違いが生じるかを示すためのものである。図27は、図26(a)の原信号に対して通常のDCTを行った場合の例を示す。図27中、横軸はx方向にのみ注目した際の画像信号のx方向のx、縦軸は画像信号の1ラインの各画素の値(輝度値)を示す。また、図27では便宜上、波形を連続関数で示しているが、実際は離散値である(図28も同様)。   FIG. 27 and FIG. 28 are intended to show what difference from the normal DCT is caused by using the multiple harmonic local cosine transform method. FIG. 27 shows an example in which normal DCT is performed on the original signal of FIG. In FIG. 27, the horizontal axis indicates x in the x direction of the image signal when attention is paid only to the x direction, and the vertical axis indicates the value (luminance value) of each pixel of one line of the image signal. In FIG. 27, the waveform is shown as a continuous function for convenience, but it is actually a discrete value (the same applies to FIG. 28).

通常、DCTのタイプは、DCT−IIを利用することから、図27(a)が示すようなブロックで区切られた有限な原信号に対してDCTを行う場合には、原信号のブロック境界の片方、ここでは右側を軸として原信号を偶接続し、図27(b)が示すような原信号の周期波形信号とする。   Since the DCT type normally uses DCT-II, when DCT is performed on a finite original signal divided by blocks as shown in FIG. 27A, the block boundary of the original signal is On one side, here, the original signal is evenly connected with the right side as the axis, and a periodic waveform signal of the original signal as shown in FIG.

このような周期波形信号とすることにより、図27(c)のようなDCT級数で表現することが可能となる。通常、図27(b)の点線部2301〜2303が示すように、原信号を偶接続した場合に、信号の滑らかさが必ずしも十分でない部分が生じる。この影響から、図27(c)で示すDCT級数の各振幅であるDCT係数は、信号の偶接続によって本来原信号がもつ信号成分とは異なる信号成分が混入することから、図27(c)の点線部2304が示すような高い周波数成分領域であっても、DCT係数の収束が必ずしも十分ではない状態となる。従って、このようなDCT係数に対して所定の量子化及びエントロピー符号化を行った場合には相応の符号量が発生することになる。   By using such a periodic waveform signal, it can be expressed by a DCT series as shown in FIG. Usually, as indicated by the dotted line portions 2301 to 2303 in FIG. 27B, when the original signal is evenly connected, a portion where the smoothness of the signal is not necessarily sufficient occurs. Due to this influence, the DCT coefficient, which is each amplitude of the DCT series shown in FIG. 27C, is mixed with a signal component different from the signal component originally possessed by the original signal due to the even connection of the signals. Even in a high frequency component region as indicated by the dotted line portion 2304, the DCT coefficient is not necessarily sufficiently converged. Accordingly, when predetermined quantization and entropy coding is performed on such a DCT coefficient, a corresponding code amount is generated.

これに対し、多重調和局所余弦変換手法を用いた場合が図28である。この手法を用いて図26(b)が示すような推定信号2206を生成した後、図26(a)との差分をとることで図26(c)及び図28(a)に示すような残差信号2207を得る。この残差信号2207を利用することで、図28(a)に示すように、図27(a)と同様にこの残差信号2207を仮に信号の右側を軸として偶接続すると、図28(b)に示すような残差信号の周期波形信号が得られる。   On the other hand, FIG. 28 shows the case where the multiple harmonic local cosine transform method is used. After generating an estimated signal 2206 as shown in FIG. 26 (b) using this method, the difference from FIG. 26 (a) is taken to obtain the remaining signal as shown in FIG. 26 (c) and FIG. 28 (a). A difference signal 2207 is obtained. By using this residual signal 2207, as shown in FIG. 28 (a), if this residual signal 2207 is evenly connected with the right side of the signal as an axis, as in FIG. 27 (a), FIG. A periodic waveform signal of the residual signal as shown in FIG.

得られた残差信号の周期波形信号は、周期接続部分である図28(b)の点線部2401〜2403において、図27(b)に示した原信号の周期波形信号の対応する部分の波形よりも滑らかさが向上すると共に、本来原信号には含まれない不要な信号成分の混入を防ぐことが可能となる。従って、図28(b)に示した残差信号の周期波形信号を離散周期波形とみなしてDCTを行い、そのスペクトルを表現すると、図28(c)にIで示すようなDCT係数列、すなわち残差直交変換係数(ここでは、残差DCT係数情報)が得られる。図28(c)にIで示す残差DCT係数情報は、通常のDCTを行った場合の同図(c)にIIで示すDCT係数列と比較すると、図28(c)の点線部2404が示すような高い周波数成分領域でDCT係数が十分抑制され、より低い周波数成分をもつDCT係数に偏った状態となる。   The obtained periodic waveform signal of the residual signal is a waveform of a portion corresponding to the periodic waveform signal of the original signal shown in FIG. 27B in the dotted line parts 2401 to 2403 of FIG. As a result, it is possible to improve smoothness and to prevent unnecessary signal components that are not originally included in the original signal from being mixed. Therefore, when the DCT is performed by regarding the periodic waveform signal of the residual signal shown in FIG. 28B as a discrete periodic waveform and the spectrum thereof is expressed, a DCT coefficient sequence as shown by I in FIG. Residual orthogonal transform coefficients (here, residual DCT coefficient information) are obtained. The residual DCT coefficient information indicated by I in FIG. 28C is compared with the DCT coefficient sequence indicated by II in FIG. 28C when ordinary DCT is performed, and a dotted line portion 2404 in FIG. The DCT coefficient is sufficiently suppressed in the high frequency component region as shown, and the state is biased toward the DCT coefficient having a lower frequency component.

従って、このような多重調和局所余弦変換手法を用いたDCT係数に対して所定の量子化及びエントロピー符号化を行うことで、通常のDCTによる符号化を行った場合よりも発生する符号量を抑制することが可能となり、符号化効率の向上につながる。   Therefore, by performing predetermined quantization and entropy coding on the DCT coefficients using such a multi-harmonic local cosine transform method, the amount of codes generated can be reduced as compared with the case where coding by normal DCT is performed. This leads to an improvement in coding efficiency.

以上が多重調和局所余弦変換手法を用いた場合の基本概念である。ここでは、多重調和局所余弦変換手法の基本概念を簡単に説明するために、原信号の境界条件に基づいて推定信号を生成し、原信号との差分により残差信号を生成した後にDCTを行うことで実現することを示した。   The above is the basic concept when the multiple harmonic local cosine transform method is used. Here, in order to briefly explain the basic concept of the multiple harmonic local cosine transform method, an estimated signal is generated based on boundary conditions of the original signal, and a DCT is performed after generating a residual signal based on the difference from the original signal. It was shown that it will be realized.

また、ブロック内の原信号と境界条件からの推定信号に対してそれぞれDCTを行ってそれぞれのDCT係数を求めた後に差分をとることで、上記残差信号に対してDCTを行った場合と同様の結果が得られるような方法が、従来開示されている(例えば、非特許文献3参照)。   Also, the DCT is performed on the original signal in the block and the estimated signal from the boundary condition to obtain the respective DCT coefficients, and then the difference is obtained, as in the case where the DCT is performed on the residual signal. A method for obtaining the result of the above has been conventionally disclosed (see, for example, Non-Patent Document 3).

以下に簡単ではあるが非特許文献3で示される方法について説明する。まず、入力される画像フレームに対して、数1によって表現される図29に示される各ブロックとして画像フレームの画像信号をとらえる。   Hereinafter, although simple, a method shown in Non-Patent Document 3 will be described. First, an image signal of an image frame is captured as each block shown in FIG.

Figure 0004561688
図29のΩ(0,0)が現在処理対象となっているブロックであるものとする。また、各ブロック内の各画素は、数2で表現される。
Figure 0004561688
It is assumed that Ω (0, 0) in FIG. 29 is a block currently being processed. In addition, each pixel in each block is expressed by Equation 2.

Figure 0004561688
まず、各ブロックの画像信号に対して直交変換を行う。ここでは数3に示すようなDCTを行う。
Figure 0004561688
First, orthogonal transformation is performed on the image signal of each block. Here, DCT as shown in Equation 3 is performed.

Figure 0004561688
次に、境界条件である画像信号の傾きを周波数領域で議論することができるように、DCT級数で表現する。ここでは数4に示した境界条件のDCT級数展開の式を利用して画像信号の傾きをgとした場合に数4に示した式中のGのようなDCT係数で表現する。
Figure 0004561688
Next, the gradient of the image signal, which is a boundary condition, is expressed by a DCT series so that it can be discussed in the frequency domain. Here, when the gradient of the image signal is set to g using the DCT series expansion formula of the boundary condition shown in Formula 4, it is expressed by a DCT coefficient such as G k in the formula shown in Formula 4.

Figure 0004561688
また、ポアソン方程式の概念を導入してブロック内の原信号に対する推定信号を求める。ここで、ポアソン方程式は、処理対象ブロックQjにおいて、ブロック内の推定信号uのラプラシアンである△ujがソース項Kjとの間において、次式が成立する方程式である。
Figure 0004561688
In addition, the concept of the Poisson equation is introduced to obtain an estimated signal for the original signal in the block. Here, the Poisson equation, the target block Q j, between is the Laplacian of the estimated signal u in the block △ u j is the source term K j, is an equation in which the following equation is established.

△uj=Kj
ブロック内の推定信号uはノイマンの境界条件とDCT級数表記を用いることで、数6に示す式のように表現することができる。これは、数5で示すような各境界からの推定信号のDCT級数展開成分を足し合わせることで求められる。
△ u j = K j
The estimated signal u in the block can be expressed as shown in Equation 6 using Neumann boundary conditions and DCT series notation. This can be obtained by adding the DCT series expansion components of the estimation signal from each boundary as shown in Equation 5.

Figure 0004561688
Figure 0004561688

Figure 0004561688
このような推定信号uに対してDCTを行うことで、次式で表される推定信号Uを得ることができる。
Figure 0004561688
By performing DCT on such an estimated signal u, an estimated signal U represented by the following equation can be obtained.

k1,k2=Gk1 (1)ηk1,k2+Gk1 (2)η* k1,k2
+Gk2 (3)ηk2,k1+Gk2 (4)η* k2,k1 (1)
ただし、(1)式中、ηk,m、η* k,mは次式で表される。
U k1, k2 = G k1 (1) η k1, k2 + G k1 (2) η * k1, k2
+ G k2 (3) η k2, k1 + G k2 (4) η * k2, k1 (1)
However, in the equation (1), η k, m and η * k, m are expressed by the following equations.

Figure 0004561688
ここで、数7に示した式から、η及びη*はブロック内の位置情報のみに依存し、ブロック内の画像信号には依存しないことから、あらかじめ一意に計算して求めておくことができる。したがって推定信号Uを求めるためには、傾きのDCT係数情報Gkを求めることが重要となる。
Figure 0004561688
Here, from the equation shown in Equation 7, since η and η * depend only on the position information in the block and do not depend on the image signal in the block, they can be uniquely calculated in advance. . Therefore, in order to obtain the estimated signal U, it is important to obtain the DCT coefficient information G k of the slope.

ここで、Gkをブロック内の原信号に対してDCTを行った後のDCT係数情報を利用して求めることを可能にするため、境界条件であるブロック境界における画像信号の傾きを求める際に、数8の式で示されるようなブロック内の各方向の信号成分の平均値を代表値としてブロック間の傾きを算出し、この傾きをブロック境界での傾きとして近似することでgを求める。 Here, in order to make it possible to obtain G k by using DCT coefficient information after performing DCT on the original signal in the block, when obtaining the inclination of the image signal at the block boundary, which is a boundary condition. The slope between the blocks is calculated using the average value of the signal components in each direction in the block as represented by the equation (8) as a representative value, and g is obtained by approximating this slope as the slope at the block boundary.

Figure 0004561688
続いて、この近似されたgに対してDCTを行うことでGを求める。ここで、Gを求める際に数8に示した式を考慮して数9に示した式変形を行うことで、GをF、つまりブロック内のDCT係数情報を利用して求めることが可能となる。
Figure 0004561688
Subsequently, G is obtained by performing DCT on the approximated g. Here, when obtaining G, the equation shown in Equation 9 is considered in consideration of the equation shown in Equation 8, so that G can be obtained using F, that is, DCT coefficient information in the block. Become.

Figure 0004561688
Figure 0004561688
大久保榮 監修、角野眞也、菊池義浩、鈴木輝彦 共編,“H.264/AVC教科書”、株式会社インプレス、2004年8月Supervised by Satoshi Okubo, Junya Tsuno, Yoshihiro Kikuchi, Teruhiko Suzuki, “H.264 / AVC Textbook”, Impress Inc., August 2004 小野定康、村上篤道、浅井光太郎 共著、“動画像の高能率符号化”、株式会社オーム社、2005年4月Co-authored by Sadayasu Ono, Atshimichi Murakami, and Kotaro Asai, “High-efficiency coding of moving images”, Ohm Corporation, April 2005 山谷 克、斉藤 直樹,“Improvement of DCT-based Compression Algorithms Using Poisson's Equation”、インターネット<URL:http://math.ucavis.edu/~saito/publications/phlct.html>Masaru Yamatani, Naoki Saito, “Improvement of DCT-based Compression Algorithms Using Poisson's Equation”, Internet <URL: http://math.ucavis.edu/~saito/publications/phlct.html> 再公表特許 WO2003/003749Republished patent WO2003 / 003749

従来の動画像符号化においては、動き推定を行う際に参照画像フレーム内においてブロックマッチングに相当する所定の探索範囲内の探索を行う。このブロックマッチングにおいては、通常、SAD(Sum of Absolute Difference;予測誤差の絶対値誤差和)が最小となるようなブロックを参照画像フレーム内から探し出し、現在の符号化対象となっているブロックからの距離を動きベクトル情報として求める。従って、生成した動きベクトル情報に基づいて動き補償を行うことによって生成する予測ピクチャにおいて、各ブロック間の画像としての特徴、例えば画像に含まれる物体の形状や輪郭、ブロック内の模様であるテクスチャの性質が、ブロック間において滑らかに接続されずにブロック間で不連続な状態となることがある。   In the conventional video encoding, a search within a predetermined search range corresponding to block matching is performed within a reference image frame when performing motion estimation. In this block matching, normally, a block having the smallest SAD (Sum of Absolute Difference) is searched from the reference image frame, and the block from the current encoding target block is searched. The distance is obtained as motion vector information. Therefore, in the prediction picture generated by performing motion compensation based on the generated motion vector information, the characteristics of the image between the blocks, for example, the shape and contour of the object included in the image, the texture that is the pattern in the block, The property may be in a discontinuous state between blocks without being smoothly connected between blocks.

ブロック境界の不連続性と、ブロック内のテクスチャ情報の不整合は、一般に動画像のピクチャ間において、動画像内に含まれる物体の動きが大きい場合や、物体自体の変形、複数の物体との間の相互関係の変化、つまり物体の消失や出現が生じている場合に多く発生する。   Discontinuity of block boundaries and inconsistency of texture information in blocks are generally caused when the motion of an object included in a moving image is large between moving pictures, deformation of the object itself, or multiple objects. It often occurs when there is a change in the interrelationship between the objects, that is, disappearance or appearance of an object.

このようなブロック間の不連続性やテクスチャ情報の不整合を改善するために、前述した特許文献1記載の発明では、ブロック間の境界付近の画素に対して画像信号の平滑化を行うことで、不連続な状態を緩和することを試みている。   In order to improve such discontinuity between blocks and inconsistency of texture information, the invention described in Patent Document 1 described above performs smoothing of an image signal on pixels near the boundary between blocks. Try to alleviate the discontinuous state.

しかし、このような試みでは、平滑化の強弱によってブロック間の不連続性を十分緩和することができない場合がある。例えば、平滑化の強度が必要とする強度よりも弱い場合には、ブロック間の不連続性が十分改善することができずに依然としてブロック歪みとして影響が残る。また、平滑化の強度が必要とする強度よりも強い場合には、ブロック境界部分の不連続性は改善されるものの、ブロック内のテクスチャ情報に対しても平滑化を掛けすぎてしまうため、結果としてブロック内のテクスチャ情報が劣化する。   However, in such an attempt, the discontinuity between blocks may not be sufficiently relaxed due to the strength of smoothing. For example, when the smoothing strength is weaker than the required strength, the discontinuity between blocks cannot be sufficiently improved and the influence remains as block distortion. Also, if the smoothing strength is higher than the required strength, the discontinuity of the block boundary is improved, but the texture information in the block is too smoothed. As a result, the texture information in the block deteriorates.

また、平滑化を行った後に、符号化対象となっている動画像フレームとの差分を行うことで生成する差分画像フレームに対して所定の直交変換、量子化及びエントロピー符号化を行うことになる。ここで、動き推定において最適なブロックを選択した後に動き補償によって生成した予測ピクチャに対して平滑化を行うため、必ずしも最適なブロックとはならず、平滑化後に同等の品質をもつブロックは、参照ピクチャ内に他にも存在する可能性がある。従って、動きベクトル情報や量子化後の直交変換係数情報の符号量を考慮して、より最適な動きベクトル情報を求めようとすると、動き推定、動き補償、平滑化処理を繰り返し行って最適な動きベクトル情報を決定する必要があり、多くの演算量を費やさなければならない。   In addition, after performing smoothing, predetermined orthogonal transformation, quantization, and entropy coding are performed on the difference image frame generated by performing the difference from the moving image frame to be encoded. . Here, since smoothing is performed on the predicted picture generated by motion compensation after selecting the optimal block in motion estimation, the block is not necessarily the optimal block. There may be others in the picture. Therefore, when trying to obtain more optimal motion vector information in consideration of the amount of code of motion vector information and quantized orthogonal transform coefficient information, motion estimation, motion compensation, and smoothing processing are repeatedly performed to obtain the optimal motion vector information. Vector information needs to be determined, and a large amount of computation must be expended.

本発明は以上の点に鑑みなされたもので、平滑化処理を行うことなく、一般的に用いられる動き推定及び動き補償によって生じる、ブロック間の不連続な状態を解消し、ブロック境界部分においても、含まれる画像信号の連続性が維持されるような予測ピクチャを生成し得る動画像符号化装置、動画像符号化プログラム、動画像復号化装置、及び動画像復号化プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and eliminates a discontinuous state between blocks caused by generally used motion estimation and motion compensation without performing a smoothing process. An object of the present invention is to provide a moving picture encoding apparatus, a moving picture encoding program, a moving picture decoding apparatus, and a moving picture decoding program capable of generating a predicted picture in which the continuity of included image signals is maintained. And

また、本発明の他の目的は、発生する情報量に応じて、生成される差分ピクチャを情報量が少なくなるように随時切り替えることで、符号化ビットストリーム全体としての符号化効率を向上させることが可能な動画像符号化装置、動画像符号化プログラム、動画像復号化装置、及び動画像復号化プログラムを提供することにある。   Another object of the present invention is to improve the coding efficiency of the entire coded bitstream by switching the generated difference picture as needed to reduce the amount of information according to the amount of information generated. It is an object to provide a moving image encoding device, a moving image encoding program, a moving image decoding device, and a moving image decoding program.

上記の目的を達成するため、第1の発明の動画像符号化装置は、入力された符号化対象の動画像信号の一画面領域を、所定の画素数からなる矩形領域を単位として細分割し、矩形領域を処理単位として局部復号画像信号である参照ピクチャから生成された予測ピクチャと符号化対象の動画像信号である符号化ピクチャとの差分信号である差分ピクチャを生成し、差分ピクチャに対して符号化を行う動画像符号化装置において、符号化ピクチャ内の予測対象としている矩形領域と、その矩形領域に隣接する他の矩形領域との間の境界部分を探索単位として境界部分の境界条件を求め、その境界条件に適合する境界条件を持つ参照ピクチャの境界部分を参照ピクチャ内の動きベクトル探索を行うことによって特定し、更に符号化ピクチャ内の矩形領域の境界部分から参照ピクチャ内の特定した境界部分までの動きベクトル情報である境界部動きベクトル情報を生成する領域境界動き推定手段と、境界部動きベクトル情報に基づいて参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、処理対象になっている符号化ピクチャ内における矩形領域内の信号成分と、領域境界動き補償手段が生成する第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、比較する際の基準となる差分情報である基準差分情報を生成し、参照ピクチャ内で動きベクトル探索対象となっている矩形領域内の信号成分と、第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、動きベクトル探索時の比較対象となる探索対象差分情報を生成し、その探索対象差分情報と基準差分情報の信号成分とを比較しながら適合する矩形領域を参照ピクチャ内で動きベクトル探索を行い、適合した参照ピクチャ内の矩形領域までの動きベクトル情報である差分成分動きベクトル情報を生成する領域内差分動き推定手段と、差分成分動きベクトル情報に基づいて、参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、第1の予測ピクチャと予測残差ピクチャとを合成することで第2の予測ピクチャを生成する合成手段と、第2の予測ピクチャと符号化ピクチャとの差分から第1の差分ピクチャを生成する第1の差分手段と、第1の差分ピクチャに対して所定の直交変換を行うことで直交変換係数情報を生成する直交変換手段と、直交変換係数情報に対して所定の量子化パラメータに基づいて所定の量子化を行うことで量子化後情報を生成する量子化手段と、量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、復号差分ピクチャと少なくとも第2の予測ピクチャとを合成して局部復号画像信号を生成する局部復号画像信号生成手段と、少なくとも1ピクチャ分の局部復号画像信号を参照ピクチャとして保持すると共に、保持しているその参照ピクチャを領域境界動き推定手段、領域境界動き補償手段、領域内差分動き推定手段及び領域内差分動き補償手段へそれぞれ供給する記憶手段と、少なくとも量子化後情報、境界部動きベクトル情報、及び差分成分動きベクトル情報に対して所定のエントロピー符号化を行うことで符号化ビット列を生成するエントロピー符号化手段と、所定の構文構造に基づいて符号化ビット列を多重化することで符号化ビットストリームを生成する多重化手段とを少なくとも備えることを特徴とする。   In order to achieve the above object, the moving picture coding apparatus according to the first aspect of the present invention subdivides one screen area of the inputted moving picture signal to be coded in units of a rectangular area having a predetermined number of pixels. Generating a difference picture that is a difference signal between a prediction picture generated from a reference picture that is a locally decoded image signal and a coded picture that is a moving image signal to be encoded using a rectangular area as a processing unit, In the moving picture coding apparatus that performs coding, the boundary condition of the boundary portion with the boundary portion between the rectangular region to be predicted in the coded picture and another rectangular region adjacent to the rectangular region as a search unit Is determined by performing a motion vector search in the reference picture with a boundary condition matching the boundary condition, and a rectangle in the encoded picture Region boundary motion estimation means for generating boundary portion motion vector information, which is motion vector information from the boundary portion of the region to the specified boundary portion in the reference picture, and the corresponding boundary portion from the reference picture based on the boundary portion motion vector information The first predicted picture is generated by generating an estimated image signal in each rectangular area in the encoded picture that satisfies the Poisson equation based on the boundary condition of the specified boundary portion. The difference between the region boundary motion compensation unit, the signal component in the rectangular region in the encoded picture to be processed, and the signal component in the rectangular region in the first predicted picture generated by the region boundary motion compensation unit By performing the calculation, reference difference information, which is difference information that becomes a reference for comparison, is generated and becomes a motion vector search target in the reference picture. Difference information between the signal component in the rectangular region and the signal component in the rectangular region in the first predicted picture is generated to generate search target difference information to be compared in motion vector search, A motion vector search is performed within the reference picture for a matching rectangular area while comparing the search target difference information and the signal component of the reference difference information, and a difference component motion vector that is motion vector information up to the rectangular area in the adapted reference picture Based on the difference component motion vector information, the intra-regional difference motion estimation means for generating information, the corresponding rectangular region is identified from the reference picture, the signal component in the rectangular region in the identified reference picture, and the first prediction Intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from a difference from a signal component in a corresponding rectangular region in the picture; A first synthesizing unit that generates a second predicted picture by synthesizing the first predicted picture and the predicted residual picture; and a first that generates a first difference picture from a difference between the second predicted picture and the encoded picture. A difference means, an orthogonal transform means for generating orthogonal transform coefficient information by performing a predetermined orthogonal transform on the first difference picture, and a predetermined quantization parameter for the orthogonal transform coefficient information based on a predetermined quantization parameter Quantization means for generating post-quantization information by performing quantization, and performing predetermined dequantization based on a predetermined quantization parameter for the post-quantization information to generate post-quantization information, Decoding difference picture generation means for generating a decoded difference picture by performing predetermined inverse orthogonal transform on the dequantized information, and decoding and local decoding by combining the decoded difference picture and at least the second predicted picture A local decoded image signal generating means for generating an image signal, and holding a local decoded image signal for at least one picture as a reference picture, and holding the reference picture as an area boundary motion estimating means, an area boundary motion compensating means, Predetermined entropy coding is performed on storage means for supplying to each of the intra-regional differential motion estimation means and the intra-regional differential motion compensation means, and at least post-quantization information, boundary motion vector information, and differential component motion vector information And at least an entropy encoding means for generating an encoded bit string and a multiplexing means for generating an encoded bit stream by multiplexing the encoded bit string based on a predetermined syntax structure.

この発明では、ある特定の領域における境界条件を確定することができれば、その領域の境界条件に基づいてポアソン方程式を満たすような推定信号を生成することができるという特徴を利用するために、現在動画像の符号化対象となっている符号化ピクチャ内の矩形領域と、その矩形領域に隣接する他の矩形領域との間の境界部分を探索単位として境界部分の境界条件を求め、その境界条件に適合する境界条件を持つ参照ピクチャの境界部分を参照ピクチャ内の動きベクトル探索を行うことによって特定し、更に符号化ピクチャ内の矩形領域の境界部分から参照ピクチャ内の特定した境界部分までの動きベクトル情報である境界部動きベクトル情報を生成することで領域境界動き推定を行う。そして、この境界部動きベクトル情報に基づいて推定信号を生成する際に必要な境界条件を特定してポアソン方程式に適用することで予測信号を生成し、第1の予測ピクチャを生成することで領域境界動き補償を行う。   In the present invention, if a boundary condition in a specific region can be determined, an estimated signal that satisfies the Poisson equation can be generated based on the boundary condition of the region. The boundary condition between the rectangular area in the encoded picture that is the encoding target of the image and the other rectangular area adjacent to the rectangular area is determined as a search unit, and the boundary condition is set as the boundary condition. A boundary part of a reference picture having a matching boundary condition is specified by performing a motion vector search in the reference picture, and a motion vector from the boundary part of the rectangular area in the encoded picture to the specified boundary part in the reference picture Region boundary motion estimation is performed by generating boundary portion motion vector information as information. A boundary signal necessary for generating an estimated signal based on the boundary motion vector information is specified and applied to the Poisson equation to generate a prediction signal, and a first prediction picture is generated to generate a region. Perform boundary motion compensation.

更に、この発明では、符号化ピクチャ内における矩形領域内の信号成分と、第1の予測ピクチャ内における矩形領域内の信号成分との差分演算により基準差分情報を生成し、また、参照ピクチャ内で動きベクトル探索対象となっている矩形領域内の信号成分と、第1の予測ピクチャ内における矩形領域内の信号成分との差分演算により、動きベクトル探索時の比較対象となる探索対象差分情報を生成し、これら探索対象差分情報と基準差分情報の信号成分とを比較しながら、適合する矩形領域を参照ピクチャ内から動きベクトル探索を行い、適合した参照ピクチャ内の矩形領域までの動きベクトル情報である差分成分動きベクトル情報を生成する領域内差分動き推定を行う。そして、この差分成分動きベクトル情報に基づいて、参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成することで領域内差分動き補償を行う。このようにして得られた、第1の予測ピクチャと予測残差ピクチャとを合成することで第2の予測ピクチャを生成する。   Furthermore, in the present invention, the reference difference information is generated by calculating the difference between the signal component in the rectangular area in the encoded picture and the signal component in the rectangular area in the first predicted picture, and the reference difference information is generated in the reference picture. Search target difference information to be compared during motion vector search is generated by calculating the difference between the signal component in the rectangular area that is the motion vector search target and the signal component in the rectangular area in the first predicted picture. The search target difference information is compared with the signal component of the reference difference information, and a motion vector search is performed from the reference picture for a suitable rectangular area, and the motion vector information is obtained up to the rectangular area in the adapted reference picture. Intra-region differential motion estimation is performed to generate differential component motion vector information. Then, based on the difference component motion vector information, the corresponding rectangular area is identified from the reference picture, the signal component in the rectangular area in the identified reference picture, and the corresponding rectangular area in the first predicted picture Intra-regional differential motion compensation is performed by generating a prediction residual picture that is a differential prediction picture from the difference from the signal component. A second predicted picture is generated by combining the first predicted picture and the predicted residual picture obtained in this way.

また、上記の目的を達成するため、第2の発明の動画像符号化装置は、符号化ピクチャ内の各矩形領域において記憶手段から取得した参照ピクチャ内をブロックマッチングによって動きベクトル探索を行い、適合する矩形領域までの動きベクトル情報を生成する動き推定手段と、動き推定手段により生成された動きベクトル情報に基づいて、記憶手段から取得した参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、第4の予測ピクチャと符号化ピクチャとの差分から第2の差分ピクチャを生成する第2の差分手段と、第1の差分ピクチャと第2の差分ピクチャとを所定の判定基準に基づいて比較し、情報量の少ない方の差分ピクチャを選択する差分判定手段と、差分判定手段が選択した差分ピクチャ及びその選択した差分ピクチャの生成要素である予測ピクチャを所定の手段に供給するための制御を行う符号化制御手段とを、第1の発明に追加したことを特徴とする。   In order to achieve the above object, the moving picture coding apparatus according to the second invention performs motion vector search by block matching in the reference picture acquired from the storage means in each rectangular area in the coded picture, and is adapted. A motion estimation unit that generates motion vector information up to the rectangular region to be detected, a corresponding rectangular region is identified from the reference picture acquired from the storage unit based on the motion vector information generated by the motion estimation unit, and the fourth prediction Motion compensation means for generating a picture, second difference means for generating a second difference picture from the difference between the fourth predicted picture and the coded picture, a first difference picture, and a second difference picture A difference determination unit that selects a difference picture with a smaller amount of information by comparing based on a predetermined determination criterion, and a difference picture selected by the difference determination unit And an encoding control means for controlling to supply a prediction picture is generated element of the selected difference picture in a predetermined unit, characterized in that added to the first invention.

この発明では、所定の矩形領域単位による動きベクトル探索を行って動きベクトル情報を生成する動き推定、及び生成したその動きベクトル情報に基づいて動き補償を行うことで第4の予測ピクチャを得た後、符号化ピクチャと第2の予測ピクチャとの差分から第1の差分ピクチャを生成すると共に、符号化ピクチャと第4の予測ピクチャとの差分から第2の差分ピクチャを生成し、それら第1の差分ピクチャと第2の差分ピクチャとを差分判定手段により所定の判定条件に基づいて比較し、情報量の少ない方の差分ピクチャを選択し、後段の直交変換に供給するようにしたため、生成される差分ピクチャを情報量が少なくなるように随時切り替えることができる。   In the present invention, after obtaining a fourth predicted picture by performing motion estimation based on a predetermined rectangular area unit to generate motion vector information, and performing motion compensation based on the generated motion vector information A first difference picture is generated from the difference between the encoded picture and the second predicted picture, and a second difference picture is generated from the difference between the encoded picture and the fourth predicted picture. Generated because the difference picture and the second difference picture are compared by the difference judging means based on a predetermined judgment condition, the difference picture with the smaller amount of information is selected and supplied to the subsequent orthogonal transformation The difference picture can be switched at any time so as to reduce the information amount.

また、上記の目的を達成するため、第3の発明の動画像符号化プログラムは、入力された符号化対象の動画像信号の一画面領域を、所定の画素数からなる矩形領域を単位として細分割し、矩形領域を処理単位として局部復号画像信号である参照ピクチャから生成された予測ピクチャと符号化対象の動画像信号である符号化ピクチャとの差分信号である差分ピクチャを生成し、差分ピクチャに対して符号化を行うことを、コンピュータにより実行させるための動画像符号化プログラムにおいて、コンピュータを、第1の発明の動画像符号化装置の構成要素の各手段として機能させることを特徴とする。また、上記の目的を達成するため、第4の発明の動画像符号化プログラムは、コンピュータを第3の発明の動画像符号化装置の構成要素の各手段として機能させることを特徴とする。   In order to achieve the above object, the moving picture coding program of the third invention subdivides one screen area of the inputted moving picture signal to be coded in units of a rectangular area having a predetermined number of pixels. Dividing and generating a difference picture that is a difference signal between a prediction picture generated from a reference picture that is a locally decoded image signal and a coded picture that is a moving image signal to be encoded, with a rectangular area as a processing unit, In a moving picture coding program for causing a computer to perform coding, the computer is caused to function as each component of the constituent elements of the moving picture coding apparatus of the first invention. . In order to achieve the above object, a moving picture coding program according to a fourth aspect of the invention causes a computer to function as each means of components of the moving picture coding apparatus according to the third aspect of the invention.

また、上記の目的を達成するため、第5の発明の動画像復号化装置は、第1又は第2の発明の動画像符号化装置、若しくは第3又は第4の発明の動画像符号化プログラムを実行させたコンピュータによって生成された符号化ビットストリームを所定の蓄積媒体又は所定の伝送路から取得し、取得した符号化ビットストリームに対して復号化動作を行って、復号化した動画像信号を出力する動画像復号化装置であって、符号化ビットストリームに対して所定の構文構造に基づいて符号化情報の多重化分離を行う多重化分離手段と、多重化分離手段から取得した多重化分離後の情報に対して、所定のエントロピー復号化を行い、少なくとも、量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報、及び所定の構文構造を構成するために必要なパラメータ情報を生成するエントロピー復号化手段と、エントロピー復号化手段から取得した量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、復号差分ピクチャと少なくとも合成用予測ピクチャとを合成して局部復号画像信号を生成する第1の合成手段と、少なくとも1ピクチャ分の局部復号画像信号を参照ピクチャとして保持する記憶手段と、エントロピー復号化手段から取得した境界部動きベクトル情報に基づいて、参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような符号化対象の動画像信号である符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、エントロピー復号化手段から取得した差分成分動きベクトル情報に基づいて、参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、第1の予測ピクチャと予測残差ピクチャとを合成することで、第1の合成手段に上記の合成用予測ピクチャとして供給される第2の予測ピクチャを生成する第2の合成手段とを少なくとも備えることを特徴とする。   In order to achieve the above object, a moving picture decoding apparatus according to a fifth invention is a moving picture coding apparatus according to the first or second invention, or a moving picture coding program according to the third or fourth invention. The encoded bit stream generated by the computer that executed the above is acquired from a predetermined storage medium or a predetermined transmission path, and the decoded moving image signal is obtained by performing a decoding operation on the acquired encoded bit stream. An output video decoding apparatus, wherein a demultiplexing unit that demultiplexes encoded information based on a predetermined syntax structure with respect to an encoded bitstream, and a demultiplexing acquired from the demultiplexing unit A predetermined entropy decoding is performed on the subsequent information, and at least the post-quantization information, boundary motion vector information, difference component motion vector information, and a predetermined syntax structure are configured. Entropy decoding means for generating parameter information necessary for the generation, and post-quantization information is generated by performing predetermined inverse quantization based on predetermined quantization parameters for the post-quantization information acquired from the entropy decoding means Then, by performing predetermined inverse orthogonal transform on the dequantized information, the decoding difference picture generating means for generating a decoding difference picture, and the decoding difference picture and at least the prediction picture for synthesis are combined and local decoding is performed. First reference means for generating an image signal, storage means for holding a locally decoded image signal for at least one picture as a reference picture, and boundary motion vector information acquired from the entropy decoding means, Identify the boundary condition of the corresponding boundary part, and satisfy the Poisson equation based on the boundary condition of the identified boundary part The region boundary motion compensation unit that generates the first predicted picture by generating the estimated image signal in each rectangular region in the encoded picture that is the moving image signal to be encoded, and the difference acquired from the entropy decoding unit Based on the component motion vector information, a corresponding rectangular region is identified from the reference picture, and a signal component in the rectangular region in the identified reference picture and a signal component in the corresponding rectangular region in the first predicted picture By synthesizing the intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from the difference, the first prediction picture and the prediction residual picture, the first synthesis means is used for the above-described prediction for synthesis. And at least second combining means for generating a second predicted picture supplied as a picture.

この発明では、第1又は第2の発明の動画像符号化装置、若しくは第3又は第4の発明の動画像符号化プログラムを実行させたコンピュータによって生成した符号化ビットストリームを所定の伝送路または記録媒体から取得してエントロピー復号化することで、少なくとも、量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報、及び所定の構文構造を構成するために必要なパラメータ情報を生成し、その量子化後情報に対して逆量子化及び逆直交変換を順次に行うことで復号差分ピクチャを生成し、その復号差分ピクチャと少なくとも合成用予測ピクチャとを合成して局部復号画像信号を生成する。上記の合成用予測ピクチャは、境界部動きベクトル情報に基づいて、参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような符号化対象の動画像信号である符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで取得した第1の予測ピクチャと、予測残差ピクチャとを合成することで生成する。この予測残差ピクチャは、差分成分動きベクトル情報に基づいて、参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から生成される。   In the present invention, a coded bit stream generated by the moving picture coding apparatus according to the first or second invention or the computer executing the moving picture coding program according to the third or fourth invention is transferred to a predetermined transmission line or By obtaining from the recording medium and entropy decoding, at least post-quantization information, boundary motion vector information, difference component motion vector information, and parameter information necessary to configure a predetermined syntax structure are generated, A decoded differential picture is generated by sequentially performing inverse quantization and inverse orthogonal transform on the post-quantization information, and a local decoded image signal is generated by combining the decoded differential picture and at least a prediction picture for synthesis. . The above-mentioned prediction picture for synthesis is encoded such that the boundary condition of the corresponding boundary part is specified from the reference picture based on the boundary motion vector information, and the Poisson equation is satisfied based on the boundary condition of the specified boundary part It is generated by synthesizing the first predicted picture obtained by generating the estimated image signal in each rectangular area in the encoded picture that is the target moving image signal and the prediction residual picture. The prediction residual picture specifies a corresponding rectangular area from the reference picture based on the difference component motion vector information, and the signal component in the rectangular area in the specified reference picture corresponds to the corresponding one in the first prediction picture. It is generated from the difference from the signal component in the rectangular area.

また、上記の目的を達成するため、第6の発明の動画像復号化装置は、第5の発明のエントロピー復号化手段は、更に動きベクトル情報を復号する機能を有し、更にエントロピー復号化手段から取得した動きベクトル情報に基づいて参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、エントロピー復号化手段により復号された、構文構造を構成するために必要なパラメータ情報から復号化制御に必要な復号化制御情報を取得し、その復号化制御情報に従って第1の合成手段に供給する合成用予測ピクチャとして、第2の予測ピクチャ及び第4の予測ピクチャの一方を選択する復号化制御手段と備えることを特徴とする。   In order to achieve the above object, in the moving picture decoding apparatus according to the sixth aspect of the invention, the entropy decoding means of the fifth aspect of the invention further has a function of decoding motion vector information, and further entropy decoding means. Necessary for constructing a syntax structure decoded by the motion compensation means and entropy decoding means for identifying the corresponding rectangular area from the reference picture based on the motion vector information obtained from the above and generating the fourth predicted picture Decoding control information necessary for decoding control is obtained from the parameter information, and the second predicted picture and the fourth predicted picture are combined as predicted pictures to be supplied to the first synthesizing unit according to the decoding control information. A decoding control means for selecting one is provided.

また、上記の目的を達成するため、第7の発明の動画像復号化プログラムは、第1又は第2の発明の動画像符号化装置、若しくは第3又は第4の発明の動画像符号化プログラムを実行させたコンピュータによって生成された符号化ビットストリームを所定の蓄積媒体又は所定の伝送路から取得し、取得した符号化ビットストリームに対して復号化動作を行って、復号化した動画像信号を出力することを、コンピュータにより実行させるための動画像復号化プログラムであって、コンピュータを、第5の発明の動画像復号化装置の構成要素の各手段として機能させることを特徴とする。また、上記の目的を達成するため、第8の発明の動画像復号化プログラムは、コンピュータを第6の発明の動画像復号化装置の構成要素の各手段として機能させることを特徴とする。   In order to achieve the above object, the moving picture decoding program of the seventh invention is a moving picture coding apparatus of the first or second invention, or a moving picture coding program of the third or fourth invention. The encoded bit stream generated by the computer that executed the above is acquired from a predetermined storage medium or a predetermined transmission path, and the decoded moving image signal is obtained by performing a decoding operation on the acquired encoded bit stream. A moving picture decoding program for causing a computer to execute the output is characterized by causing the computer to function as each component of the constituent elements of the moving picture decoding apparatus of the fifth invention. In order to achieve the above object, a moving picture decoding program according to an eighth aspect of the invention causes a computer to function as each means of components of a moving picture decoding apparatus according to the sixth aspect of the invention.

第1又は第3の発明によれば、第1の予測ピクチャを生成することで領域境界動き補償を行うと共に、差分成分動きベクトル情報を生成する領域内差分動き推定を行い、この差分成分動きベクトル情報に基づいて、参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成することで領域内差分動き補償を行い、これにより得られた第1の予測ピクチャと予測残差ピクチャとを合成することで第2の予測ピクチャを生成し、その第2の予測ピクチャと符号化ピクチャとの差分から生成した第1の差分ピクチャに対して所定の直交変換を行うようにしたため、一般的に用いられる動き推定及び動き補償によって生じる、ブロック間の不連続な状態を解消し、ブロック境界部分においても、含まれる画像信号の連続性が維持されるような予測ピクチャを生成することができるという効果を生じる。   According to the first or third aspect of the invention, the region boundary motion compensation is performed by generating the first predicted picture, the intra-regional difference motion estimation for generating the difference component motion vector information is performed, and the difference component motion vector is generated. Based on the information, the corresponding rectangular area is identified from the reference picture, and a difference is obtained from the difference between the signal component in the rectangular area in the identified reference picture and the signal component in the corresponding rectangular area in the first predicted picture. Intra-region differential motion compensation is performed by generating a prediction residual picture that is a prediction picture, and a second prediction picture is generated by synthesizing the first prediction picture and the prediction residual picture obtained thereby. Since the predetermined orthogonal transform is performed on the first difference picture generated from the difference between the second predicted picture and the encoded picture, generally used motion Caused by Jooyobi motion compensation, to eliminate the discontinuous state between blocks, in the block boundary portion, resulting an effect of continuity of the image signal containing it is possible to generate a prediction picture, as is maintained.

また、第1又は第3の発明によれば、第1の予測ピクチャでは十分予測ができなかった、残りの画像信号成分を、再度参照ピクチャから予測することで予測残差ピクチャを生成し、第1の予測ピクチャと合成することで第2の予測ピクチャを生成するようにしたため、更に符号化ピクチャに近い予測ピクチャを生成することができるという効果を生じる。   Also, according to the first or third invention, a prediction residual picture is generated by predicting the remaining image signal components that could not be sufficiently predicted by the first prediction picture from the reference picture again, Since the second predicted picture is generated by synthesizing with one predicted picture, there is an effect that a predicted picture closer to the encoded picture can be generated.

更に、第1又は第3の発明によれば、矩形領域間の不連続な状態を解消し、連続的な画像信号を含む、符号化ピクチャにより近い第2の予測ピクチャが得られることで、その後の予測ピクチャと符号化ピクチャとの差分によって生成される差分ピクチャの品質に対して、動き推定及び動き補償が与える影響を排除し、その後の差分ピクチャが供給される直交変換及び量子化の効率を向上させるという効果が得られる。   Furthermore, according to the first or third invention, the discontinuous state between the rectangular regions is eliminated, and the second predicted picture closer to the encoded picture including the continuous image signal is obtained. The effect of motion estimation and motion compensation on the quality of the difference picture generated by the difference between the predicted picture and the encoded picture is eliminated, and the efficiency of orthogonal transformation and quantization in which the subsequent difference picture is supplied is reduced. The effect of improving is acquired.

また更に、第1又は第3の発明によれば、領域境界動き推定を行う際に、矩形領域の各辺に対応する境界条件である画像信号の傾きを、矩形領域の辺毎に別々に動きベクトル探索し、それぞれの境界部動きベクトル情報を生成することで、符号化ピクチャと参照ピクチャとの間で、ピクチャ内に含まれる画像信号が変形した場合であっても、各辺に対応する別々の境界部動きベクトル情報から特定される画像信号の傾きから、従来の動き補償よりも品質の高い第1の予測ピクチャを生成すると共に、更に符号化ピクチャに近付けるための予測残差ピクチャを合成することで、より符号化効率を向上させることができる。   Furthermore, according to the first or third invention, when performing the region boundary motion estimation, the inclination of the image signal, which is the boundary condition corresponding to each side of the rectangular region, is moved separately for each side of the rectangular region. Even if the image signal included in the picture is deformed between the coded picture and the reference picture by performing vector search and generating each boundary part motion vector information, separate corresponding to each side A first prediction picture with higher quality than the conventional motion compensation is generated from the inclination of the image signal specified from the boundary motion vector information of the image, and a prediction residual picture for further approaching the encoded picture is synthesized Thus, encoding efficiency can be further improved.

また、第2又は第4の発明によれば、所定の矩形領域単位による動きベクトル探索を行って動きベクトル情報を生成する動き推定、及び生成したその動きベクトル情報に基づいて動き補償を行うことで第4の予測ピクチャを得た後、符号化ピクチャと第2の予測ピクチャとの差分から第1の差分ピクチャを生成すると共に、符号化ピクチャと第4の予測ピクチャとの差分から第2の差分ピクチャを生成し、それら第1の差分ピクチャと第2の差分ピクチャとを差分判定手段により所定の判定条件に基づいて比較し、情報量の少ない方の差分ピクチャを選択することにより、生成される差分ピクチャを発生する情報量が少なくなるように随時切り替えるようにしたため、符号化ビットストリーム全体としての符号化効率を向上させることができる。   In addition, according to the second or fourth invention, by performing motion vector search by a predetermined rectangular area unit to generate motion vector information, and performing motion compensation based on the generated motion vector information. After obtaining the fourth predicted picture, a first difference picture is generated from the difference between the encoded picture and the second predicted picture, and the second difference is calculated from the difference between the encoded picture and the fourth predicted picture. A picture is generated, the first difference picture and the second difference picture are compared based on a predetermined determination condition by a difference determination means, and a difference picture having a smaller amount of information is selected. Since it is switched from time to time to reduce the amount of information that generates differential pictures, the coding efficiency of the entire coded bitstream can be improved. .

また、第5乃至第8の発明のいずれかによれば、本発明の動画像符号化装置又は動画像符号化プログラムによって生成した符号化ビットストリームを、所定の伝送路または記録媒体から取得し、本発明の動画像復号化装置又は本発明の動画像復号化プログラムを用いたコンピュータによって復号化することで、従来よりも少ない符号量をもつ符号化ビットストリームを効率良く伝送、受信、再生することを可能にすることができるという特長を有する。   Further, according to any of the fifth to eighth inventions, an encoded bit stream generated by the moving image encoding apparatus or the moving image encoding program of the present invention is acquired from a predetermined transmission path or a recording medium, Efficiently transmit, receive, and play back an encoded bitstream having a smaller code amount than the prior art by decoding with the computer using the video decoding device of the present invention or the video decoding program of the present invention. It has the feature that can be made possible.

次に、発明を実施するための最良の各実施の形態について図面と共に説明する。   Next, the best mode for carrying out the invention will be described with reference to the drawings.

(第1の実施の形態)
まず、本発明の動画像符号化装置及び動画像復号化装置の第1の実施の形態について説明する。図1は本発明になる動画像符号化装置の第1の実施の形態のブロック図を示す。同図中、図22と同一構成部分には同一符号を付してある。図1に示すように、本実施の形態の動画像符号化装置は、スイッチ102、スイッチ103、フレームメモリ104、直交変換器107、量子化器108、逆量子化器109、逆直交変換器110、第1合成器111、エントロピー符号化器113、多重化器114、出力伝送器115、符号化制御器117、領域境界動き推定器118、領域境界動き補償器119、第1差分器120、領域内差分動き推定器121、領域内差分動き補償器122、第2合成器123、第2差分器124を少なくとも備えるように構成する。第2差分器124は図22に示した差分器106と同様の動作を行う。更に、図1のように、イントラ予測器105、デブロックフィルタ112を備えるような構成とすることが望ましい。
(First embodiment)
First, a first embodiment of the video encoding device and video decoding device of the present invention will be described. FIG. 1 shows a block diagram of a first embodiment of a moving picture coding apparatus according to the present invention. In the figure, the same components as those in FIG. 22 are denoted by the same reference numerals. As shown in FIG. 1, the moving picture coding apparatus according to the present embodiment includes a switch 102, a switch 103, a frame memory 104, an orthogonal transformer 107, a quantizer 108, an inverse quantizer 109, and an inverse orthogonal transformer 110. , First synthesizer 111, entropy encoder 113, multiplexer 114, output transmitter 115, encoding controller 117, region boundary motion estimator 118, region boundary motion compensator 119, first difference unit 120, region An inner differential motion estimator 121, an intra-region differential motion compensator 122, a second synthesizer 123, and a second differentiator 124 are provided. The second subtractor 124 performs the same operation as that of the subtractor 106 shown in FIG. Further, as shown in FIG. 1, it is desirable to have a configuration including an intra predictor 105 and a deblocking filter 112.

次に、図1に示す本発明の動画像符号化装置の第1の実施の形態の各構成部分の詳細について以下に説明する。スイッチ102は、第1差分器120から供給される第1の差分ピクチャ(符号化ピクチャと第2の予測ピクチャから生成)と、第2差分器124から供給される第2の差分ピクチャ(符号化ピクチャとイントラ予測による第3の予測ピクチャから生成)とを符号化制御器117の指示に応じて切り替えることで必要な差分ピクチャを直交変換器107に供給する機能を有する。   Next, details of each component of the first embodiment of the moving picture coding apparatus of the present invention shown in FIG. 1 will be described below. The switch 102 includes a first difference picture (generated from an encoded picture and a second predicted picture) supplied from the first subtractor 120, and a second difference picture (encoding) supplied from the second subtractor 124. A function of supplying a necessary difference picture to the orthogonal transformer 107 by switching between a picture and a third predicted picture by intra prediction) according to an instruction from the encoding controller 117.

スイッチ103は、第2合成器123から供給される第2の予測ピクチャと、イントラ予測器105から供給される第3の予測ピクチャとを符号化制御器117の指示に応じて切り替えることで、必要な予測ピクチャを第1合成器111に供給する機能を有する。   The switch 103 is necessary by switching the second predicted picture supplied from the second synthesizer 123 and the third predicted picture supplied from the intra predictor 105 in accordance with an instruction from the coding controller 117. A function of supplying a predicted picture to the first synthesizer 111.

直交変換器107は、スイッチ102から差分ピクチャを取得する機能と、取得した差分ピクチャに対して、所定の直交変換を行うことで直交変換係数情報を生成し、量子化器108に供給する機能とを有する。ここで、所定の直交変換で用いられる直交変換基底は、DCT(離散余弦変換)基底であり、生成される直交変換係数情報はDCT係数情報であることが望ましい。本実施の形態においては以後、直交変換基底にDCTを用いるものとして話を進めるが、この直交変換基底によって本発明が特に限定されるものではないことに注意する。   The orthogonal transformer 107 has a function of acquiring a difference picture from the switch 102, a function of generating orthogonal transform coefficient information by performing predetermined orthogonal transformation on the acquired difference picture, and supplying the information to the quantizer 108. Have Here, it is desirable that the orthogonal transform base used in the predetermined orthogonal transform is a DCT (discrete cosine transform) base, and the generated orthogonal transform coefficient information is DCT coefficient information. In the following description of the present embodiment, it is assumed that DCT is used for the orthogonal transform base, but it should be noted that the present invention is not particularly limited by this orthogonal transform base.

量子化器108は、直交変換器107からDCT係数情報を取得し、所定の量子化パラメータに基づいて所定の量子化を行うことで、量子化後情報を生成し、逆量子化器109及びエントロピー符号化器113に供給する機能を有する。逆量子化器109は、量子化器108から量子化後情報を取得する機能と、取得した量子化後情報に対して所定の量子化パラメータに基づいて所定の逆量子化を行うことで、逆量子化後情報を生成し、逆直交変換器110に供給する機能とを有する。   The quantizer 108 obtains DCT coefficient information from the orthogonal transformer 107, performs predetermined quantization based on a predetermined quantization parameter, generates post-quantization information, and performs inverse quantization 109 and entropy. It has a function of supplying to the encoder 113. The inverse quantizer 109 obtains the post-quantization information from the quantizer 108 and performs a predetermined inverse quantization on the acquired post-quantization information based on a predetermined quantization parameter. A function of generating post-quantization information and supplying the information to the inverse orthogonal transformer 110.

逆直交変換器110は、逆量子化器109から逆量子化後情報を取得する機能と、取得した逆量子化後情報に対して所定の逆直交変換を行うことで復号差分ピクチャを生成し、第1合成器111に供給する機能とを有する。第1合成器111は、逆直交変換器110から復号差分ピクチャを取得し、スイッチ103から予測ピクチャを取得する機能を有する。取得した復号差分ピクチャと予測ピクチャとを合成することで局部復号画像信号である局部復号ピクチャ(以下、単に復号ピクチャという)を生成し、図1においては、イントラ予測器105及びデブロックフィルタ112に供給する機能を有する。デブロックフィルタ112は、第1合成器111から復号ピクチャを取得し、所定のデブロックフィルタ処理を行った後に、デブロックフィルタ処理後の復号ピクチャを参照ピクチャとして格納するためにフレームメモリ104に供給する機能を有する。   The inverse orthogonal transformer 110 generates a decoded differential picture by performing a predetermined inverse orthogonal transform on the acquired inverse quantized information from the inverse quantizer 109 and a function of obtaining the inverse quantized information. A function of supplying to the first combiner 111. The first combiner 111 has a function of acquiring a decoded differential picture from the inverse orthogonal transformer 110 and acquiring a predicted picture from the switch 103. A local decoded picture (hereinafter simply referred to as a decoded picture) is generated by synthesizing the acquired decoded differential picture and the predicted picture. In FIG. It has a function to supply. The deblocking filter 112 acquires a decoded picture from the first combiner 111, performs a predetermined deblocking filter process, and then supplies the decoded picture to the frame memory 104 to store the decoded picture as a reference picture It has the function to do.

フレームメモリ104は、図1においては、デブロックフィルタ112から、デブロックフィルタ処理後の復号ピクチャを取得し、参照ピクチャとして格納する機能を有する。また、入力符号である符号化ピクチャについても、符号化モードに応じて参照ピクチャとして格納するような機能を有しても構わない。また、フレームメモリ104は、参照ピクチャを必要とする各部に対して要求された参照ピクチャを供給する機能を有する。図1におけるフレームメモリ104では、要求に応じて必要としている参照ピクチャをイントラ予測器105、領域境界動き推定器118、領域境界動き補償器119、領域内差分動き推定器121、領域内差分動き補償器122、に少なくとも供給する機能を有する。   In FIG. 1, the frame memory 104 has a function of acquiring a decoded picture after the deblocking filter processing from the deblocking filter 112 and storing it as a reference picture. Also, a coded picture that is an input code may have a function of storing it as a reference picture according to a coding mode. Further, the frame memory 104 has a function of supplying a requested reference picture to each unit that requires a reference picture. In the frame memory 104 in FIG. 1, reference pictures required in response to a request are converted into an intra predictor 105, a region boundary motion estimator 118, a region boundary motion compensator 119, an intra region differential motion estimator 121, and an intra region differential motion compensation. At least a function of supplying to the device 122.

イントラ予測器105は、第1合成器111から復号ピクチャを取得し、所定のイントラ予測を行うことで第3の予測ピクチャを生成する機能を有する。なお、イントラ予測に利用するピクチャをフレームメモリ104から取得するような構成であっても構わない。また、イントラ予測器105は、生成した第3の予測ピクチャを、スイッチ103の端子bと第2差分器124に供給する機能を有する。   The intra predictor 105 has a function of acquiring a decoded picture from the first combiner 111 and generating a third predicted picture by performing predetermined intra prediction. Note that the configuration may be such that a picture used for intra prediction is acquired from the frame memory 104. The intra predictor 105 has a function of supplying the generated third predicted picture to the terminal b of the switch 103 and the second subtractor 124.

エントロピー符号化器113は、量子化器108から量子化後情報と、領域境界動き推定器118から境界部動きベクトル情報と、領域内差分動き推定器121から差分成分動きベクトル情報と、を少なくとも取得する機能を有する。ここで、エントロピー符号化器113は、その他の所定の構文構造を構成するために必要なパラメータ情報などを符号化装置の各部から取得する機能を有することが望ましい。所定の構文構造を構成するために必要なパラメータ情報としては、マクロブロックの各種状態を特定するためのマクロブロック情報、量子化及び逆量子化を行う際に用いる量子化パラメータ情報、イントラ予測の方法を特定するためのイントラ予測モード情報、参照画像フレームの参照順を特定するためのフレーム順序情報、などが含まれると更によい。エントロピー符号化器113は、取得した各種の情報に対して所定のエントロピー符号化を行うことで符号化ビット列を生成し、多重化器114に供給する機能を更に有する。   The entropy encoder 113 obtains at least post-quantization information from the quantizer 108, boundary motion vector information from the region boundary motion estimator 118, and difference component motion vector information from the intra-region difference motion estimator 121. It has the function to do. Here, it is desirable that the entropy encoder 113 has a function of acquiring parameter information and the like necessary for configuring other predetermined syntax structures from each unit of the encoding device. Parameter information necessary to configure a predetermined syntax structure includes macroblock information for specifying various states of the macroblock, quantization parameter information used when performing quantization and inverse quantization, and an intra prediction method It is further preferable that intra prediction mode information for specifying the frame order information, frame order information for specifying the reference order of the reference image frames, and the like. The entropy encoder 113 further has a function of generating an encoded bit string by performing predetermined entropy encoding on the acquired various pieces of information and supplying the encoded bit string to the multiplexer 114.

多重化器114は、エントロピー符号化器113から符号化ビット列を取得し、所定の構文構造に基づいて所定の多重化を行うことで符号化ビットストリームを生成すると共に、符号化ビットストリームを出力伝送器115に供給する機能を有する。出力伝送器115は、多重化器114から符号化ビットストリームを取得し、その取得した符号化ビットストリームを出力符号として所定の伝送路や所定の記録媒体などに出力するため、所定のパケットヘッダ及びペイロードをもつ構成とするようにパケット化処理を行い、パケット情報を生成する機能を有する。   The multiplexer 114 obtains an encoded bit string from the entropy encoder 113, generates an encoded bit stream by performing predetermined multiplexing based on a predetermined syntax structure, and outputs and transmits the encoded bit stream. A function of supplying to the container 115. The output transmitter 115 acquires an encoded bit stream from the multiplexer 114, and outputs the acquired encoded bit stream as an output code to a predetermined transmission path, a predetermined recording medium, or the like. It has a function of generating packet information by performing packetization processing so as to have a configuration having a payload.

ここで、パケット情報は、パケットヘッダ及びペイロードを1単位として扱う。通常、取得した符号化ビットストリームをより細かい単位に分割し、ペイロードに格納し、所定のパケットヘッダを付加することでパケット化処理を行う。また、出力伝送器115は、生成した各パケット情報を出力符号として所定の出力先である伝送路や記録媒体の状態に応じて出力する機能を有する。   Here, the packet information treats the packet header and payload as one unit. Usually, the obtained encoded bit stream is divided into smaller units, stored in a payload, and packetized by adding a predetermined packet header. The output transmitter 115 has a function of outputting each generated packet information as an output code according to the state of a transmission path or a recording medium as a predetermined output destination.

符号化制御器117は、本実施の形態の符号化装置の動作を制御するために、符号化装置を構成する各部に対して符号化に必要な各種パラメータ情報を供給すると共に、使用した各種パラメータ情報をエントロピー符号化器113に供給する機能と、各部の入出力の制御を行うと共に、少なくともスイッチ102、スイッチ103の切り替え制御を行う機能とを有する。   The encoding controller 117 supplies various parameter information necessary for encoding to each unit constituting the encoding device and controls various parameters used in order to control the operation of the encoding device of the present embodiment. It has a function of supplying information to the entropy encoder 113, a function of controlling input / output of each unit, and a function of performing switching control of at least the switch 102 and the switch 103.

領域境界動き推定器118は、入力符号101として入力された動画像フレームにおいて符号化対象となっている符号化ピクチャと、フレームメモリ104に格納されている参照ピクチャを取得する機能を有する。領域境界動き推定器118では、ある特定の領域における境界条件を確定することができれば、その領域の境界条件に基づいてポアソン方程式を満たすような推定信号を生成することができるという特徴を利用するために、取得した符号化ピクチャを所定のブロック領域で分割し、符号化ピクチャ内におけるブロック間の各辺の境界条件である各辺の画像信号の傾きを算出する機能を有する。   The region boundary motion estimator 118 has a function of acquiring an encoded picture that is an encoding target in a moving image frame input as the input code 101 and a reference picture stored in the frame memory 104. The region boundary motion estimator 118 uses a feature that if a boundary condition in a specific region can be determined, an estimation signal that satisfies the Poisson equation can be generated based on the boundary condition of the region. In addition, the obtained encoded picture is divided into predetermined block areas, and the function of calculating the inclination of the image signal of each side, which is a boundary condition of each side between the blocks in the encoded picture, is provided.

また、領域境界動き推定器118は、符号化ピクチャ内における各辺の画像信号の傾きに最も近い画像信号の傾きを持つ位置を、各辺に対応する画像信号の傾きを算出しながら、参照ピクチャ内の動きベクトル探索を行うことによって特定し、境界部動きベクトル情報を生成する、領域境界動き推定を行うと共に、生成した境界部動きベクトル情報を領域境界動き補償器119に供給する機能を有する。更に、領域境界動き推定器118は、生成した境界部動きベクトル情報をエントロピー符号化器113に供給する機能を有する。   Further, the region boundary motion estimator 118 calculates the inclination of the image signal corresponding to each side from the position having the inclination of the image signal closest to the inclination of the image signal of each side in the encoded picture, while referring to the reference picture. The region boundary motion vector information is generated by performing the motion vector search in the region, the boundary portion motion vector information is generated, the region boundary motion estimation is performed, and the generated boundary portion motion vector information is supplied to the region boundary motion compensator 119. Furthermore, the region boundary motion estimator 118 has a function of supplying the generated boundary portion motion vector information to the entropy encoder 113.

領域境界動き補償器119は、領域境界動き推定器118から境界部動きベクトル情報と、フレームメモリ104から参照ピクチャを取得する機能と、取得した境界部動きベクトル情報に基づいて、ブロック内の推定信号を生成する際に必要となる、各辺の画像信号の傾きを、参照ピクチャ内から特定し、特定した各辺の画像信号の傾きを境界条件としてポアソン方程式に適用することでブロック内の予測信号を生成し、ピクチャ内の各ブロックの予測信号である第1の予測ピクチャを生成することで領域境界動き補償を行う機能とを有する。また、領域境界動き補償器119は、生成した第1の予測ピクチャを、第2合成器123、領域内差分動き推定器121、領域内差分動き補償器122、に供給する機能を有する。   The region boundary motion compensator 119 is configured to obtain the estimation signal in the block based on the boundary motion vector information from the region boundary motion estimator 118, the function of acquiring the reference picture from the frame memory 104, and the acquired boundary motion vector information. By specifying the slope of the image signal on each side required from the reference picture and applying the slope of the image signal on each side as a boundary condition to the Poisson equation And generating a first prediction picture that is a prediction signal of each block in the picture, thereby performing region boundary motion compensation. The region boundary motion compensator 119 has a function of supplying the generated first prediction picture to the second synthesizer 123, the intra-regional difference motion estimator 121, and the intra-regional difference motion compensator 122.

第1差分器120は、入力符号101である動画像の符号化対象となっている符号化ピクチャと、第2合成器123から第2の予測ピクチャを取得する機能と、取得した符号化ピクチャと第2の予測ピクチャとの差分により第1の差分ピクチャを生成し、生成した第1の差分ピクチャをスイッチ102の端子aに供給する機能とを有する。   The first subtractor 120 has a coded picture that is a coding target of a moving image that is the input code 101, a function of obtaining a second predicted picture from the second synthesizer 123, and the obtained coded picture The first difference picture is generated based on the difference from the second predicted picture, and the generated first difference picture is supplied to the terminal a of the switch 102.

領域内差分動き推定器121は、入力符号101である動画像の符号化対象となっている符号化ピクチャと、フレームメモリ104に格納されている参照ピクチャを取得する機能と、領域境界動き補償器119から第1の予測ピクチャを取得する機能とを有する。また、領域内差分動き推定器121は、処理対象になっている符号化ピクチャ内における矩形領域内、つまりここではブロック内の信号成分と、領域境界動き補償器119が生成する第1の予測ピクチャ内におけるブロック内の信号成分との差分演算を行うことで、比較を行う際の基準となる差分情報である基準差分情報を生成する機能を有する。   The intra-regional difference motion estimator 121 includes a function of obtaining a coded picture that is an encoding target of a moving image that is the input code 101, a reference picture stored in the frame memory 104, and a region boundary motion compensator. 119 to obtain a first predicted picture. In addition, the intra-region difference motion estimator 121 includes a signal component in a rectangular region in the coded picture to be processed, that is, a block in this case, and the first predicted picture generated by the region boundary motion compensator 119. It has a function of generating reference difference information, which is difference information serving as a reference when performing comparison, by performing a difference calculation with a signal component in the block.

また、領域内差分動き推定器121は、参照ピクチャ内で動きベクトル探索対象となっているブロック内の信号成分と、第1の予測ピクチャ内におけるブロック内の信号成分との差分演算を行うことで、動きベクトル探索時の比較対象となる探索対象差分情報を生成し、探索対象差分情報と上記基準差分情報の信号成分とを比較しながら適合する領域を参照ピクチャ内から動きベクトル探索を行い、適合した参照ピクチャ内の矩形領域までの動きベクトル情報である差分成分動きベクトル情報を生成する機能を有する。   Further, the intra-region difference motion estimator 121 performs a difference operation between a signal component in a block that is a motion vector search target in the reference picture and a signal component in the block in the first predicted picture. , Generating search target difference information to be compared at the time of motion vector search, performing a motion vector search from the reference picture while comparing the search target difference information and the signal component of the reference difference information, and matching It has a function of generating difference component motion vector information which is motion vector information up to a rectangular area in the reference picture.

ここで、差分成分動きベクトル情報を生成するための動きベクトル探索は、比較対象となる領域を、所定の動き精度で移動させながら、適合する領域を参照ピクチャ内の探索範囲内から随時比較を繰り返しながら特定していく。更に、領域内差分動き推定器121は、生成した差分成分動きベクトル情報を、領域内差分動き補償器122、エントロピー符号化器113に供給する機能を有する。   Here, the motion vector search for generating the difference component motion vector information is repeatedly performed from time to time within the search range in the reference picture for a suitable region while moving the comparison target region with a predetermined motion accuracy. While identifying. Further, the intra-region difference motion estimator 121 has a function of supplying the generated difference component motion vector information to the intra-region difference motion compensator 122 and the entropy encoder 113.

領域内差分動き補償器122は、フレームメモリ104から対応する参照ピクチャと、領域境界動き補償器119から第1の予測ピクチャと、領域内差分動き推定器121から差分成分動きベクトル情報を取得する機能と、取得した差分成分動きベクトル情報に基づいて、参照ピクチャから対応するブロック領域を特定し、特定した参照ピクチャ内のブロック領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する機能と、生成した予測残差ピクチャを、第2合成器123に供給する機能とを有する。   The intra-region difference motion compensator 122 has a function of acquiring the corresponding reference picture from the frame memory 104, the first predicted picture from the region boundary motion compensator 119, and the difference component motion vector information from the intra-region difference motion estimator 121. And the corresponding block area from the reference picture based on the acquired difference component motion vector information, the signal component in the block area in the identified reference picture, and the corresponding rectangular area in the first predicted picture And a function of generating a prediction residual picture that is a differential prediction picture from a difference from the signal component of the signal component, and a function of supplying the generated prediction residual picture to the second synthesizer 123.

第2合成器123は、領域境界動き補償器119から第1の予測ピクチャと、領域内差分動き補償器122から予測残差ピクチャを取得する機能と、取得した第1の予測ピクチャと予測残差ピクチャとを合成し、第2の予測ピクチャを生成する機能と、生成した第2の予測ピクチャを、スイッチ103の端子a側と、第1差分器120に供給する機能とを有する。   The second synthesizer 123 has a function of acquiring the first predicted picture from the regional boundary motion compensator 119 and a prediction residual picture from the intra-regional difference motion compensator 122, and the acquired first predicted picture and prediction residual A function of combining a picture and generating a second predicted picture; and a function of supplying the generated second predicted picture to the terminal a side of the switch 103 and the first subtractor 120.

第2差分器124は、入力符号101である符号化ピクチャとイントラ予測器105から第3の予測ピクチャを取得する機能と、その取得した符号化ピクチャと第3の予測ピクチャとの差分から第2の差分ピクチャを生成し、スイッチ102の端子bに供給する機能とを有する。   The second subtractor 124 calculates the second from the difference between the encoded picture that is the input code 101 and the third predictive picture from the intra predictor 105 and the acquired encoded picture and the third predictive picture. The difference picture is generated and supplied to the terminal b of the switch 102.

次に、図1に示す本発明の動画像符号化装置の第1の実施の形態の動作を図2のフローチャートに従って説明する。まず、入力符号101として、動画像の符号化対象となっているフレームもしくはフィールドを符号化ピクチャとして準備する(ステップS101)。続いて、符号化制御器117は、現在の符号化装置の符号化モードがイントラ符号化であるか、イントラ符号化でないかを判定する(ステップS102)。   Next, the operation of the first embodiment of the moving picture coding apparatus of the present invention shown in FIG. 1 will be described with reference to the flowchart of FIG. First, as an input code 101, a frame or a field that is an encoding target of a moving image is prepared as an encoded picture (step S101). Subsequently, the encoding controller 117 determines whether the current encoding mode of the encoding device is intra encoding or not intra encoding (step S102).

イントラ符号化である場合、符号化制御器117は、符号化装置の各部に対してイントラ符号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ102を端子bに接続し、スイッチ103を端子bに接続することで、イントラ符号化を行うための準備をする。その後、イントラ予測器105によって所定のイントラ予測を行う(ステップS103)。その後、ステップS108に進む。   In the case of intra coding, the coding controller 117 supplies parameter information for performing intra coding to each unit of the coding apparatus, connects the switch 102 to the terminal b, and switches the switch 103 to By connecting to the terminal b, preparation for performing intra coding is performed. Thereafter, the intra predictor 105 performs predetermined intra prediction (step S103). Thereafter, the process proceeds to step S108.

一方、イントラ符号化でない場合、インター符号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ102を端子aに接続し、スイッチ103を端子aに接続することで、インター符号化を行うための準備をする。その後、領域境界動き推定器118は、入力符号として準備された符号化ピクチャと、フレームメモリ104に格納されている参照ピクチャとを取得し、所定の領域境界動き推定を行う(ステップS104)。これにより生成された境界部動きベクトル情報は、領域境界動き補償器119に供給されると共に、エントロピー符号化器113に供給される。   On the other hand, when the encoding is not intra encoding, parameter information for performing inter encoding is supplied to each unit, and the switch 102 is connected to the terminal a, and the switch 103 is connected to the terminal a, thereby performing inter encoding. Prepare for. Thereafter, the region boundary motion estimator 118 acquires a coded picture prepared as an input code and a reference picture stored in the frame memory 104, and performs predetermined region boundary motion estimation (step S104). The boundary motion vector information generated thereby is supplied to the region boundary motion compensator 119 and also to the entropy encoder 113.

領域境界動き補償器119は、領域境界動き推定器118から境界部動きベクトル情報と、フレームメモリ104から対応する参照ピクチャとを取得し、所定の領域境界動き補償を行う(ステップS105)。これにより生成された第1の予測ピクチャは、第2合成器123、領域内差分動き推定器121及び領域内差分動き補償器122に供給される。   The region boundary motion compensator 119 acquires boundary region motion vector information from the region boundary motion estimator 118 and the corresponding reference picture from the frame memory 104, and performs predetermined region boundary motion compensation (step S105). The first predicted picture generated in this way is supplied to the second synthesizer 123, the intra-regional difference motion estimator 121, and the intra-regional difference motion compensator 122.

領域内差分動き推定器121は、符号化対象となる符号化ピクチャを入力符号101として取得すると共に、フレームメモリ104から対応する参照ピクチャと、領域境界動き補償器119から第1の予測ピクチャとを取得し、領域内差分動き推定を行う(ステップS106)。これにより、差分成分動きベクトル情報が生成され、その差分成分動きベクトル情報は、領域内差分動き補償器122、エントロピー符号化器113に供給される。
領域内差分動き補償器122は、フレームメモリ104から対応する参照ピクチャと、領域境界動き補償器119から第1の予測ピクチャと、領域内差分動き推定器121から差分成分動きベクトル情報とをそれぞれ取得し、領域内差分動き補償を行う(ステップS107)。これにより、予測残差ピクチャが生成され、その予測残差ピクチャは、第2合成器123に供給される。
The intra-region difference motion estimator 121 acquires the encoded picture to be encoded as the input code 101, and also obtains the corresponding reference picture from the frame memory 104 and the first predicted picture from the region boundary motion compensator 119. Obtaining and performing intra-regional differential motion estimation (step S106). Thereby, difference component motion vector information is generated, and the difference component motion vector information is supplied to the intra-region difference motion compensator 122 and the entropy encoder 113.
The intra-regional difference motion compensator 122 acquires the corresponding reference picture from the frame memory 104, the first predicted picture from the region boundary motion compensator 119, and the difference component motion vector information from the intra-regional difference motion estimator 121, respectively. Then, intra-region differential motion compensation is performed (step S107). As a result, a prediction residual picture is generated, and the prediction residual picture is supplied to the second synthesizer 123.

その後、第2合成器123において、領域境界動き補償器119からの第1の予測ピクチャと、領域内差分動き補償器122からの予測残差ピクチャとが合成されて第2の予測ピクチャが生成され、その第2の予測ピクチャがスイッチ103の端子a側と、第1差分器120に供給される。その後、ステップS108に進む。   Thereafter, the second synthesizer 123 synthesizes the first predicted picture from the regional boundary motion compensator 119 and the predicted residual picture from the intra-regional difference motion compensator 122 to generate a second predicted picture. The second predicted picture is supplied to the terminal a side of the switch 103 and the first subtractor 120. Thereafter, the process proceeds to step S108.

ステップS108では、イントラ予測器105において生成された第3の予測ピクチャ若しくは第2合成器123において生成された第2の予測ピクチャと、入力符号101である符号化ピクチャとの差分演算を行う(ステップS108)。ここで、符号化モードがイントラ符号化である場合には、第2差分器124が、符号化ピクチャとイントラ予測器105が生成した第3の予測ピクチャとを取得し、取得した符号化ピクチャと第3の予測ピクチャとの差分演算を行うことにより、第2の差分ピクチャを生成し、端子bに接続されているスイッチ102を介して直交変換器107に供給する。   In step S108, a difference calculation is performed between the third predicted picture generated by the intra predictor 105 or the second predicted picture generated by the second synthesizer 123 and the encoded picture that is the input code 101 (step S108). S108). Here, when the encoding mode is intra encoding, the second subtractor 124 acquires the encoded picture and the third predicted picture generated by the intra predictor 105, and the acquired encoded picture and By performing a difference operation with the third predicted picture, a second difference picture is generated and supplied to the orthogonal transformer 107 via the switch 102 connected to the terminal b.

一方、符号化モードがインター符号化である場合には、第1差分器120が、符号化ピクチャと第2合成器123が生成した第2の予測ピクチャとを取得し、取得した符号化ピクチャと第2の予測ピクチャとの差分演算を行うことにより、第1の差分ピクチャを生成し、端子aに接続されているスイッチ102を介して直交変換器107に供給する。   On the other hand, when the encoding mode is inter encoding, the first subtractor 120 acquires the encoded picture and the second predicted picture generated by the second synthesizer 123, and the acquired encoded picture and A first difference picture is generated by performing a difference calculation with the second predicted picture, and is supplied to the orthogonal transformer 107 via the switch 102 connected to the terminal a.

直交変換器107は、スイッチ102により選択された差分ピクチャを取得し、所定の直交変換を行う(ステップS109)。これにより、直交変換係数情報(ここではDCT係数情報)が生成され、そのDCT係数情報が、直交変換器107から量子化器108に供給される。   The orthogonal transformer 107 acquires the difference picture selected by the switch 102 and performs a predetermined orthogonal transform (step S109). Thereby, orthogonal transform coefficient information (here, DCT coefficient information) is generated, and the DCT coefficient information is supplied from the orthogonal transformer 107 to the quantizer 108.

量子化器108は、直交変換器107からDCT係数情報を取得し、所定の量子化パラメータに基づいて所定の量子化を行う(ステップS110)。これにより、量子化後情報が生成され、その量子化後情報は、逆量子化器109及びエントロピー符号化器113にそれぞれ供給される。逆量子化器109は、量子化器108から量子化後情報を取得し、所定の量子化パラメータに基づいて所定の逆量子化を行う(ステップS111)。これにより、逆量子化後情報が生成され、その逆量子化後情報が逆直交変換器110に供給される。   The quantizer 108 acquires DCT coefficient information from the orthogonal transformer 107, and performs predetermined quantization based on a predetermined quantization parameter (step S110). Thus, post-quantization information is generated, and the post-quantization information is supplied to the inverse quantizer 109 and the entropy encoder 113, respectively. The inverse quantizer 109 acquires post-quantization information from the quantizer 108 and performs predetermined inverse quantization based on a predetermined quantization parameter (step S111). As a result, information after inverse quantization is generated, and the information after inverse quantization is supplied to the inverse orthogonal transformer 110.

逆直交変換器110は、逆量子化器109から逆量子化後情報を取得し、所定の逆直交変換を行い(ステップS112)、復号差分ピクチャを生成して第1合成器111に供給する。第1合成器111は、逆直交変換器110から復号差分ピクチャと、スイッチ103から予測ピクチャを取得し、取得した復号差分ピクチャと予測ピクチャとを合成し(ステップS113)、局部復号画像信号である復号ピクチャを生成し、その復号ピクチャを、デブロックフィルタ112に供給する。また、符号化モードがイントラ符号化である場合には、復号ピクチャは更にイントラ予測器105に供給される。   The inverse orthogonal transformer 110 acquires information after inverse quantization from the inverse quantizer 109, performs predetermined inverse orthogonal transform (step S112), generates a decoded difference picture, and supplies the decoded difference picture to the first combiner 111. The first synthesizer 111 acquires a decoded differential picture from the inverse orthogonal transformer 110 and a predicted picture from the switch 103, combines the acquired decoded differential picture and the predicted picture (step S113), and is a locally decoded image signal. A decoded picture is generated, and the decoded picture is supplied to the deblocking filter 112. When the encoding mode is intra encoding, the decoded picture is further supplied to the intra predictor 105.

デブロックフィルタ112は、第1合成器111から復号ピクチャを取得し、所定のデブロックフィルタ処理を行い(ステップS114)、デブロックフィルタ処理後の復号ピクチャを生成する。生成されたデブロックフィルタ処理後の復号ピクチャは、次の符号化を行う際の参照ピクチャを準備するために、参照ピクチャとしてフレームメモリ104に格納される(ステップS115)。   The deblock filter 112 acquires a decoded picture from the first combiner 111, performs a predetermined deblock filter process (step S114), and generates a decoded picture after the deblock filter process. The generated decoded picture after the deblocking filter process is stored in the frame memory 104 as a reference picture in order to prepare a reference picture for the next encoding (step S115).

その後、一連の符号化結果を出力するために、エントロピー符号化器113は、少なくとも量子化器108から量子化後情報、領域境界動き推定器118から境界部動きベクトル情報、領域内差分動き推定器121から差分成分動きベクトル情報を取得し、所定のエントロピー符号化を行い(ステップS116)、符号化ビット列を生成する。ここで、エントロピー符号化器113は、更に符号化時に利用した各種パラメータ情報についても符号化装置の各部から取得し、所定のエントロピー符号化を行うようにすると更によい。生成した符号化ビット列は、多重化器114に供給される。   Thereafter, in order to output a series of encoding results, the entropy encoder 113 includes at least quantized information from the quantizer 108, boundary motion vector information from the region boundary motion estimator 118, and intra-regional differential motion estimator. The difference component motion vector information is acquired from 121, and predetermined entropy encoding is performed (step S116) to generate an encoded bit string. Here, the entropy encoder 113 may further acquire various parameter information used at the time of encoding from each unit of the encoding device and perform predetermined entropy encoding. The generated encoded bit string is supplied to the multiplexer 114.

多重化器114は、エントロピー符号化器113から符号化ビット列を取得し、所定の構文構造に基づいて多重化を行い(ステップS117)、符号化ビットストリームを生成する。生成した符号化ビットストリームは、出力伝送器115に供給される。出力伝送器115は、多重化部114から多重化ビットストリームを取得し、所定のパケット化処理などを行った後に、所定の伝送路もしくは所定の記録媒体に符号化結果を出力伝送する(ステップS118)。   The multiplexer 114 acquires the encoded bit string from the entropy encoder 113, multiplexes based on a predetermined syntax structure (step S117), and generates an encoded bit stream. The generated encoded bit stream is supplied to the output transmitter 115. The output transmitter 115 acquires the multiplexed bit stream from the multiplexing unit 114, performs a predetermined packetization process, etc., and then outputs and transmits the encoding result to a predetermined transmission path or a predetermined recording medium (step S118). ).

以上のようなステップS101〜S118の処理を行うことで、本発明の符号化装置の第1の実施の形態において、ある時点での符号化対象となっている符号化ピクチャの符号化処理が完了する。このように、本実施の形態では、ブロック境界の境界条件に基づいてポアソン方程式から推定信号を生成し、残りの残差信号に対しても動き推定を行うことで更なる予測を行って、第2の予測ピクチャを生成することでブロック間の不連続性を解消し、符号化効率を向上することができる。   By performing the processes of steps S101 to S118 as described above, the encoding process of the encoded picture that is the encoding target at a certain point in time is completed in the first embodiment of the encoding apparatus of the present invention. To do. As described above, in the present embodiment, an estimation signal is generated from the Poisson equation based on the boundary condition of the block boundary, and further prediction is performed by performing motion estimation on the remaining residual signal, By generating 2 prediction pictures, discontinuity between blocks can be eliminated and encoding efficiency can be improved.

次に、本実施の形態の動画像符号化装置が備える領域境界動き推定器118による領域境界動き推定処理、及び領域境界動き補償器119が備える領域境界動き補償処理について、図13から図16を用いて詳細に説明する。   Next, with respect to the region boundary motion estimation process performed by the region boundary motion estimator 118 included in the moving image encoding apparatus according to the present embodiment and the region boundary motion compensation process included in the region boundary motion compensator 119, FIGS. The details will be described.

図13は、一般的なブロックマッチングによる動きベクトル探索を行うことで、動きベクトル情報を生成する、動き推定の様子を示した概念図である。ここで、ブロックマッチングで用いる所定の矩形領域の大きさは、説明を簡単にするために、便宜上、横方向に4画素、縦方向に4画素のブロックであるものとする。   FIG. 13 is a conceptual diagram showing a state of motion estimation in which motion vector information is generated by performing motion vector search by general block matching. Here, for the sake of simplicity, the size of the predetermined rectangular area used for block matching is assumed to be a block of 4 pixels in the horizontal direction and 4 pixels in the vertical direction.

まず、符号化ピクチャ1301を各ブロックに分割し、現在動きベクトル探索を行おうとしている、予測対象1303のブロックに注目する。ここで、予測対象1303のブロックと、その周囲のブロックとの間にある境界部分をΓ(1)、Γ(2)、Γ(3)、Γ(4)と表す。また、参照ピクチャ1302において、符号化ピクチャ1301内の予測対象1303のブロックと同じ空間位置に存在する領域を基準位置1304とし、この基準位置1304から動きベクトル探索を開始する。 First, the encoded picture 1301 is divided into blocks, and attention is paid to the block of the prediction target 1303 for which a current motion vector search is to be performed. Here, the boundary portion between the block of the prediction target 1303 and the surrounding blocks is represented as Γ (1) , Γ (2) , Γ (3) , Γ (4) . Also, in the reference picture 1302, a region existing at the same spatial position as the block of the prediction target 1303 in the encoded picture 1301 is set as a reference position 1304, and motion vector search is started from this reference position 1304.

動きベクトル探索は、通常、参照ピクチャ1302内の探索範囲1305を設定し、この探索範囲1305内で1/2画素精度もしくは1/4画素精度でのブロックマッチングを行う。ブロックマッチングでは、通常、SAD(Sum of Absolute Difference;予測誤差の絶対値誤差和)が最小となるようなブロックを、参照ピクチャ1302の探索範囲1305内から探し出すことで適合したブロック1306を特定する。その後、予測対象1303のブロックと、適合したブロック1306との空間位置の違いを動きベクトル情報1307として求めることで、動き推定を行う。   In the motion vector search, normally, a search range 1305 in the reference picture 1302 is set, and block matching is performed within the search range 1305 with 1/2 pixel accuracy or 1/4 pixel accuracy. In block matching, usually, a suitable block 1306 is specified by searching for a block having a minimum SAD (Sum of Absolute Difference) from the search range 1305 of the reference picture 1302. Thereafter, motion estimation is performed by obtaining a difference in spatial position between the block of the prediction target 1303 and the matched block 1306 as motion vector information 1307.

従って、生成した動きベクトル情報1307に基づいて参照ピクチャ1302内の適合したブロック1306を特定し、このブロック1306内の画素情報を複製し、予測ピクチャの対応する空間位置に配置することを予測ピクチャ内の各ブロックに対して行うことにより動き補償を行う。このようにブロック単位で動き補償を行うため、各ブロック間の画像としての特徴、例えば画像に含まれる物体の形状や輪郭、ブロック内の模様であるテクスチャの性質が、ブロック間において滑らかに接続されずにブロック間で不連続な状態となることがある。   Accordingly, it is possible to identify a suitable block 1306 in the reference picture 1302 based on the generated motion vector information 1307, duplicate the pixel information in this block 1306, and place it in the corresponding spatial position of the predicted picture. Motion compensation is performed for each block. Since motion compensation is performed in units of blocks in this way, the characteristics of the image between each block, such as the shape and contour of the object included in the image, and the nature of the texture that is the pattern in the block, are smoothly connected between the blocks. Without being discontinuous between blocks.

図14は、図1の領域境界動き推定器118が備える領域境界動き推定処理の様子を示した概念図である。この領域境界動き推定では、動きベクトル探索の探索単位を、図14に示すように、符号化ピクチャ1401の予測対象としているブロックの境界部分Γ(1)、Γ(2)、Γ(3)、Γ(4)を探索単位とする。ここでは、Γ(1)を予測対象1403として領域境界動き推定を行う場合について説明する。 FIG. 14 is a conceptual diagram showing a state of region boundary motion estimation processing provided in the region boundary motion estimator 118 of FIG. In this region boundary motion estimation, as shown in FIG. 14, the search unit of motion vector search is performed using the boundary portions Γ (1) , Γ (2) , Γ (3) , Let Γ (4) be the search unit. Here, a case where region boundary motion estimation is performed using Γ (1) as the prediction target 1403 will be described.

まず、図15(a)に示すように、符号化ピクチャ1401において、予測対象1403であるΓ(1)のブロック境界部分の境界条件を求める。このブロック境界部分の境界条件は、境界部分の画像信号の傾きを境界条件とすることが望ましい。ここでは、一例として図15(b)に示すように、境界部分の仮想画素を×印で表現し、この×印の仮想画素に隣接する画素から図15(c)に示すように×印の仮想画素の傾き特定するためのdY、dVを算出している。 First, as shown in FIG. 15A, in the encoded picture 1401, the boundary condition of the block boundary portion of Γ (1) that is the prediction target 1403 is obtained. As the boundary condition of the block boundary part, it is desirable to use the inclination of the image signal at the boundary part as the boundary condition. Here, as an example, as shown in FIG. 15 (b), the virtual pixel at the boundary is represented by a cross, and from the pixel adjacent to the virtual pixel of the cross, the cross mark is shown as shown in FIG. 15 (c). DY and dV for specifying the inclination of the virtual pixel are calculated.

このようにして、符号化ピクチャ1401内の予測対象1403であるブロック境界部分の境界条件である、境界部分の傾き情報を求める。そして、本実施の形態では、求めた境界部分の傾き情報が理想的な傾き情報であるものとして、参照ピクチャの探索範囲の中から、この理想的な傾き情報に最も近い境界部分を特定する。   In this way, the gradient information of the boundary portion, which is the boundary condition of the block boundary portion that is the prediction target 1403 in the encoded picture 1401, is obtained. In this embodiment, assuming that the obtained gradient information of the boundary portion is ideal gradient information, the boundary portion closest to the ideal gradient information is identified from the reference picture search range.

すなわち、図14において、まず、符号化ピクチャ1401内の予測対象1403のブロックの境界部分Γ(1)と同じ参照ピクチャ1402の空間位置に存在するブロックの境界部分を基準位置1404とし、この基準位置1404の傾き情報を計算し、理想的な傾き情報と比較する。ここで、比較方法は、通常の動き推定で用いるSADを利用するようにしても構わない。 That is, in FIG. 14, first, a boundary portion of a block existing in the same spatial position of the reference picture 1402 as the boundary portion Γ (1) of the block of the prediction target 1403 in the encoded picture 1401 is set as the reference position 1404. The inclination information 1404 is calculated and compared with the ideal inclination information. Here, the comparison method may use SAD used in normal motion estimation.

その後、1/2画素もしくは1/4画素の精度で比較対象となる参照ピクチャ1402内の境界部分を移動させつつ、移動した先において、その都度、境界部分の傾き情報を計算し、理想的な傾き情報と比較することを繰り返し、参照ピクチャ1402の探索範囲1405内で最も適合した境界部分1406を特定する。その後、符号化ピクチャ1401の予測対象1403の境界部分と、参照ピクチャ1402内の適合した境界部分1406との空間位置の違いを境界部動きベクトル情報1407として求めることで、領域境界動き推定を行う。   After that, while moving the boundary portion in the reference picture 1402 to be compared with an accuracy of 1/2 pixel or 1/4 pixel, the inclination information of the boundary portion is calculated each time it is moved. The comparison with the inclination information is repeated, and the most suitable boundary portion 1406 within the search range 1405 of the reference picture 1402 is specified. Then, region boundary motion estimation is performed by obtaining a difference in spatial position between the boundary portion of the prediction target 1403 of the encoded picture 1401 and the matched boundary portion 1406 in the reference picture 1402 as boundary portion motion vector information 1407.

その後、図16に示すように、符号化ピクチャ1401内の予測対象としているブロックの境界部分Γ(1)、Γ(2)、Γ(3)、Γ(4)に適合する参照ピクチャ1402内の境界部分1601、1602、1603、1604の境界条件である、画像信号の傾きを、予測ピクチャ1605の境界部分1601、1602、1603、1604における画像信号の傾き情報として考える。この特定された画像信号の傾き情報に基づいて、ポアソン方程式を適用することでブロック内の予測信号を生成し、予測ブロック1606に格納する。このような処理を予測ピクチャ1605内の各ブロックに対して行い、予測信号を生成することで、領域境界動き補償が完了する。 Then, as shown in FIG. 16, in the reference picture 1402 that matches the boundary portions Γ (1) , Γ (2) , Γ (3) , Γ (4) of the block to be predicted in the encoded picture 1401 The inclination of the image signal, which is the boundary condition of the boundary portions 1601, 1602, 1603, and 1604, is considered as the inclination information of the image signal in the boundary portions 1601, 1602, 1603, and 1604 of the predicted picture 1605. Based on the specified inclination information of the image signal, a Poisson equation is applied to generate a prediction signal in the block, and the prediction signal is stored in the prediction block 1606. By performing such processing for each block in the prediction picture 1605 and generating a prediction signal, the region boundary motion compensation is completed.

以上のような領域境界動き推定、及び領域境界動き補償を行うことにより、従来の方法であるブロックマッチングによる動き推定及び動き補償によって生成される予測ピクチャよりも、ブロック境界において滑らかな予測ピクチャを生成することを可能とし、品質の良い差分ピクチャを生成できるようになることから、符号化効率の向上につながる。   By performing region boundary motion estimation and region boundary motion compensation as described above, a predicted picture that is smoother at the block boundary than the predicted picture generated by motion estimation and motion compensation by block matching, which is a conventional method, is generated. Therefore, it becomes possible to generate a differential picture with good quality, which leads to improvement in coding efficiency.

次に、本実施の形態の動画像符号化装置が備える領域内差分動き推定器121による領域内差分動き推定処理、及び領域内差分動き補償器122が備える領域内差分動き補償処理について、図17から図21を用いて詳細に説明する。   Next, the intra-regional differential motion estimation processing by the intra-regional differential motion estimator 121 provided in the moving image coding apparatus according to the present embodiment and the intra-regional differential motion compensation processing provided in the intra-regional differential motion compensator 122 will be described with reference to FIG. Will be described in detail with reference to FIG.

図17は、上記の領域内差分動き推定器121が備える領域内差分動き推定処理において用いられる基準差分情報の求め方について示した概念図である。図17において、本発明の領域内差分動き推定では、領域境界動き補償器119によって生成した第1の予測ピクチャ1605と、符号化対象となっている符号化ピクチャ1401を取得する。その後、取得した第1の予測ピクチャ1605及び符号化ピクチャ1401を利用して、現在処理対象としている位置にあるブロックの基準差分情報1702を求める。   FIG. 17 is a conceptual diagram showing how to obtain the reference difference information used in the intra-regional differential motion estimation process provided in the intra-regional differential motion estimator 121. In FIG. 17, in the intra-regional difference motion estimation of the present invention, the first predicted picture 1605 generated by the region boundary motion compensator 119 and the encoded picture 1401 to be encoded are acquired. Thereafter, using the acquired first predicted picture 1605 and encoded picture 1401, reference difference information 1702 of the block at the current processing target position is obtained.

ここで、図17の予測ブロック1606は、図16で説明した現在処理対象となる空間位置に対応するブロックであるものとする。また、図17中の基準差分情報1702においても、現在処理対象としている空間位置に対応するブロックであるものとする。この基準差分情報1702は、符号化ピクチャ1401内の境界部分Γ(1)、Γ(2)、Γ(3)、Γ(4)を有する予測対象としているブロック内の信号情報と、現在処理対象となる空間位置に対応する予測ブロック1606内の信号情報とを特定し、両者の差分1701を行うことで生成される。 Here, it is assumed that the prediction block 1606 in FIG. 17 is a block corresponding to the spatial position to be currently processed described with reference to FIG. In addition, the reference difference information 1702 in FIG. 17 is also a block corresponding to the spatial position currently being processed. This reference difference information 1702 includes signal information in a block to be predicted having boundary portions Γ (1) , Γ (2) , Γ (3) , and Γ (4) in the encoded picture 1401 and the current processing target. The signal information in the prediction block 1606 corresponding to the spatial position to be identified is specified, and the difference 1701 between the two is generated.

このようにして求められた基準差分情報1702は、図18で示されるように、参照ピクチャ1302内において、差分成分動きベクトル情報1802を特定するための動きベクトル探索に用いられる。この差分成分動きベクトル情報1802を特定するための動きベクトル探索は、求めた基準差分情報1702に最も適合した差分情報をもつブロック1801を特定するための処理である。   The reference difference information 1702 obtained in this way is used for motion vector search for specifying the difference component motion vector information 1802 in the reference picture 1302, as shown in FIG. The motion vector search for specifying the difference component motion vector information 1802 is a process for specifying a block 1801 having difference information most suitable for the obtained reference difference information 1702.

ここで、図18において、参照ピクチャ1302の探索範囲1305内の、現在の探索対象となっているブロック1803が、基準差分情報1702に適合しているかどうかを判定する処理を考える。まず、現在の探索対象となっているブロック1803内の信号成分と、予測ピクチャ内の対応する領域の予測信号成分との差分を行い、探索対象差分情報を生成する。ここで、図18に示すように、予測ピクチャ内の対応する領域は、基準差分情報1702に対応する空間位置である、予測ブロック1606とするとよい。   Here, in FIG. 18, consider a process of determining whether or not the block 1803 that is the current search target within the search range 1305 of the reference picture 1302 is compatible with the reference difference information 1702. First, the difference between the signal component in the block 1803 that is the current search target and the prediction signal component of the corresponding region in the predicted picture is performed to generate search target difference information. Here, as shown in FIG. 18, the corresponding region in the prediction picture may be a prediction block 1606 that is a spatial position corresponding to the reference difference information 1702.

また、図19に示すように、予測ピクチャ1605内の対応する領域は、参照ピクチャ1302の探索範囲1305内の、現在の探索対象のブロック1803に対応する空間位置である領域1901を予測ピクチャ1605内から特定し、特定した領域1901内の予測信号成分との差分を行うようにしても構わない。更に、図18及び図19の方法を切り替えて利用することができるように、領域内差分動き推定モード情報を生成し、領域内差分動き補償器122及びエントロピー符号化器113に供給するような構成であると更によい。領域内差分動き推定モード情報は、図18のような予測ピクチャ内からの領域選択方法を”0”,図19のような予測ピクチャ内からの領域選択方法を”1”といったフラグ情報によって容易に領域内差分動き推定モードを特定できることが望ましい。   Further, as shown in FIG. 19, the corresponding area in the predicted picture 1605 is the area 1901 in the predicted picture 1605 that is the spatial position corresponding to the current search target block 1803 in the search range 1305 of the reference picture 1302. And the difference from the predicted signal component in the specified region 1901 may be performed. Further, a configuration in which intra-regional differential motion estimation mode information is generated and supplied to the intra-regional differential motion compensator 122 and the entropy encoder 113 so that the methods of FIGS. 18 and 19 can be switched and used. Even better. The intra-region differential motion estimation mode information is easily obtained by flag information such as “0” for the region selection method from the predicted picture as shown in FIG. 18 and “1” for the region selection method from the prediction picture as shown in FIG. It is desirable to be able to specify the intra-regional differential motion estimation mode.

このように、領域内差分動き推定モードに応じて、予測ピクチャ1605内から対応する領域1901を特定し、現在の探索対象の領域との差分を行うことで生成された、探索対象差分情報と、基準差分情報1702とを、所定の判定方法に基づいて比較する。ここで、所定の判定方法は、通常の動き推定で行われるようなSADを利用しても構わない。   In this way, according to the intra-region differential motion estimation mode, the corresponding region 1901 is identified from within the predicted picture 1605, and the search target difference information generated by performing the difference from the current search target region, The reference difference information 1702 is compared based on a predetermined determination method. Here, the predetermined determination method may use SAD as performed in normal motion estimation.

この所定の判定方法に基づいて比較を行い、基準差分情報1702に最も適合する領域が特定できるまで、現在の探索対象の位置を所定の動き精度に基づいてずらしながら同様の処理を繰り返すことで、図18及び図19に示したように、最終的に適合したブロック1801を特定し、そのブロック1801を示す差分成分動きベクトル情報1802を生成することで、領域内差分動き推定を行う。   By performing comparison based on this predetermined determination method and repeating the same processing while shifting the current search target position based on the predetermined motion accuracy until the most suitable region can be identified to the reference difference information 1702, As shown in FIGS. 18 and 19, intra-regional difference motion estimation is performed by identifying a finally adapted block 1801 and generating difference component motion vector information 1802 indicating the block 1801.

次に、上記の領域内差分動き推定によって生成された、差分成分動きベクトル情報1802を利用して、図20もしくは図21のような領域内差分動き補償を行う。図20は、図18で示されるような領域内差分動き推定によって生成された差分成分動きベクトル情報1802が得られた場合の領域内差分動き補償の様子を示した概念図である。   Next, intra-regional differential motion compensation as shown in FIG. 20 or FIG. 21 is performed using the differential component motion vector information 1802 generated by the intra-regional differential motion estimation. FIG. 20 is a conceptual diagram showing the state of intra-region differential motion compensation when differential component motion vector information 1802 generated by intra-regional differential motion estimation as shown in FIG. 18 is obtained.

図20では、差分成分動きベクトル情報1802に基づいて、参照ピクチャ1302内から適合したブロック1801を特定する。その後、予測残差ピクチャ2002内の予測残差ブロック2001に対応する空間位置の予測ブロック1606を、予測ピクチャ1605内から特定し、特定された予測ブロック1606の信号成分と、適合したブロック1801との差分演算を行うことによって、予測残差ブロック2001を生成する。同様な処理を繰り返すことで、予測残差ピクチャ2002を生成し、図1の第2合成器123に供給する。第2合成器123は、図20に示すように予測ピクチャ1605と予測残差ピクチャ2002とを合成し、第2の予測ピクチャ2003を生成する。   In FIG. 20, a suitable block 1801 is identified from the reference picture 1302 based on the difference component motion vector information 1802. Thereafter, a prediction block 1606 at a spatial position corresponding to the prediction residual block 2001 in the prediction residual picture 2002 is identified from the prediction picture 1605, and the signal component of the identified prediction block 1606 and the matched block 1801 are A prediction residual block 2001 is generated by performing a difference calculation. By repeating similar processing, a prediction residual picture 2002 is generated and supplied to the second synthesizer 123 of FIG. The second synthesizer 123 synthesizes the prediction picture 1605 and the prediction residual picture 2002 as shown in FIG. 20 to generate a second prediction picture 2003.

また、図20とは別の動作として、図21では、差分成分動きベクトル情報1802に基づいて、参照ピクチャ1302内から適合したブロック1801を特定する。その後、図20の場合とは異なり、適合したブロック1801と同じ空間位置に対応する領域2101を予測ピクチャ1605内から特定し、この領域2101内の信号成分と、適合したブロック1801との差分を行うことによって、予測残差ブロック2102を生成する。同様な処理を繰り返すことで、予測残差ピクチャ2103を生成し、図1の第2合成器123に供給する。第2合成器123は、図21に示すように予測ピクチャ1605と予測残差ピクチャ2103とを合成し、第2の予測ピクチャ2104を生成する。   As an operation different from that in FIG. 20, in FIG. 21, a suitable block 1801 is specified from the reference picture 1302 based on the difference component motion vector information 1802. After that, unlike the case of FIG. 20, a region 2101 corresponding to the same spatial position as the adapted block 1801 is identified from the predicted picture 1605, and the difference between the signal component in this region 2101 and the adapted block 1801 is performed. Thus, a prediction residual block 2102 is generated. By repeating similar processing, a prediction residual picture 2103 is generated and supplied to the second synthesizer 123 of FIG. The second synthesizer 123 synthesizes the prediction picture 1605 and the prediction residual picture 2103 as shown in FIG. 21 to generate a second prediction picture 2104.

また、領域内差分動き推定モード情報が得られる場合には、このフラグ情報の内容が”0”である場合には図20の処理を行い、フラグ情報の内容が”1”である場合には図21の処理を行うように構成すると更によい。   Further, when the intra-regional difference motion estimation mode information is obtained, the processing of FIG. 20 is performed when the content of the flag information is “0”, and when the content of the flag information is “1”. More preferably, the process of FIG. 21 is performed.

以上説明した本発明の動画像符号化装置の第1の実施の形態では、ブロック間の不連続な状態を解消し、連続的な画像信号を含む、符号化ピクチャにより近い第2の予測ピクチャが得られることで、その後の第2の予測ピクチャと符号化ピクチャとの差分によって生成される第1の差分ピクチャの品質に対して、動き推定及び動き補償が与える影響を排除し、その後の第1の差分ピクチャが供給される直交変換及び量子化の効率を向上させるという効果が得られる。   In the first embodiment of the moving picture coding apparatus according to the present invention described above, the discontinuous state between blocks is eliminated, and the second predicted picture closer to the coded picture including the continuous picture signal is obtained. As a result, the influence of motion estimation and motion compensation on the quality of the first difference picture generated by the difference between the subsequent second predicted picture and the encoded picture is eliminated. The effect of improving the efficiency of the orthogonal transform and quantization supplied with the difference picture is obtained.

また、本実施の形態によれば、領域境界動き推定を行う際に、矩形領域の各辺に対応する境界条件である画像信号の傾きを、矩形領域の辺毎に別々に動きベクトル探索し、それぞれの境界部動きベクトル情報を生成することで、符号化ピクチャと参照ピクチャとの間で、ピクチャ内に含まれる画像信号が変形した場合であっても、各辺に対応する別々の境界部動きベクトル情報から特定される画像信号の傾きから、従来の動き補償よりも品質の高い第1の予測ピクチャを生成すると共に、更に符号化ピクチャに近付けるための予測残差ピクチャを合成することで、より符号化効率を向上させることができる。   Further, according to the present embodiment, when performing region boundary motion estimation, the gradient of the image signal that is the boundary condition corresponding to each side of the rectangular region is separately searched for a motion vector for each side of the rectangular region, Even if the image signal included in the picture is deformed between the coded picture and the reference picture by generating each boundary motion vector information, separate boundary motion corresponding to each side is generated. By generating a first predictive picture with higher quality than the conventional motion compensation from the inclination of the image signal specified from the vector information, and further synthesizing a predictive residual picture to be closer to the encoded picture, Encoding efficiency can be improved.

次に、本発明の動画像符号化装置の第1の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第1の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを取得して復号化を行う、本発明の動画像復号化装置の第1の実施の形態を、図3及び図4を用いて以下に説明する。   Next, an encoded bit stream generated by a computer that operates according to the first embodiment of the moving image encoding apparatus of the present invention or the first embodiment of the moving image encoding program of the present invention described later is used. A first embodiment of a moving picture decoding apparatus according to the present invention that acquires and decodes will be described below with reference to FIGS.

図3は本発明になる動画像復号化装置の第1の実施の形態のブロック図を示す。同図中、図24と同一構成部分には同一符号を付してある。この実施の形態の動画像復号化装置は、図3に示すように、図1に示した動画像符号化装置の第1の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第1の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを入力符号301として受け、これを復号化するために、スイッチ302、入力受信器303、多重化分離器304、エントロピー復号化器305、逆量子化器306、逆直交変換器307、第1合成器309、フレームメモリ311、復号化制御器313、領域境界動き補償器314、領域内差分動き補償器315、第2合成器316を少なくとも備えるように構成される。更に、図3のように、イントラ予測器308、デブロックフィルタ310を備えるような構成とすることが望ましい。   FIG. 3 shows a block diagram of a first embodiment of a moving picture decoding apparatus according to the present invention. In the figure, the same components as those in FIG. 24 are denoted by the same reference numerals. As shown in FIG. 3, the moving picture decoding apparatus according to this embodiment is the first embodiment of the moving picture encoding apparatus shown in FIG. 1, or the first moving picture encoding program of the present invention described later. A computer-generated coded bitstream operating according to one embodiment receives an input code 301 as an input code 301 and decodes it by means of a switch 302, an input receiver 303, a demultiplexer 304, an entropy decoder. 305, inverse quantizer 306, inverse orthogonal transformer 307, first synthesizer 309, frame memory 311, decoding controller 313, regional boundary motion compensator 314, intra-regional differential motion compensator 315, and second synthesizer 316 At least. Further, as shown in FIG. 3, it is desirable to have a configuration including an intra predictor 308 and a deblock filter 310.

スイッチ302は、端子aに供給されるイントラ予測器308からの第3の予測ピクチャと、端子bに供給される第2合成器316からの第2の予測ピクチャのいずれか一方を、復号化制御器313の制御に応じて選択し、選択した予測ピクチャを第1合成器309に供給する機能を有する。   The switch 302 performs decoding control on one of the third predicted picture from the intra predictor 308 supplied to the terminal a and the second predicted picture from the second synthesizer 316 supplied to the terminal b. And a function of supplying the selected predicted picture to the first synthesizer 309.

入力受信器303は、所定の伝送路もしくは所定の記録媒体から供給される、符号化ビットストリーム(入力符号301)を所定のパケット処理によってパケット化されたパケット情報を取得する機能と、取得したパケット情報からパケット合成処理を行うことで、符号化ビットストリームを生成する機能と、生成した符号化ビットストリームを多重化分離器304に供給する機能とを有する。   The input receiver 303 has a function of acquiring packet information obtained by packetizing an encoded bit stream (input code 301) supplied from a predetermined transmission path or a predetermined recording medium by predetermined packet processing, and the acquired packet By performing packet combining processing from information, it has a function of generating an encoded bit stream and a function of supplying the generated encoded bit stream to the demultiplexer 304.

多重化分離器304は、入力受信器303から符号化ビットストリームを取得し、所定の構文構造に基づいて符号化ビットストリームの多重化分離を行うことで、符号化ビット列を生成する機能と、生成した符号化ビット列をエントロピー復号化器305に供給する機能とを有する。   The demultiplexer 304 obtains an encoded bitstream from the input receiver 303, performs a demultiplexing of the encoded bitstream based on a predetermined syntax structure, and generates a coded bit string A function of supplying the encoded bit string to the entropy decoder 305.

エントロピー復号化器305は、多重化分離器304から符号化ビット列を取得し、所定のエントロピー復号化を行うことで、量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報を少なくとも取得する機能を有する。ここで、エントロピー復号化器305は、その他の所定の構文構造を構成するために必要なパラメータ情報などを、符号化ビット列に対してエントロピー復号化を行うことによって取得する機能を有することが望ましい。   The entropy decoder 305 acquires at least encoded information, boundary motion vector information, and difference component motion vector information by acquiring a coded bit string from the demultiplexer 304 and performing predetermined entropy decoding. It has a function. Here, it is desirable that the entropy decoder 305 has a function of acquiring parameter information and the like necessary for configuring another predetermined syntax structure by performing entropy decoding on the encoded bit string.

所定の構文構造を構成するために必要なパラメータ情報としては、マクロブロックの各種状態を特定するためのマクロブロック情報、量子化及び逆量子化を行う際に用いる量子化パラメータ情報、イントラ予測の方法を特定するためのイントラ予測モード情報、参照画像フレームの参照順を特定するためのフレーム順序情報、などが含まれると更によい。また、エントロピー復号化器305は、取得した量子化後情報を逆量子化器306に供給すると共に、境界部動きベクトル情報を領域境界動き補償器314、差分成分動きベクトル情報を領域内差分動き補償器315にそれぞれ供給する機能を少なくとも有する。   Parameter information necessary to configure a predetermined syntax structure includes macroblock information for specifying various states of the macroblock, quantization parameter information used when performing quantization and inverse quantization, and an intra prediction method It is further preferable that intra prediction mode information for specifying the frame order information, frame order information for specifying the reference order of the reference image frames, and the like. In addition, the entropy decoder 305 supplies the obtained post-quantization information to the inverse quantizer 306, and the boundary motion vector information is supplied to the region boundary motion compensator 314, and the difference component motion vector information is supplied to the intra-region differential motion compensation At least a function of supplying the unit 315.

逆量子化器306は、エントロピー復号化器305から量子化後情報を取得し、所定の量子化パラメータに基づいて所定の逆量子化を行うことで、逆量子化後情報を生成し、逆直交変換器307に供給する機能を有する。逆直交変換器307は、逆量子化器306から逆量子化後情報を取得し、所定の逆直交変換を行うことで、復号差分ピクチャを生成する機能と、生成した復号差分ピクチャを、第1合成器309に供給する機能とを有する。   The inverse quantizer 306 obtains post-quantization information from the entropy decoder 305, performs predetermined inverse quantization based on a predetermined quantization parameter, generates post-quantization information, and performs inverse orthogonal It has a function of supplying to the converter 307. The inverse orthogonal transformer 307 acquires the post-inverse quantization information from the inverse quantizer 306 and performs a predetermined inverse orthogonal transform to generate a decoded differential picture, and the generated decoded differential picture is converted into a first And a function to supply to the combiner 309.

第1合成器309は、逆直交変換器307から復号差分ピクチャを取得し、スイッチ302から予測ピクチャを取得する機能と、取得した復号差分ピクチャと予測ピクチャとを合成することで復号ピクチャを生成する機能と、生成した復号ピクチャを、イントラ予測器308とデブロックフィルタ310に供給する機能とを有する。   The first synthesizer 309 acquires a decoded differential picture from the inverse orthogonal transformer 307, generates a decoded picture by synthesizing the acquired decoded differential picture and the predicted picture, and a function of acquiring the predicted picture from the switch 302. And a function of supplying the generated decoded picture to the intra predictor 308 and the deblocking filter 310.

フレームメモリ311は、復号ピクチャを参照ピクチャとして保持するために各部から復号ピクチャを取得し、格納する機能を有する。図3においては、デブロックフィルタ310からデブロックフィルタ処理後の復号ピクチャを取得するように構成することが望ましい。また、フレームメモリ311は、必要に応じて復号化装置の各部に対して要求された参照ピクチャを供給する機能を有する。図3において、参照ピクチャは、イントラ予測器308、領域境界動き補償器314、領域内差分動き補償器315に供給されるように構成することが望ましい。また、フレームメモリ311は、出力表示装置の要求に応じて復号ピクチャを出力符号312として供給する機能を有する。復号化制御器313は、本発明の復号化装置の動作を制御するために、復号化装置を構成する各部に対して復号化に必要な各種パラメータ情報を供給する機能と、各部の入出力の制御を行うと共に、少なくともスイッチ302の切り替え制御を行う機能とを有する。   The frame memory 311 has a function of acquiring and storing a decoded picture from each unit in order to hold the decoded picture as a reference picture. In FIG. 3, it is desirable that the decoded picture after the deblocking filter process is acquired from the deblocking filter 310. Further, the frame memory 311 has a function of supplying the requested reference picture to each unit of the decoding device as necessary. In FIG. 3, the reference picture is preferably configured to be supplied to the intra predictor 308, the regional boundary motion compensator 314, and the intra-regional differential motion compensator 315. The frame memory 311 has a function of supplying a decoded picture as an output code 312 in response to a request from the output display device. In order to control the operation of the decoding apparatus of the present invention, the decoding controller 313 has a function of supplying various parameter information necessary for decoding to each unit constituting the decoding apparatus, and input / output of each unit. And at least a function of performing switching control of the switch 302.

領域境界動き補償器314は、エントロピー復号化器305から境界部動きベクトル情報を取得し、フレームメモリ311から参照ピクチャを取得する機能を有する。また、領域境界動き補償器314は、取得した境界部動きベクトル情報に基づいて、ブロック内の推定信号を生成する際に必要となる、各辺の画像信号の傾きを、参照ピクチャ内から特定し、特定した各辺の画像信号の傾きを境界条件としてポアソン方程式に適用することでブロック内の予測信号を生成し、ピクチャ内の各ブロックの予測信号を生成して第1の予測ピクチャを生成することで領域境界動き補償を行う機能と、生成した第1の予測ピクチャを、第2合成器316、領域内差分動き補償器315に供給する機能とを有する。   The region boundary motion compensator 314 has a function of acquiring boundary portion motion vector information from the entropy decoder 305 and acquiring a reference picture from the frame memory 311. In addition, the region boundary motion compensator 314 specifies, from the reference picture, the inclination of the image signal of each side necessary for generating the estimation signal in the block based on the acquired boundary portion motion vector information. The prediction signal in the block is generated by applying the slope of the image signal of each specified side as a boundary condition to the Poisson equation, and the prediction signal of each block in the picture is generated to generate the first prediction picture. Thus, it has a function of performing region boundary motion compensation and a function of supplying the generated first predicted picture to the second synthesizer 316 and the intra-regional difference motion compensator 315.

領域内差分動き補償器315は、フレームメモリ311から対応する参照ピクチャと、領域境界動き補償器314から第1の予測ピクチャを取得し、エントロピー復号化器305から差分成分動きベクトル情報を取得する機能を有する。また、領域内差分動き補償器315は、取得した差分成分動きベクトル情報に基づいて、参照ピクチャから対応するブロック領域を特定し、特定した参照ピクチャ内のブロック領域内の信号成分と、第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する機能と、生成した予測残差ピクチャを、第2合成器316に供給する機能とを有する。   The intra-regional difference motion compensator 315 acquires a corresponding reference picture from the frame memory 311 and a first predicted picture from the region boundary motion compensator 314, and acquires difference component motion vector information from the entropy decoder 305. Have Further, the intra-region difference motion compensator 315 identifies a corresponding block region from the reference picture based on the acquired difference component motion vector information, and the signal component in the block region in the identified reference picture, A function of generating a prediction residual picture that is a differential prediction picture from a difference from a signal component in a corresponding rectangular area in the prediction picture, and a function of supplying the generated prediction residual picture to the second synthesizer 316 Have.

第2合成器316は、領域境界動き補償器314から第1の予測ピクチャを取得し、領域内差分動き補償器315から予測残差ピクチャを取得する機能と、取得した第1の予測ピクチャと予測残差ピクチャとを合成し、第2の予測ピクチャを生成する機能と、生成した第2の予測ピクチャを、スイッチ302の端子b側に供給する機能とを有する。イントラ予測器308は、第1合成器309から復号ピクチャを取得し、所定のイントラ予測を行うことで第3の予測ピクチャを生成する機能と、生成した第3の予測ピクチャを、スイッチ302の端子aに供給する機能とを有する。なお、イントラ予測に利用するピクチャをフレームメモリ311から取得するような構成であっても構わない。   The second synthesizer 316 acquires the first predicted picture from the regional boundary motion compensator 314, acquires the prediction residual picture from the intra-regional differential motion compensator 315, and the acquired first predicted picture and prediction It has a function of combining the residual picture and generating a second predicted picture, and a function of supplying the generated second predicted picture to the terminal b side of the switch 302. The intra predictor 308 obtains a decoded picture from the first synthesizer 309 and performs a predetermined intra prediction to generate a third predicted picture, and the generated third predicted picture is connected to the terminal of the switch 302. a. Note that the configuration may be such that a picture used for intra prediction is acquired from the frame memory 311.

デブロックフィルタ310は、第1合成器309から復号ピクチャを取得し、所定のデブロックフィルタ処理を行った後に、デブロックフィルタ処理後の復号ピクチャを参照メモリとして格納するためにフレームメモリ311に供給する機能を有する。   The deblock filter 310 acquires the decoded picture from the first combiner 309, performs a predetermined deblock filter process, and then supplies the decoded picture to the frame memory 311 to store the decoded picture as a reference memory. Has the function of

次に、図3に示した動画像復号化装置の動作を図4のフローチャートに従って説明する。まず、入力受信器303は、図1に示した動画像符号化装置の第1の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第1の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを入力符号301として、所定の伝送路もしくは所定の記録媒体などから受信し、受信した入力符号301から所定のパケット合成処理を行うことで、符号化ビットストリームを再構成する(ステップS201)。その後、入力受信器303は再構成した符号化ビットストリームを多重化分離器304に供給する。   Next, the operation of the moving picture decoding apparatus shown in FIG. 3 will be described according to the flowchart of FIG. First, the input receiver 303 is generated by a computer that operates according to the first embodiment of the moving picture coding apparatus shown in FIG. 1 or the first embodiment of the moving picture coding program of the present invention described later. The encoded bit stream is received from a predetermined transmission path or a predetermined recording medium as an input code 301, and a predetermined packet combining process is performed from the received input code 301 to reconstruct the encoded bit stream. (Step S201). Thereafter, the input receiver 303 supplies the reconstructed encoded bitstream to the demultiplexer 304.

多重化分離器304は、入力受信器303によって再構成された符号化ビットストリームを取得し、取得した符号化ビットストリームに対して所定の構文構造に基づいて符号化情報の多重化分離を行い(ステップS202)、多重化分離後の情報である符号化ビット列をエントロピー復号化器305に通知する。   The demultiplexer 304 acquires the encoded bitstream reconstructed by the input receiver 303, and performs demultiplexing of encoded information on the acquired encoded bitstream based on a predetermined syntax structure ( In step S202), the entropy decoder 305 is notified of the encoded bit string that is the information after demultiplexing.

エントロピー復号化器305は、多重化分離器304から符号化ビット列を取得し、所定のエントロピー復号化を行い(ステップS203)、量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報、及びその他の所定の構文構造を構成するために必要なパラメータ情報などを生成する。その後、エントロピー復号化器305は、少なくとも量子化後情報を逆量子化器306に供給すると共に、境界部動きベクトル情報を領域境界動き補償器314に、差分成分動きベクトル情報を領域内差分動き補償器315に供給する。   The entropy decoder 305 acquires the encoded bit string from the demultiplexer 304, performs predetermined entropy decoding (step S203), post-quantization information, boundary motion vector information, difference component motion vector information, and Parameter information and the like necessary for constructing other predetermined syntax structures are generated. Thereafter, the entropy decoder 305 supplies at least post-quantization information to the inverse quantizer 306, boundary region motion vector information to the region boundary motion compensator 314, and difference component motion vector information to intra region differential motion compensation. To the container 315.

その後、復号化制御器313は、現在の復号化装置の復号化モードがイントラ復号化であるか、イントラ復号化でないかを判定する(ステップS204)。イントラ復号化である場合、復号化制御器313は、復号化装置の各部に対してイントラ復号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ302を端子aに接続することで、イントラ復号化を行うための準備をする。その後、イントラ予測器308によって所定のイントラ予測を行う(ステップS205)。その後、ステップS208に進む。   Thereafter, the decoding controller 313 determines whether the current decoding mode of the decoding apparatus is intra decoding or not intra decoding (step S204). In the case of intra decoding, the decoding controller 313 supplies parameter information for performing intra decoding to each unit of the decoding apparatus, and connects the switch 302 to the terminal a, so that the intra unit is connected. Prepare for decryption. Then, predetermined intra prediction is performed by the intra predictor 308 (step S205). Thereafter, the process proceeds to step S208.

一方、イントラ復号化でない場合、復号化制御器313は、インター復号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ302を端子bに接続することで、インター復号化を行うための準備をする。その後、領域境界動き補償器314は、エントロピー復号化器305から境界部動きベクトル情報と、フレームメモリ311から対応する参照ピクチャを取得し、所定の領域境界動き補償を行い(ステップS206)、第1の予測ピクチャを生成する。領域境界動き補償器314は、生成した第1の予測ピクチャを領域内差分動き補償器315と第2合成器316にそれぞれ供給する。   On the other hand, when it is not intra decoding, the decoding controller 313 supplies parameter information for performing inter decoding to each unit, and prepares for performing inter decoding by connecting the switch 302 to the terminal b. do. Thereafter, the region boundary motion compensator 314 obtains the boundary motion vector information from the entropy decoder 305 and the corresponding reference picture from the frame memory 311 and performs predetermined region boundary motion compensation (step S206). The predicted picture is generated. The region boundary motion compensator 314 supplies the generated first predicted picture to the intra-region difference motion compensator 315 and the second synthesizer 316, respectively.

また、領域内差分動き補償器315は、エントロピー復号化器305から差分成分動きベクトル情報を取得し、フレームメモリ311から対応する参照ピクチャを取得し、更に領域境界動き補償器314から第1の予測ピクチャを取得し、これらに基づいて所定の領域内差分動き補償を行い(ステップS207)、予測残差ピクチャを生成して第2合成器316に供給する。第2合成器316では、領域境界動き補償器314からの第1の予測ピクチャと、領域内差分動き補償器315からの予測残差ピクチャとを合成することにより、第2の予測ピクチャを生成する。この第2の予測ピクチャは、後述する第1合成器309で復号差分ピクチャと合成される合成用予測ピクチャとなる。第2合成器316は、生成した第2の予測ピクチャをスイッチ302の端子b側に供給する。その後、ステップS208に進む。   Further, the intra-region differential motion compensator 315 acquires the difference component motion vector information from the entropy decoder 305, acquires the corresponding reference picture from the frame memory 311, and further receives the first prediction from the region boundary motion compensator 314. Based on these, a predetermined intra-regional differential motion compensation is performed (step S207), and a prediction residual picture is generated and supplied to the second synthesizer 316. The second combiner 316 combines the first predicted picture from the region boundary motion compensator 314 and the prediction residual picture from the intra-region difference motion compensator 315 to generate a second predicted picture. . This second predicted picture is a synthesized predicted picture that is synthesized with the decoded differential picture by a first synthesizer 309 described later. The second synthesizer 316 supplies the generated second predicted picture to the terminal b side of the switch 302. Thereafter, the process proceeds to step S208.

予測ピクチャの準備が完了すると、逆量子化器306は、エントロピー復号化器305から量子化後情報を取得し、所定の量子化パラメータに基づいて所定の逆量子化を行い(ステップS208)、逆量子化後情報を生成する。生成した逆量子化後情報は、逆直交変換器307に供給される。逆直交変換器307は、逆量子化器306から逆量子化後情報を取得し、所定の逆直交変換を行い(ステップS209)、復号差分ピクチャを生成する。生成した復号差分ピクチャは、第1合成器309に供給される。   When the prediction picture preparation is completed, the inverse quantizer 306 obtains post-quantization information from the entropy decoder 305, performs predetermined inverse quantization based on a predetermined quantization parameter (step S208), and performs inverse processing. Generate post-quantization information. The generated dequantized information is supplied to the inverse orthogonal transformer 307. The inverse orthogonal transformer 307 acquires information after inverse quantization from the inverse quantizer 306, performs predetermined inverse orthogonal transform (step S209), and generates a decoded difference picture. The generated decoded differential picture is supplied to the first combiner 309.

第1合成器309は、逆直交変換器307からの復号差分ピクチャと、スイッチ302からのイントラ予測ピクチャ又は第2の予測ピクチャ(合成用予測ピクチャ)とを合成し(ステップS210)、復号ピクチャを生成する。生成した復号ピクチャは、デブロックフィルタ310に供給される。また、復号化モードがイントラ復号化である場合には、復号ピクチャは更にイントラ予測器308に供給される。   The first synthesizer 309 synthesizes the decoded differential picture from the inverse orthogonal transformer 307 and the intra prediction picture or the second prediction picture (composition prediction picture) from the switch 302 (step S210). Generate. The generated decoded picture is supplied to the deblocking filter 310. Also, when the decoding mode is intra decoding, the decoded picture is further supplied to the intra predictor 308.

デブロックフィルタ310は、第1合成器309から復号ピクチャを取得し、ブロック歪みを除去するための所定のデブロックフィルタ処理を行う(ステップS211)。これにより生成されたデブロックフィルタ処理後の復号ピクチャは、参照ピクチャとしてフレームメモリ311に格納されることで、次の符号化を行う際の参照ピクチャを準備する(ステップS212)。   The deblocking filter 310 acquires a decoded picture from the first combiner 309 and performs a predetermined deblocking filter process for removing block distortion (step S211). The decoded picture generated after the deblocking filter processing is stored in the frame memory 311 as a reference picture, thereby preparing a reference picture for the next encoding (step S212).

フレームメモリ311では、デブロックフィルタ310からデブロックフィルタ処理後の復号ピクチャを参照ピクチャとして取得及び蓄積する。また、必要に応じて領域境界動き補償器314、領域内差分動き補償器315、イントラ予測器308に参照ピクチャを供給する。ここで、フレームメモリ311は、少なくとも1ピクチャ以上の参照ピクチャを蓄積し、各構成要素の要求に応じて必要な参照ピクチャを供給できることが望ましい。また、フレームメモリ311は、復号ピクチャの表示タイミングに応じて復号画像フレームを出力し(ステップS213)、表示に必要な復号ピクチャを出力符号312として外部の出力表示器に供給する。   In the frame memory 311, the decoded picture after the deblocking filter processing is acquired from the deblocking filter 310 and stored as a reference picture. Also, reference pictures are supplied to the regional boundary motion compensator 314, the intra-regional differential motion compensator 315, and the intra predictor 308 as necessary. Here, it is desirable that the frame memory 311 accumulates at least one reference picture and can supply necessary reference pictures according to the request of each component. The frame memory 311 outputs a decoded image frame in accordance with the display timing of the decoded picture (step S213), and supplies the decoded picture necessary for display as an output code 312 to an external output display.

その後、更に復号化対象となる符号化ビットストリームが存在し、復号化の必要がある場合にはステップS201に進むことで復号化処理を継続し、復号化の必要がない場合には一連の復号化処理を終了する。   After that, if there is a further encoded bit stream to be decoded and decoding is necessary, the decoding process is continued by proceeding to step S201. If decoding is not necessary, a series of decoding is performed. The process is terminated.

(第2の実施の形態)
次に、本発明の動画像符号化装置及び動画像復号化装置の第2の実施の形態について図5及び図6を用いて説明する。図5は本発明になる動画像符号化装置の第2の実施の形態のブロック図を示す。同図中、図1と同一構成部分には同一符号を付してある。図5に示すように、本実施の形態の動画像符号化装置は、図1の動画像符号化装置の構成の他に、スイッチ501、動き推定器502、動き補償器503、差分判定器504を更に備えるように構成したものである。
(Second Embodiment)
Next, a second embodiment of the moving picture coding apparatus and moving picture decoding apparatus according to the present invention will be described with reference to FIGS. FIG. 5 shows a block diagram of a second embodiment of the moving picture coding apparatus according to the present invention. In the figure, the same components as those in FIG. As shown in FIG. 5, the moving picture coding apparatus according to the present embodiment has a switch 501, a motion estimator 502, a motion compensator 503, and a difference determiner 504 in addition to the configuration of the moving picture coding apparatus in FIG. Is further provided.

スイッチ501は、イントラ予測器105が生成した第3の予測ピクチャを端子aに入力として供給され、動き補償器503が生成した第4の予測ピクチャを端子bに入力として供給され、それら第3及び第4の予測ピクチャの一方を、符号化制御器117の制御に応じて選択し、選択した第3又は第4の予測ピクチャをスイッチ103の端子bと、第2差分器124に供給する機能を有する。   The switch 501 is supplied with the third predicted picture generated by the intra predictor 105 as an input to the terminal a, and is supplied with the fourth predicted picture generated by the motion compensator 503 as an input to the terminal b. A function of selecting one of the fourth predicted pictures according to the control of the encoding controller 117 and supplying the selected third or fourth predicted picture to the terminal b of the switch 103 and the second subtractor 124. Have.

動き推定器502は、入力符号101である動画像の符号化対象となっている符号化ピクチャと、フレームメモリ104から対象となる参照ピクチャを取得し、所定の動き推定を行うことで、動きベクトル情報を生成する機能を有する。上記の所定の動き推定は、一般的なAVCなどの動き推定と同様に、符号化ピクチャ内の各ブロック領域において参照ピクチャ内をブロックマッチングによって動きベクトル探索を行い、適合するブロック領域までの動きベクトル情報を生成する。また、動き推定器502は、生成した動きベクトル情報を動き補償器503と、エントロピー符号化器113に供給する機能を有する。   The motion estimator 502 obtains a coded picture that is a coding target of a moving image that is the input code 101 and a reference picture that is a target from the frame memory 104, and performs a predetermined motion estimation to obtain a motion vector. It has a function to generate information. In the above-described predetermined motion estimation, similarly to motion estimation such as general AVC, a motion vector search is performed by block matching in a reference picture in each block area in an encoded picture, and a motion vector up to a matching block area is obtained. Generate information. The motion estimator 502 has a function of supplying the generated motion vector information to the motion compensator 503 and the entropy encoder 113.

動き補償器503は、動き推定器502から取得した動きベクトル情報に基づいて、フレームメモリ104から取得した対応する参照ピクチャから対応するブロック領域を特定し、第4の予測ピクチャを生成する機能と、生成した第4の予測ピクチャを、スイッチ501の端子bに供給する機能とを有する。   The motion compensator 503 specifies a corresponding block region from the corresponding reference picture acquired from the frame memory 104 based on the motion vector information acquired from the motion estimator 502, and generates a fourth predicted picture; A function of supplying the generated fourth predicted picture to the terminal b of the switch 501;

差分判定器504は、第2差分器124において第3又は第4の予測ピクチャと入力符号101である符号化ピクチャとの差分演算を行うことで生成された第2の差分ピクチャと、第1差分器120において第2の予測ピクチャと入力符号101である符号化ピクチャとの差分演算を行うことで生成された第1の差分ピクチャとを少なくとも取得する機能を有する。また、差分判定器504は、領域境界動き補償器118から境界部動きベクトル情報と、領域内差分動き推定器121から差分成分動きベクトル情報と、動き推定器502から動きベクトル情報を更に取得するような機能を有すると更によい構成となる。   The difference determiner 504 includes a second difference picture generated by performing a difference operation between the third or fourth predicted picture and the encoded picture that is the input code 101 in the second differencer 124, and the first difference The unit 120 has a function of acquiring at least a first difference picture generated by performing a difference operation between the second predicted picture and the encoded picture that is the input code 101. Further, the difference determiner 504 further acquires boundary portion motion vector information from the region boundary motion compensator 118, difference component motion vector information from the intra-region difference motion estimator 121, and motion vector information from the motion estimator 502. If it has a function, it will become a better structure.

更に、差分判定器504は、所定の判定基準に基づいて、取得した第1の差分ピクチャと第2の差分ピクチャのどちらを採用するかを判定する機能を有する。ここで、上記の所定の判定基準は、取得した第1の差分ピクチャの情報量と第2の差分ピクチャの情報量とを比較し、情報量の少ない方の差分ピクチャを選択するような判定基準であるとよい。また、上記の所定の判定基準は、境界部動きベクトル情報の情報量と、差分成分動きベクトル情報の情報量と、動きベクトル情報の情報量を更に利用して、取得した第1の差分ピクチャの情報量、境界部動きベクトル情報の情報量、差分成分動きベクトル情報と、第2の差分ピクチャの情報量及び動きベクトル情報の情報量とを比較し、情報量の少ない方の差分ピクチャを選択するような判定基準であると更によい構成となる。また、更に差分判定器504は、第1の差分ピクチャと第2の差分ピクチャのどちらを選択したかを表す差分判定情報を符号化制御器117とエントロピー符号化器113に供給する機能を有する。   Further, the difference determiner 504 has a function of determining which of the acquired first difference picture or second difference picture is to be used based on a predetermined determination criterion. Here, the predetermined criterion is a criterion for comparing the acquired information amount of the first difference picture and the information amount of the second difference picture and selecting the difference picture having the smaller information amount. It is good to be. In addition, the predetermined criterion is that the information amount of the boundary motion vector information, the information amount of the difference component motion vector information, and the information amount of the motion vector information are further used to obtain the first difference picture of the acquired first difference picture. The information amount, the information amount of the boundary motion vector information, and the difference component motion vector information are compared with the information amount of the second difference picture and the information amount of the motion vector information, and the difference picture with the smaller information amount is selected. If it is such a determination standard, it will become a still more favorable structure. Further, the difference determiner 504 has a function of supplying difference determination information indicating which of the first difference picture and the second difference picture is selected to the encoding controller 117 and the entropy encoder 113.

符号化制御器117は、差分判定器504から差分判定情報を取得し、取得した差分判定情報が示す判定結果に基づいてスイッチ102の切り替え制御を行うことで、直交変換器107に供給する差分ピクチャの切り替え制御を行うと共に、取得した差分判定情報が示す判定結果に基づいてスイッチ103の切り替え制御を行うことで、選択された差分ピクチャを生成する際に利用した予測ピクチャを、第1合成器111に供給するように予測ピクチャの切り替え制御を行う機能を有する。また、符号化制御器117は、符号化モードに応じてスイッチ501の切り替え制御を行う機能を有する。スイッチ501の選択結果は、スイッチ103の端子bに供給されるように構成する。   The encoding controller 117 acquires the difference determination information from the difference determiner 504, and controls the switching of the switch 102 based on the determination result indicated by the acquired difference determination information, so that the difference picture supplied to the orthogonal transformer 107 And the switching control of the switch 103 based on the determination result indicated by the acquired difference determination information, the predicted picture used when generating the selected difference picture is converted into the first synthesizer 111. Has a function of performing prediction picture switching control so as to be supplied to. The encoding controller 117 has a function of performing switching control of the switch 501 in accordance with the encoding mode. The selection result of the switch 501 is configured to be supplied to the terminal b of the switch 103.

イントラ予測器105は、生成した第3の予測ピクチャをスイッチ501の端子aに供給する機能を有する。エントロピー符号化器113は、図1のエントロピー符号化器113の機能に加えて、動き推定器502から動きベクトル情報と、差分判定器504から差分判定情報を更に取得し、所定のエントロピー符号化を行う機能を有する。   The intra predictor 105 has a function of supplying the generated third predicted picture to the terminal a of the switch 501. In addition to the function of the entropy encoder 113 of FIG. 1, the entropy encoder 113 further acquires motion vector information from the motion estimator 502 and difference determination information from the difference determiner 504, and performs predetermined entropy encoding. Has the function to perform.

第2差分器124は、入力符号101である動画像の符号化対象である符号化ピクチャを取得し、スイッチ501から第3の予測ピクチャもしくは第4の予測ピクチャを取得する機能を有する。ここで、第3の予測ピクチャはイントラ予測器105により、また、第4の予測ピクチャは動き補償器503によって生成されたものである。また、第2差分器124は、取得した符号化ピクチャと予測ピクチャとの差分演算を行うことで、第2の差分ピクチャを生成する機能と、生成した第2の差分ピクチャをスイッチ102の端子bと差分判定器504にそれぞれ供給する機能を有する。   The second subtractor 124 has a function of acquiring an encoded picture that is an encoding target of a moving image that is the input code 101 and acquiring a third predicted picture or a fourth predicted picture from the switch 501. Here, the third predicted picture is generated by the intra predictor 105, and the fourth predicted picture is generated by the motion compensator 503. Further, the second subtractor 124 performs a difference operation between the acquired encoded picture and the predicted picture, thereby generating a second difference picture, and the generated second difference picture is connected to the terminal b of the switch 102. And the difference determination unit 504.

その他の本実施の形態の動画像符号化装置の構成に含まれる各部の機能については、図1に示した動画像符号化装置の第1の実施の形態に含まれる各部の機能と同様であることから、ここでは同一符号を付し、重複を避けるために説明を省略する。   Other functions included in the configuration of the moving picture encoding apparatus of the present embodiment are the same as the functions of the respective sections included in the first embodiment of the moving picture encoding apparatus shown in FIG. For this reason, the same reference numerals are given here, and the description is omitted to avoid duplication.

次に、図5に示す動画像符号化装置の第2の実施の形態の動作を図6のフローチャートに従って説明する。まず、入力符号101として、動画像の符号化対象となっているフレームもしくはフィールドを符号化ピクチャとして準備する(ステップS301)。符号化制御器117は、現在の符号化装置の符号化モードがイントラ符号化か、イントラ符号化でないかを判定する(ステップS302)。   Next, the operation of the second embodiment of the video encoding apparatus shown in FIG. 5 will be described with reference to the flowchart of FIG. First, as an input code 101, a frame or a field that is an encoding target of a moving image is prepared as an encoded picture (step S301). The encoding controller 117 determines whether the current encoding mode of the encoding apparatus is intra encoding or not intra encoding (step S302).

イントラ符号化である場合、符号化制御器117は、符号化装置の各部に対してイントラ符号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ102を端子bに接続し、スイッチ103を端子bに接続し、スイッチ501を端子aに接続することで、イントラ符号化を行うための準備をする。その後、イントラ予測器105によって所定のイントラ予測を行う(ステップS303)。その後、ステップS310に進む。   In the case of intra coding, the coding controller 117 supplies parameter information for performing intra coding to each unit of the coding apparatus, connects the switch 102 to the terminal b, and switches the switch 103 to By connecting to the terminal b and connecting the switch 501 to the terminal a, preparation for intra coding is performed. Thereafter, predetermined intra prediction is performed by the intra predictor 105 (step S303). Thereafter, the process proceeds to step S310.

一方、イントラ符号化でない場合、符号化制御器117は、インター符号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ102を切断し、スイッチ103を切断し、スイッチ501を端子bに接続することで、インター符号化を行うための準備をする。その後、領域境界動き推定器118は、入力符号101として準備された符号化ピクチャと、フレームメモリ104に格納されている参照ピクチャを取得し、これらに基づいて所定の領域境界動き推定を行い(ステップS304)、境界部動きベクトル情報を生成し、生成した境界部動きベクトル情報を領域境界動き補償器119に供給すると共に、エントロピー符号化器113に供給する。   On the other hand, when the encoding is not intra encoding, the encoding controller 117 supplies parameter information for performing inter encoding to each unit, disconnects the switch 102, disconnects the switch 103, and connects the switch 501 to the terminal b. By doing so, it prepares for performing inter coding. Thereafter, the region boundary motion estimator 118 obtains the encoded picture prepared as the input code 101 and the reference picture stored in the frame memory 104, and performs predetermined region boundary motion estimation based on these (step In step S <b> 304, boundary motion vector information is generated, and the generated boundary motion vector information is supplied to the region boundary motion compensator 119 and also supplied to the entropy encoder 113.

領域境界動き補償器119は、領域境界動き推定器118から取得した境界部動きベクトル情報と、フレームメモリ104から取得した対応する参照ピクチャとに基づいて、所定の領域境界動き補償を行い(ステップS305)、第1の予測ピクチャを生成し、生成した第1の予測ピクチャを第2合成器123、領域内差分動き推定器121及び領域内差分動き補償器122にそれぞれ供給する。   The region boundary motion compensator 119 performs predetermined region boundary motion compensation based on the boundary motion vector information acquired from the region boundary motion estimator 118 and the corresponding reference picture acquired from the frame memory 104 (step S305). ), A first prediction picture is generated, and the generated first prediction picture is supplied to the second synthesizer 123, the intra-regional difference motion estimator 121, and the intra-regional difference motion compensator 122, respectively.

領域内差分動き推定器121は、符号化対象となる符号化ピクチャを入力符号101として取得すると共に、フレームメモリ104から対応する参照ピクチャと、領域境界動き補償器119から第1の予測ピクチャをそれぞれ取得し、取得した各ピクチャに基づいて領域内差分動き推定を行い(ステップS306)、差分成分動きベクトル情報を生成し、生成した差分成分動きベクトル情報を、領域内差分動き補償器122及びエントロピー符号化器113にそれぞれ供給する。   The intra-region difference motion estimator 121 acquires the encoded picture to be encoded as the input code 101, and also obtains the corresponding reference picture from the frame memory 104 and the first predicted picture from the region boundary motion compensator 119, respectively. Obtaining and performing intra-regional differential motion estimation based on each acquired picture (step S306), generating differential component motion vector information, and using the generated differential component motion vector information as intra-regional differential motion compensator 122 and entropy code To the generator 113.

領域内差分動き補償器122は、フレームメモリ104から取得した対応する参照ピクチャと、領域境界動き補償器119から取得した第1の予測ピクチャと、領域内差分動き推定器121から取得した差分成分動きベクトル情報とに基づいて、領域内差分動き補償を行い(ステップS307)、予測残差ピクチャを生成し、生成した予測残差ピクチャを、第2合成器123に供給する。その後、第2合成器123は、領域境界動き補償器119から取得した第1の予測ピクチャと、領域内差分動き補償器122から取得した予測残差ピクチャとに基づいて、第2の予測ピクチャを生成し、生成した第2の予測ピクチャを、スイッチ103の端子aと、第1差分器120にそれぞれ供給する。   The intra-region difference motion compensator 122 is a corresponding reference picture acquired from the frame memory 104, a first predicted picture acquired from the region boundary motion compensator 119, and a difference component motion acquired from the intra-region difference motion estimator 121. Based on the vector information, intra-region difference motion compensation is performed (step S307), a prediction residual picture is generated, and the generated prediction residual picture is supplied to the second synthesizer 123. After that, the second synthesizer 123 generates a second predicted picture based on the first predicted picture acquired from the regional boundary motion compensator 119 and the predicted residual picture acquired from the intra-regional differential motion compensator 122. The generated second predicted picture is supplied to the terminal a of the switch 103 and the first differentiator 120, respectively.

同様に、動き推定器502は、入力符号101として準備された符号化ピクチャと、フレームメモリ104に格納されている参照ピクチャを取得し、所定の動き推定を行い(ステップS308)、動きベクトル情報を生成し、生成した動きベクトル情報を動き補償器503に供給すると共に、エントロピー符号化器113に供給する。   Similarly, the motion estimator 502 acquires a coded picture prepared as the input code 101 and a reference picture stored in the frame memory 104, performs predetermined motion estimation (step S308), and obtains motion vector information. The generated motion vector information is supplied to the motion compensator 503 and also supplied to the entropy encoder 113.

動き補償器503は、動き推定器502から取得した動きベクトル情報と、フレームメモリ104から取得した対応する参照ピクチャとに基づいて、所定の動き補償を行い(ステップS309)、第4の予測ピクチャを生成し、生成した第4の予測ピクチャをスイッチ501の端子bに供給する。その後、ステップS310に進む。   The motion compensator 503 performs predetermined motion compensation based on the motion vector information acquired from the motion estimator 502 and the corresponding reference picture acquired from the frame memory 104 (step S309), and obtains the fourth predicted picture. The generated fourth prediction picture is supplied to the terminal b of the switch 501. Thereafter, the process proceeds to step S310.

続いて、ステップS310ではイントラ予測器105もしくは第2合成器123及び動き補償器503において生成された予測ピクチャと、入力符号101である符号化ピクチャとの差分演算を行うことで、差分ピクチャを生成する。ここで、符号化モードがイントラ符号化である場合には、スイッチ501が端子aに接続されていることから、第2差分器124が、入力符号101である符号化ピクチャと、イントラ予測器105が生成した第3の予測ピクチャとを取得し、取得した符号化ピクチャと第3の予測ピクチャとの差分演算を行うことにより、第2の差分ピクチャを生成し、スイッチ102の端子bと差分判定器504に供給する。   Subsequently, in step S310, a difference picture is generated by performing a difference operation between the prediction picture generated by the intra predictor 105 or the second synthesizer 123 and the motion compensator 503 and the encoded picture that is the input code 101. To do. Here, when the coding mode is intra coding, since the switch 501 is connected to the terminal a, the second subtractor 124 includes the coded picture that is the input code 101 and the intra predictor 105. Is obtained, and a difference calculation is performed between the obtained encoded picture and the third predicted picture to generate a second difference picture, and a difference determination is made between the terminal b of the switch 102 and the difference determination. To the vessel 504.

これに対し、符号化モードがインター符号化である場合には、スイッチ501が端子bに接続されていることから、第2差分器124が、入力符号である符号化ピクチャと、動き補償器503が生成した第4の予測ピクチャとを取得し、取得した符号化ピクチャと第4の予測ピクチャとの差分演算を行うことにより、第2の差分ピクチャを生成し、スイッチ102の端子bと差分判定器504に供給する。   On the other hand, when the coding mode is inter coding, since the switch 501 is connected to the terminal b, the second subtractor 124 includes the coded picture as the input code and the motion compensator 503. Is obtained, and a difference calculation between the obtained encoded picture and the fourth predicted picture is performed to generate a second difference picture, and a difference determination is made between the terminal b of the switch 102 and the difference determination. To the vessel 504.

また、第1差分器120においては、入力符号101である符号化ピクチャと、第2合成器123が生成した第2の予測ピクチャとを取得し、取得した符号化ピクチャと第2の予測ピクチャとの差分演算を行うことにより、第1の差分ピクチャを生成し、スイッチ102の端子aと差分判定器504に供給する。   In the first subtractor 120, the encoded picture that is the input code 101 and the second predicted picture generated by the second synthesizer 123 are acquired, and the acquired encoded picture and the second predicted picture are obtained. The first difference picture is generated by performing the difference calculation, and is supplied to the terminal a of the switch 102 and the difference determination unit 504.

差分判定器504は、取得した第1の差分ピクチャの情報量と第2の差分ピクチャの情報量とを比較し、情報量の少ない方の差分ピクチャを選択するような所定の判定基準に基づいて、取得した第1の差分ピクチャと第2の差分ピクチャのどちらを採用するかを判定する(ステップS311)。また、差分判定器504は、第1の差分ピクチャと第2の差分ピクチャのどちらを採用したかを表す差分判定情報を、符号化制御器117とエントロピー符号化器113にそれぞれ供給する。   The difference determiner 504 compares the acquired information amount of the first difference picture with the information amount of the second difference picture, and selects a difference picture with a smaller information amount based on a predetermined determination criterion. Then, it is determined which one of the acquired first difference picture and second acquired difference picture is used (step S311). Further, the difference determiner 504 supplies difference determination information indicating which one of the first difference picture and the second difference picture is adopted to the encoding controller 117 and the entropy encoder 113, respectively.

符号化制御器117に対して差分判定器504から差分判定情報が供給されると、符号化制御器117は、スイッチ102とスイッチ103を切り替えて符号化の制御を行う。ここで、符号化制御器117は、差分判定情報から第1の差分ピクチャが採用されたことを特定した場合には、スイッチ102を端子a、スイッチ103を端子aに接続する。また、差分判定情報から第2の差分ピクチャが採用されたことを特定した場合には、スイッチ102を端子b、スイッチ103を端子bに接続する。このようにして、符号化制御器117は、差分判定器504で採用された差分ピクチャを直交変換器107に供給するようにスイッチ102を切り替え制御すると共に、差分判定器504で採用された差分ピクチャを生成する際に使用した対応する予測ピクチャを第1合成器111に供給するようにスイッチ103を切り替え制御する。   When difference determination information is supplied from the difference determiner 504 to the encoding controller 117, the encoding controller 117 switches the switch 102 and the switch 103 to control encoding. Here, when the encoding controller 117 specifies from the difference determination information that the first difference picture has been adopted, the encoding controller 117 connects the switch 102 to the terminal a and the switch 103 to the terminal a. When it is determined from the difference determination information that the second difference picture has been adopted, the switch 102 is connected to the terminal b and the switch 103 is connected to the terminal b. In this way, the encoding controller 117 controls the switch 102 so that the difference picture adopted by the difference judgment unit 504 is supplied to the orthogonal transformer 107, and the difference picture adopted by the difference judgment unit 504. The switch 103 is controlled so as to supply the corresponding predictive picture used when generating the first synthesizer 111 to the first synthesizer 111.

直交変換器107は、スイッチ102により選択された、差分判定器504で採用された差分ピクチャに対し、所定の直交変換を行い(ステップS312)、直交変換係数情報(ここではDCT係数情報)を生成し、生成したDCT係数情報を、量子化器108に供給する。量子化器108は、直交変換器107からDCT係数情報を取得し、所定の量子化パラメータに基づいて所定の量子化を行い(ステップS313)、量子化後情報を生成する。生成した量子化後情報は、逆量子化器109及びエントロピー符号化器113に供給される。   The orthogonal transformer 107 performs predetermined orthogonal transformation on the difference picture selected by the switch 102 and adopted by the difference determiner 504 (step S312), and generates orthogonal transformation coefficient information (here, DCT coefficient information). Then, the generated DCT coefficient information is supplied to the quantizer 108. The quantizer 108 acquires DCT coefficient information from the orthogonal transformer 107, performs predetermined quantization based on a predetermined quantization parameter (step S313), and generates post-quantization information. The generated post-quantization information is supplied to the inverse quantizer 109 and the entropy encoder 113.

逆量子化器109は、量子化器108から量子化後情報を取得し、所定の量子化パラメータに基づいて所定の逆量子化を行い(ステップS314)、逆量子化後情報を生成して逆直交変換器110に供給する。逆直交変換器110は、逆量子化器109から逆量子化後情報を取得し、所定の逆直交変換を行い(ステップS315)、復号差分ピクチャを生成して第1合成器111に供給する。   The inverse quantizer 109 acquires post-quantization information from the quantizer 108, performs predetermined inverse quantization based on a predetermined quantization parameter (step S314), generates information after inverse quantization, and performs inverse processing. This is supplied to the orthogonal transformer 110. The inverse orthogonal transformer 110 acquires information after inverse quantization from the inverse quantizer 109, performs predetermined inverse orthogonal transform (step S315), generates a decoded differential picture, and supplies the decoded differential picture to the first combiner 111.

第1合成器111は、逆直交変換器110から取得した復号差分ピクチャと、スイッチ103から取得した予測ピクチャとを合成し(ステップS316)、局部復号画像信号である復号ピクチャを生成する。この復号ピクチャは、デブロックフィルタ112に供給される。また、符号化モードがイントラ符号化である場合には、復号ピクチャは更にイントラ予測器105に供給される。   The first combiner 111 combines the decoded differential picture acquired from the inverse orthogonal transformer 110 and the predicted picture acquired from the switch 103 (step S316), and generates a decoded picture that is a locally decoded image signal. The decoded picture is supplied to the deblock filter 112. When the encoding mode is intra encoding, the decoded picture is further supplied to the intra predictor 105.

デブロックフィルタ112は、第1合成器111から取得した復号ピクチャに対し、所定のデブロックフィルタ処理を行い(ステップS317)、デブロックフィルタ処理後の復号ピクチャを生成して、参照ピクチャとしてフレームメモリ104に格納することで、次の符号化を行う際の参照ピクチャを準備させる(ステップS318)。   The deblocking filter 112 performs a predetermined deblocking filter process on the decoded picture acquired from the first combiner 111 (step S317), generates a decoded picture after the deblocking filter process, and uses the frame memory as a reference picture. By storing in 104, a reference picture for the next encoding is prepared (step S318).

その後、一連の符号化結果を出力するために、エントロピー符号化器113は、少なくとも量子化器108から量子化後情報、領域境界動き推定器118から境界部動きベクトル情報、領域内差分動き推定器121から差分成分動きベクトル情報、動き推定器502から動きベクトル情報、差分判定器504から差分判定情報を取得し、所定のエントロピー符号化を行い(ステップS319)、符号化ビット列を生成する。ここで、エントロピー符号化器113は、更に符号化時に利用した各種パラメータ情報についても符号化装置の各部から取得し、所定のエントロピー符号化を行うようにすると更によい。生成された符号化ビット列は、多重化器114に供給される。   Thereafter, in order to output a series of encoding results, the entropy encoder 113 includes at least quantized information from the quantizer 108, boundary motion vector information from the region boundary motion estimator 118, and intra-regional differential motion estimator. The difference component motion vector information is acquired from 121, the motion vector information is acquired from the motion estimator 502, and the difference determination information is acquired from the difference determiner 504, and predetermined entropy encoding is performed (step S319) to generate an encoded bit string. Here, the entropy encoder 113 may further acquire various parameter information used at the time of encoding from each unit of the encoding device and perform predetermined entropy encoding. The generated encoded bit string is supplied to the multiplexer 114.

多重化器114は、エントロピー符号化器113から取得した符号化ビット列に対し、所定の構文構造に基づいて多重化を行い(ステップS320)、符号化ビットストリームを生成し、その符号化ビットストリームを出力伝送器115に供給する。出力伝送器115は、多重化部114から取得した多重化ビットストリームに対し、所定のパケット化処理などを行った後に、所定の伝送路もしくは所定の記録媒体に符号化結果を出力伝送する(ステップS321)。以上のステップS301〜S321の処理を行うことで、本実施の形態の動画像符号化装置において、ある時点での符号化対象となっている符号化ピクチャの符号化処理が完了する。   The multiplexer 114 multiplexes the encoded bit string acquired from the entropy encoder 113 based on a predetermined syntax structure (step S320), generates an encoded bit stream, and converts the encoded bit stream to This is supplied to the output transmitter 115. The output transmitter 115 performs predetermined packetization processing or the like on the multiplexed bit stream acquired from the multiplexing unit 114, and then outputs and transmits the encoding result to a predetermined transmission path or a predetermined recording medium (step). S321). By performing the processes of steps S301 to S321 described above, the encoding process of the encoded picture that is the encoding target at a certain point in time is completed in the moving image encoding apparatus of the present embodiment.

本実施の形態では、差分判定器504により、発生する情報量が少なくなるように生成される差分ピクチャを随時切り替えるようにしたため、符号化ビットストリーム全体としての符号化効率を向上させることができる。   In the present embodiment, the difference determiner 504 switches the difference pictures generated so as to reduce the amount of information to be generated, so that the coding efficiency of the entire coded bitstream can be improved.

次に、本発明の動画像符号化装置の第2の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第2の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを取得して復号化を行う、本発明の動画像復号化装置の第2の実施の形態を、図7及び図8を用いて以下に説明する。   Next, an encoded bit stream generated by a computer that operates according to the second embodiment of the moving image encoding apparatus of the present invention or the second embodiment of the moving image encoding program of the present invention described later is obtained. A second embodiment of the moving picture decoding apparatus according to the present invention that performs acquisition and decoding will be described below with reference to FIGS.

図7は本発明になる動画像復号化装置の第2の実施の形態のブロック図を示す。同図中、図3と同一構成部分には同一符号を付してある。この実施の形態の動画像復号化装置は、図7に示すように、図5に示した動画像符号化装置の第2の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第2の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを入力符号301として受け、これを復号化するために、図3に示した動画像復号化装置の第1の実施の形態の構成の他に、動き補償器317、スイッチ318を更に備えるように構成したものである。   FIG. 7 shows a block diagram of a second embodiment of the moving picture decoding apparatus according to the present invention. In the figure, the same components as in FIG. As shown in FIG. 7, the moving picture decoding apparatus of this embodiment is a second embodiment of the moving picture encoding apparatus shown in FIG. 5, or a moving picture encoding program of the present invention to be described later. In order to receive an encoded code stream generated by a computer operating according to the second embodiment as an input code 301 and decode it, the first embodiment of the video decoding apparatus shown in FIG. In addition to the configuration, a motion compensator 317 and a switch 318 are further provided.

スイッチ318は、端子bに第2合成器316から第2の予測ピクチャが供給され、端子aに動き補償器317から第4の予測ピクチャが供給される。スイッチ318は、この供給された第2の予測ピクチャと第4の予測ピクチャとを、復号化制御器313の要求に応じて切り替えることで、スイッチ302の端子bに供給する機能を有する。   The switch 318 is supplied with the second predicted picture from the second synthesizer 316 to the terminal b and supplied with the fourth predicted picture from the motion compensator 317 to the terminal a. The switch 318 has a function of supplying the supplied second predicted picture and fourth predicted picture to the terminal b of the switch 302 by switching according to the request of the decoding controller 313.

動き補償器317は、エントロピー復号化器305から動きベクトル情報を取得すると共に、フレームメモリ311から対応する参照ピクチャを取得する機能と、取得した動きベクトル情報に基づいて参照ピクチャから対応するブロック領域を特定し、第4の予測ピクチャを生成する機能と、生成した第4の予測ピクチャを、スイッチ318の端子aに供給する機能とを有する。   The motion compensator 317 obtains motion vector information from the entropy decoder 305 and also obtains a corresponding reference picture from the frame memory 311 and a corresponding block area from the reference picture based on the obtained motion vector information. A function for generating a fourth predicted picture, and a function for supplying the generated fourth predicted picture to the terminal a of the switch 318.

スイッチ302は、イントラ予測器308によって生成された第3の予測ピクチャが端子aに供給されると共に、スイッチ318の切り替え制御によって第2の予測ピクチャまたは第4の予測ピクチャが端子bに供給される。また、スイッチ302は、端子a及び端子bに供給されるそれぞれの予測ピクチャに対し、復号化制御器313の要求に応じて切り替え制御を行う機能と、切り替え制御を行って選択した予測ピクチャを第1合成器309に供給する機能とを有する。   In the switch 302, the third predicted picture generated by the intra predictor 308 is supplied to the terminal a, and the second predicted picture or the fourth predicted picture is supplied to the terminal b by switching control of the switch 318. . In addition, the switch 302 has a function of performing switching control according to a request of the decoding controller 313 for each prediction picture supplied to the terminal a and the terminal b, and a prediction picture selected by performing the switching control. 1 synthesizer 309.

エントロピー復号化器305は、動きベクトル情報、差分判定情報を、多重化分離器304から取得した符号化ビット列に対してエントロピー復号化を行うことによって取得する機能と、取得した動きベクトル情報を動き補償器317に供給すると共に、取得した差分判定情報を復号化制御器313に供給する機能とを更に有する。   The entropy decoder 305 has a function of acquiring motion vector information and difference determination information by performing entropy decoding on the encoded bit sequence acquired from the demultiplexer 304, and motion compensation of the acquired motion vector information. And a function of supplying the obtained difference determination information to the decoding controller 313.

復号化制御器313は、エントロピー復号化器305から差分判定情報を取得し、取得した差分判定情報から差分ピクチャを生成する際に利用した予測ピクチャが、第2の予測ピクチャと第4の予測ピクチャのどちらであるかを特定すると共に、差分判定情報から特定した結果に基づいてスイッチ318の切り替え制御を行う機能を更に有する。ここで、復号化制御器313は、差分判定情報から差分ピクチャを生成する際に利用した予測ピクチャが、第2の予測ピクチャであったことを特定した場合には、スイッチ318を端子bに接続する。また、差分判定情報から差分ピクチャを生成する際に利用した予測ピクチャが、第4の予測ピクチャであったことを特定した場合には、スイッチ318を端子aに接続する。スイッチ318で選択された予測ピクチャは、スイッチ302の端子bに供給される。   The decoding controller 313 acquires the difference determination information from the entropy decoder 305, and the predicted pictures used when generating the difference picture from the acquired difference determination information are the second predicted picture and the fourth predicted picture. And a function of performing switching control of the switch 318 based on the result specified from the difference determination information. Here, when the decoding controller 313 identifies that the prediction picture used when generating the difference picture from the difference determination information is the second prediction picture, the decoding controller 313 connects the switch 318 to the terminal b. To do. In addition, when it is determined that the predicted picture used when generating the difference picture from the difference determination information is the fourth predicted picture, the switch 318 is connected to the terminal a. The predicted picture selected by the switch 318 is supplied to the terminal b of the switch 302.

また、復号化制御器313は、復号化モードに応じてスイッチ302の切り替え制御を行う機能を有する。ここで、復号化モードがイントラ復号化である場合には、スイッチ302を端子aに接続し、復号化モードがイントラ復号化ではない場合には、スイッチ302を端子bに接続することで、切り替え制御を行う。第2合成器316は、生成した第2の予測ピクチャをスイッチ318の端子bに供給する機能を有する。その他の本実施の形態の動画像復号化装置の構成に含まれる各部の機能については図3に示した動画像復号化装置の第1の実施の形態に含まれる各部の機能と同様であることから、ここでは重複を避けるために同一符号を付して説明を省略する。   In addition, the decoding controller 313 has a function of performing switching control of the switch 302 according to the decoding mode. Here, when the decoding mode is intra decoding, the switch 302 is connected to the terminal a, and when the decoding mode is not intra decoding, the switch 302 is connected to the terminal b, thereby switching. Take control. The second synthesizer 316 has a function of supplying the generated second predicted picture to the terminal b of the switch 318. Other functions included in the configuration of the moving picture decoding apparatus according to the present embodiment are the same as the functions of the respective sections included in the first embodiment of the moving picture decoding apparatus shown in FIG. Therefore, here, in order to avoid duplication, the same reference numerals are given and the description is omitted.

次に、図7の本発明の動画像復号化装置の第2の実施の形態の動作を図8のフローチャートに従って説明する。まず、入力受信器303は、図5に示した動画像符号化装置の第2の実施の形態、もしくは後述する本発明の動画像符号化プログラムの第2の実施の形態によって動作するコンピュータによって生成された符号化ビットストリームを入力符号301として、所定の伝送路もしくは所定の記録媒体などから受信し、受信した入力符号301から所定のパケット合成処理を行うことで、符号化ビットストリームを再構成する(ステップS401)。その後、入力受信器303は再構成した符号化ビットストリームを多重化分離器304に供給する。   Next, the operation of the second embodiment of the moving picture decoding apparatus of the present invention shown in FIG. 7 will be described with reference to the flowchart of FIG. First, the input receiver 303 is generated by a computer that operates according to the second embodiment of the moving picture coding apparatus shown in FIG. 5 or the second embodiment of the moving picture coding program of the present invention described later. The encoded bit stream is received from a predetermined transmission path or a predetermined recording medium as an input code 301, and a predetermined packet combining process is performed from the received input code 301 to reconstruct the encoded bit stream. (Step S401). Thereafter, the input receiver 303 supplies the reconstructed encoded bitstream to the demultiplexer 304.

多重化分離器304は、入力受信器303によって再構成された符号化ビットストリームを取得し、取得した符号化ビットストリームに対して所定の構文構造に基づいて符号化情報の多重化分離を行い(ステップS402)、多重化分離後の情報である符号化ビット列をエントロピー復号化器305に通知する。   The demultiplexer 304 acquires the encoded bitstream reconstructed by the input receiver 303, and performs demultiplexing of encoded information on the acquired encoded bitstream based on a predetermined syntax structure ( In step S402), the entropy decoder 305 is notified of an encoded bit string that is information after demultiplexing.

エントロピー復号化器305は、多重化分離器304から符号化ビット列を取得し、所定のエントロピー復号化を行い(ステップS403)、量子化後情報及び境界部動きベクトル情報、差分成分動きベクトル情報、動きベクトル情報、差分判定情報、及びその他の所定の構文構造を構成するために必要なパラメータ情報などを生成し、少なくとも量子化後情報を逆量子化器306に、境界部動きベクトル情報を領域境界動き補償器314に、差分成分動きベクトル情報を領域内差分動き補償器315に、動きベクトル情報を動き補償器317に、差分判定情報を復号化制御器313に、それぞれ供給する。   The entropy decoder 305 acquires the encoded bit string from the demultiplexer 304, performs predetermined entropy decoding (step S403), and performs post-quantization information, boundary motion vector information, difference component motion vector information, motion Generates vector information, difference determination information, and other parameter information necessary for constructing a predetermined syntax structure, and at least post-quantization information is input to the inverse quantizer 306 and boundary motion vector information is input to the region boundary motion. The compensator 314 is supplied with the difference component motion vector information to the intra-regional difference motion compensator 315, the motion vector information to the motion compensator 317, and the difference determination information to the decoding controller 313.

その後、復号化制御器313は、現在の復号化装置の復号化モードがイントラ復号化であるか、イントラ復号化でないかを判定する(ステップS404)。イントラ復号化である場合、復号化制御器313は、復号化装置の各部に対してイントラ復号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ302を端子aに接続することで、イントラ復号化を行うための準備をする。その後、イントラ予測器308によって所定のイントラ予測を行う(ステップS405)。その後、ステップS410に進む。一方、イントラ復号化でない場合、復号化制御器313は、インター復号化を行うためのパラメータ情報を各部に供給すると共に、スイッチ302を端子bに接続することで、インター復号化を行うための準備をする。   After that, the decoding controller 313 determines whether the current decoding mode of the decoding device is intra decoding or not intra decoding (step S404). In the case of intra decoding, the decoding controller 313 supplies parameter information for performing intra decoding to each unit of the decoding apparatus, and connects the switch 302 to the terminal a, so that the intra unit is connected. Prepare for decryption. Thereafter, predetermined intra prediction is performed by the intra predictor 308 (step S405). Thereafter, the process proceeds to step S410. On the other hand, when it is not intra decoding, the decoding controller 313 supplies parameter information for performing inter decoding to each unit, and prepares for performing inter decoding by connecting the switch 302 to the terminal b. do.

次に、復号化制御器313は、エントロピー復号化器305から取得した差分判定情報に基づいて、領域境界モードであるか、領域境界モードでないかを判定する(ステップS406)。領域境界モードであると判定した場合には、復号化制御器313は、第2合成器316が生成した第2の予測ピクチャを選択するように、スイッチ318を端子bに接続した後、領域境界動き補償器314が、エントロピー復号化器305から取得した境界部動きベクトル情報と、フレームメモリ311から取得した対応する参照ピクチャとに基づいて、所定の領域境界動き補償を行い(ステップS407)、第1の予測ピクチャを生成し、その第1の予測ピクチャを、第2合成器316と領域内差分動き補償器315にそれぞれ供給する。   Next, the decoding controller 313 determines whether it is the region boundary mode or not the region boundary mode based on the difference determination information acquired from the entropy decoder 305 (step S406). If it is determined that the region boundary mode is selected, the decoding controller 313 connects the switch 318 to the terminal b so as to select the second predicted picture generated by the second synthesizer 316, and then selects the region boundary. The motion compensator 314 performs predetermined region boundary motion compensation based on the boundary portion motion vector information acquired from the entropy decoder 305 and the corresponding reference picture acquired from the frame memory 311 (step S407). 1 predicted picture is generated, and the first predicted picture is supplied to the second synthesizer 316 and the intra-region difference motion compensator 315, respectively.

続いて、領域内差分動き補償器315が、エントロピー復号化器305から取得した差分成分動きベクトル情報と、フレームメモリ311から取得した対応する参照ピクチャと、領域境界動き補償器314から取得した第1の予測ピクチャとに基づいて、所定の領域内差分動き補償を行い(ステップS408)、予測残差ピクチャを生成し、その予測残差ピクチャを第2合成器316に供給する。第2合成器316では、領域境界動き補償器314から取得した第1の予測ピクチャと、領域内差分動き補償器315から取得した予測残差ピクチャに基づいて、第2の予測ピクチャを生成し、その第2の予測ピクチャをスイッチ318の端子bに供給する。その後、ステップS410に進む。   Subsequently, the intra-region difference motion compensator 315 receives the difference component motion vector information acquired from the entropy decoder 305, the corresponding reference picture acquired from the frame memory 311, and the first acquired from the region boundary motion compensator 314. Based on the predicted picture, predetermined intra-regional differential motion compensation is performed (step S408), a prediction residual picture is generated, and the prediction residual picture is supplied to the second synthesizer 316. The second synthesizer 316 generates a second predicted picture based on the first predicted picture acquired from the region boundary motion compensator 314 and the prediction residual picture acquired from the intra-region difference motion compensator 315, The second predicted picture is supplied to the terminal b of the switch 318. Thereafter, the process proceeds to step S410.

一方、復号化制御器313は、ステップS406で領域境界モードでないと判定した場合には、動き補償器317が生成した第4の予測ピクチャを選択するように、スイッチ318を端子aに接続し、また、動き補償器317が、エントロピー復号化器305から取得した動きベクトル情報と、フレームメモリ311から取得した対応する参照ピクチャとに基づいて、所定の動き補償を行い(ステップS409)、第4の予測ピクチャを生成し、その第4の予測ピクチャをスイッチ318の端子aに供給する。その後、ステップS410に進む。   On the other hand, if the decoding controller 313 determines in step S406 that it is not the region boundary mode, the decoding controller 313 connects the switch 318 to the terminal a so as to select the fourth predicted picture generated by the motion compensator 317, and The motion compensator 317 performs predetermined motion compensation based on the motion vector information acquired from the entropy decoder 305 and the corresponding reference picture acquired from the frame memory 311 (step S409), and the fourth A predicted picture is generated, and the fourth predicted picture is supplied to the terminal a of the switch 318. Thereafter, the process proceeds to step S410.

ステップS405、S408又はS409の処理により予測ピクチャの準備が完了すると、逆量子化器306は、エントロピー復号化器305から量子化後情報を取得し、所定の量子化パラメータに基づいて所定の逆量子化を行う(ステップS410)。これにより生成された逆量子化後情報は、逆直交変換器307に供給される。逆直交変換器307は、逆量子化器306から逆量子化後情報を取得し、所定の逆直交変換を行い(ステップS411)、復号差分ピクチャを生成し、その復号差分ピクチャを第1合成器309に供給する。   When the prediction picture preparation is completed by the processing in step S405, S408, or S409, the inverse quantizer 306 acquires post-quantization information from the entropy decoder 305, and performs predetermined inverse quantum based on a predetermined quantization parameter. (Step S410). The information after inverse quantization generated in this way is supplied to the inverse orthogonal transformer 307. The inverse orthogonal transformer 307 acquires the post-inverse quantization information from the inverse quantizer 306, performs predetermined inverse orthogonal transform (step S411), generates a decoded difference picture, and generates the decoded difference picture as the first combiner. 309.

第1合成器309は、逆直交変換器307から取得した復号差分ピクチャと、スイッチ302から取得した予測ピクチャとを合成し(ステップS412)、復号ピクチャを生成し、その復号ピクチャをデブロックフィルタ310に供給する。また、復号化モードがイントラ復号化である場合には、上記の復号ピクチャは更にイントラ予測器308に供給される。   The first synthesizer 309 synthesizes the decoded differential picture acquired from the inverse orthogonal transformer 307 and the predicted picture acquired from the switch 302 (step S412), generates a decoded picture, and outputs the decoded picture to the deblock filter 310. To supply. When the decoding mode is intra decoding, the decoded picture is further supplied to the intra predictor 308.

デブロックフィルタ310は、第1合成器309から取得した復号ピクチャに対して、所定のデブロックフィルタ処理を行う(ステップS413)。デブロックフィルタ処理後の復号ピクチャは、参照ピクチャとしてフレームメモリ311に格納されることで、次の符号化を行う際の参照ピクチャとして準備される(ステップS414)。   The deblocking filter 310 performs a predetermined deblocking filter process on the decoded picture acquired from the first combiner 309 (step S413). The decoded picture after the deblocking filter process is stored in the frame memory 311 as a reference picture, so that it is prepared as a reference picture for the next encoding (step S414).

フレームメモリ311では、デブロックフィルタ310からデブロックフィルタ処理後の復号ピクチャを参照ピクチャとして取得及び蓄積すると共に、必要に応じて領域境界動き補償314、領域内差分動き補償器315、動き補償器317、イントラ予測器308に参照ピクチャを供給する。ここで、フレームメモリ311は、少なくとも1ピクチャ以上の参照ピクチャを蓄積し、各構成要素の要求に応じて必要な参照ピクチャを供給できることが望ましい。また、フレームメモリ311は、復号ピクチャの表示タイミングに応じて復号画像フレームを出力し(ステップS415)、表示に必要な復号ピクチャを出力符号312として外部の出力表示器に供給する。   In the frame memory 311, the decoded picture after the deblocking filter processing is acquired and accumulated as a reference picture from the deblocking filter 310, and the region boundary motion compensation 314, the intraregional difference motion compensator 315, and the motion compensator 317 are acquired as necessary. The reference picture is supplied to the intra predictor 308. Here, it is desirable that the frame memory 311 accumulates at least one reference picture and can supply necessary reference pictures according to the request of each component. The frame memory 311 outputs a decoded image frame in accordance with the display timing of the decoded picture (step S415), and supplies the decoded picture necessary for display as an output code 312 to an external output display.

その後、更に復号化対象となる符号化ビットストリームが存在し、復号化の必要がある場合にはステップS401に進むことで復号化処理を継続し、復号化の必要がない場合には一連の復号化処理を終了する。   After that, if there is a further encoded bit stream to be decoded and decoding is necessary, the decoding process is continued by proceeding to step S401. If there is no need for decoding, a series of decoding is performed. The process is terminated.

(プログラムの実施の形態)
本発明は、上記図1、図5が示す動画像符号化装置の機能や、図3、図7が示す動画像復号化装置の機能を図9から図12に示すコンピュータである中央処理制御装置903に実現させるためのプログラムを含むものであり、以下、それらの実施の形態について説明する。
(Program embodiment)
The present invention relates to the central processing control apparatus which is a computer shown in FIGS. 9 to 12 with the functions of the moving picture encoding apparatus shown in FIGS. 1 and 5 and the functions of the moving picture decoding apparatus shown in FIGS. A program for realizing the program 903 is included, and the embodiments thereof will be described below.

図9は本発明になる動画像符号化プログラムの第1の実施の形態により動作する情報処理装置の一例の構成図を示す。同図において、情報処理装置900は、各種の情報を入力するための入力装置901と、各種の情報を出力するための出力装置902と、第1の実施の形態の動画像符号化プログラムにより動作する中央処理制御装置903と、外部記憶装置904と、中央処理制御装置903による演算処理の際の作業領域などに用いる一時記憶装置905と、外部と通信するための通信装置906とが、双方向のバス907により接続された構成とされている。   FIG. 9 is a block diagram showing an example of an information processing apparatus that operates according to the first embodiment of the moving picture coding program of the present invention. In the figure, an information processing apparatus 900 is operated by an input device 901 for inputting various types of information, an output unit 902 for outputting various types of information, and the moving picture encoding program of the first embodiment. A central processing control device 903, an external storage device 904, a temporary storage device 905 used as a work area for arithmetic processing by the central processing control device 903, and a communication device 906 for communicating with the outside are bidirectional. The bus 907 is connected.

中央処理制御装置903は、第1の実施の形態の動画像符号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置906により取り込まれ、図1に示したイントラ予測器105に相当するイントラ予測手段908、第1差分器120に相当する第1差分手段909、直交変換器107に相当する直交変換手段910、量子化器108に相当する量子化手段911、逆量子化器109に相当する逆量子化手段912、逆直交変換器110に相当する逆直交変換手段913、第1合成器111に相当する第1合成手段914、デブロックフィルタ112に相当するデブロックフィルタ手段915、エントロピー符号化器113に相当するエントロピー符号化手段916、多重化器114に相当する多重化手段917、出力伝送器115に相当する出力伝送手段918、符号化制御器117に相当する符号化制御手段919、領域境界動き推定器118に相当する領域境界動き推定手段920、領域境界動き補償器119に相当する領域境界動き補償手段921、第2差分器124に相当する第2差分手段922、領域内差分動き推定器121に相当する領域内差分動き推定手段923、領域内差分動き補償器122に相当する領域内差分動き補償手段924、第2合成器123に相当する第2合成手段925の各機能を少なくとも有し、図1に示したフレームメモリ104に相当する記憶手段として例えば一時記憶装置905を用いることで、図1に示した動画像符号化装置と同様の動作をソフトウェア処理により実行する。   The central processing control apparatus 903 distributes the moving picture coding program of the first embodiment from a recording medium or via a communication network and takes it in by the communication apparatus 906, and the intra processing predictor 105 shown in FIG. Corresponding intra prediction means 908, first difference means 909 corresponding to the first differencer 120, orthogonal transform means 910 corresponding to the orthogonal transformer 107, quantization means 911 corresponding to the quantizer 108, and inverse quantizer 109 Inverse quantization means 912 corresponding to, inverse orthogonal transform means 913 corresponding to the inverse orthogonal transformer 110, first synthesis means 914 corresponding to the first combiner 111, deblock filter means 915 corresponding to the deblock filter 112, Entropy encoding means 916 corresponding to the entropy encoder 113 and multiplexing means 91 corresponding to the multiplexer 114 Output transmission means 918 corresponding to the output transmitter 115, encoding control means 919 corresponding to the encoding controller 117, region boundary motion estimation means 920 corresponding to the region boundary motion estimator 118, and region boundary motion compensator 119 Corresponding to the corresponding regional boundary motion compensation unit 921, the second differential unit 922 corresponding to the second differential unit 124, the intra-regional differential motion estimation unit 923 corresponding to the intra-regional differential motion estimator 121, and the intra-regional differential motion compensator 122 1 has at least the functions of the intra-regional differential motion compensation unit 924 and the second synthesis unit 925 corresponding to the second synthesizer 123. For example, a temporary storage device 905 is used as a storage unit corresponding to the frame memory 104 shown in FIG. By using this, the same operation as that of the moving picture encoding apparatus shown in FIG. 1 is executed by software processing.

図10は本発明になる動画像復号化プログラムの第1の実施の形態により動作する情報処理装置の一例の構成図を示す。同図中、図9と同一構成部分には同一符号を付し、その説明を省略する。図10に示す情報処理装置900の基本的構成は、図9と同様である。   FIG. 10 is a block diagram showing an example of an information processing apparatus that operates according to the first embodiment of the moving picture decoding program of the present invention. In the figure, the same components as those in FIG. 9 are denoted by the same reference numerals, and the description thereof is omitted. The basic configuration of the information processing apparatus 900 illustrated in FIG. 10 is the same as that illustrated in FIG.

ただし、図10に示す中央処理制御装置903は、本発明の第1の実施の形態の動画像復号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置906により取り込まれ、図3に示した入力受信器303に相当する入力受信手段1001、多重化分離器304に相当する多重化分離手段1002、エントロピー復号化器305に相当するエントロピー復号化手段1003、逆量子化器306に相当する逆量子化手段1004、逆直交変換器307に相当する逆直交変換手段1005、イントラ予測器308に相当するイントラ予測手段1006、第1合成器309に相当する第1合成手段1007、デブロックフィルタ310に相当するデブロックフィルタ手段1008、復号化制御器313に相当する復号化制御手段1009、領域境界動き補償器314に相当する領域境界動き補償手段1010、領域内差分動き補償器315に相当する領域内差分動き補償手段1011、第2合成器316に相当する第2合成手段1012の各機能を少なくとも有し、図3に示したフレームメモリ311に相当する記憶手段として例えば一時記憶装置905を用いることで、図3に示した動画像復号化装置と同様の動作をソフトウェア処理により実行する。   However, the central processing control apparatus 903 shown in FIG. 10 receives the moving picture decoding program according to the first embodiment of the present invention from a recording medium or via a communication network and is captured by the communication apparatus 906. The input receiving unit 1001 corresponding to the input receiver 303 shown in FIG. 3, the demultiplexing unit 1002 corresponding to the demultiplexing unit 304, the entropy decoding unit 1003 corresponding to the entropy decoding unit 305, and the inverse quantizer 306 Inverse quantization means 1004 corresponding, inverse orthogonal transform means 1005 equivalent to inverse orthogonal transformer 307, intra prediction means 1006 equivalent to intra predictor 308, first synthesis means 1007 equivalent to first combiner 309, deblocking Deblock filter means 1008 corresponding to the filter 310 and decoding corresponding to the decoding controller 313 The control unit 1009, the region boundary motion compensation unit 1010 corresponding to the region boundary motion compensator 314, the intra-regional difference motion compensation unit 1011 corresponding to the intra-regional difference motion compensator 315, and the second synthesis unit corresponding to the second synthesizer 316. By using, for example, a temporary storage device 905 as storage means corresponding to the frame memory 311 shown in FIG. 3 at least having the functions 1012, the same operation as the moving picture decoding device shown in FIG. To execute.

図11は本発明になる動画像符号化プログラムの第2の実施の形態により動作する情報処理装置の一例の構成図を示す。同図中、図9と同一構成部分には同一符号を付し、その説明を省略する。図11に示す情報処理装置900の基本的構成は、図9と同様である。   FIG. 11 is a block diagram showing an example of an information processing apparatus that operates according to the second embodiment of the moving picture coding program of the present invention. In the figure, the same components as those in FIG. 9 are denoted by the same reference numerals, and the description thereof is omitted. The basic configuration of the information processing apparatus 900 illustrated in FIG. 11 is the same as that illustrated in FIG.

ただし、図11に示す中央処理制御装置903は、本発明の第2の実施の形態の動画像符号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置906により取り込まれ、図9に示した各手段に加えて、更に図5に示した動き推定器502に相当する動き推定手段1101、動き補償器503に相当する動き補償手段1102、差分判定器504に相当する差分判定手段1103の各機能を少なくとも有し、図5に示した動画像符号化装置と同様の動作をソフトウェア処理により実行する。   However, in the central processing control device 903 shown in FIG. 11, the moving image coding program according to the second embodiment of the present invention is distributed from a recording medium or via a communication network and is taken in by the communication device 906. 9, motion estimation means 1101 corresponding to the motion estimator 502 shown in FIG. 5, motion compensation means 1102 equivalent to the motion compensator 503, and difference determination means equivalent to the difference determiner 504 Each of the functions 1103 is at least, and the same operation as that of the moving picture encoding apparatus shown in FIG. 5 is executed by software processing.

図12は本発明になる動画像復号化プログラムの第2の実施の形態により動作する情報処理装置の一例の構成図を示す。同図中、図10と同一構成部分には同一符号を付し、その説明を省略する。図12に示す情報処理装置900の基本的構成は、図10と同様である。   FIG. 12 shows a block diagram of an example of an information processing apparatus that operates according to the second embodiment of the moving picture decoding program of the present invention. In the figure, the same components as those in FIG. 10 are denoted by the same reference numerals, and the description thereof is omitted. The basic configuration of the information processing apparatus 900 illustrated in FIG. 12 is the same as that illustrated in FIG.

ただし、図12に示す中央処理制御装置903は、本発明の第2の実施の形態の動画像復号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置906により取り込まれ、図10に示した各手段に加えて、更に図7に示した動き補償器317に相当する動き補償手段1201の機能を少なくとも有し、図7に示した動画像復号化装置と同様の動作をソフトウェア処理により実行する。   However, the central processing control apparatus 903 shown in FIG. 12 receives the moving picture decoding program according to the second embodiment of the present invention from a recording medium or via a communication network and is captured by the communication apparatus 906. 10 and at least the function of motion compensation means 1201 corresponding to the motion compensator 317 shown in FIG. 7, and the same operation as that of the moving picture decoding apparatus shown in FIG. Execute by processing.

本発明は、映像符号化装置及び映像符号化プログラムなどに適用できる。また、本発明は、映像復号化装置及び映像復号化プログラムなどに適用できる。   The present invention can be applied to a video encoding device, a video encoding program, and the like. Further, the present invention can be applied to a video decoding device, a video decoding program, and the like.

本発明の動画像符号化装置の第1の実施の形態のブロック図である。It is a block diagram of 1st Embodiment of the moving image encoder of this invention. 本発明の動画像符号化装置の第1の実施の形態の動作説明用フローチャートである。It is a flowchart for operation | movement description of 1st Embodiment of the moving image encoder of this invention. 本発明の動画像復号化装置の第1の実施の形態のブロック図である。It is a block diagram of 1st Embodiment of the moving image decoding apparatus of this invention. 本発明の動画像復号化装置の第1の実施の形態の動作説明用フローチャートである。It is a flowchart for operation | movement description of 1st Embodiment of the moving image decoding apparatus of this invention. 本発明の動画像符号化装置の第2の実施の形態のブロック図である。It is a block diagram of 2nd Embodiment of the moving image encoder of this invention. 本発明の動画像符号化装置の第2の実施の形態の動作説明用フローチャートである。It is a flowchart for operation | movement description of 2nd Embodiment of the moving image encoder of this invention. 本発明の動画像復号化装置の第2の実施の形態のブロック図である。It is a block diagram of 2nd Embodiment of the moving image decoding apparatus of this invention. 本発明の動画像復号化装置の第2の実施の形態の動作説明用フローチャートである。It is a flowchart for operation | movement description of 2nd Embodiment of the moving image decoding apparatus of this invention. 本発明の動画像符号化プログラムの第1の実施の形態により動作する情報処理装置の一例の構成図である。It is a block diagram of an example of the information processing apparatus which operate | moves by 1st Embodiment of the moving image encoding program of this invention. 本発明の動画像復号化プログラムの第1の実施の形態により動作する情報処理装置の一例の構成図である。It is a block diagram of an example of the information processing apparatus which operate | moves by 1st Embodiment of the moving image decoding program of this invention. 本発明の動画像符号化プログラムの第2の実施の形態により動作する情報処理装置の一例の構成図である。It is a block diagram of an example of the information processing apparatus which operate | moves by 2nd Embodiment of the moving image encoding program of this invention. 本発明の動画像復号化プログラムの第2の実施の形態により動作する情報処理装置の一例の構成図である。It is a block diagram of an example of the information processing apparatus which operate | moves by 2nd Embodiment of the moving image decoding program of this invention. 一般的なブロックマッチングによる動きベクトル探索を行うことで、動きベクトル情報を生成する、動き推定の様子を示した概念図である。It is the conceptual diagram which showed the mode of the motion estimation which produces | generates motion vector information by performing the motion vector search by general block matching. 本発明の動画像符号化装置による領域境界動き推定の動作を示すための概念図である。It is a conceptual diagram for demonstrating the operation | movement of the area | region boundary motion estimation by the moving image encoder of this invention. 本発明の動画像符号化装置による領域境界動き推定を行う際の、境界部分における境界条件を算出する一例を説明するための概念図である。It is a conceptual diagram for demonstrating an example which calculates the boundary condition in a boundary part at the time of performing area | region boundary motion estimation by the moving image encoder of this invention. 本発明の動画像符号化装置による領域境界動き補償の動作を示すための概念図である。It is a conceptual diagram for showing the operation | movement of the area | region boundary motion compensation by the moving image encoder of this invention. 本発明の動画像符号化装置による領域内差分動き推定の動作における基準差分情報の求め方を示すための概念図である。It is a conceptual diagram for demonstrating how to obtain | require the reference | standard difference information in the operation | movement of the difference motion estimation in the area | region by the moving image encoder of this invention. 本発明の動画像符号化装置による領域内差分動き推定における動作を示すための概念図である。It is a conceptual diagram for showing the operation | movement in the difference motion estimation in the area | region by the moving image encoder of this invention. 本発明の動画像符号化装置による領域内差分動き推定における別の動作を示すための概念図である。It is a conceptual diagram for showing another operation | movement in the difference motion estimation in the area | region by the moving image encoder of this invention. 本発明の動画像符号化装置による領域内差分動き補償、及び予測ピクチャの合成における動作を示すための概念図である。It is a conceptual diagram for demonstrating the operation | movement in the difference motion compensation in area | region by the moving image encoding apparatus of this invention, and the synthesis | combination of a prediction picture. 本発明の動画像符号化装置による領域内差分動き補償、及び予測ピクチャの合成における別の動作を示すための概念図である。It is a conceptual diagram for showing another operation | movement in the synthesis | combination of the difference motion compensation in a area | region by the moving image encoding apparatus of this invention, and a prediction picture. AVCの符号化装置に、動き補償後の予測ピクチャに対して平滑化処理を導入した場合の符号化装置の一例のブロック図である。It is a block diagram of an example of the encoding apparatus at the time of introduce | transducing the smoothing process with respect to the prediction picture after motion compensation to the encoding apparatus of AVC. AVCの符号化装置に、動き補償後の予測ピクチャに対して平滑化処理を導入した場合の符号化装置の動作説明用フローチャートである。It is a flowchart for operation | movement description of an encoding apparatus at the time of introduce | transducing a smoothing process with respect to the prediction picture after a motion compensation to the encoding apparatus of AVC. AVCの復号化装置に、動き補償後の予測ピクチャに対して平滑化処理を導入した場合の復号化装置の一例のブロック図である。It is a block diagram of an example of a decoding apparatus at the time of introduce | transducing smoothing processing with respect to the prediction picture after motion compensation to the decoding apparatus of AVC. AVCの復号化装置に、動き補償後の予測ピクチャに対して平滑化処理を導入した場合の復号化装置の動作説明用フローチャートである。It is a flowchart for operation | movement description of a decoding apparatus at the time of introduce | transducing the smoothing process with respect to the prediction picture after motion compensation to the decoding apparatus of AVC. 所定の領域の境界条件を適用してポアソン方程式から推定される推定信号と、原信号と推定信号との差分から得られる残差信号を模式的に表すための概念図である。It is a conceptual diagram for schematically representing a residual signal obtained from a difference between an estimated signal estimated from a Poisson equation by applying a boundary condition of a predetermined region and an original signal and an estimated signal. 原信号に対してDCTを行う際の問題点を模式的に表す概念図である。It is a conceptual diagram which represents typically the problem at the time of performing DCT with respect to an original signal. 残差信号に対してDCTを行うことで、従来法との違いを模式的に表す概念図である。It is a conceptual diagram which represents typically the difference with the conventional method by performing DCT with respect to a residual signal. 各ピクチャを所定の矩形領域で分割した際の状態を模式的に表す概念図である。It is a conceptual diagram which represents typically the state at the time of dividing | segmenting each picture in a predetermined rectangular area.

符号の説明Explanation of symbols

101、301 入力符号
102、103、302、318、501 スイッチ
104、311 フレームメモリ
105、308 イントラ予測器
107 直交変換器
108 量子化器
109、306 逆量子化器
110、307 逆直交変換器
111、309 第1合成器
112、310 デブロックフィルタ
113 エントロピー符号化器
114 多重化器
115 出力伝送器
116、312 出力符号
117 符号化制御器
118 領域境界動き推定器
119、314 領域境界動き補償器
120 第1差分器
121 領域内差分動き推定器
122、315 領域内差分動き補償器
123、316 第2合成器
124 第2差分器
303 入力受信器
304 多重化分離器
305 エントロピー復号化器
313 復号化制御器
317、503 動き補償器
502 動き推定器
504 差分判定器
900 情報処理装置
903 中央処理制御装置
1301、1401 符号化ピクチャ
1302、1402 参照ピクチャ
1303、1403 予測対象
1304、1404 基準位置
1305、1405 探索範囲
1406 適合した境界部分
1407 境界部動きベクトル情報
1601〜1604 参照ピクチャ内の境界部分
1605 予測ピクチャ
1606 予測ブロック
1702 基準差分情報
1801 適合したブロック
1802 差分成分動きベクトル情報
1803 現在の探索対象
1901 参照ピクチャの探索範囲内の、現在の探索対象のブロックに対応する空間位置である領域
2001、2102 予測残差ブロック
2002、2103 予測残差ピクチャ
2003、2104 第2の予測ピクチャ


101, 301 Input code 102, 103, 302, 318, 501 Switch 104, 311 Frame memory 105, 308 Intra predictor 107 Orthogonal transformer 108 Quantizer 109, 306 Inverse quantizer 110, 307 Inverse orthogonal transformer 111, 309 First synthesizer 112, 310 Deblock filter 113 Entropy encoder 114 Multiplexer 115 Output transmitter 116, 312 Output code 117 Encoding controller 118 Region boundary motion estimator 119, 314 Region boundary motion compensator 120 1 subtractor 121 intra-regional differential motion estimator 122, 315 intra-regional differential motion compensator 123, 316 second combiner 124 second subtractor 303 input receiver 304 demultiplexer 305 entropy decoder 313 decoding controller 317, 503 motion compensator 02 motion estimator 504 difference determiner 900 information processing device 903 central processing control device 1301, 1401 coded picture 1302, 1402 reference picture 1303, 1403 prediction target 1304, 1404 reference position 1305, 1405 search range 1406 adapted boundary portion 1407 boundary Partial motion vector information 1601 to 1604 Boundary part in reference picture 1605 Predicted picture 1606 Predicted block 1702 Reference difference information 1801 Matched block 1802 Difference component motion vector information 1803 Current search target 1901 Current search within reference picture search range Regions that are spatial positions corresponding to the target block 2001, 2102 Prediction residual block 2002, 2103 Prediction residual picture 2003, 2104 Second prediction picture


Claims (8)

入力された符号化対象の動画像信号の一画面領域を、所定の画素数からなる矩形領域を単位として細分割し、前記矩形領域を処理単位として局部復号画像信号である参照ピクチャから生成された予測ピクチャと前記符号化対象の動画像信号である符号化ピクチャとの差分信号である差分ピクチャを生成し、前記差分ピクチャに対して符号化を行う動画像符号化装置において、
前記符号化ピクチャ内の予測対象としている前記矩形領域と、その矩形領域に隣接する他の矩形領域との間の境界部分を探索単位として境界部分の境界条件を求め、その境界条件に適合する境界条件を持つ前記参照ピクチャの境界部分を該参照ピクチャ内の動きベクトル探索を行うことによって特定し、更に前記符号化ピクチャ内の前記矩形領域の境界部分から前記参照ピクチャ内の前記特定した境界部分までの動きベクトル情報である境界部動きベクトル情報を生成する領域境界動き推定手段と、
前記境界部動きベクトル情報に基づいて前記参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような前記符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、
処理対象になっている前記符号化ピクチャ内における矩形領域内の信号成分と、前記領域境界動き補償手段が生成する前記第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、比較する際の基準となる差分情報である基準差分情報を生成し、前記参照ピクチャ内で動きベクトル探索対象となっている矩形領域内の信号成分と、前記第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、動きベクトル探索時の比較対象となる探索対象差分情報を生成し、その探索対象差分情報と前記基準差分情報の信号成分とを比較しながら適合する矩形領域を前記参照ピクチャ内で動きベクトル探索を行い、適合した前記参照ピクチャ内の矩形領域までの動きベクトル情報である差分成分動きベクトル情報を生成する領域内差分動き推定手段と、
前記差分成分動きベクトル情報に基づいて、前記参照ピクチャから対応する矩形領域を特定し、特定した前記参照ピクチャ内の矩形領域内の信号成分と、前記第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、
前記第1の予測ピクチャと前記予測残差ピクチャとを合成することで第2の予測ピクチャを生成する合成手段と、
前記第2の予測ピクチャと前記符号化ピクチャとの差分から第1の差分ピクチャを生成する第1の差分手段と、
前記第1の差分ピクチャに対して所定の直交変換を行うことで直交変換係数情報を生成する直交変換手段と、
前記直交変換係数情報に対して所定の量子化パラメータに基づいて所定の量子化を行うことで量子化後情報を生成する量子化手段と、
前記量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、
前記復号差分ピクチャと少なくとも前記第2の予測ピクチャとを合成して前記局部復号画像信号を生成する局部復号画像信号生成手段と、
少なくとも1ピクチャ分の前記局部復号画像信号を前記参照ピクチャとして保持すると共に、保持しているその参照ピクチャを前記領域境界動き推定手段、前記領域境界動き補償手段、前記領域内差分動き推定手段及び前記領域内差分動き補償手段へそれぞれ供給する記憶手段と、
少なくとも前記量子化後情報、前記境界部動きベクトル情報、及び前記差分成分動きベクトル情報に対して所定のエントロピー符号化を行うことで符号化ビット列を生成するエントロピー符号化手段と、
所定の構文構造に基づいて前記符号化ビット列を多重化することで符号化ビットストリームを生成する多重化手段と、
を少なくとも備えることを特徴とする動画像符号化装置。
One screen area of the input video signal to be encoded is subdivided with a rectangular area having a predetermined number of pixels as a unit, and the rectangular area is generated from a reference picture that is a locally decoded image signal with a processing unit as a unit. In a moving picture coding apparatus that generates a difference picture that is a difference signal between a predicted picture and a coded picture that is a moving picture signal to be coded, and performs coding on the difference picture.
The boundary condition between the rectangular area to be predicted in the coded picture and the other rectangular area adjacent to the rectangular area is determined as a search unit, and the boundary condition is matched with the boundary condition A boundary part of the reference picture having a condition is specified by performing a motion vector search in the reference picture, and further from a boundary part of the rectangular area in the encoded picture to the specified boundary part in the reference picture Region boundary motion estimation means for generating boundary motion vector information that is motion vector information of
Each rectangular region in the encoded picture that specifies a boundary condition of a corresponding boundary part from the reference picture based on the boundary part motion vector information and satisfies the Poisson equation based on the boundary condition of the specified boundary part Region boundary motion compensation means for generating a first predicted picture by generating an estimated image signal of
Performing a difference operation between the signal component in the rectangular area in the encoded picture to be processed and the signal component in the rectangular area in the first predicted picture generated by the area boundary motion compensation means Generating reference difference information, which is difference information serving as a reference for comparison, a signal component in a rectangular area that is a motion vector search target in the reference picture, and a rectangle in the first predicted picture By performing the difference calculation with the signal component in the region, the search target difference information to be compared at the time of motion vector search is generated, and the search target difference information is matched with the signal component of the reference difference information. A motion vector search is performed within the reference picture for a rectangular area to be processed, and a differential component motion vector that is motion vector information up to the rectangular area within the adapted reference picture And area difference motion estimation means for generating a broadcast,
Based on the difference component motion vector information, a corresponding rectangular area is identified from the reference picture, a signal component in the identified rectangular area in the reference picture, and a corresponding rectangular area in the first predicted picture An intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from a difference from the signal component
Combining means for generating a second predicted picture by combining the first predicted picture and the prediction residual picture;
First difference means for generating a first difference picture from a difference between the second predicted picture and the encoded picture;
Orthogonal transform means for generating orthogonal transform coefficient information by performing predetermined orthogonal transform on the first difference picture;
Quantization means for generating post-quantization information by performing predetermined quantization on the orthogonal transform coefficient information based on a predetermined quantization parameter;
A predetermined inverse quantization is performed on the post-quantization information based on a predetermined quantization parameter to generate post-quantization information, and a predetermined inverse orthogonal transform is performed on the post-quantization information. Decoded differential picture generation means for generating a decoded differential picture;
Local decoded image signal generating means for combining the decoded differential picture and at least the second predicted picture to generate the locally decoded image signal;
The local decoded image signal for at least one picture is retained as the reference picture, and the retained reference picture is retained as the region boundary motion estimation unit, the region boundary motion compensation unit, the intra-regional difference motion estimation unit, and the Storage means for supplying each to the intra-region differential motion compensation means;
Entropy encoding means for generating an encoded bit string by performing predetermined entropy encoding on at least the post-quantization information, the boundary motion vector information, and the difference component motion vector information;
Multiplexing means for generating an encoded bitstream by multiplexing the encoded bit string based on a predetermined syntax structure;
A moving picture encoding apparatus comprising:
前記符号化ピクチャ内の各矩形領域において前記記憶手段から取得した前記参照ピクチャ内をブロックマッチングによって動きベクトル探索を行い、適合する矩形領域までの動きベクトル情報を生成する動き推定手段と、
前記動き推定手段により生成された前記動きベクトル情報に基づいて、前記記憶手段から取得した前記参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、
前記第4の予測ピクチャと前記符号化ピクチャとの差分から第2の差分ピクチャを生成する第2の差分手段と、
前記第1の差分ピクチャと前記第2の差分ピクチャとを所定の判定基準に基づいて比較し、情報量の少ない方の差分ピクチャを選択する差分判定手段と、
前記差分判定手段が選択した差分ピクチャ及びその選択した差分ピクチャの生成要素である予測ピクチャを所定の手段に供給するための制御を行う符号化制御手段と、
を更に備えることを特徴とする請求項1記載の動画像符号化装置。
Motion estimation means for performing motion vector search by block matching in the reference picture acquired from the storage means in each rectangular area in the encoded picture, and generating motion vector information up to a matching rectangular area;
Based on the motion vector information generated by the motion estimation unit, a corresponding rectangular region is identified from the reference picture acquired from the storage unit, and a motion compensation unit that generates a fourth prediction picture;
Second difference means for generating a second difference picture from the difference between the fourth predicted picture and the encoded picture;
A difference determination means for comparing the first difference picture and the second difference picture based on a predetermined determination criterion, and selecting a difference picture having a smaller amount of information;
Encoding control means for performing control for supplying a difference picture selected by the difference determination means and a prediction picture that is a generation element of the selected difference picture to a predetermined means;
The moving picture encoding apparatus according to claim 1, further comprising:
入力された符号化対象の動画像信号の一画面領域を、所定の画素数からなる矩形領域を単位として細分割し、前記矩形領域を処理単位として局部復号画像信号である参照ピクチャから生成された予測ピクチャと前記符号化対象の動画像信号である符号化ピクチャとの差分信号である差分ピクチャを生成し、前記差分ピクチャに対して符号化を行うことを、コンピュータにより実行させるための動画像符号化プログラムにおいて、
前記コンピュータを、
前記符号化ピクチャ内の予測対象としている前記矩形領域と、その矩形領域に隣接する他の矩形領域との間の境界部分を探索単位として境界部分の境界条件を求め、その境界条件に適合する境界条件を持つ前記参照ピクチャの境界部分を該参照ピクチャ内の動きベクトル探索を行うことによって特定し、更に前記符号化ピクチャ内の前記矩形領域の境界部分から前記参照ピクチャ内の前記特定した境界部分までの動きベクトル情報である境界部動きベクトル情報を生成する領域境界動き推定手段と、
前記境界部動きベクトル情報に基づいて前記参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような前記符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、
処理対象になっている前記符号化ピクチャ内における矩形領域内の信号成分と、前記領域境界動き補償手段が生成する前記第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、比較する際の基準となる差分情報である基準差分情報を生成し、前記参照ピクチャ内で動きベクトル探索対象となっている矩形領域内の信号成分と、前記第1の予測ピクチャ内における矩形領域内の信号成分との差分演算を行うことで、動きベクトル探索時の比較対象となる探索対象差分情報を生成し、その探索対象差分情報と前記基準差分情報の信号成分とを比較しながら適合する矩形領域を前記参照ピクチャ内で動きベクトル探索を行い、適合した前記参照ピクチャ内の矩形領域までの動きベクトル情報である差分成分動きベクトル情報を生成する領域内差分動き推定手段と、
前記差分成分動きベクトル情報に基づいて、前記参照ピクチャから対応する矩形領域を特定し、特定した前記参照ピクチャ内の矩形領域内の信号成分と、前記第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、
前記第1の予測ピクチャと前記予測残差ピクチャとを合成することで第2の予測ピクチャを生成する合成手段と、
前記第2の予測ピクチャと前記符号化ピクチャとの差分から第1の差分ピクチャを生成する第1の差分手段と、
前記第1の差分ピクチャに対して所定の直交変換を行うことで直交変換係数情報を生成する直交変換手段と、
前記直交変換係数情報に対して所定の量子化パラメータに基づいて所定の量子化を行うことで量子化後情報を生成する量子化手段と、
前記量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、
前記復号差分ピクチャと少なくとも前記第2の予測ピクチャとを合成して前記局部復号画像信号を生成する局部復号画像信号生成手段と、
少なくとも前記量子化後情報、前記境界部動きベクトル情報、及び前記差分成分動きベクトル情報に対して所定のエントロピー符号化を行うことで符号化ビット列を生成するエントロピー符号化手段と、
所定の構文構造に基づいて前記符号化ビット列を多重化することで符号化ビットストリームを生成する多重化手段と
して機能させると共に、記憶装置を、少なくとも1ピクチャ分の前記局部復号画像信号を前記参照ピクチャとして保持すると共に、保持しているその参照ピクチャを前記領域境界動き推定手段、前記領域境界動き補償手段、前記領域内差分動き推定手段及び前記領域内差分動き補償手段へそれぞれ供給する記憶手段として機能させることを特徴とする動画像符号化プログラム。
One screen area of the input video signal to be encoded is subdivided with a rectangular area having a predetermined number of pixels as a unit, and the rectangular area is generated from a reference picture that is a locally decoded image signal with a processing unit as a unit. A moving picture code for causing a computer to generate a difference picture that is a difference signal between a prediction picture and a coded picture that is a moving picture signal to be coded, and to perform coding on the difference picture In the program
The computer,
The boundary condition between the rectangular area to be predicted in the coded picture and the other rectangular area adjacent to the rectangular area is determined as a search unit, and the boundary condition is matched with the boundary condition A boundary part of the reference picture having a condition is specified by performing a motion vector search in the reference picture, and further from a boundary part of the rectangular area in the encoded picture to the specified boundary part in the reference picture Region boundary motion estimation means for generating boundary motion vector information that is motion vector information of
Each rectangular region in the encoded picture that specifies a boundary condition of a corresponding boundary part from the reference picture based on the boundary part motion vector information and satisfies the Poisson equation based on the boundary condition of the specified boundary part Region boundary motion compensation means for generating a first predicted picture by generating an estimated image signal of
Performing a difference operation between the signal component in the rectangular area in the encoded picture to be processed and the signal component in the rectangular area in the first predicted picture generated by the area boundary motion compensation means Generating reference difference information, which is difference information serving as a reference for comparison, a signal component in a rectangular area that is a motion vector search target in the reference picture, and a rectangle in the first predicted picture By performing the difference calculation with the signal component in the region, the search target difference information to be compared at the time of motion vector search is generated, and the search target difference information is matched with the signal component of the reference difference information. A motion vector search is performed within the reference picture for a rectangular area to be processed, and a differential component motion vector that is motion vector information up to the rectangular area within the adapted reference picture And area difference motion estimation means for generating a broadcast,
Based on the difference component motion vector information, a corresponding rectangular area is identified from the reference picture, a signal component in the identified rectangular area in the reference picture, and a corresponding rectangular area in the first predicted picture An intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from the difference from the signal component of
Combining means for generating a second predicted picture by combining the first predicted picture and the prediction residual picture;
First difference means for generating a first difference picture from a difference between the second predicted picture and the encoded picture;
Orthogonal transform means for generating orthogonal transform coefficient information by performing predetermined orthogonal transform on the first difference picture;
Quantization means for generating post-quantization information by performing predetermined quantization on the orthogonal transform coefficient information based on a predetermined quantization parameter;
A predetermined inverse quantization is performed on the post-quantization information based on a predetermined quantization parameter to generate post-quantization information, and a predetermined inverse orthogonal transform is performed on the post-quantization information. Decoded differential picture generation means for generating a decoded differential picture;
Local decoded image signal generating means for combining the decoded differential picture and at least the second predicted picture to generate the locally decoded image signal;
Entropy encoding means for generating an encoded bit string by performing predetermined entropy encoding on at least the post-quantization information, the boundary motion vector information, and the difference component motion vector information;
In addition to functioning as multiplexing means for generating an encoded bitstream by multiplexing the encoded bit string based on a predetermined syntax structure, the storage device receives the locally decoded image signal for at least one picture as described above. Storage means for holding the reference picture as a reference picture and supplying the held reference picture to the region boundary motion estimation unit, the region boundary motion compensation unit, the intra-regional differential motion estimation unit, and the intra-regional differential motion compensation unit, respectively. A moving picture coding program which is made to function as:
前記コンピュータを、
前記符号化ピクチャ内の各矩形領域において前記記憶手段から取得した前記参照ピクチャ内をブロックマッチングによって動きベクトル探索を行い、適合する矩形領域までの動きベクトル情報を生成する動き推定手段と、
前記動き推定手段により生成された前記動きベクトル情報に基づいて、前記記憶手段から取得した前記参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、
前記第4の予測ピクチャと前記符号化ピクチャとの差分から第2の差分ピクチャを生成する第2の差分手段と、
前記第1の差分ピクチャと前記第2の差分ピクチャとを所定の判定基準に基づいて比較し、情報量の少ない方の差分ピクチャを選択する差分判定手段と、
前記差分判定手段が選択した差分ピクチャ及びその選択した差分ピクチャの生成要素である予測ピクチャを所定の手段に供給するための制御を行う符号化制御手段と
して更に機能させることを特徴とする請求項3記載の動画像符号化プログラム。
The computer,
Motion estimation means for performing motion vector search by block matching in the reference picture acquired from the storage means in each rectangular area in the encoded picture, and generating motion vector information up to a matching rectangular area;
Based on the motion vector information generated by the motion estimation unit, a corresponding rectangular region is identified from the reference picture acquired from the storage unit, and a motion compensation unit that generates a fourth prediction picture;
Second difference means for generating a second difference picture from the difference between the fourth predicted picture and the encoded picture;
A difference determination means for comparing the first difference picture and the second difference picture based on a predetermined determination criterion, and selecting a difference picture having a smaller amount of information;
The differential determination means further functions as an encoding control means for performing control for supplying a predetermined picture and a prediction picture that is a generation element of the selected difference picture to a predetermined means. Item 4. A moving image encoding program according to Item 3.
請求項1又は2記載の動画像符号化装置、若しくは請求項3又は4記載の動画像符号化プログラムを実行させたコンピュータによって生成された符号化ビットストリームを所定の蓄積媒体又は所定の伝送路から取得し、取得した前記符号化ビットストリームに対して復号化動作を行って、復号化した動画像信号を出力する動画像復号化装置であって、
前記符号化ビットストリームに対して所定の構文構造に基づいて符号化情報の多重化分離を行う多重化分離手段と、
前記多重化分離手段から取得した多重化分離後の情報に対して、所定のエントロピー復号化を行い、少なくとも、前記量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報、及び所定の構文構造を構成するために必要なパラメータ情報を生成するエントロピー復号化手段と、
前記エントロピー復号化手段から取得した前記量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、
前記復号差分ピクチャと合成用予測ピクチャとを合成して局部復号画像信号を生成する第1の合成手段と、
少なくとも1ピクチャ分の前記局部復号画像信号を参照ピクチャとして保持する記憶手段と、
前記エントロピー復号化手段から取得した前記境界部動きベクトル情報に基づいて、前記参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような符号化対象の動画像信号である符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、
前記エントロピー復号化手段から取得した前記差分成分動きベクトル情報に基づいて、前記参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、前記第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、
前記第1の予測ピクチャと前記予測残差ピクチャとを合成することで、前記第1の合成手段に前記合成用予測ピクチャとして供給される第2の予測ピクチャを生成する第2の合成手段と、
を少なくとも備えることを特徴とする動画像復号化装置。
An encoded bitstream generated by a moving image encoding apparatus according to claim 1 or 2 or a computer that executes the moving image encoding program according to claim 3 or 4 is transmitted from a predetermined storage medium or a predetermined transmission path. A video decoding device that acquires and outputs a decoded video signal by performing a decoding operation on the acquired encoded bitstream,
Demultiplexing means for demultiplexing encoded information based on a predetermined syntax structure for the encoded bitstream;
Predemultiplexed information obtained from the demultiplexing means is subjected to predetermined entropy decoding, and at least the post-quantization information, boundary motion vector information, difference component motion vector information, and predetermined syntax Entropy decoding means for generating parameter information necessary for constructing the structure;
A predetermined inverse quantization based on a predetermined quantization parameter is performed on the post-quantization information acquired from the entropy decoding unit to generate dequantized information, and the post-quantization information is predetermined. Decoding difference picture generation means for generating a decoding difference picture by performing inverse orthogonal transformation of
First synthesizing means for synthesizing the decoded differential picture and the synthesis prediction picture to generate a locally decoded image signal;
Storage means for holding the locally decoded image signal for at least one picture as a reference picture;
Based on the boundary part motion vector information acquired from the entropy decoding means, the boundary condition of the corresponding boundary part is specified from the reference picture, and the Poisson equation is satisfied based on the boundary condition of the specified boundary part A region boundary motion compensation unit that generates a first predicted picture by generating an estimated image signal in each rectangular region in an encoded picture that is a moving image signal to be encoded;
Based on the difference component motion vector information acquired from the entropy decoding means, a corresponding rectangular area is identified from the reference picture, a signal component in the identified rectangular area, and the first predicted picture An intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from a difference from a signal component in a corresponding rectangular region in
Second synthesizing means for synthesizing the first predicted picture and the prediction residual picture, thereby generating a second predicted picture to be supplied to the first synthesizing means as the synthesis predicted picture;
A moving picture decoding apparatus comprising:
前記エントロピー復号化手段は、更に前記動きベクトル情報を復号する機能を有し、
前記エントロピー復号化手段から取得した前記動きベクトル情報に基づいて前記参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、
前記エントロピー復号化手段により復号された、構文構造を構成するために必要なパラメータ情報から復号化制御に必要な復号化制御情報を取得し、その復号化制御情報に従って前記第1の合成手段に供給する前記合成用予測ピクチャとして、前記第2の予測ピクチャ及び前記第4の予測ピクチャの一方を選択する復号化制御手段と、
を更に備えることを特徴とする請求項5記載の動画像復号化装置。
The entropy decoding means further has a function of decoding the motion vector information,
Motion compensation means for identifying a corresponding rectangular area from the reference picture based on the motion vector information acquired from the entropy decoding means, and generating a fourth predicted picture;
Decoding control information necessary for decoding control is acquired from parameter information necessary for constructing a syntax structure decoded by the entropy decoding unit, and supplied to the first combining unit according to the decoding control information Decoding control means for selecting one of the second predicted picture and the fourth predicted picture as the synthesis predicted picture.
The moving picture decoding apparatus according to claim 5, further comprising:
請求項1又は2記載の動画像符号化装置、若しくは請求項3又は4記載の動画像符号化プログラムを実行させたコンピュータによって生成された符号化ビットストリームを所定の蓄積媒体又は所定の伝送路から取得し、取得した前記符号化ビットストリームに対して復号化動作を行って、復号化した動画像信号を出力することを、コンピュータにより実行させるための動画像復号化プログラムであって、
前記コンピュータを、
前記符号化ビットストリームに対して所定の構文構造に基づいて符号化情報の多重化分離を行う多重化分離手段と、
前記多重化分離手段から取得した多重化分離後の情報に対して、所定のエントロピー復号化を行い、少なくとも、前記量子化後情報、境界部動きベクトル情報、差分成分動きベクトル情報、及び所定の構文構造を構成するために必要なパラメータ情報を生成するエントロピー復号化手段と、
前記エントロピー復号化手段から取得した前記量子化後情報に対して所定の量子化パラメータに基づく所定の逆量子化を行って逆量子化後情報を生成し、その逆量子化後情報に対して所定の逆直交変換を行うことで、復号差分ピクチャを生成する復号差分ピクチャ生成手段と、
前記復号差分ピクチャと少なくとも合成用予測ピクチャとを合成して局部復号画像信号を生成する第1の合成手段と、
前記エントロピー復号化手段から取得した前記境界部動きベクトル情報に基づいて、前記参照ピクチャから対応する境界部分の境界条件を特定し、特定した境界部分の境界条件に基づいて、ポアソン方程式を満たすような符号化対象の動画像信号である符号化ピクチャ内の各矩形領域内の推定画像信号を生成することで第1の予測ピクチャを生成する領域境界動き補償手段と、
前記エントロピー復号化手段から取得した前記差分成分動きベクトル情報に基づいて、前記参照ピクチャから対応する矩形領域を特定し、特定した参照ピクチャ内の矩形領域内の信号成分と、前記第1の予測ピクチャ内の対応する矩形領域内の信号成分との差分から差分予測ピクチャである予測残差ピクチャを生成する領域内差分動き補償手段と、
前記第1の予測ピクチャと前記予測残差ピクチャとを合成することで、前記第1の合成手段に前記合成用予測ピクチャとして供給される第2の予測ピクチャを生成する第2の合成手段と、
して機能させると共に、記憶装置を少なくとも1ピクチャ分の前記局部復号画像信号を参照ピクチャとして保持する記憶手段として機能させることを特徴とする動画像復号化プログラム。
An encoded bitstream generated by a moving image encoding apparatus according to claim 1 or 2 or a computer that executes the moving image encoding program according to claim 3 or 4 is transmitted from a predetermined storage medium or a predetermined transmission path. A moving picture decoding program for causing a computer to perform a decoding operation on the acquired encoded bitstream and outputting a decoded moving picture signal,
The computer,
Demultiplexing means for demultiplexing encoded information based on a predetermined syntax structure for the encoded bitstream;
Predemultiplexed information obtained from the demultiplexing means is subjected to predetermined entropy decoding, and at least the post-quantization information, boundary motion vector information, difference component motion vector information, and predetermined syntax Entropy decoding means for generating parameter information necessary for constructing the structure;
A predetermined inverse quantization based on a predetermined quantization parameter is performed on the post-quantization information acquired from the entropy decoding unit to generate dequantized information, and the post-quantization information is predetermined. Decoding difference picture generation means for generating a decoding difference picture by performing inverse orthogonal transformation of
First synthesizing means for synthesizing the decoded differential picture and at least the synthesis prediction picture to generate a locally decoded image signal;
Based on the boundary part motion vector information acquired from the entropy decoding means, the boundary condition of the corresponding boundary part is specified from the reference picture, and the Poisson equation is satisfied based on the boundary condition of the specified boundary part A region boundary motion compensation unit that generates a first predicted picture by generating an estimated image signal in each rectangular region in an encoded picture that is a moving image signal to be encoded;
Based on the difference component motion vector information acquired from the entropy decoding means, a corresponding rectangular area is identified from the reference picture, a signal component in the identified rectangular area, and the first predicted picture An intra-regional differential motion compensation means for generating a prediction residual picture that is a differential prediction picture from a difference from a signal component in a corresponding rectangular region in
Second synthesizing means for synthesizing the first predicted picture and the prediction residual picture, thereby generating a second predicted picture to be supplied to the first synthesizing means as the synthesis predicted picture;
A moving picture decoding program characterized by causing the storage device to function as storage means for holding the local decoded image signal for at least one picture as a reference picture.
前記コンピュータを、
前記エントロピー復号化手段により更に前記動きベクトル情報を生成させ、
前記エントロピー復号化手段から取得した前記動きベクトル情報に基づいて前記参照ピクチャから対応する矩形領域を特定し、第4の予測ピクチャを生成する動き補償手段と、
前記エントロピー復号化手段により復号された、構文構造を構成するために必要なパラメータ情報から復号化制御に必要な復号化制御情報を取得し、その復号化制御情報に従って前記第1の合成手段に供給する前記合成用予測ピクチャとして、前記第2の予測ピクチャ及び前記第4の予測ピクチャの一方を選択する復号化制御手段と、
して更に機能させることを特徴とする請求項7記載の動画像復号化プログラム。




The computer,
Further generating the motion vector information by the entropy decoding means,
Motion compensation means for identifying a corresponding rectangular area from the reference picture based on the motion vector information acquired from the entropy decoding means, and generating a fourth predicted picture;
Decoding control information necessary for decoding control is acquired from parameter information necessary for constructing a syntax structure decoded by the entropy decoding unit, and supplied to the first combining unit according to the decoding control information Decoding control means for selecting one of the second predicted picture and the fourth predicted picture as the synthesis predicted picture.
8. The moving picture decoding program according to claim 7, further causing the function to function.




JP2006138704A 2006-05-18 2006-05-18 Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program Expired - Fee Related JP4561688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006138704A JP4561688B2 (en) 2006-05-18 2006-05-18 Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006138704A JP4561688B2 (en) 2006-05-18 2006-05-18 Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program

Publications (2)

Publication Number Publication Date
JP2007312072A JP2007312072A (en) 2007-11-29
JP4561688B2 true JP4561688B2 (en) 2010-10-13

Family

ID=38844516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006138704A Expired - Fee Related JP4561688B2 (en) 2006-05-18 2006-05-18 Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program

Country Status (1)

Country Link
JP (1) JP4561688B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4366307A3 (en) * 2012-01-18 2024-07-17 Electronics and Telecommunications Research Institute Method and device for encoding and decoding image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003003749A1 (en) * 2001-06-29 2003-01-09 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method
JP2007312362A (en) * 2006-04-17 2007-11-29 Victor Co Of Japan Ltd Motion image coding device, method and program, and motion image decoding device, method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006054667A1 (en) * 2004-11-17 2006-05-26 National University Corporation Shizuoka University Data compression/decompression method, program, and device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003003749A1 (en) * 2001-06-29 2003-01-09 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method
JP2007312362A (en) * 2006-04-17 2007-11-29 Victor Co Of Japan Ltd Motion image coding device, method and program, and motion image decoding device, method and program

Also Published As

Publication number Publication date
JP2007312072A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP4844449B2 (en) Moving picture encoding apparatus, method, program, moving picture decoding apparatus, method, and program
JP4146444B2 (en) Video encoding method and apparatus
JP6091585B2 (en) Image decoding apparatus, image encoding apparatus, and encoded data
KR102518993B1 (en) Method for multiple interpolation filters, and apparatus for encoding by using the same
JP4991699B2 (en) Scalable encoding and decoding methods for video signals
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
KR101985004B1 (en) Coding apparatus, decoding apparatus, coding method, decoding method, and computer-readable storage medium
JP5590133B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding computer program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding computer program
US20070098067A1 (en) Method and apparatus for video encoding/decoding
KR101681353B1 (en) Method for decoding a stream of coded data representative of a sequence of images and method for coding a sequence of images
KR20110062516A (en) Apparatus and method for encoding video, apparatus and method for decoding video and directional intra-prediction method therefor
JP2010135864A (en) Image encoding method, device, image decoding method, and device
WO2011013253A1 (en) Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device
JP2004096757A (en) Interpolation method and its apparatus for move compensation
JP5871628B2 (en) Image encoding device, image encoding method and program, image decoding device, image decoding method and program
KR102513756B1 (en) Image encoding method, decoding method, encoder, decoder and storage medium
JP4762938B2 (en) Data embedding device, data extracting device, data embedding method, and data extracting method
JP4626608B2 (en) Moving picture hierarchy coding apparatus, moving picture hierarchy coding program, moving picture hierarchy decoding apparatus, and moving picture hierarchy decoding program
JP6503014B2 (en) Moving picture coding method and moving picture decoding method
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
KR101529903B1 (en) Block-based depth map coding method and apparatus and 3D video coding method using the method
JP2011082629A (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and program
JP4768779B2 (en) Video encoding / decoding method and apparatus
JP5197428B2 (en) Image coding apparatus and image coding method
JP4561688B2 (en) Moving picture encoding apparatus, moving picture encoding program, moving picture decoding apparatus, and moving picture decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4561688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees