JP5578974B2 - Image encoding device - Google Patents

Image encoding device Download PDF

Info

Publication number
JP5578974B2
JP5578974B2 JP2010161899A JP2010161899A JP5578974B2 JP 5578974 B2 JP5578974 B2 JP 5578974B2 JP 2010161899 A JP2010161899 A JP 2010161899A JP 2010161899 A JP2010161899 A JP 2010161899A JP 5578974 B2 JP5578974 B2 JP 5578974B2
Authority
JP
Japan
Prior art keywords
pixel
image
thinned
pixels
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010161899A
Other languages
Japanese (ja)
Other versions
JP2012023671A (en
Inventor
雅俊 近藤
真生 濱本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2010161899A priority Critical patent/JP5578974B2/en
Priority to PCT/JP2011/056044 priority patent/WO2012008180A1/en
Publication of JP2012023671A publication Critical patent/JP2012023671A/en
Application granted granted Critical
Publication of JP5578974B2 publication Critical patent/JP5578974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像符号化装置に係り、画素相関を利用して映像データを圧縮する画像符号化技術に関して、特に、画面内における隣接画素間の相関を利用して予測画像の生成をおこなうイントラ予測をおこなうときに、符号化効率を向上させるのに好適な画像符号化装置に関する。   The present invention relates to an image encoding apparatus, and more particularly to an image encoding technique for compressing video data using pixel correlation, and more particularly, intra prediction that generates a predicted image using correlation between adjacent pixels in a screen. The present invention relates to an image coding apparatus suitable for improving coding efficiency when performing the above.

H.264/AVC符号化技術では、ピクチャ内の近傍画素の相関を用いて圧縮をおこなうイントラ予測という手法がある。H.264/AVC符号化に関しては、以下の非特許文献1に定められている。   H. In the H.264 / AVC encoding technique, there is a method called intra prediction in which compression is performed using the correlation of neighboring pixels in a picture. H. H.264 / AVC encoding is defined in Non-Patent Document 1 below.

画面内予測(イントラ予測)は、符号化対象ピクチャ内の符号化処理済み画像(参照画像)を用いて処理対象画像の予測画像を作成し、予測画像と処理対象画像の差分を伝送することで情報量を削減する予測方法である。このようにイントラ予測は、画像の空間的な相関性のみを利用した予測方法であるため、ストリームの伝送エラーなどによって乱れた映像を正常な映像に復帰させることができる。   In-screen prediction (intra prediction) creates a predicted image of a processing target image using an encoded image (reference image) in the encoding target picture, and transmits a difference between the predicted image and the processing target image. This is a prediction method for reducing the amount of information. In this way, intra prediction is a prediction method that uses only the spatial correlation of images, so that a video distorted due to a stream transmission error or the like can be restored to a normal video.

イントラ予測を用いた符号化方式では、符号化対象となるブロックに対し、その対象ブロックの周辺画素から予測画像を生成し、対象ブロックと予測画像を比較した残差成分を圧縮符号化することで、従来よりも高い符号化効率を実現している。   In an encoding method using intra prediction, a prediction image is generated from neighboring pixels of a target block for a block to be encoded, and a residual component obtained by comparing the target block with the prediction image is compressed and encoded. Thus, higher encoding efficiency than that of the prior art is realized.

H.264/AVC符号化方式で規定されるイントラ予測は、予測処理をおこなうブロックサイズとして、4x4、8x8、16x16画素の3種類のブロックサイズから選択して予測処理をおこなうことが可能となっている。   H. In the intra prediction defined by the H.264 / AVC encoding method, it is possible to perform prediction processing by selecting from three types of block sizes of 4 × 4, 8 × 8, and 16 × 16 pixels as the block size for performing the prediction processing.

さらに、各ブロックサイズにおいても、複数用意された予測方法の中から最適な方法を選択することができる。4x4,8x8画素ブロックサイズのイントラ予測では、それぞれ9種類の予測方法、16x16画素ブロックサイズのイントラ予測では4種類の予測方法が規定されている。   Furthermore, the optimum method can be selected from a plurality of prepared prediction methods for each block size. Nine types of prediction methods are defined for 4 × 4 and 8 × 8 pixel block size intra prediction, and four types of prediction methods are defined for 16 × 16 pixel block size intra prediction.

この複数規定された予測方法から最適な方法を選択する方法は、特に規定されていないが、一般には、最終的に最も符号量が少なくなる予測方法を用いるのが望ましいとされる。   A method for selecting an optimum method from the plurality of defined prediction methods is not particularly defined. However, in general, it is desirable to use a prediction method with the smallest code amount in the end.

以下、図39ないし図42を用いて4x4画素ブロックサイズのイントラ予測を例に、従来のイントラ予測方法を詳細に説明する。
図39は、対象となる4x4ブロック11と、当該ブロックの予測画像生成に用いる参照画素12の位置関係を示す図である。
図40は、4x4ブロックの9種類の予測方法の概念図である。
図41は、符号化において、ピクチャ内のマクロブロックを処理する順序を示す図である。
図42は、符号化において、マクロブロック内の4x4ブロックを処理する順序を示す図である。
Hereinafter, a conventional intra prediction method will be described in detail with reference to FIG. 39 to FIG. 42, taking 4 × 4 pixel block size intra prediction as an example.
FIG. 39 is a diagram illustrating a positional relationship between a target 4 × 4 block 11 and a reference pixel 12 used for generating a predicted image of the block.
FIG. 40 is a conceptual diagram of nine types of prediction methods for 4 × 4 blocks.
FIG. 41 is a diagram illustrating the order in which macroblocks in a picture are processed in encoding.
FIG. 42 is a diagram illustrating an order in which 4 × 4 blocks in a macroblock are processed in encoding.

なお、以下では、予測画像生成に用いる画素を「予測参照画素」あるいは、単に「参照画素」と呼ぶことにする。   Hereinafter, a pixel used for generating a predicted image is referred to as a “predicted reference pixel” or simply a “reference pixel”.

4x4ブロックのイントラ予測では、図40に示されるように、前述した参照画素12から、9種類の予測方法(以下、「予測モード」と呼ぶ)を用いて予測画像を生成することができる。   In the 4 × 4 block intra prediction, as illustrated in FIG. 40, a predicted image can be generated from the reference pixel 12 described above using nine types of prediction methods (hereinafter referred to as “prediction mode”).

例えば、モード0では、上4画素を下方向にコピーすることで予測画像を生成する。モード1では、左4画素を右方向にコピーすることで予測画像を生成する。このようにイントラ予測では左、上、右上の参照画素から、ある決まった方向にしたがって予測画像を生成する。また、モード2では、近傍の8画素の平均値で予測画像を生成する。   For example, in mode 0, a predicted image is generated by copying the upper four pixels downward. In mode 1, a predicted image is generated by copying the left four pixels in the right direction. Thus, in intra prediction, a prediction image is generated according to a certain fixed direction from the reference pixels on the left, upper, and upper right. In mode 2, a predicted image is generated with an average value of neighboring eight pixels.

H.264/AVC符号化方式では、入力ピクチャを16x16画素のマクロブロック(MB)呼ばれる単位に分割し、MB単位に符号化処理をおこなう。ピクチャ内のMBを処理する順序は、図41のようになっており、ピクチャの左上からラスタスキャンの順序で処理をおこっていく。   H. In the H.264 / AVC encoding method, an input picture is divided into units called 16 × 16 pixel macroblocks (MB), and encoding processing is performed in units of MB. The order in which MBs in a picture are processed is as shown in FIG. 41, and processing is performed in the raster scan order from the upper left of the picture.

さらにMB内は、4x4ブロックに分割して処理をおこない、その処理順序は、図42のようになっている。   Furthermore, the MB is divided into 4 × 4 blocks for processing, and the processing order is as shown in FIG.

ここで予測画素生成に用いる参照画素は、すでに処理済みのブロックの画素である。例えば、図42のブロック4は、すでに処理済みのブロック1,2,3の画素を使用することはできるが、まだ処理されていないブロック5,7,9,10,13は使用できない。   Here, the reference pixels used for predictive pixel generation are pixels of already processed blocks. For example, block 4 in FIG. 42 can use the pixels of blocks 1, 2, and 3 that have already been processed, but cannot use blocks 5, 7, 9, 10, and 13 that have not yet been processed.

Joint VideoTeam (JVT) of ISO / IEC MPEG & ITU-T VCEG : Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition (2004).Joint VideoTeam (JVT) of ISO / IEC MPEG & ITU-T VCEG: Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition (2004).

上記のように、従来のイントラ予測方式では、図41および図42に示したブロックの処理順序の制約により、右、下等の参照画素を用いることができないという問題点があった。   As described above, the conventional intra prediction method has a problem that the reference pixels such as the right and the lower cannot be used due to the restriction of the processing order of the blocks shown in FIGS.

MPEG2符号化規格では、マクロブロックの処理順序はピクチャ上の左から右へ、上から下への順である。そのため、イントラ予測による予測画像作成処理に使用可能な参照画像は、符号化対象マクロブロックの上方向近接画素および左方向近接画素2方向のみに限定されてしまう。このような参照画像を用いて予測画像作成をおこなうため、従来のイントラ予測方式では、図40のように符号化対象マクロブロックの右下画像ほど予測精度が減衰し、入力画像と予測画像の差分である予測誤差が大きくなるという問題点があった。   In the MPEG2 coding standard, the processing order of macroblocks is from left to right on the picture and from top to bottom. For this reason, the reference image that can be used for the prediction image creation process based on intra prediction is limited to the upper direction neighboring pixel and the left direction neighboring pixel 2 only in the encoding target macroblock. In order to create a prediction image using such a reference image, in the conventional intra prediction method, the prediction accuracy decreases as the lower right image of the encoding target macroblock as shown in FIG. 40, and the difference between the input image and the prediction image There is a problem that the prediction error is large.

また、これに対し、最新の映像圧縮符号化標準であるH.264/AVCでは通常16×16画素のマクロブロックを、8×8画素または4×4画素のサブブロックに分割して符号化処理をおこなうことにより、予測精度向上による予測誤差低減を可能としたが、その反面、サブブロック分割に伴う情報量増大、すなわちマクロブロックヘッダーの情報量増大が発生する課題があった。   In contrast, the latest video compression coding standard, H.264. In H.264 / AVC, a normal 16 × 16 pixel macroblock is divided into 8 × 8 pixel or 4 × 4 pixel sub-blocks, and encoding processing is performed, so that prediction errors can be reduced by improving prediction accuracy. On the other hand, there is a problem that an increase in the amount of information accompanying sub-block division, that is, an increase in the amount of information in the macroblock header occurs.

このように、もし右、下等の参照画素を用いることができれば、上下の参照画素等から双方向で予測画像を生成可能となり、より高精度な予測画像を生成可能となるが、従来のイントラ予測方式では処理順序の制約により実現できないという問題点があった。   Thus, if reference pixels such as right and lower can be used, a prediction image can be generated bidirectionally from the upper and lower reference pixels and a more accurate prediction image can be generated. The prediction method has a problem that it cannot be realized due to processing order restrictions.

本発明は、上記問題点を解決するためになさたもので、その目的は、H.264/AVC規格による画像符号化装置のイントラ予測において、予測精度を向上させ、符号化効率を向上させることにある。   The present invention has been made to solve the above-described problems. In the intra prediction of the image encoding apparatus according to the H.264 / AVC standard, the prediction accuracy is improved and the encoding efficiency is improved.

本発明の画像符号化装置は、画面内予測を用いて符号化対象画素ブロックを符号化するにあたり、符号化対象画素ブロックから、N(Nは2以上の自然数)枚の間引き画像を作成し、第1の間引き画像から第Nの間引き画像を順に処理する。そして、第i(i=2,…,N)の間引き画像の画素の画面内予測の予測画素の生成にあたって、第1の間引き画像の画素から第i−1の間引き画像の画素を参照画素として用いる。   The image encoding apparatus of the present invention creates N (N is a natural number of 2 or more) thinned images from an encoding target pixel block when encoding the encoding target pixel block using intra prediction. The first thinned image to the Nth thinned image are processed in order. Then, in generating the prediction pixel for the intra prediction of the pixel of the i th (i = 2,..., N) thinned image, the pixel of the i−1 th thinned image is used as the reference pixel from the pixel of the first thinned image. Use.

このとき、第iの間引き画像の画素の予測画素は、第1の間引き画像の画素から第i−1の間引き画像の画素がその予測画素の周辺にあったときに、その予測画素の周辺にある第1の間引き画像の画素から第i−1の間引き画像の画素を参照画素として生成される。   At this time, the prediction pixel of the pixel of the i th thinned image is located around the prediction pixel when the pixel of the i th thinned image is around the prediction pixel from the pixel of the first thinned image. A pixel of the i-1th thinned image is generated from a pixel of a certain first thinned image as a reference pixel.

例えば、符号化対象画素ブロックを、マクロブロックとして、N=4とする。   For example, assume that the encoding target pixel block is a macroblock and N = 4.

本発明の画面内予測をおこなう画像符号化装置によれば、予測対象画素に対し、周辺の9つの参照画素を用意することが可能となり、好適な画面内予測画像が得られ、符号化効率を高くすることができる。   According to the image encoding apparatus that performs intra prediction of the present invention, it is possible to prepare nine peripheral reference pixels for a prediction target pixel, and a suitable intra prediction image can be obtained, thereby improving encoding efficiency. Can be high.

本発明によれば、H.264/AVC規格による画像符号化装置のイントラ予測において、予測精度を向上させ、符号化効率を向上させることができる。   In accordance with the present invention, H.264. In the intra prediction of the image coding apparatus according to the H.264 / AVC standard, prediction accuracy can be improved and coding efficiency can be improved.

従来技術に係るイントラ予測方法による予測精度が高い画素と予測精度が低い画素とを比較して示した図である。It is the figure which compared and showed the pixel with high prediction accuracy by the intra prediction method which concerns on a prior art, and the pixel with low prediction accuracy. 本発明の第一の実施形態に係るイントラ予測方法による予測精度が高い画素と予測精度が低い画素とを比較して示した図である。It is the figure which compared and showed the pixel with high prediction accuracy by the intra prediction method which concerns on 1st embodiment of this invention, and the pixel with low prediction accuracy. 間引き画像作成を説明する図である。It is a figure explaining thinning image creation. 本発明の第一の実施形態に係るイントラ予測方法を用いた画像符号化処理を示すフローチャートである。It is a flowchart which shows the image coding process using the intra prediction method which concerns on 1st embodiment of this invention. 第1の間引き画像の再構成画像と、第2の間引き画像の予測画像を示す図である。It is a figure which shows the reconstruction image of a 1st thinning image, and the prediction image of a 2nd thinning image. 第1の間引き画像と、第2の間引き画像の参照関係を示す図である。It is a figure which shows the reference relationship of a 1st thinning image and a 2nd thinning image. 第1の間引き画像の再構成画像と、第3の間引き画像の予測画像を示す図である。It is a figure which shows the reconstruction image of a 1st thinning image, and the estimated image of a 3rd thinning image. 第1の間引き画像と、第3の間引き画像の参照関係を示す図である。It is a figure which shows the reference relationship of a 1st thinning image and a 3rd thinning image. 第1の間引き画像の再構成画像と、第2の間引き画像の再構成画像と、第4の間引き画像の予測画像を示す図である。It is a figure which shows the reconstruction image of a 1st thinning image, the reconstruction image of a 2nd thinning image, and the prediction image of a 4th thinning image. 第2の間引き画像と、第3の間引き画像と、第4の間引き画像の参照関係を示す図である。It is a figure which shows the reference relationship of a 2nd thinning image, a 3rd thinning image, and a 4th thinning image. 本発明の第一の実施形態に係る画像符号化装置の構成図である。It is a block diagram of the image coding apparatus which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係るイントラ予測方法での画像符号化処理の出力として得られるビットストリームの構成図である。It is a block diagram of the bit stream obtained as an output of the image coding process in the intra prediction method according to the first embodiment of the present invention. 本発明の第一の実施形態に係る画像復号化処理を示すフローチャートである。It is a flowchart which shows the image decoding process which concerns on 1st embodiment of this invention. 間引き画像の復号画像から結合画像を作成する様子を説明する図である。It is a figure explaining a mode that a combined image is created from the decoding image of a thinned image. 本発明の第一の実施形態に係る画像復号化装置の構成図である。It is a block diagram of the image decoding apparatus which concerns on 1st embodiment of this invention. 本発明の第二の実施形態に係る画像符号化装置の構成図である。It is a block diagram of the image coding apparatus which concerns on 2nd embodiment of this invention. 本発明の第二の実施形態に係る画像復号化装置の構成図である。It is a block diagram of the image decoding apparatus which concerns on 2nd embodiment of this invention. MBの4x4ブロックへの分割の仕方と、分割したブロックの処理順序を示す図である。It is a figure which shows how to divide MB into 4x4 blocks and the processing order of the divided blocks. 第1ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in a 1st block. 図19を書き直して第1ブロックと参照画素の関係を分かりやすく示した図である。FIG. 20 is a diagram showing the relationship between the first block and the reference pixel in an easy-to-understand manner by rewriting FIG. 第2ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in a 2nd block. 第2ブロックにおける画素p周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel p in a 2nd block. 周辺画素から参照画素を生成するときの各モードの概念図である。It is a conceptual diagram of each mode when a reference pixel is generated from surrounding pixels. 第3ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in a 3rd block. 第3ブロックにおける画素o周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel o in a 3rd block. 第3ブロックにおける画素p周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel p in a 3rd block. 第4ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in a 4th block. 第4ブロックにおける画素p周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel p in a 4th block. スライス境界にあるMBの第2ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in the 2nd block of MB in a slice boundary. 第2ブロックにおける画素a周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel a in a 2nd block. 第2ブロックにおける画素b周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel b in a 2nd block. 第2ブロックにおける画素e周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel e in a 2nd block. スライス境界にあるMBの第3ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in the 3rd block of MB in a slice boundary. 第3ブロックにおける画素a周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel a in a 3rd block. 第3ブロックにおける画素d周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel d in a 3rd block. スライス境界にあるMBの第4ブロックにおける予測対象ブロックと参照画素を示す図である。It is a figure which shows the prediction object block and reference pixel in the 4th block of MB in a slice boundary. 第4ブロックにおける画素a周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel a in a 4th block. 第4ブロックにおける画素d周辺の参照画素を示す図である。It is a figure which shows the reference pixel around the pixel d in a 4th block. 対象となる4x4ブロック11と、当該ブロックの予測画像生成に用いる参照画素12の位置関係を示す図である。It is a figure which shows the positional relationship of the 4x4 block 11 used as object, and the reference pixel 12 used for the predicted image production | generation of the said block. 4x4ブロックの9種類の予測方法の概念図である。It is a conceptual diagram of nine types of prediction methods of 4x4 block. 符号化において、ピクチャ内のマクロブロックを処理する順序を示す図である。It is a figure which shows the order which processes the macroblock in a picture in an encoding. 符号化において、マクロブロック内の4x4ブロックを処理する順序を示す図である。It is a figure which shows the order which processes 4x4 block in a macroblock in encoding.

以下、本発明に係る各実施形態を、図1ないし図38を用いて説明する。   Embodiments according to the present invention will be described below with reference to FIGS.

〔実施形態1〕
以下、本発明に係る第一実施形態を、図1ないし図15を用いて説明する。
(I)イントラ予測方法の概要
先ず、図1および図2を用いて本発明の第一の実施形態に係るイントラ予測方法の概要を従来技術と対比して説明する。
図1は、従来技術に係るイントラ予測方法による予測精度が高い画素と予測精度が低い画素とを比較して示した図である。
図2は、本発明の第一の実施形態に係るイントラ予測方法による予測精度が高い画素と予測精度が低い画素とを比較して示した図である。
図3は、間引き画像作成を説明する図である。
Embodiment 1
A first embodiment according to the present invention will be described below with reference to FIGS.
(I) Outline of Intra Prediction Method First, an outline of an intra prediction method according to the first embodiment of the present invention will be described using FIG. 1 and FIG.
FIG. 1 is a diagram comparing pixels with high prediction accuracy and pixels with low prediction accuracy according to a conventional intra prediction method.
FIG. 2 is a diagram comparing and comparing pixels with high prediction accuracy and pixels with low prediction accuracy according to the intra prediction method according to the first embodiment of the present invention.
FIG. 3 is a diagram for explaining the creation of a thinned image.

従来技術に係るイントラ予測方法では、左方向または上方向の参照画素のみを用いて符号化対象マクロブロック201の予測画像を作成していた。そのため、図1に示されるように、参照画素と距離的に近い画素の予測精度は、高いものの、参照画素と距離的に遠い画素の予測精度は、低くなっていた。   In the intra prediction method according to the related art, the prediction image of the encoding target macroblock 201 is generated using only the reference pixels in the left direction or the upward direction. For this reason, as shown in FIG. 1, although the prediction accuracy of a pixel close to the reference pixel is high, the prediction accuracy of a pixel far from the reference pixel is low.

本実施形態に係るイントラ予測方法は、符号化対象画素ブロック301を分割して、いくつかの間引き画像の画素の予測をするために、周辺の画素を参照画素として予測するものである。図2に示されるように、参照画素と予測対象画素は、距離的に近いものになり、上下左右の方向の参照画像を用いて高い予測精度を実現可能である。また、従来イントラ予測方法に対し、マクロブロックヘッダー情報を大幅に削減できるため、符号化効率向上に寄与する。さらに、本実施形態に係るイントラ予測方法は、従来イントラ予測方法との併用が可能である。   The intra prediction method according to the present embodiment is to predict surrounding pixels as reference pixels in order to divide the encoding target pixel block 301 and predict some pixels of the thinned image. As shown in FIG. 2, the reference pixel and the pixel to be predicted are close in distance, and high prediction accuracy can be realized using reference images in the vertical and horizontal directions. In addition, since the macroblock header information can be greatly reduced as compared with the conventional intra prediction method, it contributes to the improvement of the coding efficiency. Furthermore, the intra prediction method according to the present embodiment can be used in combination with the conventional intra prediction method.

本実施形態は、スライス単位入力画像として、符号化時に、符号化対象画素ブロック301とし、4分割して、間引き画像の作成をおこなうことにする。   In the present embodiment, as a slice unit input image, an encoding target pixel block 301 is used at the time of encoding, and divided into four to create a thinned image.

ここで、スライスとは符号化処理および復号化処理の基本単位となる画像領域であり、同一ピクチャ上の各スライスは、他のスライスに依存関係なく符号化処理および復号化処理をおこなうことができる。   Here, a slice is an image area that is a basic unit of encoding processing and decoding processing, and each slice on the same picture can perform encoding processing and decoding processing independently of other slices. .

本実施形態では、図3に示されるように、スライス単位入力画像501を水平方向および垂直方向に1画素置きにサンプリングした例、すなわち入力画像を四つに分割し、第1間引き画像511、第2間引き画像512、第3間引き画像513、および、第4間引き画像514を作成した例について説明する。
(II)イントラ予測方法を用いた符号化処理の詳細
次に、図4乃至図10を用いて本発明の第一の実施形態に係るイントラ予測方法を用いた画像符号化処理の詳細な処理について説明する。
図4は、本発明の第一の実施形態に係るイントラ予測方法を用いた画像符号化処理を示すフローチャートである。
図5は、第1の間引き画像の再構成画像と、第2の間引き画像の予測画像を示す図である。
図6は、第1の間引き画像と、第2の間引き画像の参照関係を示す図である。
図7は、第1の間引き画像の再構成画像と、第3の間引き画像の予測画像を示す図である。
図8は、第1の間引き画像と、第3の間引き画像の参照関係を示す図である。
図9は、第1の間引き画像の再構成画像と、第2の間引き画像の再構成画像と、第4の間引き画像の予測画像を示す図である。
図10は、第2の間引き画像と、第3の間引き画像と、第4の間引き画像の参照関係を示す図である。
In the present embodiment, as shown in FIG. 3, an example in which the slice unit input image 501 is sampled every other pixel in the horizontal direction and the vertical direction, that is, the input image is divided into four, and the first thinned image 511, An example in which the two thinned image 512, the third thinned image 513, and the fourth thinned image 514 are created will be described.
(II) Details Next the encoding process using intra prediction method, detailed processing of the image encoding process using intra prediction method according to the first embodiment of the present invention with reference to FIGS 10 explain.
FIG. 4 is a flowchart showing an image encoding process using the intra prediction method according to the first embodiment of the present invention.
FIG. 5 is a diagram illustrating a reconstructed image of the first thinned image and a predicted image of the second thinned image.
FIG. 6 is a diagram illustrating a reference relationship between the first thinned image and the second thinned image.
FIG. 7 is a diagram illustrating a reconstructed image of the first thinned image and a predicted image of the third thinned image.
FIG. 8 is a diagram illustrating a reference relationship between the first thinned image and the third thinned image.
FIG. 9 is a diagram illustrating a reconstructed image of the first thinned image, a reconstructed image of the second thinned image, and a predicted image of the fourth thinned image.
FIG. 10 is a diagram illustrating a reference relationship between the second thinned image, the third thinned image, and the fourth thinned image.

先ず、スライス単位の入力画像を取得する(ステップ401)。これは、本実施形態に係るイントラ予測方法は、スライス単位での予測画像作成をおこなうためである。   First, an input image for each slice is acquired (step 401). This is because the intra prediction method according to the present embodiment creates a predicted image in units of slices.

次に、スライス単位入力画像取得のステップ401で得た画像を元に間引き画像の作成をおこなう(ステップ402)。間引き画像作成は、図3に示したように、間引き画像は、画素を等間隔にサンプリングして、第1間引き画像511、第2間引き画像512、第3間引き画像513、および、第4間引き画像514を作成する。   Next, a thinned-out image is created based on the image obtained in step 401 for acquiring the slice unit input image (step 402). As shown in FIG. 3, the thinned image is created by sampling pixels at equal intervals to obtain a first thinned image 511, a second thinned image 512, a third thinned image 513, and a fourth thinned image. 514 is created.

スライス単位入力画像501の水平画素数をH(Hは偶数)、垂直画素数をV(Vは偶数)、スライス単位入力画像501の座標(x,y)の画素をPi(x,y)とおき、第1間引き画像511の座標(x,y)の画素をPi1(x,y)、第2間引き画像512の座標(x,y)の画素をPi2(x,y)、第3間引き画像513の座標(x,y)の画素をPi3(x,y)、第4間引き画像514の座標(x,y)の画素をPi4(x,y)とおくと、座標(i,j)におけるPi1(i,j)、Pi2(i,j)、Pi3(i,j)、Pi4(i,j)は、次のように表せる。ただし、iは0≦i<(H/2−1)を満たす整数、jは0≦j<(V/2−1)を満たす整数である。   The horizontal pixel number of the slice unit input image 501 is H (H is an even number), the vertical pixel number is V (V is an even number), and the pixel at the coordinates (x, y) of the slice unit input image 501 is Pi (x, y). In addition, the pixel at the coordinate (x, y) of the first thinned image 511 is Pi1 (x, y), the pixel at the coordinate (x, y) of the second thinned image 512 is Pi2 (x, y), and the third thinned image. If the pixel at the coordinate (x, y) of 513 is Pi3 (x, y) and the pixel at the coordinate (x, y) of the fourth thinned-out image 514 is Pi4 (x, y), the coordinate (i, j) Pi1 (i, j), Pi2 (i, j), Pi3 (i, j), Pi4 (i, j) can be expressed as follows. However, i is an integer that satisfies 0 ≦ i <(H / 2-1), and j is an integer that satisfies 0 ≦ j <(V / 2-1).

Pi1(i,j)=P(2i,2j) …(式1)
Pi2(i,j)=P(2i+1,2j) …(式2)
Pi3(i,j)=P(2i,2j+1) …(式3)
Pi4(i,j)=P(2i+1,2j+1) …(式4)
次に、第1間引き画像511を符号化処理するために、間引き画像作成処理402で作成した第1間引き画像511について従来イントラ予測方法による符号化処理をおこなう(ステップ403)。従来イントラ予測方法とは、H.264/AVCなどに規定されているイントラ予測手段を用い、第1間引き画像511におけるマクロブロック(16×16画素)ごとに左方向または上方向に隣接する画素を参照し、16×16画素単位、8×8画素単位または4×4画素単位の予測画像を適応的に作成する方法である。
Pi1 (i, j) = P (2i, 2j) (Formula 1)
Pi2 (i, j) = P (2i + 1,2j) (Formula 2)
Pi3 (i, j) = P (2i, 2j + 1) (Formula 3)
Pi4 (i, j) = P (2i + 1,2j + 1) (Formula 4)
Next, in order to encode the first thinned image 511, the first thinned image 511 created by the thinned image creation processing 402 is subjected to coding processing by the conventional intra prediction method (step 403). The conventional intra prediction method is H.264. H.264 / AVC or the like is used to refer to pixels that are adjacent in the left direction or the upper direction for each macroblock (16 × 16 pixels) in the first thinned-out image 511, and in units of 16 × 16 pixels. This is a method of adaptively creating a predicted image in units of 8 × 8 pixels or 4 × 4 pixels.

また、符号化処理では、以下のような処理がおこなわれる。   In the encoding process, the following process is performed.

イントラ予測方法などにおいて予測画像を作成する(ステップ411)。   A prediction image is created in the intra prediction method or the like (step 411).

次に、ステップ411で作成した予測画像と入力画像の差分(予測誤差)を算出する(ステップ412)。   Next, the difference (prediction error) between the predicted image created in step 411 and the input image is calculated (step 412).

次に、ステップ412で算出した予測誤差に直交変換処理をおこない、直交変換後データを得る(ステップ413)。   Next, orthogonal transformation processing is performed on the prediction error calculated in step 412 to obtain data after orthogonal transformation (step 413).

次に、ステップ413で得た直交変換後データに量子化処理をおこない、量子化後データを得る(ステップ414)。   Next, quantization processing is performed on the orthogonally transformed data obtained in step 413 to obtain quantized data (step 414).

次に、ステップ414で得た量子化後データについて、エントロピー符号化処理をおこなう(ステップ415)。   Next, entropy encoding processing is performed on the quantized data obtained in step 414 (step 415).

本実施形態に係るイントラ予測方法においては、第1間引き画像511の符号化処理は、特に高画質が要求されるため、量子化処理414における量子化ステップを小さく設定することが好適である。   In the intra prediction method according to the present embodiment, since the encoding process of the first thinned image 511 requires particularly high image quality, it is preferable to set the quantization step in the quantization process 414 small.

次に、第1間引き画像511の符号化処理のステップ403に続いて、間引き画像作成処理402で作成した第2間引き画像512について予測画像を作成し、符号化処理をおこなう(ステップ404)。   Next, following step 403 of the coding process of the first thinned image 511, a prediction image is created for the second thinned image 512 created by the thinned image creating process 402, and the coding process is performed (step 404).

第2間引き画像512の予測画像作成には、図5に示されるように、既に符号化処理済みである第1間引き画像の再構成画像601を参照画像として用いる。ここで、再構成画像は量子化処理414で得た量子化後データについて逆量子化処理、逆直交変換処理をおこない、さらに予測画像作成処理411で作成した予測画像を加算することで作成される画像であり、復号化処理により得られる画像と同一の画像である。   As shown in FIG. 5, a reconstructed image 601 of the first thinned image that has already been encoded is used as a reference image for creating a predicted image of the second thinned image 512. Here, the reconstructed image is created by performing inverse quantization processing and inverse orthogonal transform processing on the quantized data obtained by the quantization processing 414 and adding the predicted image created by the predicted image creation processing 411. This is the same image as the image obtained by the decoding process.

第2間引き画像512は、図6に示されるように、第1間引き画像511に対し、水平方向の補間画素として考えることができる。したがって、第2間引き画像512の予測画像には、第1間引き画像の再構成画像601に水平フィルタを適用して作成した補間画素による画像を適用することが効果的である。ここでは、水平2タップフィルタを用いた補間画素作成による第2間引き画像512の予測画像(以下、第2間引き画像の予測画像611)を作成するものとする。   The second thinned image 512 can be considered as an interpolation pixel in the horizontal direction with respect to the first thinned image 511, as shown in FIG. Therefore, it is effective to apply an image with interpolation pixels created by applying a horizontal filter to the reconstructed image 601 of the first thinned image as the predicted image of the second thinned image 512. Here, it is assumed that a predicted image of the second thinned image 512 (hereinafter, a predicted image 611 of the second thinned image) is created by creating an interpolation pixel using a horizontal 2-tap filter.

第2間引き画像の予測画像611の座標(x,y)の画素をPp2(x,y)とおき、第1間引き画像の再構成画像601の座標(x,y)の画素をPr1(x,y)とおくと、第2間引き画像の予測画像611の座標(n,m)の画素Pp2(n,m)612は、以下の(式5)で表せる。すなわち、第2間引き画像の予測画像611の画素の左右両側の第1間引き画像の再構成画像601の平均をとる。ここで、分子で+1をしているのは、末尾のビットを四捨五入するためである。   The pixel of the coordinate (x, y) of the predicted image 611 of the second thinned image is set as Pp2 (x, y), and the pixel of the coordinate (x, y) of the reconstructed image 601 of the first thinned image is Pr1 (x, y). When y), the pixel Pp2 (n, m) 612 at the coordinates (n, m) of the predicted image 611 of the second thinned image can be expressed by the following (formula 5). That is, the average of the reconstructed image 601 of the first thinned image on both the left and right sides of the pixel of the predicted image 611 of the second thinned image is taken. Here, the reason why the numerator is +1 is to round off the last bit.

ただし、nは、0≦n<(H/2−1)を満たす整数、mは0≦m<(V/2−1)を満たす整数である。H、Vはそれぞれスライス単位入力画像501の水平画素数、垂直画素数であり、共に偶数である。(式5)において、n=(H/2−1)のとき、Pr1(H/2,y)の画素、すなわち第1間引き画像の再構成画像601の画面外画素が必要となるが、これはn≧(H/2−1)のとき、Pr1(n,y)=Pr1(H/2−1,y)とする、すなわち、画面端画素をコピーして画面外画素とするなどをおこなえばよい。
Pp2(n,m)=(Pr1(n,m)+Pr1(n+1,m)+1)/2
…(式5)
簡単のため、水平2タップフィルタによる画素補間で説明をおこなったが、より高周波成分を表現できる複数タップフィルタ、または2次元フィルタによる画素補間で第2間引き画像の予測画像611を作成してもよい。
However, n is an integer that satisfies 0 ≦ n <(H / 2-1), and m is an integer that satisfies 0 ≦ m <(V / 2-1). H and V are respectively the number of horizontal pixels and the number of vertical pixels of the slice unit input image 501, both of which are even numbers. In (Expression 5), when n = (H / 2-1), a pixel of Pr1 (H / 2, y), that is, a pixel outside the screen of the reconstructed image 601 of the first thinned image is required. When n ≧ (H / 2-1), Pr1 (n, y) = Pr1 (H / 2-1, y) is set, that is, the screen edge pixel is copied to be an off-screen pixel, etc. That's fine.
Pp2 (n, m) = (Pr1 (n, m) + Pr1 (n + 1, m) +1) / 2
... (Formula 5)
For simplicity, the pixel interpolation using the horizontal 2-tap filter has been described. However, the prediction image 611 of the second thinned image may be created by pixel interpolation using a multi-tap filter or a two-dimensional filter that can express higher frequency components. .

次に、第2間引き画像512の符号化処理のステップ404に続いて、間引き画像作成処理402で作成した第3間引き画像513について予測画像を作成し、符号化処理をおこなう(ステップ405)。   Next, following step 404 of the coding process of the second thinned image 512, a prediction image is created for the third thinned image 513 created by the thinned image creating process 402, and the coding process is performed (step 405).

第3間引き画像513の予測画像作成では、図7に示されるように、既に符号化処理済みである第1間引き画像の再構成画像601を参照画像として用いる。   In creating the predicted image of the third thinned image 513, as shown in FIG. 7, a reconstructed image 601 of the first thinned image that has already been encoded is used as a reference image.

第3間引き画像513は図8に示されるように、、第1間引き画像511に対し、水平方向の補間画素として考えることができる。したがって、第3間引き画像513の予測画像には、第1間引き画像の再構成画像601に垂直フィルタを適用して作成した補間画素による画像を適用することが効果的である。ここでは、垂直2タップフィルタを用いた補間画素作成による第3間引き画像513の予測画像(以下、第3間引き画像の予測画像811)作成するものとする。すなわち、第3間引き画像の予測画像811の画素の上下両側の第1間引き画像の再構成画像601の平均をとる。   As shown in FIG. 8, the third thinned image 513 can be considered as an interpolation pixel in the horizontal direction with respect to the first thinned image 511. Therefore, it is effective to apply an image with interpolation pixels created by applying a vertical filter to the reconstructed image 601 of the first thinned image as the predicted image of the third thinned image 513. Here, it is assumed that a predicted image of the third thinned image 513 (hereinafter, a predicted image 811 of the third thinned image) is created by interpolation pixel creation using a vertical 2-tap filter. That is, the average of the reconstructed image 601 of the first thinned image on both the upper and lower sides of the pixel of the predicted image 811 of the third thinned image is taken.

第3間引き画像の予測画像811の座標(x,y)の画素をPp3(x,y)とおき、第1間引き画像の再構成画像601の座標(x,y)の画素をPr1(x,y)とおくと、第3間引き画像の予測画像811の座標(n,m)の画素Pp3(n,m)812は、以下の(式6)で表せる。   The pixel of the coordinate (x, y) of the predicted image 811 of the third thinned image is set as Pp3 (x, y), and the pixel of the coordinate (x, y) of the reconstructed image 601 of the first thinned image is Pr1 (x, y). If y), the pixel Pp3 (n, m) 812 at the coordinates (n, m) of the predicted image 811 of the third thinned image can be expressed by the following (formula 6).

ただし、nは0≦n<(H/2−1)を満たす整数、mは0≦m<(V/2−1)を満たす整数である。H、Vはそれぞれスライス単位入力画像501の水平画素数、垂直画素数であり、共に偶数である。式(6)において、m=(V/2−1)のとき、Pr1(x,V/2)の画素、すなわち第1間引き画像の再構成画像601の画面外画素が必要となるが、これはm≧(V/2−1)のとき、Pr1(x,m)=Pr1(x,V/2−1)とする、すなわち画面端画素をコピーして画面外画素とするなどをおこなえばよい。
Pp3(n,m)=(Pr1(n,m)+Pr1(n,m+1)+1)/2
…(式6)
簡単のため、第1間引き画像の再構成画像601のみを参照画像として第3間引き画像の予測画像811の作成方法を示したが、第2間引き画像の再構成画像も参照画像として利用してもよい。また、垂直2タップフィルタによる画素補間で説明をおこなったが、より高周波成分を表現できる複数タップフィルタ、または2次元フィルタによる画素補間で第3間引き画像の予測画像811を作成してもよい。
However, n is an integer that satisfies 0 ≦ n <(H / 2-1), and m is an integer that satisfies 0 ≦ m <(V / 2-1). H and V are respectively the number of horizontal pixels and the number of vertical pixels of the slice unit input image 501, both of which are even numbers. In Expression (6), when m = (V / 2-1), a pixel of Pr1 (x, V / 2), that is, a pixel outside the screen of the reconstructed image 601 of the first thinned image is necessary. When m ≧ (V / 2-1), if Pr1 (x, m) = Pr1 (x, V / 2-1), that is, if the screen edge pixel is copied to be an off-screen pixel, etc. Good.
Pp3 (n, m) = (Pr1 (n, m) + Pr1 (n, m + 1) +1) / 2
... (Formula 6)
For the sake of simplicity, the method of creating the predicted image 811 of the third thinned image using only the reconstructed image 601 of the first thinned image as a reference image has been described, but the reconstructed image of the second thinned image may also be used as the reference image. Good. Further, although the pixel interpolation using the vertical 2-tap filter has been described, the predicted image 811 of the third thinned-out image may be generated by the multi-tap filter that can express higher frequency components or the pixel interpolation using the two-dimensional filter.

次に、第3間引き画像513の符号化処理のステップ405に続いて、間引き画像作成処理402で作成した第4間引き画像514について予測画像を作成し、符号化処理をおこなう(ステップ406)。   Next, following step 405 of the coding process of the third thinned image 513, a predicted image is created for the fourth thinned image 514 created by the thinned image creating process 402, and the coding process is performed (step 406).

第4間引き画像514の予測画像作成には、図9に示されるように、既に符号化処理済みである第2間引き画像の再構成画像1001および第3間引き画像の再構成画像1002を参照画像として用いる。   As shown in FIG. 9, the predicted image of the fourth thinned image 514 is generated using the reconstructed image 1001 of the second thinned image and the reconstructed image 1002 of the third thinned image that have already been encoded as reference images. Use.

第4間引き画像514は、図10に示されるように、第2間引き画像512に対し、垂直方向の補間画素として考えることができ、また第3間引き画像513に対し、水平方向の補間画素として考えることができる。したがって、第4間引き画像514の予測画像には第2間引き画像の再構成画像1001および第3間引き画像の再構成画像1002に2次元フィルタを適用して作成した補間画素による画像を適用することが効果的である。ここでは、水平垂直それぞれ2タップの2次元フィルタを用いた補間画素作成による第4間引き画像514の予測画像(以下、第2間引き画像の予測画像1011)作成するものとする。   As shown in FIG. 10, the fourth thinned image 514 can be considered as an interpolation pixel in the vertical direction with respect to the second thinned image 512, and is considered as an interpolation pixel in the horizontal direction with respect to the third thinned image 513. be able to. Therefore, it is possible to apply to the predicted image of the fourth thinned image 514 an image with interpolation pixels created by applying a two-dimensional filter to the reconstructed image 1001 of the second thinned image and the reconstructed image 1002 of the third thinned image. It is effective. Here, it is assumed that a predicted image of the fourth thinned image 514 (hereinafter, a predicted image 1011 of the second thinned image) is created by creating an interpolated pixel using a two-dimensional filter with two taps each in the horizontal and vertical directions.

第4間引き画像の予測画像1011の座標(x,y)の画素をPp4(x,y)とおき、第2間引き画像の再構成画像1001の座標(x,y)の画素をPr2(x,y)、第3間引き画像の再構成画像1002の座標(x,y)の画素をPr3(x,y)とおくと、第4間引き画像の予測画像1011の座標(n,m)の画素Pp4(n,m)1012は、以下の(式7)で表せる。すなわち、すなわち、第4間引き画像の予測画像1011の画素の上下両側の第2間引き画像の再構成画像1011、および、左右両側の第3間引き画像の再構成画像1002の平均をとる。ここで、分子で+2をしているのは、末尾のビットを四捨五入するためである。   The pixel of the coordinate (x, y) of the predicted image 1011 of the fourth thinned image is set as Pp4 (x, y), and the pixel of the coordinate (x, y) of the reconstructed image 1001 of the second thinned image is Pr2 (x, y). y) When the pixel of the coordinate (x, y) of the reconstructed image 1002 of the third thinned image is set to Pr3 (x, y), the pixel Pp4 of the coordinate (n, m) of the predicted image 1011 of the fourth thinned image (N, m) 1012 can be expressed by the following (formula 7). That is, the average of the reconstructed image 1011 of the second thinned image on the upper and lower sides of the pixel of the predicted image 1011 of the fourth thinned image and the reconstructed image 1002 of the third thinned image on both the left and right sides are taken. Here, the reason why +2 is used in the numerator is to round off the last bit.

ただし、nは0≦n<(H/2−1)を満たす整数、mは0≦m<(V/2−1)を満たす整数である。H、Vはそれぞれスライス単位入力画像501の水平画素数、垂直画素数であり、共に偶数である。(式7)において、n=(H/2−1)のとき、またはm=(V/2−1)のとき、Pr3(H/2,y)の画素またはPr2(x,V/2)の画素が必要となる。すなわち第2間引き画像の再構成画像1001と第3間引き画像の再構成画像1002の画面外画素が必要となる場合があるが、これはn≧(H/2−1)のときPr3(n,y)=Pr3(H/2−1,y)、m≧(V/2−1)のときPr2(x,m)=Pr2(x,V/2−1)とする、すなわち画面端画素をコピーして画面外画素とするなどをおこなえばよい。
Pp4(n,m)=(Pr2(n,m)+Pr2(n,m+1)+Pr3(n,m)+Pr2(n+1,m)+2)/4
…(式7)
簡単のため、第2間引き画像の再構成画像1001および第3間引き画像の再構成画像1002のみを参照画像として第4間引き画像の予測画像1011の作成方法を示したが、第1間引き画像の再構成画像601も参照画像として利用してもよい。また、水平垂直それぞれ2タップの2次元フィルタによる画素補間で説明を行ったが、より高周波成分を表現できる複数タップフィルタ、または1次元フィルタによる画素補間で第4間引き画像の予測画像1011を作成してもよい。
(III)画像符号化装置の構成
次に、図11を用いて本発明の第一の実施形態に係る画像符号化装置の構成について説明する。
図11は、本発明の第一の実施形態に係る画像符号化装置の構成図である。
However, n is an integer that satisfies 0 ≦ n <(H / 2-1), and m is an integer that satisfies 0 ≦ m <(V / 2-1). H and V are respectively the number of horizontal pixels and the number of vertical pixels of the slice unit input image 501, both of which are even numbers. In (Expression 7), when n = (H / 2-1) or m = (V / 2-1), the pixel of Pr3 (H / 2, y) or Pr2 (x, V / 2) Pixels are required. That is, there may be a case where the out-of-screen pixels of the reconstructed image 1001 of the second decimation image and the reconstructed image 1002 of the third decimation image are necessary, which is Pr3 (n, y) = Pr3 (H / 2-1, y), when m ≧ (V / 2-1), Pr2 (x, m) = Pr2 (x, V / 2-1). What is necessary is just to copy and make it an off-screen pixel.
Pp4 (n, m) = (Pr2 (n, m) + Pr2 (n, m + 1) + Pr3 (n, m) + Pr2 (n + 1, m) +2) / 4
... (Formula 7)
For the sake of simplicity, the method of creating the predicted image 1011 of the fourth decimation image using only the reconstructed image 1001 of the second decimation image and the reconstructed image 1002 of the third decimation image as the reference image has been shown. The configuration image 601 may also be used as a reference image. In addition, the pixel interpolation using the two-dimensional filter with two taps in each of the horizontal and vertical directions has been described, but the predicted image 1011 of the fourth thinned image is created by the pixel interpolation using the multi-tap filter or the one-dimensional filter that can express higher frequency components. May be.
(III) Configuration of Image Encoding Device Next, the configuration of the image encoding device according to the first embodiment of the present invention will be described with reference to FIG.
FIG. 11 is a configuration diagram of an image encoding device according to the first embodiment of the present invention.

本実施形態の画像符号化装置100は、図11に示されるように、間引き画像作成部101、間引き画像バッファ102、第1のイントラ予測画像作成部103、予測誤差算出処理部104、直交変換処理部105、量子化処理部106、逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第2のイントラ予測画像作成部111、エントロピー符号化処理部112を備えている。   As shown in FIG. 11, the image coding apparatus 100 according to the present embodiment includes a thinned image creation unit 101, a thinned image buffer 102, a first intra predicted image creation unit 103, a prediction error calculation processing unit 104, and an orthogonal transformation process. Unit 105, quantization processing unit 106, inverse quantization processing unit 107, inverse orthogonal transform processing unit 108, reconstructed image creation unit 109, reconstructed image buffer 110, second intra predicted image creation unit 111, entropy encoding process The unit 112 is provided.

間引き画像作成部101は、間引き画像作成処理402をおこなう処理部であり、入力画像151を元にして、第1間引き画像511から第4間引き画像514までの四つの間引き画像を作成する。   The thinned image creating unit 101 is a processing unit that performs a thinned image creating process 402, and creates four thinned images from a first thinned image 511 to a fourth thinned image 514 based on the input image 151.

間引き画像バッファ102は、第1間引き画像511、第2間引き画像512、第3間引き画像513、および、第4間引き画像514を一時的に格納し、各間引き画像の出力タイミングを調整するためのバッファであり、第1間引き画像511、第2間引き画像512、第3間引き画像513、第4間引き画像514の順で出力する。第1のイントラ予測処理部103は、第1間引き画像符号化処理のステップ403内の予測処理で述べたように、従来イントラ予測方法による予測画像作成をおこなう処理部である。予測誤差算出処理部104は、入力画像の間引き画像とその予測画像との差分(すなわち予測誤差)を算出する処理部であり、予測誤差算出処理412を実行する処理部である。直交変換処理部105は直交変換処理413を実行する処理部である。量子化処理部106は、量子化処理414を実行する処理部である。逆量子化処理部107は、量子化処理部106から出力された量子化後データに対し、逆量子化処理をおこなう処理部である。逆直交変換処理部108は、逆量子化処理部107から出力された逆量子化後データに対し、逆直交変換処理をおこなう処理部である。再構成画像作成部109は、逆直交変換処理部108から出力された逆直交変換後データと予測誤差算出処理部104へ入力した予測画像を加算し、再構成画像を作成する処理部である。再構成画像バッファ110は、再構成画像作成部109で作成された再構成画像を格納するバッファである。第2のイントラ予測処理部111は、再構成画像バッファ110から必要な間引き画像の再構成画像を取得し、第2間引き画像512、第3間引き画像513、および、第4間引き画像514の予測画像作成をおこなう。すなわち、第2のイントラ予測処理部111は、第2間引き画像符号化処理のステップ404、第3間引き画像符号化処理のステップ405、第4間引き画像符号化処理のステップ406に係る予測画像作成処理をおこなう処理部である。エントロピー符号化処理部112は、エントロピー符号化処理415をおこない、ビットストリーム152を出力する処理部である。   The thinned image buffer 102 temporarily stores the first thinned image 511, the second thinned image 512, the third thinned image 513, and the fourth thinned image 514, and a buffer for adjusting the output timing of each thinned image. The first thinned image 511, the second thinned image 512, the third thinned image 513, and the fourth thinned image 514 are output in this order. As described in the prediction process in step 403 of the first decimation image encoding process, the first intra prediction processing unit 103 is a processing unit that creates a predicted image by the conventional intra prediction method. The prediction error calculation processing unit 104 is a processing unit that calculates a difference (that is, a prediction error) between the thinned image of the input image and the predicted image, and is a processing unit that executes the prediction error calculation processing 412. The orthogonal transformation processing unit 105 is a processing unit that executes the orthogonal transformation processing 413. The quantization processing unit 106 is a processing unit that executes the quantization processing 414. The inverse quantization processing unit 107 is a processing unit that performs inverse quantization processing on the quantized data output from the quantization processing unit 106. The inverse orthogonal transform processing unit 108 is a processing unit that performs an inverse orthogonal transform process on the dequantized data output from the inverse quantization processing unit 107. The reconstructed image creation unit 109 is a processing unit that creates the reconstructed image by adding the data after inverse orthogonal transform output from the inverse orthogonal transform processing unit 108 and the predicted image input to the prediction error calculation processing unit 104. The reconstructed image buffer 110 is a buffer for storing the reconstructed image created by the reconstructed image creating unit 109. The second intra prediction processing unit 111 acquires a reconstructed image of a necessary thinned image from the reconstructed image buffer 110, and predicts the second thinned image 512, the third thinned image 513, and the fourth thinned image 514. Create. That is, the second intra prediction processing unit 111 performs the predicted image generation process according to step 404 of the second decimation image encoding process, step 405 of the third decimation image encoding process, and step 406 of the fourth decimation image encoding process. It is a processing unit that performs. The entropy encoding processing unit 112 is a processing unit that performs entropy encoding processing 415 and outputs a bit stream 152.

画像符号化装置100において従来の画像符号化装置と大きく異なる点は、上述した間引き画像作成部101、間引き画像バッファ102、再構成画像バッファ110、第2のイントラ予測処理部111を備えることである。
(IV)ビットストリームの構成
次に、図12を用いて本実施形態のイントラ予測方法での画像符号化処理の出力として得られるビットストリームの構成について説明する。
図12は、本発明の第一の実施形態に係るイントラ予測方法での画像符号化処理の出力として得られるビットストリームの構成図である。
The image coding apparatus 100 is greatly different from the conventional image coding apparatus in that it includes the above-described thinned image creating unit 101, the thinned image buffer 102, the reconstructed image buffer 110, and the second intra prediction processing unit 111. .
(IV) Configuration of Bitstream Next, the configuration of a bitstream obtained as an output of image encoding processing in the intra prediction method of the present embodiment will be described using FIG.
FIG. 12 is a configuration diagram of a bitstream obtained as an output of an image encoding process in the intra prediction method according to the first embodiment of the present invention.

本実施形態係るイントラ予測方法は、スライス単位での符号化となるため、図12では、スライスヘッダー以下の構成についてのみ示している。   Since the intra prediction method according to the present embodiment is encoded in units of slices, only the configuration below the slice header is shown in FIG.

画像符号化処理の出力として得られるビットストリームは、図12に示されるように、スライスヘッダー情報1201、第1間引き画像に関する符号情報1211、第2間引き画像に関する符号情報1212、第3間引き画像に関する符号情報1213、第4間引き画像に関する符号情報1214から構成される。これらの情報は、スライスヘッダー情報1201、第1間引き画像に関する符号情報1211、第2間引き画像に関する符号情報1212、第3間引き画像に関する符号情報1213、第4間引き画像に関する符号情報1214の順に出力され、第4間引き画像に関する符号情報1214の後に次のスライスヘッダー情報1202が続く形となる。なお、第1間引き画像は、従来イントラ予測方法と同様の方法で符号化処理されるために、第1間引き画像に関する符号情報1211については、マクロブロックヘッダー情報を含んでいる。   As shown in FIG. 12, the bit stream obtained as the output of the image encoding process includes slice header information 1201, code information 1211 regarding the first decimation image, code information 1212 regarding the second decimation image, and code regarding the third decimation image. It consists of information 1213 and code information 1214 regarding the fourth thinned image. These pieces of information are output in the order of slice header information 1201, code information 1211 related to the first thinned image, code information 1212 related to the second thinned image, code information 1213 related to the third thinned image, and code information 1214 related to the fourth thinned image. The code information 1214 related to the fourth thinned image is followed by the next slice header information 1202. Since the first decimation image is encoded by the same method as the conventional intra prediction method, the code information 1211 related to the first decimation image includes macroblock header information.

本実施形態に係るイントラ予測方法は、スライス単位でのイントラ予測をおこなっているため、マクロブロック単位でのイントラ予測をおこなう従来イントラ予測方法との併用のためには、ビットストリーム中のスライスヘッダー情報にどちらの予測方法であるかを識別する1ビットデータを付加するだけでよく、符号量オーバーヘッドは極めて小さい。
(V)画像復号化処理の詳細
次に、図13および図14を用いて本発明の第一の実施形態に係るイントラ予測方法により符号化した画像の画像復号化処理の詳細な処理について説明する。
図13は、本発明の第一の実施形態に係る画像復号化処理を示すフローチャートである。
図14は、間引き画像の復号画像から結合画像を作成する様子を説明する図である。
Since the intra prediction method according to the present embodiment performs intra prediction in units of slices, slice header information in a bitstream is used in combination with a conventional intra prediction method that performs intra prediction in units of macroblocks. It is only necessary to add 1-bit data for identifying which prediction method, and the code amount overhead is extremely small.
(V) Details of Image Decoding Processing Next, detailed processing of image decoding processing of an image encoded by the intra prediction method according to the first embodiment of the present invention will be described using FIG. 13 and FIG. .
FIG. 13 is a flowchart showing an image decoding process according to the first embodiment of the present invention.
FIG. 14 is a diagram for explaining how a combined image is created from a decoded image of a thinned image.

先ず、第1間引き画像の復号化処理をおこなう(ステップ1301)。   First, the decoding process of the first thinned image is performed (step 1301).

復号化処理は、以下に示す手順でおこなわれる。   The decryption process is performed according to the following procedure.

先ず、エントロピー復号化処理として、ビットストリームから量子化後データを作成する(ステップ1311)。   First, as entropy decoding processing, post-quantization data is created from a bit stream (step 1311).

次に、逆量子化処理として、量子化後データから直交変換後データを作成する(ステップ1312)。   Next, as inverse quantization processing, data after orthogonal transformation is created from the quantized data (step 1312).

次に、逆直交変換処理として、直交変換後データから予測誤差を生成する(ステップ1313)。   Next, as an inverse orthogonal transform process, a prediction error is generated from the data after orthogonal transform (step 1313).

次に、予測画像を作成する(ステップ1314)。   Next, a predicted image is created (step 1314).

次に、予測誤差と予測画像を加算し、復号画像を作成する(ステップ1315)。   Next, the prediction error and the prediction image are added to create a decoded image (step 1315).

特に、第1間引き画像の復号化処理におけるステップ1314の予測画像作成処理では、従来イントラ予測方法による予測画像作成をおこなう。   In particular, in the predicted image creation process in step 1314 in the decoding process of the first thinned image, a predicted image is created by the conventional intra prediction method.

次に、第1間引き画像の復号化処理に続いて、第2間引き画像の復号化処理をおこなう(ステップ1302)。   Next, after the decoding process of the first thinned image, the decoding process of the second thinned image is performed (step 1302).

特に、第2間引き画像の復号化処理におけるステップ1314の予測画像作成処理では、図4に示したステップ404の第2間引き画像符号化処理におけるステップ411の予測画像作成処理と同一の予測画像作成処理をおこなう。   In particular, in the predicted image creation process in step 1314 in the decoding process of the second thinned image, the same predicted image creation process as the predicted image creation process in step 411 in the second thinned image encoding process in step 404 shown in FIG. To do.

次に、第2間引き画像の復号化処理に続いて、第3間引き画像の復号化処理をおこなう(ステップ1303)。   Next, after the decoding process of the second thinned image, the decoding process of the third thinned image is performed (step 1303).

特に、第3間引き画像の復号化処理におけるステップ1314の予測画像作成処理では、ステップ405の第3間引き画像符号化処理におけるステップ411の予測画像作成処理と同一の予測画像作成処理をおこなう。   In particular, in the predicted image creation process in step 1314 in the decoding process of the third thinned image, the same predicted image creation process as the predicted image creation process in step 411 in the third thinned image encoding process in step 405 is performed.

次に、第3間引き画像の復号化処理に続いて、第4間引き画像の復号化処理をおこなう(ステップ1304)。   Next, after the decoding process of the third thinned image, the decoding process of the fourth thinned image is performed (step 1304).

特に、第4間引き画像の復号化処理におけるステップ1314の予測画像作成処理では、ステップ406の第4間引き画像符号化処理におけるステップ411の予測画像作成処理と同一の予測画像作成処理をおこなう。   In particular, in the predicted image creation process in step 1314 in the decoding process of the fourth thinned image, the same predicted image creation process as the predicted image creation process in step 411 in the fourth thinned image encoding process in step 406 is performed.

第1間引き画像の復号化処理ないし第4間引き画像の復号化処理が終わると、図14に示すように、それぞれの復号化処理で復号化された第1間引き画像の復号画像1401、第2間引き画像の復号画像1402、第3間引き画像の復号画像1403、第4間引き画像の復号画像1404を結合し、結合画像1411を作成する(ステップ1305)。この処理は、間引き画像作成処理402に対し、逆の処理をおこなうことに等しい。なお、本発明に係るイントラ予測方法は、スライスを基本単位としたため、結合画像1411はスライス単位の画像となる。   When the decoding process of the first decimation image or the decoding process of the fourth decimation image is finished, as shown in FIG. 14, the decoded image 1401 and the second decimation of the first decimation image decoded by the respective decoding processes are performed. The decoded image 1402, the decoded image 1403 of the third thinned image, and the decoded image 1404 of the fourth thinned image are combined to create a combined image 1411 (step 1305). This process is equivalent to performing the reverse process to the thinned image creation process 402. Since the intra prediction method according to the present invention uses slices as the basic unit, the combined image 1411 is an image in units of slices.

ステップ1301の第1間引き画像復号化処理1301と、ステップ1302の第2間引き画像復号化処理から第4間引き画像復号化処理1304における違いは、復号化処理の予測画像作成方法および第1間引き画像復号化処理1301でのみマクロブロックヘッダー情報のエントロピー復号化処理が必要な点だけである。
(VI)画像復号化装置の構成
次に、図15を用いて本発明の第一の実施形態に係る画像復号化装置の構成について説明する。
図15は、本発明の第一の実施形態に係る画像復号化装置の構成図である。
The difference between the first decimation image decoding process 1301 in step 1301 and the second decimation image decoding process to the fourth decimation image decoding process 1304 in step 1302 is that the predicted image generation method of the decoding process and the first decimation image decoding Only the entropy decoding process of the macroblock header information is necessary only in the conversion process 1301.
(VI) Configuration of Image Decoding Device Next, the configuration of the image decoding device according to the first embodiment of the present invention will be described with reference to FIG.
FIG. 15 is a block diagram of an image decoding apparatus according to the first embodiment of the present invention.

画像復号化装置1500は、図15に示されるように、エントロピー復号化処理部1501、逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第1のイントラ予測処理部103、第2のイントラ予測処理部111、間引き画像バッファ1502、結合画像作成部1503を備える。   As shown in FIG. 15, the image decoding apparatus 1500 includes an entropy decoding processing unit 1501, an inverse quantization processing unit 107, an inverse orthogonal transform processing unit 108, a reconstructed image creating unit 109, a reconstructed image buffer 110, a 1 intra prediction processing unit 103, second intra prediction processing unit 111, thinned image buffer 1502, and combined image creation unit 1503.

逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第1のイントラ予測処理部103は、図11の画像符号化装置100の説明と同様である。   The inverse quantization processing unit 107, the inverse orthogonal transform processing unit 108, the reconstructed image creation unit 109, the reconstructed image buffer 110, and the first intra prediction processing unit 103 are the same as those described for the image encoding device 100 in FIG. is there.

エントロピー復号化処理部1501は、ビットストリームを復号化し、量子化後データなどを作成する処理部であり、ステップ1311のエントロピー復号化処理に該当する処理をおこなう。間引き画像バッファ1502は、間引き画像の復号画像を一時的に格納するバッファである。結合画像部1503は、ステップ1305の結合画像作成処理で示した結合画像作成をおこなう処理部である。   The entropy decoding processing unit 1501 is a processing unit that decodes a bit stream and creates post-quantization data and the like, and performs processing corresponding to the entropy decoding processing in step 1311. The thinned image buffer 1502 is a buffer that temporarily stores a decoded image of the thinned image. The combined image unit 1503 is a processing unit that performs the combined image creation shown in the combined image creation processing in step 1305.

画像復号化装置1500は、入力されたビットストリーム152について、先ず、図12に示した第1間引き画像に関する符号情報1211をエントロピー復号化処理部1501にて量子化後データなどに変換し、逆量子化処理部107および逆直交変換処理部108にて逆量子化処理、逆直交変換処理をおこない、第1の予測画像作成処理部103で作成した予測画像を加えることにより、第1間引き画像の復号画像を取得し、間引き画像バッファ1502へ格納する。   For the input bitstream 152, the image decoding apparatus 1500 first converts the code information 1211 related to the first decimation image shown in FIG. 12 into quantized data or the like by the entropy decoding processing unit 1501, and performs inverse quantization. Decoding of the first decimation image is performed by performing inverse quantization processing and inverse orthogonal transformation processing in the quantization processing unit 107 and the inverse orthogonal transform processing unit 108, and adding the predicted image created by the first predicted image creation processing unit 103 The image is acquired and stored in the thinned image buffer 1502.

次に、図12に示した第2間引き画像に関する符号情報1212をエントロピー復号化処理部1501により量子化後データなどに変換し、逆量子化処理部107および逆直交変換処理部108において、それぞれ逆量子化処理、逆直交変換処理をおこない、第2の予測画像作成処理部111で作成した予測画像を加えることにより第2間引き画像の復号画像を取得し、間引き画像バッファ1502へ格納する。   Next, the code information 1212 related to the second thinned image shown in FIG. 12 is converted into quantized data by the entropy decoding processing unit 1501, and the inverse quantization processing unit 107 and the inverse orthogonal transform processing unit 108 respectively perform inverse processing. Quantization processing and inverse orthogonal transform processing are performed, and a decoded image of the second thinned image is acquired by adding the predicted image created by the second predicted image creation processing unit 111 and stored in the thinned image buffer 1502.

その後、図12に示した第3間引き画像に関する符号情報1213、第4間引き画像に関する符号情報1213についても、第2間引き画像に関する符号情報1212と同様の処理をおこない、取得した第3間引き画像の復号画像および第4間引き画像の復号画像を間引き画像バッファ1502へ格納する。   Thereafter, the code information 1213 related to the third thinned image and the code information 1213 related to the fourth thinned image shown in FIG. 12 are processed in the same manner as the code information 1212 related to the second thinned image, and the acquired third thinned image is decoded. The image and the decoded image of the fourth thinned image are stored in the thinned image buffer 1502.

これらの処理後に、結合画像作成部1503は、間引き画像バッファ1502より全ての間引き画像の復号画像を読出し、結合画像を作成して復号画像1551として出力する。   After these processes, the combined image creation unit 1503 reads out the decoded images of all the thinned images from the thinned image buffer 1502, creates a combined image, and outputs it as a decoded image 1551.

画像復号化装置1500において、従来の画像復号化装置と大きく異なる点は、上述した再構成画像バッファ110、第2のイントラ予測処理部111、間引き画像バッファ1502、結合画像作成部1503を備えることである。   The image decoding device 1500 is greatly different from the conventional image decoding device in that it includes the reconstructed image buffer 110, the second intra prediction processing unit 111, the thinned image buffer 1502, and the combined image creation unit 1503 described above. is there.

〔実施形態2〕
以下、本発明に係る第二の実施形態を、図16および図17を用いて説明する。
[Embodiment 2]
Hereinafter, a second embodiment according to the present invention will be described with reference to FIGS. 16 and 17.

第一の実施形態では、符号化対象画素ブロックを分割して、いくつかの間引き画像を作成し、それをイントラ予測で予測画像として用いる画像符号化処理を説明した。   In the first embodiment, the image encoding process has been described in which the encoding target pixel block is divided to create some thinned images and use them as predicted images in intra prediction.

本実施形態は、本発明に係るイントラ予測方法と従来イントラ予測方法との併用により、符号化効率向上可能な画像符号化装置および画像復号化装置を説明する。
図16は、本発明の第二の実施形態に係る画像符号化装置の構成図である。
図17は、本発明の第二の実施形態に係る画像復号化装置の構成図である。
In the present embodiment, an image coding apparatus and an image decoding apparatus that can improve coding efficiency by using the intra prediction method according to the present invention and the conventional intra prediction method will be described.
FIG. 16 is a configuration diagram of an image encoding device according to the second embodiment of the present invention.
FIG. 17 is a configuration diagram of an image decoding apparatus according to the second embodiment of the present invention.

画像符号化装置1600は、図16に示されるように、第1画像符号化装置1601、第2画像符号化装置1602、符号化効率統計処理部1606、ストリームバッファ1603、ストリームバッファ1604、出力選択回路1605を備える。   As shown in FIG. 16, the image encoding device 1600 includes a first image encoding device 1601, a second image encoding device 1602, an encoding efficiency statistical processing unit 1606, a stream buffer 1603, a stream buffer 1604, and an output selection circuit. 1605.

第一形態画像符号化装置100は、図11で説明した第一の実施形態に係るイントラ予測方法を用いた画像符号化装置である。第2画像符号化装置1602は、 H.264/AVCなどの従来イントラ予測方法を用いた画像符号化装置である。符号化効率統計処理部1606は、スライス単位の符号量や画質の指標となる統計データに基づき、第1画像符号化装置1601から得られるビットストリームと第2画像符号化装置から得られるビットストリームのうち、より符号化効率が向上するビットストリームを選択するための制御信号を出力する処理部である。ストリームバッファ1603は、第1画像符号化装置1601が出力するビットストリームを一時的に格納するバッファであり、ビットストリームデータをスライス単位ごとに管理し、出力する機能を有する。ストリームバッファ1604は、第2画像符号化装置1602が出力するビットストリームを一時的に格納するバッファであり、ビットストリームデータをスライス単位ごとに管理し、出力する機能を有する。出力選択処理部1605は、符号化効率統計処理部1606が出力する制御信号に従い、ストリームバッファ1603とストリームバッファ1604が出力するビットストリームのいずれか片方をスライス単位で切り替えて出力する。さらに、ビットストリームのスライスヘッダー情報として第一の実施形態に係るイントラ予測方法と従来イントラ予測方法とを識別するための符号1ビットを付与する機能を有する。   The first form image encoding apparatus 100 is an image encoding apparatus using the intra prediction method according to the first embodiment described in FIG. The second image encoding device 1602 is H.264. This is an image coding apparatus using a conventional intra prediction method such as H.264 / AVC. The coding efficiency statistical processing unit 1606 uses a bit stream obtained from the first image coding device 1601 and a bit stream obtained from the second image coding device based on statistical data that is an index of code amount and image quality in units of slices. Among these, it is a processing unit that outputs a control signal for selecting a bitstream that further improves the encoding efficiency. The stream buffer 1603 is a buffer that temporarily stores the bit stream output from the first image encoding device 1601, and has a function of managing and outputting the bit stream data for each slice unit. The stream buffer 1604 is a buffer for temporarily storing the bit stream output from the second image encoding device 1602 and has a function of managing and outputting the bit stream data for each slice unit. The output selection processing unit 1605 switches and outputs one of the bit streams output from the stream buffer 1603 and the stream buffer 1604 in units of slices in accordance with the control signal output from the coding efficiency statistical processing unit 1606. Furthermore, it has a function of assigning 1 bit of code for identifying the intra prediction method according to the first embodiment and the conventional intra prediction method as slice header information of the bitstream.

以下、画像符号化装置1600の動作を説明する。画像符号化装置1600は、入力画像1651を第1画像符号化装置1601と第2画像符号化装置1602とで画像符号化処理し、得られたビットストリームをそれぞれストリームバッファ1603、ストリームバッファ1604へ出力する。さらに、第1画像符号化装置1601は、スライス単位の発生符号量および画質の指標となる統計データ1631を符号化効率統計処理部1606へ出力する。また、第2画像符号化装置1602もスライス単位の発生符号量および画質の指標となる統計データ1632を符号化効率統計処理部1606へ出力する。符号化効率統計処理部1606は、入力された統計データをもとに、より符号化効率が向上するビットストリームを選択するための制御情報1633を出力選択処理1605へ出力し、出力選択処理1605は制御情報1633に基づいて、ストリームバッファ1603とストリームバッファ1604が出力するビットストリームのいずれか片方をスライス単位で切り替えてビットストリーム1652として出力する。その際、採用したビットストリームのスライスヘッダーへ第一のイントラ予測方法と従来イントラ予測方法とを識別するための符号1ビットを付与する。   Hereinafter, the operation of the image encoding device 1600 will be described. The image encoding device 1600 performs image encoding processing on the input image 1651 by the first image encoding device 1601 and the second image encoding device 1602, and outputs the obtained bit streams to the stream buffer 1603 and the stream buffer 1604, respectively. To do. Further, the first image encoding device 1601 outputs statistical data 1631 serving as a generated code amount and image quality index in units of slices to the encoding efficiency statistical processing unit 1606. The second image encoding device 1602 also outputs statistical data 1632 serving as a generated code amount and image quality index in units of slices to the encoding efficiency statistical processing unit 1606. The coding efficiency statistical processing unit 1606 outputs control information 1633 for selecting a bitstream that further improves the coding efficiency to the output selection processing 1605 based on the input statistical data, and the output selection processing 1605 Based on the control information 1633, one of the bit streams output from the stream buffer 1603 and the stream buffer 1604 is switched in units of slices and output as a bit stream 1652. At that time, 1 bit of code for identifying the first intra prediction method and the conventional intra prediction method is added to the slice header of the adopted bitstream.

次に、画像復号化装置1700は、図17に示されるように、エントロピー復号化処理部1701、逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第1のイントラ予測処理部103、第2のイントラ予測処理部111、間引き画像バッファ1502、結合画像作成部1503、出力選択処理部1702、遅延バッファ1703を備える。   Next, as shown in FIG. 17, the image decoding apparatus 1700 includes an entropy decoding processing unit 1701, an inverse quantization processing unit 107, an inverse orthogonal transform processing unit 108, a reconstructed image creating unit 109, a reconstructed image buffer. 110, a first intra prediction processing unit 103, a second intra prediction processing unit 111, a thinned image buffer 1502, a combined image creation unit 1503, an output selection processing unit 1702, and a delay buffer 1703.

逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第1のイントラ予測処理部103、第2のイントラ予測処理部111は、第一の実施形態の図15で説明したものと同様であり、間引き画像バッファ1502、結合画像作成部1503は、図16で説明したものと同様である。   The inverse quantization processing unit 107, the inverse orthogonal transform processing unit 108, the reconstructed image creation unit 109, the reconstructed image buffer 110, the first intra prediction processing unit 103, and the second intra prediction processing unit 111 are the first implementation. The thinned-out image buffer 1502 and the combined image creating unit 1503 are the same as those described with reference to FIG.

エントロピー復号化処理部1701は、入力されたビットストリーム1652のスライスヘッダー情報から処理対象とするスライスヘッダー情報以下のビットストリームが第一の実施形態に係るイントラ予測方法であるか従来イントラ予測方法であるかを判定し、その判定結果を判定結果情報1731として出力選択処理部1702へ出力すると共に、当該ビットストリームを復号化して量子化後データなどを出力する機能を有する処理部である。   The entropy decoding processing unit 1701 is the intra prediction method according to the first embodiment or the bit stream below the slice header information to be processed from the slice header information of the input bit stream 1652 or the conventional intra prediction method. This is a processing unit that has a function of outputting the determination result to the output selection processing unit 1702 as the determination result information 1731 and decoding the bit stream and outputting the quantized data and the like.

出力選択処理部1702は、判定結果情報1731に基づいて、遅延バッファ1703の出力と結合画像作成部1503の出力とを選択し、復号画像1751として出力する。   The output selection processing unit 1702 selects the output of the delay buffer 1703 and the output of the combined image creation unit 1503 based on the determination result information 1731, and outputs the selected image 1751.

遅延バッファ1703は、第一の実施形態に係るイントラ予測方法のビットストリームより復号画像を得る時の処理遅延時間と従来イントラ予測方法のビットストリームより復号画像を得る時の処理遅延時間との時間差を吸収するためのバッファであり、およそ1スライス分の復号画像データを格納可能な容量を必要とする。   The delay buffer 1703 calculates a time difference between a processing delay time when obtaining a decoded image from the bit stream of the intra prediction method according to the first embodiment and a processing delay time when obtaining a decoded image from the bit stream of the conventional intra prediction method. It is a buffer for absorption, and requires a capacity capable of storing decoded image data for about one slice.

以下、画像復号化装置1700の動作を説明する。画像復号化装置1700のエントロピー復号化処理部1701において、第一の実施形態に係るイントラ予測方法のビットストリームと判定した場合、復号化して得られた量子化後データを逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、再構成画像バッファ110、第1のイントラ予測処理部103、第2のイントラ予測処理部111、間引き画像バッファ1502、結合画像作成部1503によって画像復号化装置1500と同様に処理して第一の実施形態に係るイントラ予測方法の復号画像を得る。一方、エントロピー復号化処理部1701にて従来イントラ予測方法のビットストリームと判定した場合、復号化して得られた量子化後データを逆量子化処理部107、逆直交変換処理部108、再構成画像作成部109、第1のイントラ予測処理部103によって従来イントラ予測方法の復号画像を作成し、遅延バッファ1703へ格納する。出力選択処理部1702は、判定結果情報1731が第一の実施形態に係るイントラ予測方法と判定する結果であれば、結合画像作成部1503の復号画像を出力し、従来イントラ予測方法と判定する結果であれば、バッファ1703の復号画像を出力する。   Hereinafter, the operation of the image decoding apparatus 1700 will be described. When the entropy decoding processing unit 1701 of the image decoding device 1700 determines that the bit stream is the bit stream of the intra prediction method according to the first embodiment, the dequantized data obtained by decoding is subjected to the inverse quantization processing unit 107, An image is obtained by the inverse orthogonal transform processing unit 108, the reconstructed image creating unit 109, the reconstructed image buffer 110, the first intra prediction processing unit 103, the second intra prediction processing unit 111, the thinned image buffer 1502, and the combined image creating unit 1503. Processing similar to that of the decoding device 1500 is performed to obtain a decoded image of the intra prediction method according to the first embodiment. On the other hand, when the entropy decoding processing unit 1701 determines that the bit stream of the conventional intra prediction method is used, the quantized data obtained by decoding is converted into an inverse quantization processing unit 107, an inverse orthogonal transform processing unit 108, and a reconstructed image. The creation unit 109 and the first intra prediction processing unit 103 create a decoded image of the conventional intra prediction method and store it in the delay buffer 1703. If the determination result information 1731 is a result determined to be the intra prediction method according to the first embodiment, the output selection processing unit 1702 outputs the decoded image of the combined image creation unit 1503 and determines the conventional intra prediction method. If so, the decoded image of the buffer 1703 is output.

〔実施形態3〕
以下、本発明の第三の実施形態を、図18ないし図38を用いて説明する。
[Embodiment 3]
The third embodiment of the present invention will be described below with reference to FIGS.

第一の実施形態では、スライス単位で画像を入力し、それからいくつの間引き画像に分解し、ある間引き画像のイントラ予測をおこなうために、他の間引き画像から予測画像を作成する方法について説明した。   In the first embodiment, a method has been described in which an image is input in units of slices, then decomposed into several thinned images, and a predicted image is created from other thinned images in order to perform intra prediction of a thinned image.

本実施形態では、第一の実施形態とは、別の仕方で、MBを複数の基本ブロックに分割し、ある基本ブロックの画素のイントラ予測のために、他の基本ブロックの画素を参照して、予測画素を作成する方法について説明する。   In the present embodiment, the MB is divided into a plurality of basic blocks in a manner different from the first embodiment, and for intra prediction of the pixels of a certain basic block, the pixels of the other basic block are referred to. A method for creating a prediction pixel will be described.

先ず、図18を用いてMBの基本ブロックの分割について説明する。
図18は、MBの4x4ブロックへの分割の仕方と、分割したブロックの処理順序を示す図である。
First, MB basic block division will be described with reference to FIG.
FIG. 18 is a diagram illustrating a method of dividing an MB into 4 × 4 blocks and a processing order of the divided blocks.

本実施形態では、図18に示されるように、入力した16x16画素のMBを、8x8画素ブロックに区切り、これを以下のように、相当する画素を抽出し、抽出した画素群を4x4ブロックとして構成する。この各々のブロックは、第1ブロックから第4ブロックまでの予測をおこなうための基本ブロックとなる。
第1ブロック:p(2x,2y) … x,y=1,2,3,4
第2ブロック:p(2x−1,2y−1) … x,y=1,2,3,4
第3ブロック:p(2x,2y−1) … x,y=1,2,3,4
第4ブロック:p(2x−1,2y) … x,y=1,2,3,4
なお、p(x,y)は8x8ブロック内の画素位置を示し、x方向に1〜8、y方向に1〜8の位置を取りうるものとする。
In the present embodiment, as shown in FIG. 18, the input 16 × 16 pixel MB is divided into 8 × 8 pixel blocks, and the corresponding pixels are extracted as follows, and the extracted pixel group is configured as a 4 × 4 block. To do. Each of these blocks is a basic block for performing prediction from the first block to the fourth block.
First block: p (2x, 2y) ... x, y = 1, 2, 3, 4
Second block: p (2x-1,2y-1) x, y = 1,2,3,4
Third block: p (2x, 2y-1) ... x, y = 1, 2, 3, 4
Fourth block: p (2x-1, 2y) ... x, y = 1, 2, 3, 4
Note that p (x, y) indicates a pixel position in the 8x8 block, and can take positions 1 to 8 in the x direction and 1 to 8 in the y direction.

8x8ブロック内の処理順序は、第1ブロック、第2ブロック、第3ブロック、第4ブロックの順に処理をおこなう。   The processing order in the 8 × 8 block is performed in the order of the first block, the second block, the third block, and the fourth block.

次に、図19および図20を用いて第1ブロックにおける予測画像生成方法について説明する。
図19は、第1ブロックにおける予測対象ブロックと参照画素を示す図である。
図20は、図19を書き直して第1ブロックと参照画素の関係を分かりやすく示した図である。
Next, a predicted image generation method in the first block will be described with reference to FIGS. 19 and 20.
FIG. 19 is a diagram illustrating prediction target blocks and reference pixels in the first block.
FIG. 20 is a diagram showing the relationship between the first block and the reference pixel in an easy-to-understand manner by rewriting FIG.

第1ブロックにおける予測対象画素は、図19中、a〜p画素となる。また第1ブロックで参照画素として使用できるのは、A〜H,I〜L,M,N〜U,V〜Yの画素となる。この時点で図19中の白い部分の画素は参照画素として使用できない。参照画素として使用できるA〜H,I〜L,M,N〜U,V〜Yの画素の内で、図20に示すように、一つおきに画素を取り、第一ブロックの参照画素とする。これは、予測対象画素とより距離の近い参照画素を用いるという発想に基づくものである。そして、従来方式のH.264/AVC符号化方式で用いられている9モードによる4x4画素ブロックでのイントラ予測をおこなう。   The prediction target pixels in the first block are ap pixels in FIG. In addition, pixels A to H, I to L, M, N to U, and V to Y can be used as reference pixels in the first block. At this time, the white pixel in FIG. 19 cannot be used as a reference pixel. Of the pixels A to H, I to L, M, N to U, and V to Y that can be used as reference pixels, every other pixel is taken as shown in FIG. To do. This is based on the idea of using a reference pixel closer to the prediction target pixel. The conventional H.264 method is used. Intra prediction is performed on a 4 × 4 pixel block in nine modes used in the H.264 / AVC encoding scheme.

次に、図21ないし図23を用いて第2ブロックにおける予測画像生成方法について説明する。
図21は、第2ブロックにおける予測対象ブロックと参照画素を示す図である。
図22は、第2ブロックにおける画素p周辺の参照画素を示す図である。
図23は、周辺画素から参照画素を生成するときの各モードの概念図である。
Next, a predicted image generation method in the second block will be described with reference to FIGS.
FIG. 21 is a diagram illustrating prediction target blocks and reference pixels in the second block.
FIG. 22 is a diagram illustrating reference pixels around the pixel p in the second block.
FIG. 23 is a conceptual diagram of each mode when a reference pixel is generated from surrounding pixels.

第2ブロックの処理では、第1ブロックに相当する箇所の画素が参照画素として使用可能となる。   In the processing of the second block, the pixel corresponding to the first block can be used as a reference pixel.

ここで、予測対象画素p周辺を例に予測画素生成方法を図22を用いて説明する。   Here, the prediction pixel generation method will be described with reference to FIG.

予測対象画素p周辺では、図22のA,C,F,Hは、第1ブロックの画素であり、予測参照画素として使用可能になっている。   In the vicinity of the prediction target pixel p, A, C, F, and H in FIG. 22 are pixels of the first block and can be used as prediction reference pixels.

本実施形態によるイントラ予測方法では、画素pの予測をおこなう前に、まだ参照画素として使用できないB,D,E,G部分を、第1ブロックの画素であるA,C,F,Hから予測参照画素として生成する。   In the intra prediction method according to the present embodiment, B, D, E, and G portions that cannot be used as reference pixels are predicted from the A, C, F, and H pixels of the first block before the pixel p is predicted. Generated as a reference pixel.

ここで、各予測参照画素は、周辺の参照画素の平均とし、以下の式で算出する。
B=(A+C+1)>>1
D=(A+F+1)>>1
E=(C+H+1)>>1
G=(F+H+1)>>1
ここで、各画素を表す文字A,B,C…は、画素値も表すこととしている。“+”は、画素値の加算、“>>”は、ビットの右シフトであり、“>>1”は、2で割ることを表している。また、かっこの中で、+1をしているのは、四捨五入を意味している。
Here, each prediction reference pixel is an average of surrounding reference pixels, and is calculated by the following equation.
B = (A + C + 1) >> 1
D = (A + F + 1) >> 1
E = (C + H + 1) >> 1
G = (F + H + 1) >> 1
Here, the letters A, B, C... Representing each pixel also represent a pixel value. “+” Indicates addition of pixel values, “>>” indicates a right shift of bits, and “>> 1” indicates division by two. In parentheses, +1 means rounding.

上記の式によって、予測参照画素B,D,E,Gを算出することにより、予測対象画素周辺の9画素全てを参照画素として使用可能となる。   By calculating the prediction reference pixels B, D, E, and G using the above formula, all nine pixels around the prediction target pixel can be used as reference pixels.

本発明では、予測対象画素の周辺9個の参照画素を用いて、予測対象画素の予測をおこなう。   In the present invention, the prediction target pixel is predicted using nine reference pixels around the prediction target pixel.

a〜o周辺の予測参照画素についても、対象画素との相対位置に応じて同様に生成する。   The prediction reference pixels around a to o are similarly generated according to the relative position to the target pixel.

次に、周辺9画素を用いた予測画素生成方法を説明する。   Next, a predicted pixel generation method using nine peripheral pixels will be described.

予測画素生成のモードは、9種類とし、図23に示されるように、モード0〜モード9を以下の式で求める。
モード0:p=(B+G+1)>>1
モード1:p=(D+E+1)>>1
モード2:p=(A+C+F+H+2)>>2
モード3:p=(C+F+1)>>1
モード4:p=(A+H+1)>>1
モード5:p=(A+B+G+H+2)>>2
モード6:p=(A+D+E+H+2)>>2
モード7:p=(B+C+F+G+2)>>2
モード8:p=(D+F+C+E+2)>>2
“>>2”は、4で割ることを表している。また、かっこの中で、+2をしているのは、四捨五入を意味している。
There are nine types of prediction pixel generation modes, and as shown in FIG.
Mode 0: p = (B + G + 1) >> 1
Mode 1: p = (D + E + 1) >> 1
Mode 2: p = (A + C + F + H + 2) >> 2
Mode 3: p = (C + F + 1) >> 1
Mode 4: p = (A + H + 1) >> 1
Mode 5: p = (A + B + G + H + 2) >> 2
Mode 6: p = (A + D + E + H + 2) >> 2
Mode 7: p = (B + C + F + G + 2) >> 2
Mode 8: p = (D + F + C + E + 2) >> 2
“>> 2” represents dividing by 4. In parentheses, +2 means rounding.

ここでは、ハードウェアでの実現性の容易さを考慮して、加算とビットシフトで演算可能とした。また、従来方式の拡張を考慮しモード数も9モードとした。   Here, in consideration of the ease of realization in hardware, calculation is possible by addition and bit shift. In consideration of expansion of the conventional method, the number of modes is set to nine.

以降説明する第3、4ブロックにおいても、先ず、画素周辺の9個の参照画素を生成したのち、予測対象画素の生成をおこなうため、予測対象画素の生成方法は第3,4ブロックも、上記と同様となる。   In the third and fourth blocks to be described later, first, nine reference pixels around the pixel are generated, and then the prediction target pixel is generated. Therefore, the prediction target pixel generation method is the same as that of the third and fourth blocks. It will be the same.

次に、図24ないし図26を用いて第3ブロックにおける予測画像生成方法について説明する。
図24は、第3ブロックにおける予測対象ブロックと参照画素を示す図である。
図25は、第3ブロックにおける画素o周辺の参照画素を示す図である。
図26は、第3ブロックにおける画素p周辺の参照画素を示す図である。
Next, a predicted image generation method in the third block will be described with reference to FIGS.
FIG. 24 is a diagram illustrating prediction target blocks and reference pixels in the third block.
FIG. 25 is a diagram illustrating reference pixels around the pixel o in the third block.
FIG. 26 is a diagram illustrating reference pixels around the pixel p in the third block.

第3ブロックの処理では、第1、第2ブロックに相当する箇所の画素が参照画素として使用可能となる。   In the processing of the third block, the pixels corresponding to the first and second blocks can be used as reference pixels.

ここで予測対象画素o,p周辺を例に予測画素生成方法を図25、図26を用いて説明する。   Here, the prediction pixel generation method will be described with reference to FIG. 25 and FIG.

予測対象画素o周辺では、K,B,L,M,G,Hが第1ブロックの画素であり、I,J,D,Eが第2ブロックの画素である。   In the vicinity of the prediction target pixel o, K, B, L, M, G, and H are pixels of the first block, and I, J, D, and E are pixels of the second block.

第2ブロックと同様、まだ参照画素として使えないA,C,F,H部分を予測参照画素として生成する。各予測参照画素は、周辺の参照画素の平均とする。
A=(I+K+B+D+2)>>2
C=(J+B+L+E+2)>>2
F=(2D+M+G+2)>>2
H=(2E+G+N+2)>>2
ここで、Fに関する式は、対称性を利用して、Dを加えて4で割ることした。Hに関する式も同様である。
As in the second block, A, C, F, and H portions that cannot be used as reference pixels are generated as predicted reference pixels. Each prediction reference pixel is an average of surrounding reference pixels.
A = (I + K + B + D + 2) >> 2
C = (J + B + L + E + 2) >> 2
F = (2D + M + G + 2) >> 2
H = (2E + G + N + 2) >> 2
Here, the formula for F is obtained by adding D and dividing by 4 using symmetry. The same applies to the formula for H.

画素p周辺に関しても同様に、参照画素として使用できない周辺画素C,E,Hを生成する(A,Fは画素o周辺の生成方法で示した)。
C=(A+3B+2)>>2
H=(F+3G+2)>>2
E=(C+H+1)>>1
Cの式では、より近いBの方に3の重みをつけ、Aの方の重みは1とし、より近い画素が反映されるようにしている。Hの式でも同様である。
Similarly, peripheral pixels C, E, and H that cannot be used as reference pixels are generated for the periphery of the pixel p (A and F are shown in the generation method for the periphery of the pixel o).
C = (A + 3B + 2) >> 2
H = (F + 3G + 2) >> 2
E = (C + H + 1) >> 1
In the expression of C, a weight of 3 is assigned to the closer B, and a weight of A is set to 1, so that the closer pixels are reflected. The same applies to the formula of H.

各予測対象画素周辺の9個の参照画素生成されれば、周辺9個の参照画素を用いた予測画素の生成方法は、第2ブロックと同様となる。   If nine reference pixels around each prediction target pixel are generated, the prediction pixel generation method using the nine peripheral reference pixels is the same as in the second block.

次に、図27および図28を用いて第4ブロックにおける予測画像生成方法について説明する。
図27は、第4ブロックにおける予測対象ブロックと参照画素を示す図である。
図28は、第4ブロックにおける画素p周辺の参照画素を示す図である。
Next, a predicted image generation method in the fourth block will be described with reference to FIGS. 27 and 28.
FIG. 27 is a diagram illustrating prediction target blocks and reference pixels in the fourth block.
FIG. 28 is a diagram illustrating reference pixels around the pixel p in the fourth block.

第4ブロックの処理では、第1、第2、第3ブロックに相当する箇所の画素が参照画素として使用可能となる。   In the process of the fourth block, the pixels corresponding to the first, second, and third blocks can be used as reference pixels.

ここで予測対象画素p周辺を例に予測画素生成方法を図28を用いて説明する。   Here, the prediction pixel generation method will be described with reference to FIG.

予測対象画素pの周辺では、D,Eが第1ブロックの画素であり、Bが第2ブロックの画素であり、A,Cが第ブロックの画素である
第4ブロックの画素p周辺では、F,G,H相当位置の参照画素を生成する必要がある。これまでと同様の考え方により、以下の式で参照画素を生成する。
F=(A+3D+2)>>2
H=(C+3E+2)>>2
G=(F+H+1)>>1
画素m,n,oに対しても、相対位置がF,G,Hに相当する画素の参照画素をpと同様に生成する。
In the vicinity of the prediction target pixel p, D and E are pixels of the first block, B is a pixel of the second block, and A and C are pixels of the third block .
In the vicinity of the pixel p of the fourth block, it is necessary to generate reference pixels at positions corresponding to F, G, and H. Based on the same concept as before, the reference pixel is generated by the following equation.
F = (A + 3D + 2) >> 2
H = (C + 3E + 2) >> 2
G = (F + H + 1) >> 1
Also for the pixels m, n, and o, reference pixels of pixels whose relative positions correspond to F, G, and H are generated in the same manner as p.

以上では、MB境界の参照画素が使用可能な場合における第1ブロック〜第4ブロックのイントラ予測処理方法について説明した。   In the above, the intra prediction processing method of the 1st block-the 4th block when the reference pixel of MB boundary is usable was explained.

次に、例えば対象ブロックがピクチャ上端に位置するような場合は、上側のMBが存在しないため、上、右上、左上の参照画素を使用できない。また、対象ブロックがピクチャ左端に位置する場合は、左側のMBが存在しないため左、左上の参照画素を使用できない。   Next, for example, when the target block is located at the upper end of the picture, there is no upper MB, so the upper, upper right, and upper left reference pixels cannot be used. Also, when the target block is located at the left end of the picture, the left and upper left reference pixels cannot be used because there is no left MB.

こうしたMB境界の参照画素が使用できない場合の予測処理方法について説明する。   A prediction processing method in a case where such MB boundary reference pixels cannot be used will be described.

第1ブロックでは、H.264/AVCと同様の処理、使用可能なモードはモード2(DC)のみであり、DC予測値を中間値(入力画素のビット数が8bitであれば128)として予測する。   In the first block, H. The same process as H.264 / AVC and the usable mode is only mode 2 (DC), and the DC prediction value is predicted as an intermediate value (128 if the number of bits of the input pixel is 8 bits).

次に、図29ないし図32を用いてスライス境界にあるMBの第2ブロックにおける予測画像生成方法について説明する。
図29は、スライス境界にあるMBの第2ブロックにおける予測対象ブロックと参照画素を示す図である。
図30は、第2ブロックにおける画素a周辺の参照画素を示す図である。
図31は、第2ブロックにおける画素b周辺の参照画素を示す図である。
図32は、第2ブロックにおける画素e周辺の参照画素を示す図である。
Next, a predicted image generation method in the second block of the MB at the slice boundary will be described with reference to FIGS.
FIG. 29 is a diagram illustrating prediction target blocks and reference pixels in the second block of the MB at the slice boundary.
FIG. 30 is a diagram illustrating reference pixels around the pixel a in the second block.
FIG. 31 is a diagram illustrating reference pixels around the pixel b in the second block.
FIG. 32 is a diagram illustrating reference pixels around the pixel e in the second block.

対象となるMBがスライス境界にある場合には、図29中、太枠の外側の参照画素を使用できない。これらの参照画素を予測方法を、予測対象画素a,b,e周辺を例に図30、図31、図32を用いて説明する。   When the target MB is on the slice boundary, the reference pixels outside the thick frame in FIG. 29 cannot be used. A method of predicting these reference pixels will be described with reference to FIGS. 30, 31, and 32 by taking the vicinity of the prediction target pixels a, b, and e as an example.

予測対象画素a周辺の参照画素A〜Gは、全てHと同値とする。   The reference pixels A to G around the prediction target pixel a are all set to the same value as H.

予測対象画素b周辺の参照画素A,B,Cの予測方法は以下のようにおこなう。D,E,Gについては、前述したように両端の画素の平均を取ればよい。
A=F
C=H
B=(A+C+1)>>1
ここで、Aは、対称性を利用して、Aの画素値をコピーしている。Cも同様である。
The prediction method of the reference pixels A, B, and C around the prediction target pixel b is performed as follows. For D, E, and G, the average of the pixels at both ends may be taken as described above.
A = F
C = H
B = (A + C + 1) >> 1
Here, A copies the pixel value of A using symmetry. The same applies to C.

予測対象画素e周辺の参照画素A,D,Fの予測方法は以下のようにおこなう。B,E、Gについても、前述した両端の画素の平均を取ればよい。
A=C
F=H
D=(A+F+1)>>1
次に、図33ないし図35を用いてスライス境界にあるMBの第3ブロックにおける予測画像生成方法について説明する。
図33は、スライス境界にあるMBの第3ブロックにおける予測対象ブロックと参照画素を示す図である。
図34は、第3ブロックにおける画素a周辺の参照画素を示す図である。
図35は、第3ブロックにおける画素d周辺の参照画素を示す図である。
The prediction method of the reference pixels A, D, and F around the prediction target pixel e is performed as follows. For B, E, and G, the average of the pixels at both ends described above may be taken.
A = C
F = H
D = (A + F + 1) >> 1
Next, a predicted image generation method in the third block of the MB at the slice boundary will be described with reference to FIGS.
FIG. 33 is a diagram illustrating prediction target blocks and reference pixels in the third block of the MB at the slice boundary.
FIG. 34 is a diagram illustrating reference pixels around the pixel a in the third block.
FIG. 35 is a diagram illustrating reference pixels around the pixel d in the third block.

対象となるMBがスライス境界にある場合には、図33中、太枠の外側の参照画素を使用できない。これらの参照画素を予測方法を、予測対象画素a,d周辺を例に、図34、図35を用いて説明する。   When the target MB is on the slice boundary, the reference pixels outside the thick frame in FIG. 33 cannot be used. A method of predicting these reference pixels will be described with reference to FIGS. 34 and 35, taking the vicinity of the prediction target pixels a and d as an example.

予測対象画素a周辺の参照画素A,B,Cの予測方法は以下のようにおこなう。F,Hは、前述したように周辺画素の平均を取ればよい(例えば、F=(D+G+1)>>1)。
A=D
C=E
B=(A+C+1)>>1
予測対象画素d周辺の参照画素A,B,C,E,Hの予測方法は以下のようにおこなう。Fは、前述した周辺画素の平均を取ればよい。
A=D
B=A
C=(A+3B+2)>>2
H=G
E=H
次に、図36ないし図38を用いてスライス境界にあるMBの第4ブロックにおける予測画像生成方法について説明する。
図36は、スライス境界にあるMBの第4ブロックにおける予測対象ブロックと参照画素を示す図である。
図37は、第4ブロックにおける画素a周辺の参照画素を示す図である。
図38は、第4ブロックにおける画素d周辺の参照画素を示す図である。
The prediction method of the reference pixels A, B, and C around the prediction target pixel a is performed as follows. As described above, F and H may be an average of neighboring pixels (for example, F = (D + G + 1) >> 1).
A = D
C = E
B = (A + C + 1) >> 1
The prediction method of the reference pixels A, B, C, E, and H around the prediction target pixel d is performed as follows. F may be an average of the peripheral pixels described above.
A = D
B = A
C = (A + 3B + 2) >> 2
H = G
E = H
Next, a predicted image generation method in the fourth block of the MB at the slice boundary will be described with reference to FIGS.
FIG. 36 is a diagram illustrating prediction target blocks and reference pixels in the fourth block of the MB at the slice boundary.
FIG. 37 is a diagram illustrating reference pixels around the pixel a in the fourth block.
FIG. 38 is a diagram illustrating reference pixels around the pixel d in the fourth block.

スライス境界では、図36中、太枠の外側の参照画素を使用できない。これらの参照画素を予測方法を、予測対象画素a,m周辺を例に図37、図38を用いて説明する。   At the slice boundary, reference pixels outside the thick frame in FIG. 36 cannot be used. A method of predicting these reference pixels will be described with reference to FIGS. 37 and 38 by taking the vicinity of the prediction target pixels a and m as an example.

予測対象画素a周辺の参照画素A,D,Fの予測方法は以下のようにおこなう。
A=(3B+C+2)>>2
F=(3G+H+2)>>2
D=(A+F+1)>>1
予測対象画素m周辺の参照画素A,Dの予測方法は以下のようにおこなう。Fは、前述のように周辺画素の平均を取ればよい。
A=(3B+C+2)>>2
D=A
H=(3E+C+2)>>2
G=H
The prediction method of the reference pixels A, D, and F around the prediction target pixel a is performed as follows.
A = (3B + C + 2) >> 2
F = (3G + H + 2) >> 2
D = (A + F + 1) >> 1
The prediction method of the reference pixels A and D around the prediction target pixel m is performed as follows. F may be an average of surrounding pixels as described above.
A = (3B + C + 2) >> 2
D = A
H = (3E + C + 2) >> 2
G = H

11…4x4ブロック
12…参照画素
100…映像符号化装置
101…間引き画像作成部
102…間引き画像バッファ
103…第1のイントラ予測処理部
104…予測誤差算出処理部
105…直交変換処理部
106…量子化処理部
107…逆量子化処理部
108…逆直交変換処理部
109…再構成画像作成部
110…再構成画像バッファ
111…第2のイントラ予測画像作成
112…エントロピー符号化処理部
151…入力画像
152…ビットストリーム
201…符号化対象マクロブロック
211…上方向近接画素
212…左方向近接画素
301…符号化対象画素ブロック
501…スライス単位入力画像
511…第1間引き画像
512…第2間引き画像
513…第3間引き画像
514…第4間引き画像
601…第1間引き画像の再構成画像
611…第2間引き画像の予測画像
612…画素Pp2(n,m)
811…第3間引き画像の予測画像
812…画素Pp3(n,m)
1001…第2間引き画像の再構成画像
1002…第3間引き画像の再構成画像
1011…第4間引き画像の予測画像
1012…画素Pp4(n,m)
1201…スライスヘッダー情報
1202…スライスヘッダー情報
1211…第1間引き画像に関する符号情報
1212…第2間引き画像に関する符号情報
1213…第3間引き画像に関する符号情報
1214…第4間引き画像に関する符号情報
1401…第1間引き画像の復号画像
1402…第2間引き画像の復号画像
1403…第3間引き画像の復号画像
1404…第4間引き画像の復号画像
1411…結合画像
1500…画像復号化装置
1501…エントロピー復号化処理部
1502…間引き画像バッファ
1503…結合画像作成部
1551…復号画像
1600…画像符号化処理
1601…第1画像符号化装置
1602…第2画像符号化装置
1603…ストリームバッファ
1604…ストリームバッファ
1605…出力選択回路
1606…符号化効率統計処理部
1631…スライス単位の発生符号量および画質の指標となる統計データ
1632…スライス単位の発生符号量および画質の指標となる統計データ
1633…制御情報
1651…入力画像
1652…ビットストリーム
1700…画像復号化装置
1701…エントロピー復号化処理部
1702…出力選択処理部
1703…遅延バッファ
1731…判定結果情報
1751…復号画像。
DESCRIPTION OF SYMBOLS 11 ... 4x4 block 12 ... Reference pixel 100 ... Video coding apparatus 101 ... Thinned image creation part 102 ... Thinned image buffer 103 ... First intra prediction processing part 104 ... Prediction error calculation processing part 105 ... Orthogonal transformation processing part 106 ... Quantum Processing unit 107 ... Inverse quantization processing unit 108 ... Inverse orthogonal transform processing unit 109 ... Reconstructed image creation unit 110 ... Reconstructed image buffer 111 ... Second intra prediction image creation 112 ... Entropy encoding processing unit 151 ... Input image 152: Bit stream 201 ... Encoding target macroblock 211 ... Upward proximity pixel 212 ... Left proximity pixel 301 ... Encoding target pixel block 501 ... Slice unit input image 511 ... First decimation image 512 ... Second decimation image 513 ... Third thinned image 514... Fourth thinned image 601... Reconstructed image 6 of the first thinned image 1 ... predicted image 612 ... pixel Pp2 of the second thinned image (n, m)
811 ... Predicted image of third thinned image 812 ... Pixel Pp3 (n, m)
1001 ... Reconstructed image of the second thinned image 1002 ... Reconstructed image of the third thinned image 1011 ... Predicted image 1012 of the fourth thinned image ... Pixel Pp4 (n, m)
1201 ... Slice header information 1202 ... Slice header information 1211 ... Code information 1212 related to the first thinned image ... Code information 1213 related to the second thinned image ... Code information 1214 related to the third thinned image ... Code information 1401 related to the fourth thinned image ... First Decoded image 1402 of the decimation image ... Decoded image 1403 of the second decimation image ... Decoded image 1403 of the third decimation image ... Decoded image 1411 of the fourth decimation image ... Combined image 1500 ... Image decoding device 1501 ... Entropy decoding processing unit 1502 ... Thinned-out image buffer 1503 ... Combined image creation unit 1551 ... Decoded image 1600 ... Image encoding process 1601 ... First image encoding device 1602 ... Second image encoding device 1603 ... Stream buffer 1604 ... Stream buffer 1605 ... Output selection circuit 160 ... Coding efficiency statistical processing unit 1631 ... Statistical data 1632 serving as an index of generated code amount and image quality in slice units ... Statistical data 1633 serving as an index of generated code amount and image quality in slice units ... Control information 1651 ... Input image 1652 ... bits Stream 1700 ... image decoding device 1701 ... entropy decoding processing unit 1702 ... output selection processing unit 1703 ... delay buffer 1731 ... determination result information 1751 ... decoded image.

Claims (4)

画像を符号化するにあたり、画面内予測を用いて符号化対象画素ブロックを符号化する画像符号化装置において、
前記符号化対象画素ブロックより大きい部分画像の単位で、該部分画像を等間隔でサンプリングして、略同一サイズのN(Nは2以上の自然数)枚の間引き画像を作成する間引き画像生成部と、
順次入力される第1の間引き画像から第Nの間引き画像を、対応して入力される第1の間引き画像の予測画像から第Nの間引き画像の予測画像を用いて符号化するとともに、該符号化した画像の復号画像と同一の画像を得る処理部と、
前記復号した画像と、前記第1から第Nの間引き画像の予測画像とを合成して再合成画像を作成する再合成画像作成部と、
前記第1の間引き画像中に設定された符号化対象画素ブロックについて、該設定された符号化対象画素ブロックに隣接する画素を、前記再合成画像作成部から取得して、前記第1の間引き画像の予測画像を生成する第1の画面内予測処理部と、
第i(i=2,…,N)の間引き画像の予測画像を、再合成画像作成部から取得した同一の前記部分画像における第1の間引き画像から第i−1の間引き画像を参照画像に使用して生成する第2の画面内予測処理部とを備え、
前記間引き画像生成部は、第2の間引き画像の画素が、第1の間引き画像の画素に、水平あるいは垂直方向のいずれかで隣接するようにし、第3の間引き画像の画素が、第1の間引き画像の画素に、垂直あるいは水平方向のいずれかであって前記第2の間引き画像の画素が隣接する方向と異なる方向で隣接するようにし、第4の間引き画像の画素が、垂直方向及び水平方向で前記第2の間引き画像の画素あるいは前記第3の間引き画像の画素に隣接するようにし、
前記第2の画面内予測処理部は、前記第2の間引き画像の予測画像を、前記取得した第1の間引き画像に水平あるいは垂直方向のフィルタを適用することで生成し、また、前記第3の間引き画像の予測画像を、前記取得した第1の間引き画像及び第2の間引き画像の少なくとも一方に、第2の間引き画像の予測画像を生成したフィルタとは異なる方向のフィルタを適用することで生成し、また、前記第4の間引き画像の予測画像を、前記取得した第1の間引き画像ないし第3の間引き画像が含む、該第4の間引き画像の予測画像における画素に上下左右で隣接する4つの画素を補間することによって生成することを特徴とする画像符号化装置。
In encoding an image, in an image encoding device that encodes a pixel block to be encoded using intra prediction,
A thinned-out image generating unit that generates N thinned images of substantially the same size (N is a natural number of 2 or more) by sampling the partial images at equal intervals in units of partial images larger than the encoding target pixel block; ,
The Nth thinned image from the first thinned image that is sequentially input is encoded using the predicted image of the Nth thinned image that is input from the predicted image of the first thinned image that is input correspondingly. A processing unit that obtains the same image as the decoded image of the converted image;
A re-synthesized image creating unit that creates a re-synthesized image by synthesizing the decoded image and the predicted image of the first to Nth thinned images;
For the encoding target pixel block set in the first thinned image, a pixel adjacent to the set encoding target pixel block is acquired from the recombined image creation unit, and the first thinned image is obtained. A first in-screen prediction processing unit for generating a predicted image of
The predicted image of the i th (i = 2,..., N) thinned image is used as the reference image from the first thinned image to the i−1 th thinned image of the same partial image acquired from the re-synthesized image creating unit. A second in-screen prediction processing unit to be generated using the
The thinned-out image generating unit causes the pixels of the second thinned-out image to be adjacent to the pixels of the first thinned-out image in either the horizontal or vertical direction, and the pixels of the third thinned-out image are The pixels of the thinned image are adjacent to each other in the vertical or horizontal direction, and the second thinned image pixels are adjacent to each other in a direction different from the adjacent direction, and the pixels of the fourth thinned image are vertically and horizontally aligned. Adjacent to the second thinned image pixel or the third thinned image pixel in the direction,
The second intra-screen prediction processing unit generates a predicted image of the second thinned image by applying a horizontal or vertical filter to the acquired first thinned image, and the third By applying a filter in a direction different from the filter that generated the predicted image of the second thinned image to at least one of the acquired first thinned image and the second thinned image, the predicted image of the thinned image The predicted image of the fourth thinned image is included in the acquired first thinned image to third thinned image, and is adjacent to the pixels in the predicted image of the fourth thinned image in the vertical and horizontal directions. An image encoding device characterized by generating by interpolating four pixels.
前記処理部は、前記部分画像の単位のヘッダに、画面内予測の方法が、前記第1の画面内予測処理部のみを用いた方法か、前記第2の画面内予測処理部を用いた方法かの別を示すフラグを付加して符号化し、前記第2の画面内予測処理部を用いた方法を示すフラグを付加した場合、前記第1の間引き画像の予測画像を符号化する際に量子化ステップを他の予測画像より小さく設定し、前記第i(i=2,…,N)の間引き画像の予測画像を符号化する際には前記符号化対象画素ブロックの単位のヘッダは付加しないことを特徴とする請求項1記載の画像符号化装置。   In the header of each partial image, the processing unit uses a method using only the first intra-screen prediction processing unit or a method using the second intra-screen prediction processing unit. If a flag indicating a method using the second in-screen prediction processing unit is added and a flag indicating a method using the second intra-screen prediction processing unit is added, the quantization is performed when the predicted image of the first thinned image is encoded. The encoding step is set smaller than the other predicted images, and when encoding the predicted image of the i-th (i = 2,..., N) thinned image, the header of the encoding target pixel block unit is not added. The image coding apparatus according to claim 1. 請求項1記載の画像符号化装置であってスライス単位の発生符号量および画質の指標となる第1の統計データを出力する第1の画像符号化装置と、
画像を符号化するにあたり、上または左に隣接の参照画素を用いて、画面内予測を用いて符号化対象画素ブロックを符号化する画像符号化装置であってスライス単位の発生符号量および画質の指標となる第2の統計データを出力する第2の画像符号化装置と、
前記第1の統計データおよび前記第2の統計データに基づき、前記第1の画像符号化装置から得られるビットストリームと前記第2の画像符号化装置から得られるビットストリームのうち、より符号化効率が向上するビットストリームを選択するための制御信号を出力する符号化効率統計処理部と、
前記第1の画像符号化装置が出力するビットストリームを一時的に格納しビットストリームデータをスライス単位ごとに管理し、出力する第1のバッファと、
前記第2の画像符号化装置が出力するビットストリームを一時的に格納しビットストリームデータをスライス単位ごとに管理し、出力する第2のバッファと、
前記制御信号に従い、前記第1のバッファと前記第2のバッファが出力するビットストリームのいずれか片方をスライス単位で切り替えて出力する出力選択部とを備えたことを特徴とする画像符号化装置。
The image encoding device according to claim 1, wherein the first image encoding device outputs first statistical data serving as an index of generated code amount and image quality in units of slices;
In encoding an image, an image encoding apparatus that encodes a pixel block to be encoded using intra prediction, using an adjacent reference pixel on the upper or left side, and the generated code amount and image quality in slice units. A second image encoding device that outputs second statistical data serving as an index;
Based on the first statistical data and the second statistical data, the coding efficiency of the bit stream obtained from the first image coding device and the bit stream obtained from the second image coding device is more efficient. A coding efficiency statistical processing unit that outputs a control signal for selecting a bitstream that improves
A first buffer that temporarily stores a bitstream output by the first image encoding device, manages bitstream data for each slice unit, and outputs the first stream;
A second buffer for temporarily storing a bit stream output by the second image encoding device, managing bit stream data for each slice unit, and outputting the data;
An image coding apparatus comprising: an output selection unit that switches and outputs one of bit streams output from the first buffer and the second buffer in units of slices according to the control signal.
画像を符号化するにあたり、画面内予測を用いて符号化対象画素ブロックを符号化する画像符号化装置において、
前記符号化対象画素ブロックより大きい部分画像の単位で、該部分画像を等間隔でサンプリングして、8×8画素ブロックに区切り、座標(2x,2y)の第1の間引き画像、座標(2x−1,2y−1)の第2の間引き画像、座標(2x,2y−1)の第3の間引き画像、および座標(2x−1,2y)の第4の間引き画像の略同一サイズの4枚の間引き画像を作成する間引き画像生成部(xおよびyは、1〜8の整数)と、
前記8×8画素ブロックの上の隣接画素および左の隣接画素内で、一つおきに画素を取り、前記第1の間引き画像の左上、上、右上、左、右、左下、下および右下の参照画素として、モード0(前記上の参照画素と前記下の参照画素の画素値を加算して四捨五入した値を2で割って算出した画素)、モード1(前記左の参照画素と前記右の参照画素の画素値を加算して四捨五入した値を2で割って算出した画素)、モード2(前記左上の参照画素、前記右上の参照画素、前記左下の参照画素および前記右下の参照画素の画素値を加算して四捨五入した値を4で割って算出した画素)、モード3(前記右上の参照画素と前記左下の参照画素の画素値を加算して四捨五入した値を2で割って算出した画素)、モード4(前記左上の参照画素と前記右下の参照画素の画素値を加算して四捨五入した値を2で割って算出した画素)、モード5(前記左上の参照画素、前記上の参照画素、前記下の参照画素および前記右下の参照画素の画素値を加算して四捨五入した値を4で割って算出した画素)、モード6(前記左上の参照画素、前記左の参照画素、前記右の参照画素および前記右下の参照画素の画素値を加算して四捨五入した値を4で割って算出した画素)、モード7(前記右上の参照画素、前記上の参照画素、前記下の参照画素および前記左下の参照画素の画素値を加算して四捨五入した値を4で割って算出した画素)、およびモード8(前記右上の参照画素、前記左の参照画素、前記右の参照画素および前記左下の参照画素の画素値を加算して四捨五入した値を4で割って算出した画素)の9モードによる4×4画素ブロックのイントラ予測を行い、前記第1の間引き画像の予測画像を生成する第1の画面内予測処理部と、
前記第2の間引き画像の参照画素として、当該画素の左上の画素、右上の画素、左下の画素および右下の画素には、前記生成した第1の間引き画像の画素を用い、前記当該画素の上の画素には前記当該画素のの画素の画素値と前記当該画素の右上の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記当該画素の左の画素には前記当該画素の左上の画素の画素値と前記当該画素の左下の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記当該画素の右の画素には前記当該画素の右上の画素の画素値と前記当該画素の右下の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記当該画素の下の画素には前記当該画素の左下の画素の画素値と前記当該画素の右下の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記9モードによる4×4画素ブロックのイントラ予測を行い、前記第2の間引き画像の予測画像を生成する第2の画面内予測処理部と、
前記第3の間引き画像の参照画素として、当該画素の上及び下の画素には、前記生成した第1の間引き画像の画素を用い、前記当該画素の左及び右の画素には、前記生成した第2の間引き画像の画素を用い、前記当該画素の左上の画素右上の画素、左下の画素および右下の画素には、前記当該画素の上の画素、前記当該画素の下の画素、前記当該画素の左の画素および前記当該画素の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い、前記当該画素の左下、下および右下に参照する画像がない場合には、前記当該画素の左下の画素および前記当該画素の右下の画素には、前記当該画素の上の画素の2倍の画素値と前記当該画素の左の画素の画素値と前記当該画素の右の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い前記当該画素の右上、右および右下に参照する画像がない場合には、前記当該画素の右上の画素には、前記当該画素の上の画素の3倍の画素値と前記当該画素の左上の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い、前記当該画素の右下の画素には、前記当該画素の下の画素の3倍の画素値と前記当該画素の左下の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い前記当該画素の右の画素には前記算出した右上の画素の画素値と前記算出した左下の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記9モードによる4×4画素ブロックのイントラ予測を行い、前記第3の間引き画像の予測画像を生成する第3の画面内予測処理部と、
前記第4の間引き画像の参照画像として、当該画素の左上の画素、上の画素、右上の画素、左の画素、右の画素、左下の画素、下の画素および右下の画素には、前記生成した第1の間引き画像の画素、前記生成した第2の間引き画像の画素、または前記生成した第3の間引き画像の画素を用い、前記当該画素の左下、下および右下に参照する画像がない場合には、前記当該画素の左下の画素には、前記当該画素の左の画素の3倍の画素値と前記当該画素の左上の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い、前記当該画素の右下の画素には、前記当該画素の右の画素の3倍の画素値と前記当該画素の右上の画素の画素値を加算して四捨五入した値を4で割って算出した画素を用い、前記当該画素の下の画素には、前記算出した左下の画素の画素値と前記算出した右下の画素の画素値を加算して四捨五入した値を2で割って算出した画素を用い、前記9モードによる4×4画素ブロックのイントラ予測を行い、前記第4の間引き画像の予測画像を生成する第4の画面内予測処理部と、を備えたことを特徴とする画像符号化装置。
In encoding an image, in an image encoding device that encodes a pixel block to be encoded using intra prediction,
In a unit of a partial image larger than the encoding target pixel block, the partial image is sampled at equal intervals, divided into 8 × 8 pixel blocks, and a first thinned image of coordinates (2x, 2y), coordinates (2x− 4 of substantially the same size of the second thinned image of 1, 2y-1), the third thinned image of coordinates (2x, 2y-1), and the fourth thinned image of coordinates (2x-1, 2y) A thinned-out image generator for creating a thinned-out image (x and y are integers of 1 to 8);
Every other pixel in the adjacent pixel on the 8 × 8 pixel block and the adjacent pixel on the left is taken, and the upper left, upper, upper right, left, right, lower left, lower and lower right of the first thinned image Mode 0 (pixels calculated by adding the pixel values of the upper reference pixel and the lower reference pixel and rounding them to 2) and mode 1 (the left reference pixel and the right reference pixel) Pixel calculated by adding and rounding the pixel value of the reference pixels of 2) and mode 2 (the upper left reference pixel, the upper right reference pixel, the lower left reference pixel, and the lower right reference pixel) Pixel value calculated by dividing the pixel value by adding and rounding by 4), mode 3 (by adding the pixel values of the upper right reference pixel and the lower left reference pixel and rounding by 2 and calculating) Mode 4), mode 4 (the upper left reference pixel and the above Pixel calculated by adding the pixel value of the lower reference pixel and rounding it to 2), mode 5 (the upper left reference pixel, the upper reference pixel, the lower reference pixel, and the lower right reference) Pixel calculated by adding the pixel values of the pixels and rounding the result and dividing by 4), mode 6 (the pixels of the upper left reference pixel, the left reference pixel, the right reference pixel, and the lower right reference pixel) Pixel calculated by dividing the value and rounding it by 4), mode 7 (the pixel values of the upper right reference pixel, the upper reference pixel, the lower reference pixel, and the lower left reference pixel are added) And a value calculated by dividing the rounded value by 4) and mode 8 (the pixel values of the upper right reference pixel, the left reference pixel, the right reference pixel, and the lower left reference pixel are added and rounded off) Pixel calculated by dividing the value by 4 A first in-screen prediction processing unit that performs intra prediction of a 4 × 4 pixel block according to 9 modes) and generates a predicted image of the first thinned image;
As the reference pixel of the second thinned image, the pixel of the generated first thinned image is used as the upper left pixel, the upper right pixel, the lower left pixel, and the lower right pixel of the pixel. the pixel above using the pixels calculated by dividing the value obtained by rounding off by adding the pixel value in the upper right of the pixel of the corresponding pixel and the pixel value of the pixel on the left of the corresponding pixel in the 2, the left of the corresponding pixel The pixel obtained by dividing the pixel value of the upper left pixel of the pixel and the pixel value of the lower left pixel of the pixel by adding and rounding the pixel value by 2 is used as the pixel of the pixel. It is used at the top right pixel of the pixel value and a value obtained by rounding off by adding the pixel value of the pixel at the lower right of the corresponding pixel calculated by dividing by 2 pixels of the corresponding pixel in the pixel under the corresponding pixel the right of the corresponding pixel and the pixel values of the lower left pixel of the corresponding pixel Using the pixel calculated by adding the pixel values of the two pixels and dividing the result by dividing by 2, the intra prediction of the 4 × 4 pixel block in the 9 mode is performed to generate the predicted image of the second thinned image A second in-screen prediction processing unit;
As reference pixels of the third thinned image, the pixels of the generated first thinned image are used for the upper and lower pixels of the pixel, and the generated pixels are used for the left and right pixels of the pixel. using pixels of the second thinned image, the upper left pixel of the corresponding pixel, the upper right pixel, a lower left pixel and the lower right pixel, the pixel on the corresponding pixel, pixels beneath the corresponding pixel, wherein Using the pixel calculated by adding the pixel value of the pixel to the left of the pixel and the pixel to the right of the pixel and dividing the result by four, the images referred to at the lower left, lower and lower right of the pixel are If not, the pixel at the lower right of the lower left pixel and the corresponding pixel of the corresponding pixel, the pixel value of the left pixel of the corresponding pixel and 2 times the pixel value of the pixel on the corresponding pixel the value rounded off by adding the pixel value of the right pixel of the pixel Using the pixels calculated by dividing the upper right of the corresponding pixel, when there is no image to be referenced to the right and lower right, the upper right pixel of the corresponding pixel is three times the pixel on the corresponding pixel The pixel value is calculated by adding the pixel value and the pixel value of the upper left pixel of the pixel and dividing the result by dividing the result by 4, and the lower right pixel of the pixel is the pixel below the pixel. 3 times the pixel value and a value obtained by rounding off by adding the pixel values of the lower left pixel of the corresponding pixel using the pixels calculated by dividing by 4, to the right of the pixel of the corresponding pixel, the upper right of the pixel the calculated Using the pixel calculated by adding the pixel value of the pixel and the pixel value of the calculated lower-left pixel and dividing the result by dividing by 2, the intra prediction of the 4 × 4 pixel block in the 9 mode is performed, and the third Third in-screen prediction processing for generating a predicted image of a thinned image And
As a reference image of the fourth thinned image, the upper left pixel, the upper pixel, the upper right pixel, the left pixel, the right pixel, the lower left pixel, the lower pixel, and the lower right pixel of the pixel are pixel of the generated first decimated image, the pixels of the second thinned-out image the generated or using pixels of the third thinned image said generating, the lower left of the corresponding pixel, an image to be referred to below, and lower right Otherwise, the pixel value at the lower left of the pixel is divided by 4 by adding the pixel value three times that of the pixel to the left of the pixel and the pixel value of the pixel at the upper left of the pixel and rounding off. using the pixels calculated Te, the pixel at the lower right of the concerning picture element, the three times the pixel value of the right pixel of the pixel and the pixel values of the upper right pixel of the corresponding pixel is rounded by adding a value using the pixels calculated by dividing by 4, the pixel under the concerning picture element, The value rounded off by adding the pixel value of the pixel at the lower right with the calculated pixel values of the lower left pixels serial calculated using the pixels calculated by dividing by 2, the intra prediction of 4 × 4 pixel block according to the 9 mode And a fourth intra-screen prediction processing unit for generating a predicted image of the fourth thinned image.
JP2010161899A 2010-07-16 2010-07-16 Image encoding device Active JP5578974B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010161899A JP5578974B2 (en) 2010-07-16 2010-07-16 Image encoding device
PCT/JP2011/056044 WO2012008180A1 (en) 2010-07-16 2011-03-15 Image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010161899A JP5578974B2 (en) 2010-07-16 2010-07-16 Image encoding device

Publications (2)

Publication Number Publication Date
JP2012023671A JP2012023671A (en) 2012-02-02
JP5578974B2 true JP5578974B2 (en) 2014-08-27

Family

ID=45469194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010161899A Active JP5578974B2 (en) 2010-07-16 2010-07-16 Image encoding device

Country Status (2)

Country Link
JP (1) JP5578974B2 (en)
WO (1) WO2012008180A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269488A (en) * 1986-05-16 1987-11-21 Mitsubishi Electric Corp Picture encoding transmission equipment
JPH0393377A (en) * 1989-09-06 1991-04-18 Hitachi Ltd High efficient coding device
JPH04219074A (en) * 1990-08-31 1992-08-10 Toshiba Corp Picture coder
JP4185086B2 (en) * 2005-09-28 2008-11-19 株式会社日立国際電気 Image processing device

Also Published As

Publication number Publication date
JP2012023671A (en) 2012-02-02
WO2012008180A1 (en) 2012-01-19

Similar Documents

Publication Publication Date Title
KR101986586B1 (en) Encoding method and apparatus, and decoding method and apparatus of image
RU2603543C2 (en) Method and apparatus for encoding video and method and apparatus for decoding video
KR101579356B1 (en) Intra prediction method and apparatus using the method
US11350120B2 (en) Image coding device, image decoding device, image coding method, and image decoding method
JP2020510374A (en) Conversion method and apparatus in video coding system
WO2012096150A1 (en) Dynamic image encoding device, dynamic image decoding device, dynamic image encoding method, and dynamic image decoding method
KR101614828B1 (en) Method, device, and program for coding and decoding of images
CN114760470A (en) Image encoding/decoding method and apparatus thereof
WO2013001720A1 (en) Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method
JP5578974B2 (en) Image encoding device
KR101938389B1 (en) Intra prediction method and apparatus using the method
WO2011064932A1 (en) Image encoding device and image decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140708

R150 Certificate of patent or registration of utility model

Ref document number: 5578974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250