JP2013090253A - Image processor and program - Google Patents

Image processor and program Download PDF

Info

Publication number
JP2013090253A
JP2013090253A JP2011231113A JP2011231113A JP2013090253A JP 2013090253 A JP2013090253 A JP 2013090253A JP 2011231113 A JP2011231113 A JP 2011231113A JP 2011231113 A JP2011231113 A JP 2011231113A JP 2013090253 A JP2013090253 A JP 2013090253A
Authority
JP
Japan
Prior art keywords
unit
prediction
filter
group
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011231113A
Other languages
Japanese (ja)
Other versions
JP5789172B2 (en
Inventor
Kazuhisa Iguchi
和久 井口
Toshie Misu
俊枝 三須
Yoshiaki Shishikui
善明 鹿喰
Atsuro Ichigaya
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011231113A priority Critical patent/JP5789172B2/en
Publication of JP2013090253A publication Critical patent/JP2013090253A/en
Application granted granted Critical
Publication of JP5789172B2 publication Critical patent/JP5789172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve efficiency of in-screen prediction while suppressing increase in a calculation amount.SOLUTION: An image processor for performing in-screen prediction using plural prediction directions comprises: a sorting unit for sorting plural reference pixels into plural groups on the basis of possibility of being referred to; a filter determination unit for determining different filters for respective sorted groups; a filtering unit which filters the pixel values of the reference pixels included in each group using the filter determined by the filter determination unit; and a generation unit for generating a predictive image of the in-screen prediction using the pixel values filtered by the filtering unit.

Description

本発明は、複数の予測方向を用いて画面内予測を行う画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program for performing intra prediction using a plurality of prediction directions.

近年マルチメディア化が進み、動画像を扱う機会が多くなってきている。画像データは情報量が大きく、画像の集合である動画像は、テレビ放送の主流であるハイビジョン(1920×1080)放送で1Gbit/secを超える情報量である。   In recent years, with the advance of multimedia, there are many opportunities to handle moving images. Image data has a large amount of information, and a moving image, which is a set of images, has an information amount exceeding 1 Gbit / sec in high-definition (1920 × 1080) broadcasting, which is the mainstream of television broadcasting.

そのため、動画像データは、H.264/AVC(Advanced Video Coding)や規格化作業中のHEVC(High Efficiency Video Coding)などに代表される符号化標準技術によって、情報量を圧縮して伝送・蓄積が行われている。   Therefore, the moving image data is H.264. H.264 / AVC (Advanced Video Coding) and standardization work HEVC (High Efficiency Video Coding) and the like are used for transmission and storage by compressing the amount of information.

符号化標準技術であるH.264/AVCは、直交変換や画面間予測、画面内予測、算術符号化、デブロッキングフィルタなどのツールを利用して、動画像の1/100程度までの圧縮を実現している。ツールの一つである画面内予測は、処理対象ブロックに隣接する画素値を参照画素として、複数の予測モードから最適な予測モードを決定して画面内予測を行う。   H., an encoding standard technology. H.264 / AVC uses a tool such as orthogonal transform, inter-screen prediction, intra-screen prediction, arithmetic coding, deblocking filter, and the like to achieve compression of about 1/100 of a moving image. Intra prediction, which is one of the tools, performs intra prediction by determining an optimal prediction mode from a plurality of prediction modes using a pixel value adjacent to the processing target block as a reference pixel.

また、H.264/AVCで、高画質化のために追加された技術に、8×8の画面内予測がある(非特許文献1)。   H. As a technique added to improve image quality in H.264 / AVC, there is 8 × 8 intra-screen prediction (Non-Patent Document 1).

図1は、H.264/AVCの8×8の画面内予測を説明するための図である。図1に示す画素A〜Yは、参照画素を示し、文字が無い白丸の画素は、処理対象ブロックの画素を示す。ここで、画面内予測を行う前に、参照画素A〜Yに対して、[1/4,1/2,1/4]のローパスフィルタが適用される。ローパスフィルタは以下、LPFとも呼ぶ。   FIG. 3 is a diagram for explaining H.264 / AVC 8 × 8 intra-screen prediction. FIG. Pixels A to Y shown in FIG. 1 indicate reference pixels, and white circle pixels without characters indicate pixels of a processing target block. Here, before performing intra prediction, a low-pass filter of [1/4, 1/2, 1/4] is applied to the reference pixels A to Y. Hereinafter, the low-pass filter is also referred to as LPF.

例えば、参照画素Cを参照するときは、B×0.25+C×0.5+D×0.25の画素値が用いられる。両端の参照画素AとYとについては、[1/4,3/4]のフィルタが用いられる。例えば、参照画素Aを参照するときは、B×0.25+A×0.75の画素値が用いられる。   For example, when referring to the reference pixel C, a pixel value of B × 0.25 + C × 0.5 + D × 0.25 is used. For the reference pixels A and Y at both ends, [1/4, 3/4] filters are used. For example, when referring to the reference pixel A, a pixel value of B × 0.25 + A × 0.75 is used.

また、規格化作業中であるHEVC方式でも、H.264/AVCの8×8の画面内予測で用いた参照画素のフィルタリングが、ブロックサイズに限らず画面内予測の前に行なわれることで規格化が進められている。   Even in the HEVC system, which is being standardized, H.264 / AVC 8 × 8 intra-screen prediction uses reference pixel filtering not only for block size but before intra-screen prediction, so that standardization is being promoted.

このHEVC方式において、着目画素の前後の画素値の差の絶対値が閾値以下の場合はフィルタリングを行い、閾値より大きい場合はフィルタリングを行わない、という参照画素のフィルタリング方法が提案されている(非特許文献2)。   In this HEVC method, a reference pixel filtering method has been proposed in which filtering is performed when the absolute value of the difference between the pixel values before and after the pixel of interest is equal to or smaller than a threshold value, and filtering is not performed when the absolute value is larger than the threshold value (non-null). Patent Document 2).

提案されたフィルタリング方法では、例えば、図1に示すDの画素を参照する場合、abs(C−E)の値が閾値以下の場合はフィルタリングを行った画素値を用い、abs(C−E)の値が閾値を超える場合はDの値をそのまま用いる。   In the proposed filtering method, for example, when referring to the pixel D shown in FIG. 1, if the value of abs (CE) is equal to or less than the threshold, the filtered pixel value is used, and abs (CE). When the value of exceeds the threshold, the value of D is used as it is.

大久保榮監修,「改訂三版 H.264/AVC 教科書」,インプレス R&D,p.264−268,2009年1月1日Supervised by Satoshi Okubo, “Revised Third Edition H.264 / AVC Textbook”, Impress R & D, p. 264-268, January 1, 2009 Jane Zhao,「On intra prediction(JCTVC-E437)」,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 5th Meeting: Geneva, CH, 16-23 March, 2011Jane Zhao, `` On intra prediction (JCTVC-E437) '', Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11 5th Meeting: Geneva, CH, 16-23 March, 2011

ここで、画面内予測の参照画素にフィルタリングを行う目的は、参照画素に含まれるノイズを低減することである。フィルタリングを行わない場合、参照画素にノイズが含まれていると、画面内予測の予測方向にそのノイズが引き延ばされてしまう。この場合、処理対象ブロック(予測ブロック)には存在していない縞模様が画面内予測により生成されるため、画面内予測の効率が低下する。   Here, the purpose of filtering the reference pixels for intra prediction is to reduce noise contained in the reference pixels. When filtering is not performed, if noise is included in the reference pixel, the noise is extended in the prediction direction of intra prediction. In this case, since a striped pattern that does not exist in the processing target block (predicted block) is generated by intra prediction, the efficiency of intra prediction is reduced.

また、画面内予測の予測方向にエッジが存在していた場合、LPFを適用することでエッジの値が変化するため、画面内予測の効率が低下する。これは、本来存在していたエッジとは異なるエッジが、画面内予測により生成されるからである。   Further, when an edge exists in the prediction direction of the intra prediction, the value of the edge is changed by applying the LPF, so that the efficiency of the intra prediction is reduced. This is because an edge different from the edge that originally existed is generated by intra prediction.

このように、ノイズ削減効果と、エッジが存在していた場合に画面内予測の効率が低下することは表裏一体の関係となっている。   Thus, the noise reduction effect and the fact that the efficiency of intra prediction is reduced when there is an edge is a two-sided relationship.

そのため、非特許文献2では、参照画素に隣接する画素値を用いて、ノイズとエッジとの判定を行うことで、画面内予測の効率を向上させていた。   For this reason, in Non-Patent Document 2, the efficiency of intra prediction is improved by determining noise and edge using a pixel value adjacent to a reference pixel.

しかしながら、非特許文献2では、参照画素ごとに、参照画素に隣接する画素値を用いた判定を行うため、計算量が増大してしまうという問題点があった。   However, Non-Patent Document 2 has a problem in that the amount of calculation increases because determination is performed using a pixel value adjacent to the reference pixel for each reference pixel.

そこで、本発明は、上記課題に鑑みてなされたものであり、計算量の増加を抑えつつ、画面内予測の効率を向上させることができる画像処理装置及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus and a program capable of improving the efficiency of intra prediction while suppressing an increase in calculation amount.

本発明の一態様における画像処理装置は、複数の予測方向を用いて画面内予測を行う画像処理装置であって、参照される可能性に基づいて複数の参照画素を複数のグループに分類する分類部と、分類された各グループに対して異なるフィルタを決定するフィルタ決定部と、前記フィルタ決定部により決定されたフィルタを用いて、各グループに含まれる前記参照画素の画素値にフィルタリングを行うフィルタリング部と、前記フィルタリング部によるフィルタリング後の画素値を用いて、前記画面内予測の予測画像を生成する生成部と、を備える。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus that performs intra prediction using a plurality of prediction directions, and classifies a plurality of reference pixels into a plurality of groups based on a possibility of being referred to. Filtering for filtering the pixel values of the reference pixels included in each group using a filter, a filter determination unit that determines a different filter for each classified group, and a filter determined by the filter determination unit And a generation unit that generates a predicted image of the intra prediction using the pixel value after filtering by the filtering unit.

また、前記分類部は、参照される予測方向数の数に基づいて前記複数の参照画素を分類してもよい。   The classification unit may classify the plurality of reference pixels based on the number of reference prediction directions.

また、前記分類部は、処理対象ブロックに隣接するか否かで前記複数の参照画素を分類してもよい。   Further, the classification unit may classify the plurality of reference pixels depending on whether or not they are adjacent to the processing target block.

また、前記分類部は、前記処理対象ブロックに隣接する参照画素、又は前記処理対象ブロックに隣接しない画素をさらに複数のグループに分類してもよい。   The classification unit may further classify reference pixels adjacent to the processing target block or pixels not adjacent to the processing target block into a plurality of groups.

また、前記フィルタ決定部は、前記グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いローパスフィルタに決定してもよい。   The filter determination unit may determine a low-pass filter having a wider pass band as the reference pixel in the group is more likely to be referred to.

また、前記フィルタ決定部は、参照される可能性が最も高い参照画素を含む第1グループに対して、ノイズ除去フィルタに決定し、前記第1グループ以外のグループに対して、該グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いローパスフィルタに決定してもよい。   The filter determination unit determines a noise removal filter for a first group including a reference pixel that is most likely to be referred to, and for a group other than the first group, a reference within the group. You may determine to a low pass filter with a wide pass band, so that a possibility that a pixel will be referred to is high.

また、本発明の他の態様におけるプログラムは、参照される可能性に基づいて複数の参照画素を複数のグループに分類する分類ステップと、分類された各グループに対して異なるフィルタを決定するフィルタ決定ステップと、決定されたフィルタを用いて、各グループに含まれる前記参照画素の画素値にフィルタリングを行うフィルタリングステップと、フィルタリング後の画素値を用いて、画面内予測の予測画像を生成する生成ステップとをコンピュータに実行させる。   A program according to another aspect of the present invention includes a classification step for classifying a plurality of reference pixels into a plurality of groups based on a possibility of reference, and a filter determination for determining a different filter for each classified group. A filtering step for filtering the pixel values of the reference pixels included in each group using the determined filter, and a generation step for generating a prediction image for intra prediction using the pixel values after filtering And let the computer run.

本発明によれば、計算量の増加を抑えつつ、画面内予測の効率を向上させることができる。   According to the present invention, it is possible to improve the efficiency of in-screen prediction while suppressing an increase in the amount of calculation.

H.264/AVCの8×8の画面内予測を説明するための図。H. The figure for demonstrating the prediction in H.264 / AVC 8x8. 実施例1における画像符号化装置の概略構成の一例を示すブロック図。1 is a block diagram illustrating an example of a schematic configuration of an image encoding device according to Embodiment 1. FIG. イントラ予測部の構成の一例を示すブロック図。The block diagram which shows an example of a structure of an intra estimation part. 8×8の画面内予測符号化の予測方向を示す図。The figure which shows the prediction direction of 8 * 8 in-screen prediction encoding. H.264/AVCにおける参照画素Yを参照する予測方向を示す図。H. The figure which shows the prediction direction which refers to the reference pixel Y in H.264 / AVC. H.264/AVCにおける参照画素Uを参照する予測方向を示す図。H. The figure which shows the prediction direction which refers the reference pixel U in H.264 / AVC. H.264/AVCにおける参照画素Qを参照する予測方向を示す図。H. The figure which shows the prediction direction which refers the reference pixel Q in H.264 / AVC. H.264/AVCにおける参照画素Mを参照する予測方向を示す図。H. The figure which shows the prediction direction which refers to the reference pixel M in H.264 / AVC. 参照画素を2分類する一例を示す図。The figure which shows an example which classify | categorizes a reference pixel into two. 参照画素を3分類する一例を示す図。The figure which shows an example which classify | categorizes a reference pixel into three. 実験結果を示す図。The figure which shows an experimental result. 実施例1におけるが画面内予測処理の一例を示すフローチャート。The flowchart which shows an example of the prediction process in a screen in Example 1. FIG. 実施例2における画像符号化装置の構成の一例を示すブロック図。FIG. 6 is a block diagram illustrating an example of a configuration of an image encoding device according to a second embodiment.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

[実施例1]
<構成>
図2は、実施例1における画像符号化装置100の概略構成の一例を示すブロック図である。図2に示す例では、画像符号化装置100は、予測誤差信号生成部101、直交変換部102、量子化部103、エントロピー符号化部104、逆量子化部105、逆直交変換部106、復号画像生成部107、デブロッキングフィルタ部108、復号画像記憶部109、イントラ予測部110、インター予測部111、動きベクトル計算部112、符号化制御及びヘッダ生成部113及び予測画像選択部114を有する。各部についての概略を以下に説明する。
[Example 1]
<Configuration>
FIG. 2 is a block diagram illustrating an example of a schematic configuration of the image encoding device 100 according to the first embodiment. In the example illustrated in FIG. 2, the image encoding device 100 includes a prediction error signal generation unit 101, an orthogonal transform unit 102, a quantization unit 103, an entropy encoding unit 104, an inverse quantization unit 105, an inverse orthogonal transform unit 106, and a decoding The image generation unit 107, the deblocking filter unit 108, the decoded image storage unit 109, the intra prediction unit 110, the inter prediction unit 111, the motion vector calculation unit 112, the encoding control and header generation unit 113, and the predicted image selection unit 114 are included. An outline of each part will be described below.

予測誤差信号生成部101は、入力された動画像データの符号化対象画像が、例えば16×16画素のブロックに分割されたブロックデータを取得する。   The prediction error signal generation unit 101 acquires block data obtained by dividing an encoding target image of input moving image data into blocks of 16 × 16 pixels, for example.

予測誤差信号生成部101は、そのブロックデータと、予測画像選択部114から出力される予測画像のブロックデータとにより、予測誤差信号を生成する。予測誤差信号生成部101は、生成された予測誤差信号を直交変換部102に出力する。   The prediction error signal generation unit 101 generates a prediction error signal from the block data and the block data of the prediction image output from the prediction image selection unit 114. The prediction error signal generation unit 101 outputs the generated prediction error signal to the orthogonal transformation unit 102.

直交変換部102は、入力された予測誤差信号を直交変換処理する。直交変換部102は、直交変換処理によって水平及び垂直方向の周波数成分に分離された信号を量子化部103に出力する。   The orthogonal transform unit 102 performs orthogonal transform processing on the input prediction error signal. The orthogonal transform unit 102 outputs a signal separated into horizontal and vertical frequency components by the orthogonal transform process to the quantization unit 103.

量子化部103は、直交変換部102からの出力信号を量子化する。量子化部103は、量子化することによって出力信号の符号量を低減し、この出力信号をエントロピー符号化部104及び逆量子化部105に出力する。   The quantization unit 103 quantizes the output signal from the orthogonal transform unit 102. The quantization unit 103 reduces the code amount of the output signal by quantization, and outputs this output signal to the entropy encoding unit 104 and the inverse quantization unit 105.

エントロピー符号化部104は、量子化部103からの出力信号をエントロピー符号化して出力する。エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる方式をいう。   The entropy encoding unit 104 performs entropy encoding on the output signal from the quantization unit 103 and outputs the result. Entropy coding is a method of assigning variable-length codes according to the appearance frequency of symbols.

逆量子化部105は、量子化部103からの出力信号を逆量子化してから逆直交変換部106に出力する。逆直交変換部106は、逆量子化部105からの出力信号を逆直交変換処理してから復号画像生成部107に出力する。これら逆量子化部105及び逆直交変換部106によって復号処理が行われることにより、符号化前の予測誤差信号と同程度の信号が得られる。   The inverse quantization unit 105 dequantizes the output signal from the quantization unit 103 and then outputs the output signal to the inverse orthogonal transform unit 106. The inverse orthogonal transform unit 106 performs an inverse orthogonal transform process on the output signal from the inverse quantization unit 105 and then outputs the output signal to the decoded image generation unit 107. By performing decoding processing by the inverse quantization unit 105 and the inverse orthogonal transform unit 106, a signal having the same level as the prediction error signal before encoding is obtained.

復号画像生成部107は、インター予測部111で動き補償された画像のブロックデータと、逆量子化部105及び逆直交変換部106により復号処理された予測誤差信号とを加算する。復号画像生成部107は、加算して生成した復号画像のブロックデータを、デブロッキングフィルタ部108に出力する。   The decoded image generation unit 107 adds the block data of the image subjected to motion compensation by the inter prediction unit 111 and the prediction error signal decoded by the inverse quantization unit 105 and the inverse orthogonal transform unit 106. The decoded image generation unit 107 outputs the decoded image block data generated by the addition to the deblocking filter unit 108.

デブロッキングフィルタ部108は、復号画像生成部107から出力された復号画像に対し、ブロック歪を低減するためのフィルタをかけ、復号画像記憶部109に出力する。   The deblocking filter unit 108 applies a filter for reducing block distortion to the decoded image output from the decoded image generation unit 107 and outputs the filtered image to the decoded image storage unit 109.

復号画像記憶部109は、入力した復号画像のブロックデータを新たな参照画像のデータとして記憶し、イントラ予測部110、インター予測部111及び動きベクトル計算部112に出力する。   The decoded image storage unit 109 stores the input block data of the decoded image as new reference image data, and outputs the data to the intra prediction unit 110, the inter prediction unit 111, and the motion vector calculation unit 112.

イントラ予測部110は、符号化対象画像の処理対象ブロックに対して、すでに符号化された参照画素から予測画像を生成する。イントラ予測部110の詳細は、図2を用いて後述する。   The intra prediction unit 110 generates a predicted image from reference pixels that have already been encoded for the processing target block of the encoding target image. Details of the intra prediction unit 110 will be described later with reference to FIG.

インター予測部111は、復号画像記憶部109から取得した参照画像のデータを動きベクトル計算部112から提供される動きベクトルで動き補償する。これにより、動き補償された参照画像としてのブロックデータが生成される。   The inter prediction unit 111 performs motion compensation on the reference image data acquired from the decoded image storage unit 109 with the motion vector provided from the motion vector calculation unit 112. Thereby, block data as a motion-compensated reference image is generated.

動きベクトル計算部112は、符号化対象画像におけるブロックデータと、復号画像記憶部109から取得する参照画像とを用いて、動きベクトルを求める。動きベクトルとは、ブロック単位で参照画像内から処理対象ブロックに最も類似している位置を探索するブロックマッチング技術を用いて求められるブロック単位の空間的なずれを示す値である。動きベクトル計算部112は、求めた動きベクトルをインター予測部111に出力する。   The motion vector calculation unit 112 obtains a motion vector using the block data in the encoding target image and the reference image acquired from the decoded image storage unit 109. The motion vector is a value indicating a spatial deviation in units of blocks obtained using a block matching technique for searching for a position most similar to the processing target block from the reference image in units of blocks. The motion vector calculation unit 112 outputs the obtained motion vector to the inter prediction unit 111.

イントラ予測部110とインター予測部111から出力されたブロックデータは、予測画像選択部114に入力される。   The block data output from the intra prediction unit 110 and the inter prediction unit 111 are input to the predicted image selection unit 114.

予測画像選択手段114は、イントラ予測部110とインター予測部111から取得したブロックデータのうち、どちらか一方のブロックデータを予測画像として選択する。選択された予測画像は、予測誤差信号生成部101に出力される。   The predicted image selection unit 114 selects one of the block data acquired from the intra prediction unit 110 and the inter prediction unit 111 as a predicted image. The selected prediction image is output to the prediction error signal generation unit 101.

また、符号化制御及びヘッダ生成部113について、符号化の全体制御とヘッダ生成を行う。符号化制御及びヘッダ生成部113は、イントラ予測部110に対して、スライス分割有無の通知、デブロッキングフィルタ部108に対して、デブロッキングフィルタ有無の通知、動きベクトル計算部112に対して参照画像の制限通知などを行う。   The encoding control and header generation unit 113 performs overall encoding control and header generation. The encoding control and header generation unit 113 notifies the intra prediction unit 110 of presence / absence of slice division, notifies the deblocking filter unit 108 of presence / absence of deblocking filter, and provides a reference image to the motion vector calculation unit 112. Notification of restrictions, etc.

符号化制御及びヘッダ生成部113は、その制御結果を用いて、例えばH.264/AVCのヘッダ情報を生成する。生成されたヘッダ情報は、エントロピー符号化部104に出力され、画像データ、動きベクトルデータとともにストリームとして出力される。   The encoding control and header generation unit 113 uses the control result, for example, H.264. H.264 / AVC header information is generated. The generated header information is output to the entropy encoding unit 104, and is output as a stream together with image data and motion vector data.

<イントラ予測部の構成>
次に、イントラ予測部110の構成について説明する。図3は、イントラ予測部110の構成の一例を示すブロック図である。図3に示すイントラ予測部110は、分類部201、フィルタ決定部202、フィルタリング部203、生成部204を有する。
<Configuration of intra prediction unit>
Next, the configuration of the intra prediction unit 110 will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the intra prediction unit 110. The intra prediction unit 110 illustrated in FIG. 3 includes a classification unit 201, a filter determination unit 202, a filtering unit 203, and a generation unit 204.

分類部201は、画面内予測で用いる複数の参照画素を、その参照画素が参照される可能性に基づいて複数のグループに分類する。分類部201は、例えば、参照される予測方向の数や処理対象ブロックに隣接するか否かで、参照画素を分類する。参照画素の分類の詳細については、図4〜10を用いて後述する。   The classification unit 201 classifies the plurality of reference pixels used in the intra prediction into a plurality of groups based on the possibility that the reference pixels are referred to. The classification unit 201 classifies the reference pixels based on, for example, the number of prediction directions to be referenced and whether or not they are adjacent to the processing target block. Details of the reference pixel classification will be described later with reference to FIGS.

分類部201は、複数の参照画素を複数のグループに分類した場合、参照画素がどのグループに属するかを示す分類情報をフィルタ決定部202に出力する。   When the plurality of reference pixels are classified into a plurality of groups, the classification unit 201 outputs classification information indicating to which group the reference pixel belongs to the filter determination unit 202.

フィルタ決定部202は、分類情報を取得すると、分類された各グループに対して異なるフィルタを決定する。フィルタ決定手段202は、例えば、グループに含まれる参照画素が参照される可能性が高いほど、通過帯域の広いLPFに決定する。また、フィルタ決定部202は、ノイズ除去フィルタを、参照される可能性が最も高い参照画素を含むグループに決定してもよい。フィルタ決定部202の詳細についても後述する。   When the filter determination unit 202 acquires the classification information, the filter determination unit 202 determines a different filter for each classified group. For example, the filter determination unit 202 determines an LPF having a wider passband as the reference pixel included in the group is more likely to be referred to. Further, the filter determination unit 202 may determine the noise removal filter as a group including reference pixels that are most likely to be referred to. Details of the filter determination unit 202 will also be described later.

フィルタ決定部202は、どのグループにどのフィルタを決定したかを示すフィルタ情報をフィルタリング部203に出力する。   The filter determination unit 202 outputs filter information indicating which filter is determined for which group to the filtering unit 203.

フィルタリング部203は、復号画像記憶部109から参照画素の画素値を取得する。また、フィルタリング部203は、フィルタ決定部202からフィルタ情報を取得し、どの参照画素にどのフィルタを用いるかを把握する。   The filtering unit 203 acquires the pixel value of the reference pixel from the decoded image storage unit 109. Further, the filtering unit 203 acquires filter information from the filter determination unit 202 and grasps which filter is used for which reference pixel.

フィルタリング部203は、フィルタ決定部202により決定されたフィルタを用いて、各グループに含まれる参照画素の画素値をフィルタリングする。フィルタリング部203は、フィルタリング後の画素値を生成部204に出力する。   The filtering unit 203 filters the pixel values of the reference pixels included in each group using the filter determined by the filter determining unit 202. The filtering unit 203 outputs the filtered pixel value to the generation unit 204.

生成部204は、フィルタリング部203から取得したフィルタリング後の画素値を用いて、画面内予測の予測画像を生成する。生成部204は、例えば、予測画像生成部205、予測モード決定部206を有する。   The generation unit 204 uses the filtered pixel values acquired from the filtering unit 203 to generate a predicted image for intra-screen prediction. The generation unit 204 includes, for example, a predicted image generation unit 205 and a prediction mode determination unit 206.

予測画像生成部205は、フィルタリング後の画素値を予測値として、画面内予測の予測方向に対応する予測モード毎に、予測画像を生成する。   The predicted image generation unit 205 generates a predicted image for each prediction mode corresponding to the prediction direction of intra-screen prediction using the filtered pixel value as a predicted value.

予測モード決定部206は、予測モード毎の予測画像と、処理対象ブロックとの差が最も小さい予測モードを決定する。予測モード決定部206は、決定された予測モードの予測画像を、予測画像選択部114に出力する。   The prediction mode determination unit 206 determines a prediction mode with the smallest difference between the prediction image for each prediction mode and the processing target block. The prediction mode determination unit 206 outputs the prediction image of the determined prediction mode to the prediction image selection unit 114.

<参照画素の分類>
次に、分類部201による参照画素の分類について説明する。参照画素の例として、H.264/AVCの8×8のブロック(図1参照)を用いて説明するが、このブロックサイズに限らず、4×4、16×16などのブロックサイズでもよい。また、輝度及び色差いずれのブロックに対しても適用できる。また、正方形のブロックに限らず、例えば8×16などの長方形のブロックに対しても適用できる。
<Classification of reference pixels>
Next, reference pixel classification by the classification unit 201 will be described. As an example of the reference pixel, H.264 is used. A description will be given using an H.264 / AVC 8 × 8 block (see FIG. 1), but the block size is not limited to this, and may be a block size such as 4 × 4 or 16 × 16. Further, the present invention can be applied to both luminance and color difference blocks. Further, the present invention is not limited to a square block, and can be applied to a rectangular block such as 8 × 16.

まず、H.264/AVCの場合の予測方向について説明する。図4は、8×8の画面内予測符号化の予測方向を示す図である。図4に示す例では、各予測モードに対応する予測方向を示している。図4に示す灰色丸が参照画素を示し、白丸が処理対象画素を示す。矢印が予測方向を示す。   First, H. A prediction direction in the case of H.264 / AVC will be described. FIG. 4 is a diagram illustrating a prediction direction of 8 × 8 intra prediction encoding. In the example shown in FIG. 4, the prediction direction corresponding to each prediction mode is shown. The gray circles shown in FIG. 4 indicate reference pixels, and the white circles indicate processing target pixels. The arrow indicates the prediction direction.

例えば、予測モード0では、参照画素Pを、同じ列の画素(N0、N1、・・・、N7)の予測値とすることを示す。   For example, the prediction mode 0 indicates that the reference pixel P is a predicted value of pixels (N0, N1,..., N7) in the same column.

以下では、図4に示す予測方向を用いるが、図4に示す予測方向に限られず、他の予測方向がある場合でも、以下に説明する分類方法を同様に適用することができる。   In the following, although the prediction direction shown in FIG. 4 is used, the classification method described below can be similarly applied even when there are other prediction directions without being limited to the prediction direction shown in FIG.

(予測方向の数に基づく分類)
分類部201は、例えば、参照される予測方向の数に基づいて参照画素を分類する。この分類方法は、参照される予測方向の数が多い場合、そのいずれかの方向にエッジが存在するとき、LPFにより画面内予測の効率が低下するという考えに基づく。
(Classification based on the number of prediction directions)
For example, the classification unit 201 classifies reference pixels based on the number of referenced prediction directions. This classification method is based on the idea that when the number of prediction directions to be referred to is large and there is an edge in any one direction, the efficiency of intra prediction is reduced by LPF.

図5は、H.264/AVCにおける参照画素Yを参照する予測方向を示す図である。図5に示すように、参照画素Yは、図4に示す予測モード3の予測方向の場合に参照される。   FIG. It is a figure which shows the prediction direction which refers to the reference pixel Y in H.264 / AVC. As shown in FIG. 5, the reference pixel Y is referred to in the case of the prediction direction of the prediction mode 3 shown in FIG.

図6は、H.264/AVCにおける参照画素Uを参照する予測方向を示す図である。図6に示すように、参照画素Uは、図4に示す予測モード3、7の予測方向の場合に参照される。   FIG. It is a figure which shows the prediction direction which refers to the reference pixel U in H.264 / AVC. As shown in FIG. 6, the reference pixel U is referred to in the prediction directions of the prediction modes 3 and 7 shown in FIG. 4.

図7は、H.264/AVCにおける参照画素Qを参照する予測方向を示す図である。図7に示すように、参照画素Qは、図4に示す予測モード0、3、7の予測方向の場合に参照される。   FIG. It is a figure which shows the prediction direction which refers the reference pixel Q in H.264 / AVC. As shown in FIG. 7, the reference pixel Q is referred to in the case of the prediction directions of the prediction modes 0, 3, and 7 shown in FIG.

図8は、H.264/AVCにおける参照画素Mを参照する予測方向を示す図である。図8に示すように、参照画素Mは、図4に示す予測モード0、3、4、5、6、7の予測方向の場合に参照される。   FIG. It is a figure which shows the prediction direction which refers to the reference pixel M in H.264 / AVC. As shown in FIG. 8, the reference pixel M is referred to in the prediction directions of the prediction modes 0, 3, 4, 5, 6, and 7 shown in FIG. 4.

例えば、参照画素Mについては、図8に示す6方向のいずれかにエッジが存在する場合に、LPFを適用すると画面内予測の効果が低下する要因となる。   For example, with respect to the reference pixel M, when an edge exists in any of the six directions shown in FIG.

また、参照画素Uについては、図6に示す2方向のいずれかにエッジが存在する場合に、LPFを適用すると画面内予測の効果が低下する要因となるが、その他の予測方向では参照されないため、LPFの有無による影響が小さい。   For the reference pixel U, when an edge exists in one of the two directions shown in FIG. 6, the effect of intra prediction is reduced when LPF is applied, but it is not referenced in other prediction directions. The effect of the presence or absence of LPF is small.

ここで、画像中に存在するエッジの方向がランダムであると仮定すると、画面内予測の予測方向と、エッジの方向とが一致する確率は、参照画素Mの方が、参照画素Uよりも3(=6(参照画素Mの予測方向数)/2(参照画素Uの予測方向数))倍高いことになる。   Here, assuming that the direction of the edge existing in the image is random, the probability that the prediction direction of the intra prediction matches the direction of the edge is 3 for the reference pixel M than for the reference pixel U. (= 6 (number of prediction directions of reference pixel M) / 2 (number of prediction directions of reference pixel U)) times higher.

よって、分類部201は、参照される予測方向の数に基づいて、参照画素を以下のように分類することができる。
グループ1:V,W,X,Y
グループ2:A,R,S,T,U
グループ3:H,I,Q
グループ4:B,C,D,F,J
グループ5:E,G,L,N,P
グループ6:K,M,O
グループ1は、参照される予測方向の数が1であり、グループ2は、参照される予測方向の数が2であり、グループ3は、参照される予測方向の数が3であり、グループ4は、参照される予測方向の数が4であり、グループ5は、参照される予測方向の数が5であり、グループ6は、参照される予測方向の数が6である。
Therefore, the classification unit 201 can classify reference pixels as follows based on the number of referenced prediction directions.
Group 1: V, W, X, Y
Group 2: A, R, S, T, U
Group 3: H, I, Q
Group 4: B, C, D, F, J
Group 5: E, G, L, N, P
Group 6: K, M, O
Group 1 has a number of referenced prediction directions of 1, group 2 has a number of referenced prediction directions of 2, group 3 has a number of referenced prediction directions of 3, group 4 The number of referenced prediction directions is 4, group 5 has 5 referenced prediction directions, and group 6 has 6 referenced prediction directions.

また、分類部201は、グループ1〜6のうち、複数のグループをまとめて分類してもよい。例えば、分類部201は、グループ1と2とを1つのグループ、グループ3と4とを1つのグループ、グループ5と6とを1つのグループにしてもよい。   Moreover, the classification | category part 201 may classify a some group collectively from the groups 1-6. For example, the classification unit 201 may group 1 and 2 into one group, group 3 and 4 into one group, and groups 5 and 6 into one group.

これにより、予測方向と一致する方向のエッジが存在する確率を考慮して、参照画素の分類を行うことができる。   Thereby, it is possible to classify the reference pixels in consideration of the probability that an edge in the direction matching the prediction direction exists.

なお、符号化標準技術のブロックサイズや予測方向によって、分類されるグループ数が異なるが、ブロックサイズやどんな予測方向があるかが決まれば、分類部201は、参照画素の分類を一意に行うことができる。   Note that the number of groups to be classified differs depending on the block size and prediction direction of the encoding standard technique, but if the block size and what kind of prediction direction is determined, the classification unit 201 should uniquely classify the reference pixels. Can do.

(隣接するか否かに基づく分類)
分類部201は、例えば、処理対象ブロックに隣接するか否かで参照画素を分類する。この分類方法は、処理対象ブロックに直接隣接する参照画素が、直接隣接しない参照画素よりも、参照される予測方向が多いという考えに基づく。
(Classification based on whether or not they are adjacent)
For example, the classification unit 201 classifies reference pixels based on whether or not they are adjacent to the processing target block. This classification method is based on the idea that reference pixels that are directly adjacent to the processing target block are referred to more prediction directions than reference pixels that are not directly adjacent.

図9は、参照画素を2分類する一例を示す図である。図9に示す例では、分類部201は、処理対象ブロックに直接隣接するグループ2、直接隣接しないグループ1に分類する。
グループ1:処理対象ブロックに直接隣接しない参照画素
グループ2:処理対象ブロックに直接隣接する参照画素
図10は、参照画素を3分類する一例を示す図である。図10に示す例では、分類部201は、処理対象ブロックに隣接するグループ2とグループ3と、処理対象ブロックに直接隣接しないグループ1とに分類する。
グループ1:処理対象ブロックに直接隣接しない参照画素
グループ2:処理対象ブロックの左上付近に直接隣接する参照画素
グループ3:処理対象ブロックに直接隣接し、グループ2以外の参照画素
グループ2は、例えば、図1に示すH,I,Jの参照画素とする。分類部201は、処理対象ブロックに直接隣接する参照画素及び/又は処理対象ブロックに直接隣接しない参照画素を、さらに複数のグループに分類してもよい。
FIG. 9 is a diagram illustrating an example of classifying the reference pixels into two. In the example illustrated in FIG. 9, the classification unit 201 classifies a group 2 that is directly adjacent to the processing target block and a group 1 that is not directly adjacent.
Group 1: Reference pixels not directly adjacent to the processing target block Group 2: Reference pixels directly adjacent to the processing target block FIG. 10 is a diagram illustrating an example of classifying the reference pixels into three categories. In the example illustrated in FIG. 10, the classification unit 201 classifies groups 2 and 3 adjacent to the processing target block and group 1 that is not directly adjacent to the processing target block.
Group 1: Reference pixel group not directly adjacent to the processing target block 2: Reference pixel group directly adjacent to the vicinity of the upper left of the processing target block 3: Directly adjacent to the processing target block, and the reference pixel group 2 other than the group 2 is, for example, Assume that the reference pixels are H, I, and J shown in FIG. The classification unit 201 may further classify the reference pixels directly adjacent to the processing target block and / or the reference pixels not directly adjacent to the processing target block into a plurality of groups.

これにより、参照される可能性に基づいて、参照画素を複数のグループに簡易的に分類することができる。   Thus, the reference pixels can be easily classified into a plurality of groups based on the possibility of reference.

分類部201は、予測方向の数に基づく分類、隣接するか否かに基づく分類のいずれかの分類方法で、参照画素を分類すればよい。また、分類部201は、符号化レートなどに基づいて、どちらの分類を行うかを選択して分類することも可能である。   The classification unit 201 may classify the reference pixels by any one of the classification method based on the number of prediction directions and the classification based on whether or not they are adjacent. Further, the classification unit 201 can select and classify which classification is performed based on the encoding rate or the like.

<フィルタ決定>
次に、フィルタ決定部202によるフィルタ決定について説明する。フィルタ決定部202は、グループ内の参照画素が参照される可能性が高いほど、エッジ成分の変化が小さいフィルタに決定する。
<Filter determination>
Next, filter determination by the filter determination unit 202 will be described. The filter determination unit 202 determines a filter having a smaller change in edge component as the reference pixel in the group is more likely to be referenced.

(LPF)
フィルタ決定部202は、例えば、グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いLPFになるようフィルタを決定する。フィルタ決定部202は、例えば、分類部201により分類されたグループの番号が小さいほど、通過帯域の狭いフィルタにするよう決定する。
(LPF)
For example, the filter determination unit 202 determines the filter so that the LPF having a wider passband becomes higher as the reference pixel in the group is more likely to be referred to. For example, the filter determining unit 202 determines that the filter has a narrower passband as the group number classified by the classifying unit 201 is smaller.

例えば、分類部201は、予測方向の数に基づく分類を行ったとする。この場合、フィルタ決定部202は、グループ1と2に対し、[1/4,1/2,1/4]のLPFに決定し、グループ3と4に対し、[1/8,3/4,1/8]のLPFに決定し、グループ5と6に対し、[1/16,7/8,1/16]のLPFに決定する。   For example, it is assumed that the classification unit 201 performs classification based on the number of prediction directions. In this case, the filter determination unit 202 determines LPFs of [1/4, 1/2, 1/4] for groups 1 and 2 and [1/8, 3/4] for groups 3 and 4. , 1/8] LPF, and for groups 5 and 6, [1/16, 7/8, 1/16] LPF.

例えば、分類部201は、隣接するか否かに基づいて3つのグループに分類を行ったとする。この場合、フィルタ決定部202は、グループ1に対し、[1/4,1/2,1/4]のLPFに決定し、グループ2に対し、[1/8,3/4,1/8]のLPFに決定し、グループ3に対し、[1/16,7/8,1/16]のLPFに決定する。上記LPFは、あくまでも一例であり、タップ数や通過帯域については適宜変更してもよい。   For example, it is assumed that the classification unit 201 performs classification into three groups based on whether or not they are adjacent to each other. In this case, the filter determination unit 202 determines [1/4, 1/2, 1/4] LPF for group 1 and [1/8, 3/4, 1/8] for group 2. The LPF of [1/16, 7/8, 1/16] for group 3 is determined. The LPF is merely an example, and the number of taps and the passband may be changed as appropriate.

つまり、参照される可能性が高い参照画素では、通過帯域の広いLPFを用いる。通過帯域の広いLPFは、通過帯域の狭いLPFと比較し、着目画素値の変化が小さい。そのため、参照される可能性が高い参照画素は、エッジが存在した場合でも予測効率の低下を小さくすることができる。   That is, an LPF having a wide passband is used for a reference pixel that is highly likely to be referenced. An LPF with a wide passband has a smaller change in the pixel value of interest than an LPF with a narrow passband. Therefore, a reference pixel that is highly likely to be referenced can reduce a decrease in prediction efficiency even when an edge exists.

一方、参照される可能性が低い参照画素は、適用される予測方向と一致するエッジが存在する確率が低いため、通過帯域の狭いLPFを用いる。これにより、十分なノイズの低減効果を期待することができる。   On the other hand, a reference pixel having a low possibility of being referenced uses an LPF having a narrow passband because the probability that an edge matching the applied prediction direction exists is low. Thereby, a sufficient noise reduction effect can be expected.

(LPF+ノイズ除去フィルタ)
フィルタ決定部202は、例えば、参照される可能性が一番高い参照画素を含むグループに対し、ノイズ除去フィルタを決定し、その他のグループに対して、グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いLPFになるようフィルタを決定する。
(LPF + noise removal filter)
For example, the filter determination unit 202 determines a noise removal filter for a group including a reference pixel that is most likely to be referred to, and may reference a reference pixel in the group for other groups. The filter is determined so as to be an LPF with a wider passband as the value of is higher.

フィルタ決定部202は、例えば、分類部201により分類されたグループの番号が一番大きいグループに対してノイズ除去フィルタに決定し、その他のグループについてはグループの番号が小さいほど、通過帯域の狭いフィルタにするよう決定する。   The filter determination unit 202 determines, for example, a noise removal filter for the group with the largest group number classified by the classification unit 201, and for other groups, a filter with a narrower passband as the group number is smaller. Decide to be.

ノイズ除去フィルタとは、例えば、メディアンフィルタ、移動平均フィルタ、εフィルタ、MTM(Modified Trimmed Mean)フィルタなどがある。例えば、ノイズ除去フィルタとして、フィルタのタップ数が少ないメディアンフィルタが計算量の観点から好適である。   Examples of the noise removal filter include a median filter, a moving average filter, an ε filter, and an MTM (Modified Trimmed Mean) filter. For example, a median filter having a small number of filter taps is suitable as a noise removal filter from the viewpoint of calculation amount.

例えば、分類部201は、予測方向の数に基づく分類を行ったとする。この場合、フィルタ決定部202は、グループ1と2に対し、[1/4,1/2,1/4]のLPFに決定し、グループ3と4に対し、[1/8,3/4,1/8]のLPFに決定し、グループ5と6に対し、3タップのメディアンフィルタに決定する。   For example, it is assumed that the classification unit 201 performs classification based on the number of prediction directions. In this case, the filter determination unit 202 determines LPFs of [1/4, 1/2, 1/4] for groups 1 and 2 and [1/8, 3/4] for groups 3 and 4. , 1/8] LPF and, for groups 5 and 6, a 3-tap median filter.

例えば、分類部201は、隣接するか否かに基づいて3つのグループに分類を行ったとする。この場合、フィルタ決定部202は、グループ1に対し、[1/4,1/2,1/4]のLPFに決定し、グループ2に対し、[1/8,3/4,1/8]のLPFに決定し、グループ3に対し、3タップのメディアンフィルタに決定する。上記LPFは、あくまでも一例であり、タップ数や通過帯域については適宜変更してもよい。   For example, it is assumed that the classification unit 201 performs classification into three groups based on whether or not they are adjacent to each other. In this case, the filter determination unit 202 determines [1/4, 1/2, 1/4] LPF for group 1 and [1/8, 3/4, 1/8] for group 2. ], And for group 3, a 3-tap median filter is determined. The LPF is merely an example, and the number of taps and the passband may be changed as appropriate.

一般的にノイズ除去フィルタは、LPFよりもエッジの値の変化が小さいため、通過帯域を広くしたLPFと同様の効果が得られる。また、ノイズ除去フィルタは、LPFよりも計算量は多くなる場合があるが、例えば3タップのメディアンフィルタを用いた場合にはLPFからの計算量の増加は少ない。フィルタ決定部202は、上述したように、参照される予測方向の数が多いほど通過帯域を広くし、参照される予測方向の数が小さいほど通過帯域を狭くしたフィルタのセットを複数種類用意しておく。そして、予め各種の絵柄に応じたそれぞれのフィルタセットの効果を確かめておくことで、入力動画像の種類が与えられれば、フィルタ決定部202は、使用するフィルタセットを決めることができる。また、フィルタ決定部202は、入力動画像の絵柄の種類の判別に応じて、適応的にフィルタセットを変えてもよい。   In general, since the noise removal filter has a smaller edge value change than the LPF, the same effect as the LPF having a wide passband can be obtained. In addition, although the noise removal filter may have a larger calculation amount than the LPF, for example, when a 3-tap median filter is used, the increase in the calculation amount from the LPF is small. As described above, the filter determination unit 202 prepares a plurality of sets of filters that increase the passband as the number of referenced prediction directions increases, and narrow the passband as the number of referenced prediction directions decreases. Keep it. The filter determination unit 202 can determine the filter set to be used if the type of the input moving image is given by confirming the effect of each filter set corresponding to various patterns in advance. Further, the filter determination unit 202 may adaptively change the filter set according to the determination of the pattern type of the input moving image.

よって、実施例1では、参照画素毎のエッジ判定を行う必要がなく、参照画素の分類に応じたフィルタリングを行うことで、エッジを維持する効果と、ノイズを低減する効果との組み合わせにより、画面内予測の予測性能を向上させることが可能となる。   Therefore, in the first embodiment, it is not necessary to perform edge determination for each reference pixel, and by performing filtering according to the classification of the reference pixel, a combination of the effect of maintaining the edge and the effect of reducing noise is used. It is possible to improve the prediction performance of intra prediction.

<実験結果>
次に、HEVCの規格化作業で用いられているソフトウェアエンコーダHM3.0と、HM3.0に実施例1の方式を実装した提案方式とで行った符号化実験について説明する。
<Experimental result>
Next, a description will be given of an encoding experiment performed by the software encoder HM3.0 used in the HEVC standardization work and the proposed method in which the method of the first embodiment is implemented in HM3.0.

実施例1の方式とは、処理対象ブロックに直接隣接するか否かにより2つのグループに分類し(図9参照)、グループ1に[1/4,1/2,1/4]のLPF、グループ2に[1/8,3/4,1/8]のLPFを適用する。   The system of the first embodiment is classified into two groups depending on whether or not it is directly adjacent to the processing target block (see FIG. 9), and [1/4, 1/2, 1/4] LPF is assigned to group 1, [1/8, 3/4, 1/8] LPF is applied to group 2.

実験では、画像A〜Dに対し、それぞれ符号化を行い、HM3.0をアンカーとし、提案方式の性能をBD−RATEで表す。
画像A:街の風景
画像B:室内の人物の映像
画像C:走る馬
画像D:屋内の人物の映像
BD−RATEは、「G. Bjontegaard, "Calculation of average PSNR differences between RD-Curves," ITU-T SG16 Q.6 Document, VCEG-M33,April 2001」に提案された符号化性能を比較する指標である。BD−RATEの値が0の場合はアンカーと提案方式の性能は等しく、BD−RATEの値が小さいほどアンカーより提案方式の性能が優れている。
In the experiment, each of the images A to D is encoded, and HM3.0 is used as an anchor, and the performance of the proposed method is represented by BD-RATE.
Image A: City landscape image B: Indoor person image C: Running horse image D: Indoor person image BD-RATE is "G. Bjontegaard," Calculation of average PSNR differences between RD-Curves, "ITU -T SG16 Q.6 Document, VCEG-M33, April 2001 ”is an index for comparing the encoding performance proposed. When the value of BD-RATE is 0, the performance of the proposed method is equal to that of the anchor. The smaller the value of BD-RATE, the better the performance of the proposed method than the anchor.

図11は、実験結果を示す図である。図11に示すように、提案方式では、HM3.0よりも符号化性能が向上していることが分かる。よって、実施例1では、計算量の増加を抑えつつ、画面内予測の予測性能を向上させることが可能となる。   FIG. 11 is a diagram showing experimental results. As shown in FIG. 11, it can be seen that the proposed scheme has improved encoding performance over HM3.0. Therefore, in the first embodiment, it is possible to improve the prediction performance of intra prediction while suppressing an increase in calculation amount.

<動作>
次に、実施例1における画像符号化装置100の動作について説明する。図12は、実施例1におけるが画面内予測処理の一例を示すフローチャートである。
<Operation>
Next, the operation of the image encoding device 100 according to the first embodiment will be described. FIG. 12 is a flowchart illustrating an example of the intra-screen prediction process in the first embodiment.

図12に示すステップS101で、分類部201は、参照される可能性に基づいて参照画素を複数のグループに分類する。例えば、分類部201は、処理対象ブロックのブロックサイズなどに応じて分類方法を決めておき、この分類方法により分類を行えばよい。分類方法は、前述した通り、予測方向の数に基づく分類か、隣接するか否かに基づく分類かのいずれかを用いればよい。   In step S101 illustrated in FIG. 12, the classification unit 201 classifies reference pixels into a plurality of groups based on the possibility of reference. For example, the classification unit 201 may determine a classification method according to the block size of the processing target block and classify by this classification method. As described above, the classification method may use either a classification based on the number of prediction directions or a classification based on whether or not adjacent to each other.

ステップS102で、フィルタ決定部202は、分類部201により決定されたグループに応じて異なるフィルタを決定する。フィルタ決定部202は、例えば、グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いLPFに決定する。   In step S102, the filter determination unit 202 determines different filters according to the groups determined by the classification unit 201. For example, the filter determination unit 202 determines an LPF having a wider passband as the reference pixel in the group is more likely to be referenced.

ステップS103で、フィルタリング部203は、フィルタ決定部202により決定されたフィルタを用いて、参照画素の画素値をフィルタリングする。   In step S103, the filtering unit 203 filters the pixel value of the reference pixel using the filter determined by the filter determining unit 202.

ステップS104で、生成部204は、複数の予測モードに対応する予測画像を生成し、最適な予測モードを決定する。生成部204は、決定された予測モードの予測画像を予測画像選択部114に出力する。   In step S104, the generation unit 204 generates a prediction image corresponding to a plurality of prediction modes, and determines an optimal prediction mode. The generation unit 204 outputs the predicted image of the determined prediction mode to the predicted image selection unit 114.

以上、実施例1によれば、計算量の増加を抑えつつ、画面内予測の予測効率を向上させることができる。   As described above, according to the first embodiment, it is possible to improve the prediction efficiency of intra prediction while suppressing an increase in calculation amount.

[実施例2]
図13は、実施例2における画像符号化装置300の構成の一例を示すブロック図である。画像符号化装置300は、上述した実施例1で説明した画像符号化処理をソフトウェアで実装した装置の一例である。
[Example 2]
FIG. 13 is a block diagram illustrating an example of the configuration of the image encoding device 300 according to the second embodiment. The image encoding device 300 is an example of a device in which the image encoding process described in the first embodiment is implemented by software.

図13に示すように、画像符号化装置300は、制御部301、主記憶部302、補助記憶部303、ドライブ装置304、ネットワークI/F部306、入力部307、表示部308を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。   As illustrated in FIG. 13, the image encoding device 300 includes a control unit 301, a main storage unit 302, an auxiliary storage unit 303, a drive device 304, a network I / F unit 306, an input unit 307, and a display unit 308. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部301は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部301は、主記憶部302又は補助記憶部303に記憶されたフィルタ処理を含む画像符号化処理のプログラムを実行する演算装置である。制御部301は、入力部307や記憶装置からデータを受け取り、演算、加工した上で、表示部308や記憶装置などに出力する。   The control unit 301 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 301 is an arithmetic device that executes a program for image encoding processing including filter processing stored in the main storage unit 302 or the auxiliary storage unit 303. The control unit 301 receives data from the input unit 307 and the storage device, calculates and processes the data, and outputs the data to the display unit 308 and the storage device.

制御部301は、フィルタ処理を含む画像符号化処理のプログラムを実行することで、各実施例で説明したフィルタ処理を実現することができる。   The control unit 301 can realize the filter processing described in each embodiment by executing a program of image encoding processing including filter processing.

主記憶部302は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部302は、制御部301が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 302 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 302 is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software that are basic software executed by the control unit 301.

補助記憶部303は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 303 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software and the like.

ドライブ装置304は、記録媒体305、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 304 reads the program from the recording medium 305, for example, a flexible disk, and installs it in the storage device.

また、記録媒体305に、所定のプログラムを格納し、この記録媒体305に格納されたプログラムはドライブ装置304を介して画像符号化装置300にインストールされる。インストールされた所定のプログラムは、画像符号化装置300により実行可能となる。   A predetermined program is stored in the recording medium 305, and the program stored in the recording medium 305 is installed in the image encoding device 300 via the drive device 304. The installed predetermined program can be executed by the image encoding device 300.

ネットワークI/F部306は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像符号化装置300とのインターフェースである。   The network I / F unit 306 is a peripheral having a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image encoding device 300.

入力部307は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部308の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部307は、ユーザが制御部301に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 307 includes a keyboard having cursor keys, numeric input, various function keys, and the like, a mouse and a slice pad for selecting keys on the display screen of the display unit 308, and the like. The input unit 307 is a user interface for a user to give an operation instruction to the control unit 301 or input data.

表示部308は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部301から入力される表示データに応じた表示が行われる。   The display unit 308 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and performs display according to display data input from the control unit 301.

なお、図2に示す復号画像記憶部109は、例えば主記憶部302又は補助記憶部303により実現され、図2に示す復号画像記憶部109以外の構成は、例えば制御部301及びワークメモリとしての主記憶部302により実現されうる。   The decoded image storage unit 109 illustrated in FIG. 2 is realized by, for example, the main storage unit 302 or the auxiliary storage unit 303, and the configuration other than the decoded image storage unit 109 illustrated in FIG. This can be realized by the main storage unit 302.

画像符号化装置300で実行されるプログラムは、実施例1で説明した各部を含むモジュール構成となっている。実際のハードウェアとしては、制御部301が補助記憶部303からプログラムを読み出して実行することにより上記各部のうち1又は複数の各部が主記憶部302上にロードされ、1又は複数の各部が主記憶部302上に生成されるようになっている。   The program executed by the image encoding device 300 has a module configuration including each unit described in the first embodiment. As actual hardware, when the control unit 301 reads a program from the auxiliary storage unit 303 and executes it, one or more of the above-described units are loaded onto the main storage unit 302, and one or more of the units are main. It is generated on the storage unit 302.

このように、上述した実施例1で説明した画面内予測処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、前述したフィルタ処理を実現することができる。   Thus, the in-screen prediction process described in the first embodiment may be realized as a program for causing a computer to execute. The filter processing described above can be realized by installing this program from a server or the like and causing the computer to execute it.

また、このプログラムを記録媒体305に記録し、このプログラムが記録された記録媒体305をコンピュータや携帯端末に読み取らせて、前述したフィルタ処理を実現させることも可能である。なお、記録媒体305は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。また、上述した各実施例で説明したフィルタ処理は、1つ又は複数の集積回路に実装してもよい。   It is also possible to record the program in the recording medium 305 and cause the computer or portable terminal to read the recording medium 305 on which the program is recorded, thereby realizing the filter processing described above. The recording medium 305 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, and information is electrically stored such as a ROM or flash memory. Various types of recording media such as a semiconductor memory for recording can be used. Further, the filtering process described in each of the above embodiments may be implemented in one or a plurality of integrated circuits.

なお、実施例では、画像符号化装置を例にして説明したが、複数の予測モードを用いる画面内予測を行う画像復号装置でも同様に適用することができる。画像符号化装置及び画像復号装置をまとめて画像処理装置と呼ぶ。また、上記実施例では、H.264/AVCを例に説明したが、参照画素に対して複数の予測方向を用いて画面内予測を行う画像処理技術であれば適用できる。   In the embodiment, the image coding apparatus has been described as an example. However, the present invention can be similarly applied to an image decoding apparatus that performs intra prediction using a plurality of prediction modes. The image encoding device and the image decoding device are collectively referred to as an image processing device. In the above embodiment, H. Although H.264 / AVC has been described as an example, any image processing technique that performs intra prediction using a plurality of prediction directions with respect to a reference pixel can be applied.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

100、300 画像符号化装置
101 予測画像生成部
102 直交変換部
103 量子化部
104 エントロピー符号化部
105 逆量子化部
106 逆直交変換部
107 復号画像生成部
108 デブロッキングフィルタ部
109 復号画像記憶部
110 イントラ予測部
111 インター予測部
112 動きベクトル計算部
113 符号化制御及びヘッダ生成部
114 予測画像選択部
201 分類部
202 フィルタ決定部
203 フィルタリング部
204 生成部
205 予測画像生成部
206 予測モード決定部
301 制御部
302 主記憶部
303 補助記憶部
304 ドライブ装置
306 ネットワークI/F部
307 入力部
308 表示部
100, 300 Image coding apparatus 101 Predicted image generation unit 102 Orthogonal transformation unit 103 Quantization unit 104 Entropy coding unit 105 Inverse quantization unit 106 Inverse orthogonal transformation unit 107 Decoded image generation unit 108 Deblocking filter unit 109 Decoded image storage unit 110 Intra Prediction Unit 111 Inter Prediction Unit 112 Motion Vector Calculation Unit 113 Coding Control and Header Generation Unit 114 Predictive Image Selection Unit 201 Classification Unit 202 Filter Determination Unit 203 Filtering Unit 204 Generation Unit 205 Predictive Image Generation Unit 206 Prediction Mode Determination Unit 301 Control unit 302 Main storage unit 303 Auxiliary storage unit 304 Drive device 306 Network I / F unit 307 Input unit 308 Display unit

Claims (7)

複数の予測方向を用いて画面内予測を行う画像処理装置であって、
参照される可能性に基づいて複数の参照画素を複数のグループに分類する分類部と、
分類された各グループに対して異なるフィルタを決定するフィルタ決定部と、
前記フィルタ決定部により決定されたフィルタを用いて、各グループに含まれる前記参照画素の画素値にフィルタリングを行うフィルタリング部と、
前記フィルタリング部によるフィルタリング後の画素値を用いて、前記画面内予測の予測画像を生成する生成部と、
を備える画像処理装置。
An image processing apparatus that performs intra-screen prediction using a plurality of prediction directions,
A classification unit that classifies a plurality of reference pixels into a plurality of groups based on a possibility of being referred to; and
A filter determination unit that determines a different filter for each classified group;
A filtering unit that performs filtering on pixel values of the reference pixels included in each group using the filter determined by the filter determination unit;
Using the pixel value after filtering by the filtering unit, a generation unit that generates a prediction image of the intra-screen prediction;
An image processing apparatus comprising:
前記分類部は、
参照される予測方向数の数に基づいて前記複数の参照画素を分類する請求項1記載の画像処理装置。
The classification unit includes:
The image processing apparatus according to claim 1, wherein the plurality of reference pixels are classified based on the number of prediction directions to be referred to.
前記分類部は、
処理対象ブロックに隣接するか否かで前記複数の参照画素を分類する請求項1記載の画像処理装置。
The classification unit includes:
The image processing apparatus according to claim 1, wherein the plurality of reference pixels are classified according to whether or not they are adjacent to a processing target block.
前記分類部は、
前記処理対象ブロックに隣接する参照画素、又は前記処理対象ブロックに隣接しない画素をさらに複数のグループに分類する請求項3記載の画像処理装置。
The classification unit includes:
The image processing apparatus according to claim 3, wherein reference pixels adjacent to the processing target block or pixels not adjacent to the processing target block are further classified into a plurality of groups.
前記フィルタ決定部は、
前記グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いローパスフィルタに決定する請求項1乃至4いずれか一項に記載の画像処理装置。
The filter determination unit
5. The image processing apparatus according to claim 1, wherein the image processing apparatus determines a low-pass filter having a wider pass band as the reference pixel in the group is more likely to be referred to.
前記フィルタ決定部は、
参照される可能性が最も高い参照画素を含む第1グループに対して、ノイズ除去フィルタに決定し、前記第1グループ以外のグループに対して、該グループ内の参照画素が参照される可能性が高いほど、通過帯域の広いローパスフィルタに決定する請求項1乃至4いずれか一項に記載の画像処理装置。
The filter determination unit
There is a possibility that a noise removal filter is determined for the first group including a reference pixel that is most likely to be referenced, and a reference pixel in the group is referred to for a group other than the first group. The image processing apparatus according to claim 1, wherein the image processing apparatus determines a low-pass filter having a wider pass band as the height is higher.
参照される可能性に基づいて複数の参照画素を複数のグループに分類する分類ステップと、
分類された各グループに対して異なるフィルタを決定するフィルタ決定ステップと、
決定されたフィルタを用いて、各グループに含まれる前記参照画素の画素値にフィルタリングを行うフィルタリングステップと、
フィルタリング後の画素値を用いて、画面内予測の予測画像を生成する生成ステップとをコンピュータに実行させるためのプログラム。
A classification step of classifying a plurality of reference pixels into a plurality of groups based on a reference possibility;
A filter determination step for determining different filters for each classified group;
A filtering step of filtering the pixel values of the reference pixels included in each group using the determined filter;
A program for causing a computer to execute a generation step of generating a predicted image for intra prediction using pixel values after filtering.
JP2011231113A 2011-10-20 2011-10-20 Image processing apparatus and program Active JP5789172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011231113A JP5789172B2 (en) 2011-10-20 2011-10-20 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011231113A JP5789172B2 (en) 2011-10-20 2011-10-20 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013090253A true JP2013090253A (en) 2013-05-13
JP5789172B2 JP5789172B2 (en) 2015-10-07

Family

ID=48533725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011231113A Active JP5789172B2 (en) 2011-10-20 2011-10-20 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5789172B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112714318A (en) * 2020-12-09 2021-04-27 上海顺久电子科技有限公司 Image data compression method and compression device thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183162A (en) * 2009-02-03 2010-08-19 Mitsubishi Electric Corp Motion picture encoder
JP2011030175A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing unit and method
WO2011074357A1 (en) * 2009-12-18 2011-06-23 シャープ株式会社 Image filter, encoding device, decoding device, and data structure
JP2011139208A (en) * 2009-12-28 2011-07-14 Sony Corp Image processing device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183162A (en) * 2009-02-03 2010-08-19 Mitsubishi Electric Corp Motion picture encoder
JP2011030175A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing unit and method
WO2011074357A1 (en) * 2009-12-18 2011-06-23 シャープ株式会社 Image filter, encoding device, decoding device, and data structure
JP2011139208A (en) * 2009-12-28 2011-07-14 Sony Corp Image processing device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112714318A (en) * 2020-12-09 2021-04-27 上海顺久电子科技有限公司 Image data compression method and compression device thereof
CN112714318B (en) * 2020-12-09 2023-11-07 上海顺久电子科技有限公司 Image data compression method and compression device thereof

Also Published As

Publication number Publication date
JP5789172B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
US11381844B2 (en) Method and apparatus for encoding/decoding images using a prediction method adopting in-loop filtering
KR102394226B1 (en) Method for encoding/decoing video using intra prediction and apparatus for the same
TWI632805B (en) Video decoding method, video encoding method, video decoding apparatus,video encoding apparatus and non-transitory computer-readable storage medium
JP2023179782A (en) Intra-frame prediction method and device
TWI625962B (en) Sample adaptive offset decoding method
WO2014054267A1 (en) Image coding device and image coding method
US20210360271A1 (en) Inter prediction in exponential partitioning
JP2014036278A (en) Image encoder, image decoder and program
JP2014096638A (en) Image encoder, image encoding method, image encoding program, image decoder, image decoding method and image decoding program
CN113647104A (en) Inter prediction in geometric partitioning with adaptive region number
JP2024506213A (en) Encoding/decoding method, apparatus and device thereof
JP2023512898A (en) Method and apparatus for offset in video filtering
US20170201767A1 (en) Video encoding device and video encoding method
JP5789172B2 (en) Image processing apparatus and program
JP2013207402A (en) Image encoding device and program
CN114885160A (en) Video encoding and decoding method and device, computer readable medium and electronic equipment
JP6200220B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and program
KR20200004348A (en) Method and apparatus for processing video signal through target region correction
JP2013102305A (en) Image decoder, image decoding method, program and image encoder
JP6101067B2 (en) Image processing apparatus and image processing program
JP2014143515A (en) Image processing apparatus and image processing program
JP2023521701A (en) Method and apparatus for video coding
TW202209894A (en) Methods and systems of adaptive geometric partitioning
JP2013098970A (en) Image decoding apparatus, inverse orthogonal conversion method, program and image coding apparatus
WO2012169054A1 (en) Video coding method and device, and video decoding method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150731

R150 Certificate of patent or registration of utility model

Ref document number: 5789172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250