JP2016082304A - Image processor, image processing method and image processing system - Google Patents

Image processor, image processing method and image processing system Download PDF

Info

Publication number
JP2016082304A
JP2016082304A JP2014209220A JP2014209220A JP2016082304A JP 2016082304 A JP2016082304 A JP 2016082304A JP 2014209220 A JP2014209220 A JP 2014209220A JP 2014209220 A JP2014209220 A JP 2014209220A JP 2016082304 A JP2016082304 A JP 2016082304A
Authority
JP
Japan
Prior art keywords
offset
unit
image
block
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014209220A
Other languages
Japanese (ja)
Other versions
JP6269431B2 (en
JP2016082304A5 (en
Inventor
田中 潤一
Junichi Tanaka
潤一 田中
河野 雅一
Masakazu Kono
雅一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014209220A priority Critical patent/JP6269431B2/en
Publication of JP2016082304A publication Critical patent/JP2016082304A/en
Publication of JP2016082304A5 publication Critical patent/JP2016082304A5/ja
Application granted granted Critical
Publication of JP6269431B2 publication Critical patent/JP6269431B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent degradation of subjective image quality of a decoded image by adaptively reducing the effect of SAO processing.SOLUTION: The image processor includes: an off set correction section that corrects an off-set value to be applied to a reconstruct image based on an image feature amount of each block in the reconstruct image; and an off-set section that offsets a pixel value of the reconstruct image using the off-set value corrected by the off set correction.SELECTED DRAWING: Figure 4

Description

本開示は、画像処理装置、画像処理方法及び画像処理システムに関する。   The present disclosure relates to an image processing apparatus, an image processing method, and an image processing system.

H.264/AVCよりも符号化効率をさらに向上することを目的として、ITU−TとISO/IECとの共同の標準化団体であるJCTVC(Joint Collaboration Team-Video Coding)により、HEVC(High Efficiency Video Coding)と呼ばれる画像符号化方式の標準化が進められ、その標準仕様の初版が2013年の年初に公表された(例えば、非特許文献1参照)。その後も継続的に、符号化ツールの充実化などの様々な観点で、HEVCの仕様の拡張が図られている(例えば、非特許文献2参照)。   H. High Efficiency Video Coding (HEVC) by JCTVC (Joint Collaboration Team-Video Coding), a joint standardization organization of ITU-T and ISO / IEC, with the goal of further improving coding efficiency over H.264 / AVC Standardization of an image coding method called “A” has been promoted, and the first edition of the standard specification was published at the beginning of 2013 (for example, see Non-Patent Document 1). Since then, the HEVC specification has been continuously expanded from various viewpoints such as enhancement of encoding tools (see Non-Patent Document 2, for example).

サンプル適応オフセット(SAO:Sample Adaptive Offset)は、HEVCにおいて新たに導入された技術のうちの1つである。SAOフィルタは、インループフィルタの一種であり、主にリンギングノイズ又はモスキートノイズといったノイズを除去するために、復号画像(リコンストラクト画像)の画素値の各々にオフセットを適用する。SAOのオフセット値は、CTB(Coding Tree Block)ごとに、RD(Rate-Distortion)最適化の観点から決定される。   Sample Adaptive Offset (SAO) is one of the technologies newly introduced in HEVC. The SAO filter is a kind of in-loop filter, and an offset is applied to each pixel value of a decoded image (reconstructed image) in order to mainly remove noise such as ringing noise or mosquito noise. The offset value of SAO is determined for each CTB (Coding Tree Block) from the viewpoint of RD (Rate-Distortion) optimization.

Benjamin Bross, el. al, “High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call)”(JCTVC-L1003_v34, 2013年1月14-23日)Benjamin Bross, el. Al, “High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call)” (JCTVC-L1003_v34, January 14-23, 2013) David Flynn, el. al, “High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 5”(JCTVC-O1005_v2, 2013年10月23-11月1日)David Flynn, el. Al, “High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 5” (JCTVC-O1005_v2, October 23-11, 2013)

しかしながら、RD最適化は、主観的画質(ユーザの視覚を通じて感知される画質)を考慮しない。そのため、SAO処理において、例えば過剰な又は不必要なオフセットが適用され、却ってテクスチャがぼける(不鮮明になる)といった、望ましくない結果が生じることがある。   However, RD optimization does not consider subjective image quality (image quality perceived through the user's vision). This can lead to undesirable results in SAO processing, for example, excessive or unnecessary offsets are applied and the texture is blurred (discolored) on the contrary.

従って、SAO処理の作用を適応的に軽減し、復号画像の主観的な画質の劣化を防止することのできる技術が提供されることが有益である。   Therefore, it is beneficial to provide a technique that can adaptively reduce the action of the SAO processing and prevent subjective degradation of the decoded image.

本開示によれば、リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、前記オフセット修正部により修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、を備える画像処理装置が提供される。   According to the present disclosure, the offset value to be applied to the reconstructed image is corrected based on the image feature amount for each block of the reconstructed image, and the offset value corrected by the offset correcting unit, An image processing apparatus is provided that includes an offset unit that offsets a pixel value of the reconstructed image.

また、本開示によれば、リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正することと、修正された前記オフセット値で、前記リコンストラクト画像の画素値をオフセットすることと、を含む画像処理方法が提供される。   According to the present disclosure, the offset value to be applied to the reconstructed image is corrected based on the image feature amount for each block of the reconstructed image, and the reconstructed image is corrected with the corrected offset value. Offsetting the pixel values of the image processing method.

また、本開示によれば、リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、前記オフセット修正部により修正されたオフセット値を符号化する符号化部と、前記符号化部により符号化された前記修正されたオフセット値を復号する復号部と、前記復号部により復号された前記修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、を備える画像処理システムが提供される。   According to the present disclosure, an offset value to be applied to the reconstructed image is corrected based on an image feature amount for each block of the reconstructed image, and the offset value corrected by the offset correcting unit. The reconstructed image with the encoding unit for encoding the decoding unit, the decoding unit for decoding the corrected offset value encoded by the encoding unit, and the corrected offset value decoded by the decoding unit. And an offset unit that offsets the pixel values of the image processing system.

本開示に係る技術によれば、SAO処理の作用を適応的に軽減し、復号画像の主観的な画質の劣化を防止することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果と共に、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
According to the technology according to the present disclosure, it is possible to adaptively reduce the action of the SAO processing and prevent subjective image quality degradation of the decoded image.
Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

エッジオフセットについて説明するための第1の説明図である。It is the 1st explanatory view for explaining edge offset. エッジオフセットについて説明するための第2の説明図である。It is the 2nd explanatory view for explaining edge offset. バンドオフセットについて説明するための説明図である。It is explanatory drawing for demonstrating band offset. 画像符号化装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of an image coding apparatus. SAOフィルタの詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of a SAO filter. 特徴量と修正オフセット値との間の関係の第1の例を示すグラフである。It is a graph which shows the 1st example of the relationship between a feature-value and correction offset value. 特徴量と修正オフセット値との間の関係の第2の例を示すグラフである。It is a graph which shows the 2nd example of the relationship between a feature-value and a correction offset value. 一実施形態に係るSAO処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the SAO process which concerns on one Embodiment. 図6に示したオフセット判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the offset determination process shown in FIG. 図6に示したオフセット修正処理の、第1の実施例に係る流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow which concerns on 1st Example of the offset correction process shown in FIG. 図6に示したオフセット修正処理の、第2の実施例に係る流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow which concerns on 2nd Example of the offset correction process shown in FIG. 図6に示したオフセット修正処理の、第2の実施例に係る流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the flow which concerns on 2nd Example of the offset correction process shown in FIG. 図6に示したオフセット修正処理の、第3の実施例に係る流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow which concerns on a 3rd Example of the offset correction process shown in FIG. 一実施形態に係るSAO処理の概略的な流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the schematic flow of the SAO process which concerns on one Embodiment. 一実施形態に係る画像処理システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing system which concerns on one Embodiment. 装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of an apparatus. 携帯電話機の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a mobile telephone. 記録再生装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a recording / reproducing apparatus. 撮像装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of an imaging device.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下の順序で説明を行う。
1.サンプル適応オフセット(SAO)の基本的な仕組み
2.エンコーダの構成例
3.SAOフィルタの詳細な構成例
4.処理の流れ
4−1.SAO処理の概略
4−2.オフセット判定処理
4−3.オフセット修正処理
5.画像処理システム
6.ハードウェア構成例
7.応用例
8.まとめ
The description will be given in the following order.
1. 1. Basic mechanism of sample adaptive offset (SAO) 2. Configuration example of encoder 3. Detailed configuration example of SAO filter Flow of processing 4-1. Outline of SAO processing 4-2. Offset determination processing 4-3. 4. Offset correction process Image processing system 6. Hardware configuration example Application example 8. Summary

<1.サンプル適応オフセット(SAO)の基本的な仕組み>
サンプル適応オフセット(SAO)は、HEVCにおいて新たに導入された技術のうちの1つである。SAOフィルタは、デブロックフィルタと同様、インループフィルタの一種である。SAOフィルタは、主にリンギングノイズ又はモスキートノイズといったノイズを除去するために、リコンストラクト画像の画素値の各々にオフセットを適用する。HEVCでは、SAOフィルタのオフセットタイプとして、エッジオフセット及びバンドオフセットという2つのタイプが定義されている。オフセットタイプは、CTU(Coding Tree Unit)において符号化されるパラメータsao_type_idx_luma及びsao_type_idx_chromaによって特定される。例えば、これらパラメータの値が1であればバンドオフセット、2であればエッジオフセットが、対応するCTB(Coding Tree Block)において利用される。
<1. Basic mechanism of sample adaptive offset (SAO)>
Sample adaptive offset (SAO) is one of the newly introduced techniques in HEVC. The SAO filter is a kind of in-loop filter like the deblocking filter. The SAO filter applies an offset to each pixel value of the reconstructed image in order to remove noise such as ringing noise or mosquito noise. In HEVC, two types of edge offset and band offset are defined as SAO filter offset types. The offset type is specified by parameters sao_type_idx_luma and sao_type_idx_chroma encoded in CTU (Coding Tree Unit). For example, if the value of these parameters is 1, the band offset is used, and if it is 2, the edge offset is used in the corresponding CTB (Coding Tree Block).

(1)エッジオフセット
エッジオフセット処理は、直交変換係数の量子化などに起因して復号画像に生じ得るリンギングノイズのような、エッジ状のノイズを除去するためのオフセット処理である。エッジオフセット処理では、CTUごとに、エッジの角度に対応するエッジオフセットクラスが、図1Aに示したような4通りの候補クラスCL0〜CL3の中から特定される。図中の画素Pは注目画素であり、画素P及び画素Pは注目画素に隣接する隣接画素である。また、これら3つの画素の画素値のパターンに対応するカテゴリが、各注目画素について、図1Bに示したような4通りの候補カテゴリCG1〜CG4の中から決定される。エンコーダは、各CTBの色成分ごとに、これら4通りの候補カテゴリの各々について最適なオフセット値を判定し、判定したオフセット値を符号化する。特定されたエッジオフセットクラスもまた符号化される。
(1) Edge offset Edge offset processing is offset processing for removing edge-like noise such as ringing noise that may occur in a decoded image due to quantization of orthogonal transform coefficients. In the edge offset process, for each CTU, an edge offset class corresponding to the angle of the edge is specified from the four candidate classes CL0 to CL3 as shown in FIG. 1A. Pixel P c in the figure is a target pixel, the pixel P a and the pixel P b are adjacent pixels adjacent to the pixel of interest. Further, categories corresponding to the pixel value patterns of these three pixels are determined for each pixel of interest from among the four candidate categories CG1 to CG4 as shown in FIG. 1B. The encoder determines an optimum offset value for each of these four candidate categories for each color component of each CTB, and encodes the determined offset value. The identified edge offset class is also encoded.

(2)バンドオフセット
バンドオフセット処理は、画素値の特定の帯域に現れる復号画素値の原画素値からのズレを補償する。バンドオフセット処理では、画素値のレンジが例えば32個のバンドに分割され、バンド位置によって特定されるバンドに属する画素値を有する画素に、オフセットが適用される。図2の例では、0〜255という画素値のレンジが32個のバンドB00〜B31に分割されており、それらバンドのうちのバンドB03、B04、B05及びB06に属する画素値に、オフセットが適用される。エンコーダは、オフセットを適用すべきバンドの各々について最適なオフセット値を判定し、判定したオフセット値を符号化する。オフセットを適用すべきバンドのバンド位置もまた符号化される。
(2) Band offset The band offset process compensates for the deviation from the original pixel value of the decoded pixel value that appears in a specific band of pixel values. In the band offset process, the pixel value range is divided into, for example, 32 bands, and the offset is applied to pixels having pixel values belonging to the band specified by the band position. In the example of FIG. 2, the pixel value range of 0 to 255 is divided into 32 bands B00 to B31, and an offset is applied to the pixel values belonging to the bands B03, B04, B05, and B06. Is done. The encoder determines an optimum offset value for each band to which the offset is to be applied, and encodes the determined offset value. The band position of the band to which the offset is to be applied is also encoded.

こうしたSAO処理において、オフセット値(及びオフセットタイプなどのその他のパラメータ)は、ブロック(典型的には、CTB)ごとに、RD(Rate-Distortion)最適化の観点から決定される。RD最適化に従えば、画質を表すPSNR(Peak Signal-to-Noise Ratio)と符号量との間の関係は最適になり得る。しかし、PSNRは必ずしも主観的画質に一致せず、RD最適化において主観的画質は考慮されない。そのため、既存のSAO処理において、例えば過剰な又は不必要なオフセットが復号画像へ適用される結果として、却ってテクスチャがぼけてしまい、主観的画質が損なわれることがある。   In such SAO processing, an offset value (and other parameters such as an offset type) is determined for each block (typically CTB) from the viewpoint of RD (Rate-Distortion) optimization. According to RD optimization, the relationship between PSNR (Peak Signal-to-Noise Ratio) representing image quality and code amount can be optimized. However, PSNR does not necessarily match subjective image quality, and subjective image quality is not considered in RD optimization. Therefore, in the existing SAO processing, for example, as a result of applying an excessive or unnecessary offset to the decoded image, the texture may be blurred and the subjective image quality may be impaired.

上述した既存の仕組みの欠点を解消し又は少なくとも緩和するために、本開示に係る技術は、SAO処理の作用を適応的に軽減する。それにより、復号画像の主観的な画質の劣化が防止される。後述する実施形態では、RD最適化に従って判定されるオフセット値がブロックごとの画像特徴量に基づいて修正され、修正後のオフセット値でブロック内の各画素値がオフセットされる。そのような実施形態について、次節以降でより具体的に説明する。   In order to eliminate or at least mitigate the drawbacks of the existing mechanisms described above, the technology according to the present disclosure adaptively reduces the effect of SAO processing. Thereby, subjective deterioration of the decoded image is prevented. In an embodiment described later, an offset value determined according to RD optimization is corrected based on the image feature amount for each block, and each pixel value in the block is offset by the corrected offset value. Such an embodiment will be described more specifically in the following sections.

<2.エンコーダの構成例>
図3は、画像符号化装置10の概略的な構成の一例を示すブロック図である。図3を参照すると、画像符号化装置10は、並び替えバッファ11、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、デブロックフィルタ24、SAOフィルタ25、フレームメモリ26、スイッチ27、モード設定部28、イントラ予測部30及びインター予測部35を備える。
<2. Example of encoder configuration>
FIG. 3 is a block diagram illustrating an example of a schematic configuration of the image encoding device 10. Referring to FIG. 3, the image encoding device 10 includes a rearrangement buffer 11, a subtraction unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, an accumulation buffer 17, a rate control unit 18, and an inverse quantization. Unit 21, inverse orthogonal transform unit 22, addition unit 23, deblock filter 24, SAO filter 25, frame memory 26, switch 27, mode setting unit 28, intra prediction unit 30, and inter prediction unit 35.

並び替えバッファ11は、一連の画像データに含まれる画像を並び替える。並び替えバッファ11は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、SAOフィルタ25、イントラ予測部30及びインター予測部35へ出力する。   The rearrangement buffer 11 rearranges the images included in the series of image data. The rearrangement buffer 11 rearranges the images according to the GOP (Group of Pictures) structure related to the encoding process, and then subtracts the rearranged image data, the SAO filter 25, the intra prediction unit 30, and the inter prediction. To the unit 35.

減算部13は、並び替えバッファ11から入力される画像データと予測画像データとの差分である予測誤差データを算出し、算出した予測誤差データを直交変換部14へ出力する。   The subtraction unit 13 calculates prediction error data that is a difference between the image data input from the rearrangement buffer 11 and the prediction image data, and outputs the calculated prediction error data to the orthogonal transformation unit 14.

直交変換部14は、各CTB内に設定される1つ以上の変換ブロック(TB:Transform Block)の各々について直交変換処理を実行する。ここでの直交変換は例えば、離散コサイン変換(DCT)又はカルーネン・レーベ変換などであってよい。より具体的には、直交変換部14は、減算部13から入力される予測誤差データを、TBごとに、空間領域の画像信号から周波数領域の変換係数データに変換する。そして、直交変換部14は、変換係数データを量子化部15へ出力する。なお、必ずしも全てのTBが変換係数データを有するわけではない。予測誤差が符号化されない(例えば、動き補償のみで画像が再構築される)TBは、変換係数データを有さず、そうしたTBについてはゼロを示す符号化ブロックフラグ(CBF:Coded Block Flag)が符号化され得る。   The orthogonal transform unit 14 performs an orthogonal transform process on each of one or more transform blocks (TBs) set in each CTB. The orthogonal transform here may be, for example, discrete cosine transform (DCT) or Karoonen-Loeve transform. More specifically, the orthogonal transform unit 14 transforms the prediction error data input from the subtraction unit 13 from a spatial domain image signal to frequency domain transform coefficient data for each TB. Then, the orthogonal transform unit 14 outputs transform coefficient data to the quantization unit 15. Note that not all TBs have conversion coefficient data. A TB in which a prediction error is not encoded (for example, an image is reconstructed only by motion compensation) does not have transform coefficient data, and a coded block flag (CBF) indicating zero is provided for such TB. Can be encoded.

量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。量子化部15は、レート制御信号に従って決定される量子化ステップで変換係数データを量子化する。また、量子化部15は、各TBについて使用した量子化ステップを表す量子化パラメータを生成する。量子化部15は、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。また、量子化部15は、生成した量子化パラメータを可逆符号化部16へ出力する。   The quantization unit 15 is supplied with transform coefficient data input from the orthogonal transform unit 14 and a rate control signal from a rate control unit 18 described later. The quantization unit 15 quantizes the transform coefficient data in a quantization step determined according to the rate control signal. Further, the quantization unit 15 generates a quantization parameter indicating the quantization step used for each TB. The quantization unit 15 outputs the quantized transform coefficient data (hereinafter referred to as quantized data) to the lossless encoding unit 16 and the inverse quantization unit 21. Further, the quantization unit 15 outputs the generated quantization parameter to the lossless encoding unit 16.

可逆符号化部16は、1つ以上の符号化ブロック(CB:Coding Block)の各々について量子化部15から入力される量子化データを符号化することにより、符号化ストリームを生成する。また、可逆符号化部16は、デコーダにより参照される様々なパラメータを符号化して、符号化されたパラメータを符号化ストリームのヘッダ領域に挿入する。可逆符号化部16により符号化されるパラメータは、画像にCTB、CB、TB及びPBをどのように設定すべきかを示すブロック情報、量子化パラメータ、符号化ブロックフラグ、並びに、後述するSAO関連パラメータ、イントラ予測に関する情報及びインター予測に関する情報を含み得る。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。   The lossless encoding unit 16 generates an encoded stream by encoding the quantized data input from the quantizing unit 15 for each of one or more encoded blocks (CB). The lossless encoding unit 16 encodes various parameters referred to by the decoder, and inserts the encoded parameters into the header area of the encoded stream. Parameters encoded by the lossless encoding unit 16 are block information indicating how CTB, CB, TB, and PB should be set in an image, a quantization parameter, an encoded block flag, and SAO-related parameters described later. , Information regarding intra prediction and information regarding inter prediction may be included. Then, the lossless encoding unit 16 outputs the generated encoded stream to the accumulation buffer 17.

蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。   The accumulation buffer 17 temporarily accumulates the encoded stream input from the lossless encoding unit 16 using a storage medium such as a semiconductor memory. Then, the accumulation buffer 17 outputs the accumulated encoded stream to a transmission unit (not shown) (for example, a communication interface or a connection interface with a peripheral device) at a rate corresponding to the bandwidth of the transmission path.

レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。   The rate control unit 18 monitors the free capacity of the accumulation buffer 17. Then, the rate control unit 18 generates a rate control signal according to the free capacity of the accumulation buffer 17 and outputs the generated rate control signal to the quantization unit 15. For example, the rate control unit 18 generates a rate control signal for reducing the bit rate of the quantized data when the free capacity of the storage buffer 17 is small. For example, when the free capacity of the accumulation buffer 17 is sufficiently large, the rate control unit 18 generates a rate control signal for increasing the bit rate of the quantized data.

逆量子化部21、逆直交変換部22及び加算部23は、ローカルデコーダを構成する。逆量子化部21は、量子化部15により使用されたものと同じ量子化ステップで量子化データを逆量子化し、変換係数データを復元する。そして、逆量子化部21は、復元した変換係数データを逆直交変換部22へ出力する。   The inverse quantization unit 21, the inverse orthogonal transform unit 22, and the addition unit 23 constitute a local decoder. The inverse quantization unit 21 inversely quantizes the quantized data in the same quantization step as that used by the quantization unit 15 to restore transform coefficient data. Then, the inverse quantization unit 21 outputs the restored transform coefficient data to the inverse orthogonal transform unit 22.

逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を実行することにより、予測誤差データを復元する。直交変換と同様、逆直交変換は、TBごとに実行される。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。   The inverse orthogonal transform unit 22 restores the prediction error data by executing an inverse orthogonal transform process on the transform coefficient data input from the inverse quantization unit 21. Similar to the orthogonal transform, the inverse orthogonal transform is performed for each TB. Then, the inverse orthogonal transform unit 22 outputs the restored prediction error data to the addition unit 23.

加算部23は、逆直交変換部22から入力される復元された予測誤差データとイントラ予測部30又はインター予測部35から入力される予測画像データとを加算することにより、復号画像データ(リコンストラクト画像)を生成する。そして、加算部23は、生成した復号画像データをデブロックフィルタ24及びフレームメモリ26へ出力する。   The adder 23 adds the decoded prediction error data input from the inverse orthogonal transform unit 22 and the predicted image data input from the intra prediction unit 30 or the inter prediction unit 35, thereby obtaining decoded image data (reconstruction). Image). Then, the addition unit 23 outputs the generated decoded image data to the deblock filter 24 and the frame memory 26.

デブロックフィルタ24及びSAOフィルタ25は、それぞれ、リコンストラクト画像の画質の向上を目的とするインループフィルタである。デブロックフィルタ24は、加算部23から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データをSAOフィルタ25へ出力する。   Each of the deblock filter 24 and the SAO filter 25 is an in-loop filter for the purpose of improving the image quality of the reconstructed image. The deblocking filter 24 removes block distortion by filtering the decoded image data input from the adding unit 23, and outputs the decoded image data after filtering to the SAO filter 25.

SAOフィルタ25は、デブロックフィルタ24から入力される復号画像データにエッジオフセット処理又はバンドオフセット処理を適用することによりノイズを除去し、処理後の復号画像データをフレームメモリ26へ出力する。より具体的には、SAOフィルタ25は、画像内の各ブロックにおいてRD最適化に従って判定されるオフセット値をブロックごとの画像特徴量に基づいて修正し、修正したオフセット値で各ブロック内の画素値の各々をオフセットする。SAOフィルタ25のより詳細な構成について、後にさらに説明する。   The SAO filter 25 removes noise by applying edge offset processing or band offset processing to the decoded image data input from the deblocking filter 24, and outputs the processed decoded image data to the frame memory 26. More specifically, the SAO filter 25 corrects the offset value determined according to RD optimization in each block in the image based on the image feature amount for each block, and the pixel value in each block with the corrected offset value. Offset each. A more detailed configuration of the SAO filter 25 will be further described later.

フレームメモリ26は、加算部23から入力されるフィルタリング前の復号画像データ、及びSAOフィルタ25から入力されるインループフィルタの適用後の復号画像データを記憶媒体を用いて記憶する。   The frame memory 26 stores the decoded image data before filtering input from the adder 23 and the decoded image data after application of the in-loop filter input from the SAO filter 25 using a storage medium.

スイッチ27は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ26から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部30に供給する。また、スイッチ27は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ26から読み出し、読み出した復号画像データを参照画像データとしてインター予測部35に供給する。   The switch 27 reads decoded image data before filtering used for intra prediction from the frame memory 26 and supplies the read decoded image data to the intra prediction unit 30 as reference image data. Further, the switch 27 reads out the decoded image data after filtering used for inter prediction from the frame memory 26 and supplies the read out decoded image data to the inter prediction unit 35 as reference image data.

モード設定部28は、各CTBの最適なブロック分割及び予測モードを、イントラ予測部30及びインター予測部35から入力されるコストの比較に基づいて判定する。モード設定部28は、イントラ予測モードを選択したブロックについては、イントラ予測部30により生成される予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。また、モード設定部28は、インター予測モードを選択したブロックについては、インター予測部35により生成される予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。   The mode setting unit 28 determines an optimal block division and prediction mode for each CTB based on a comparison of costs input from the intra prediction unit 30 and the inter prediction unit 35. For the block for which the intra prediction mode is selected, the mode setting unit 28 outputs the prediction image data generated by the intra prediction unit 30 to the subtraction unit 13 and outputs information related to intra prediction to the lossless encoding unit 16. Further, the mode setting unit 28 outputs the prediction image data generated by the inter prediction unit 35 to the subtraction unit 13 and outputs information related to the inter prediction to the lossless encoding unit 16 for the block for which the inter prediction mode is selected. To do.

イントラ予測部30は、原画像データ及び復号画像データに基づいて、各CTB内に設定される1つ以上の予測ブロック(PB:Prediction Block)の各々についてイントラ予測処理を実行する。例えば、イントラ予測部30は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、イントラ予測部30は、コストが最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適モードとして選択する。また、イントラ予測部30は、最適モードに従って予測画像データを生成する。そして、イントラ予測部30は、最適モードを表すイントラ予測に関する情報、コスト、及び予測画像データを、モード設定部28へ出力する。   The intra prediction unit 30 executes an intra prediction process for each of one or more prediction blocks (PB: Prediction Blocks) set in each CTB based on the original image data and the decoded image data. For example, the intra prediction unit 30 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the intra prediction unit 30 selects the prediction mode with the lowest cost, that is, the prediction mode with the highest compression rate, as the optimum mode. The intra prediction unit 30 generates predicted image data according to the optimal mode. Then, the intra prediction unit 30 outputs information related to intra prediction representing the optimal mode, cost, and predicted image data to the mode setting unit 28.

インター予測部35は、原画像データ及び復号画像データに基づいて、1つ以上のPBの各々についてインター予測処理を実行する。例えば、インター予測部35は、予測モードセット内の各候補モードによる予測結果を所定のコスト関数を用いて評価する。次に、インター予測部35は、コストが最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適モードとして選択する。また、インター予測部35は、最適モードに従って予測画像データを生成する。そして、インター予測部35は、最適モードを表すインター予測に関する情報、コスト、及び予測画像データを、モード設定部28へ出力する。ここでのインター予測に関する情報は、動きベクトル情報を含み得る。動きベクトル情報は、各PBに適用すべき動きベクトルを、整数サンプル(integer samples)精度又は小数サンプル(fractional samples)精度で表す。動きベクトルが小数サンプル精度で表される場合には、補間フィルタを用いて補間される小数サンプル位置の参照画素値が、動き補償のために利用される。   The inter prediction unit 35 performs an inter prediction process for each of one or more PBs based on the original image data and the decoded image data. For example, the inter prediction unit 35 evaluates the prediction result of each candidate mode in the prediction mode set using a predetermined cost function. Next, the inter prediction unit 35 selects the prediction mode with the lowest cost, that is, the prediction mode with the highest compression rate, as the optimum mode. Further, the inter prediction unit 35 generates predicted image data according to the optimum mode. Then, the inter prediction unit 35 outputs information related to inter prediction representing the optimal mode, cost, and predicted image data to the mode setting unit 28. The information regarding the inter prediction here may include motion vector information. The motion vector information represents the motion vector to be applied to each PB with integer sample accuracy or fractional sample accuracy. When the motion vector is expressed with decimal sample accuracy, the reference pixel value of the decimal sample position interpolated using the interpolation filter is used for motion compensation.

<3.SAOフィルタの詳細な構成例>
図4は、図3に示したSAOフィルタ25の詳細な構成の一例を示すブロック図である。図4を参照すると、SAOフィルタ25は、オフセット判定部41、特徴量取得部43、オフセット修正部45及びオフセット部47を有する。
<3. Detailed configuration example of SAO filter>
FIG. 4 is a block diagram showing an example of a detailed configuration of the SAO filter 25 shown in FIG. Referring to FIG. 4, the SAO filter 25 includes an offset determination unit 41, a feature amount acquisition unit 43, an offset correction unit 45, and an offset unit 47.

(1)オフセット判定部
オフセット判定部41は、図1A、図1B及び図2を用いて説明した既存のSAO処理と同様に、リコンストラクト画像に適用すべきオフセット値をレート歪み(RD)最適化に基づいてブロックごとに判定する。ここでのブロックは、典型的には、CTB(Coding Tree Block)に相当し得る。より具体的には、オフセット判定部41は、エッジオフセット及びバンドオフセットを含み得るオフセットタイプの各々について、デブロックフィルタ24から入力されるリコンストラクト画像Irecに適用すべき適切なオフセット値のセットを判定する。エッジオフセットのケースでは、オフセット値のセットは、それぞれのカテゴリに対応するオフセット値を含み、候補クラスごとに判定され得る。また、オフセット判定部41は、各オフセットタイプ(及び候補クラス)ごとに、原画像Iorgと処理後のリコンストラクト画像との間の誤差及び見込まれる符号量から、コストを計算する。そして、オフセット判定部41は、計算したコストが最も低い値を示すオフセットタイプ、及びエッジオフセットの場合にはそのクラスを選択する。ここでの選択結果に対応するオフセット値のセットが、リコンストラクト画像に適用すべき(但し、修正前の)オフセット値である。オフセット判定部41は、オフセットタイプとしてエッジオフセットを選択した場合には、図1Bに示したような4通りの候補カテゴリCG1〜CG4にそれぞれ対応するオフセット値Vと、関連するパラメータ(オフセットタイプ、エッジオフセットクラスなど)とをオフセット修正部45へ出力する。一方、オフセット判定部41は、オフセットタイプとしてバンドオフセットを選択した場合には、対象のバンドにそれぞれ対応するオフセット値Vと、関連するパラメータ(オフセットタイプ、バンド位置など)とをオフセット修正部45へ出力する。なお、オフセット判定部41は、あるCTBについてエッジオフセット処理及びバンドオフセット処理のいずれも行わないことを選択してもよい。この場合には、オフセット判定部41は、オフセット無しを意味する値(例えば、ゼロ)を示すオフセットタイプをオフセット修正部45へ出力する。
(1) Offset determination unit The offset determination unit 41 optimizes an offset value to be applied to a reconstructed image by rate distortion (RD) optimization, similar to the existing SAO processing described with reference to FIGS. 1A, 1B, and 2. Based on the above, the determination is made for each block. The block here can typically correspond to a CTB (Coding Tree Block). More specifically, the offset determination unit 41 sets an appropriate offset value to be applied to the reconstructed image I rec input from the deblocking filter 24 for each offset type that may include an edge offset and a band offset. judge. In the case of edge offset, the set of offset values includes an offset value corresponding to each category and can be determined for each candidate class. Further, the offset determination unit 41 calculates a cost for each offset type (and candidate class) from the error between the original image I org and the processed reconstructed image and the expected code amount. Then, the offset determination unit 41 selects the offset type indicating the lowest calculated cost and the class in the case of the edge offset. The set of offset values corresponding to the selection result here is an offset value to be applied to the reconstructed image (but before correction). When the edge determination unit 41 selects an edge offset as the offset type, the offset value V corresponding to each of the four candidate categories CG1 to CG4 as shown in FIG. 1B and related parameters (offset type, edge) Offset class) is output to the offset correction unit 45. On the other hand, when the band offset is selected as the offset type, the offset determination unit 41 sends the offset value V corresponding to each target band and related parameters (offset type, band position, etc.) to the offset correction unit 45. Output. Note that the offset determination unit 41 may select that neither edge offset processing nor band offset processing is performed on a certain CTB. In this case, the offset determination unit 41 outputs an offset type indicating a value (for example, zero) meaning no offset to the offset correction unit 45.

(2)特徴量取得部
特徴量取得部43は、オフセット判定部41により判定されるオフセット値を修正する際に参照される画像特徴量を、リコンストラクト画像のブロックごとに取得する。ここでは、限定ではないものの、画像特徴量に関する3通りの実施例について説明する。第1の実施例において、特徴量取得部43により取得される画像特徴量は、各ブロックの平坦さに関連する指標を含む。例えば、各ブロックの平坦さ(flatness)を、画素値の分散、標準偏差、及び一次微分総和、のうちの1つ以上によって表現することができる。特徴量取得部43は、例えば、デブロックフィルタ24から入力されるリコンストラクト画像Irecのブロックごとに、次の式(1)のように画素値の分散(平均二乗誤差)VARを計算してもよい。式(1)において、NはブロックBに属する画素の数、PはブロックBに属するk番目の画素の画素値、PAVE_iはブロックBに属する画素群の画素値の平均を表す。
(2) Feature Quantity Acquisition Unit The feature quantity acquisition unit 43 acquires the image feature quantity referred to when correcting the offset value determined by the offset determination unit 41 for each block of the reconstructed image. Here, although not limited, three examples relating to the image feature amount will be described. In the first embodiment, the image feature amount acquired by the feature amount acquisition unit 43 includes an index related to the flatness of each block. For example, the flatness of each block can be expressed by one or more of pixel value variance, standard deviation, and first-order differential summation. The feature amount acquisition unit 43 calculates, for example, the variance (mean square error) VAR i of the pixel value for each block of the reconstructed image I rec input from the deblock filter 24 as in the following equation (1). May be. In Expression (1), N represents the number of pixels belonging to the block B i , P k represents the pixel value of the k th pixel belonging to the block B i , and P AVE — i represents the average of the pixel values of the pixel group belonging to the block B i. .

Figure 2016082304
Figure 2016082304

また、特徴量取得部43は、分散VARの正の平方根に等しい標準偏差を計算してもよい。また、特徴量取得部43は、次の式(2)のように一次微分総和DESUMを計算してもよい。式(2)において、Px,yはブロックBに属する画素位置(x,y)の画素値を表す。 The feature quantity acquisition unit 43 may calculate a standard deviation equal to the positive square root of the variance VAR i . Further, the feature amount acquisition unit 43 may calculate the primary differential sum DESUM i as in the following equation (2). In Expression (2), P x, y represents the pixel value at the pixel position (x, y) belonging to the block B i .

Figure 2016082304
Figure 2016082304

これら分散、標準偏差、及び一次微分総和は、あるブロックが完全に平坦である(即ち、ブロックに属する画素群の画素値が全て等しい)場合には、ゼロを示す。これら指標の値が大きいことは、ブロックの画像が高周波成分を多く含むことを示唆する。そうした高周波成分のうちのある部分は、オフセットによって除去されるべき、リンギングノイズ又はモスキートノイズといったノイズに起因し得る。一方、これら指標の値がより小さいことは、ブロックの画像に含まれる高周波成分がより少なく、従って除去すべきノイズもより少ないことを示唆する。そうしたブロックについては、SAO処理によるノイズ除去の利得よりも、画像の不鮮明化に伴う主観的画質の劣化の作用の方が上回る可能性が高いことから、SAO処理の強度を適応的に軽減することが有益である。   These variances, standard deviations, and first-order differential sums indicate zero when a block is completely flat (that is, the pixel values of the pixel groups belonging to the block are all equal). A large value of these indices suggests that the block image contains a lot of high frequency components. Some portion of such high frequency components may be due to noise such as ringing noise or mosquito noise that should be removed by offset. On the other hand, the smaller values of these indices suggest that there are fewer high frequency components in the block image and therefore less noise to remove. For such blocks, the effect of subjective image quality degradation due to image blurring is likely to exceed the noise removal gain of SAO processing, so the intensity of SAO processing is adaptively reduced. Is beneficial.

第2の実施例において、特徴量取得部43により取得される画像特徴量は、各ブロックの高周波成分のロスに関連する指標を含む。例えば、あるTBが変換係数を含まないことを符号化ブロックフラグ(CBF)が示している場合、そのTBは、量子化誤差(変換係数の量子化の際の周波数成分の切り捨てに起因する誤差)を包含しない。これは、高周波成分のロスが無く、TBに含まれるノイズが無いか又は小さいことを意味する。TB(変換ブロック)は、CTBのサブブロックである。そこで、特徴量取得部43は、例えば、デブロックフィルタ24から入力されるリコンストラクト画像Irecのブロックごとの高周波成分のロスに関連する指標として、当該ブロックに属するサブブロックのCBFの値を集計することにより、変換係数がゼロであるサブブロックの割合(以下、ゼロ係数率という)を計算してもよい。ゼロ係数率がより大きいブロックについては、SAO処理によるノイズ除去の利得よりも、画像の不鮮明化に伴う主観的画質の劣化の作用の方が上回る可能性が高いことから、SAO処理の強度を適応的に軽減することが有益である。 In the second embodiment, the image feature amount acquired by the feature amount acquisition unit 43 includes an index related to the loss of the high-frequency component of each block. For example, when a coding block flag (CBF) indicates that a certain TB does not include a transform coefficient, the TB is a quantization error (an error caused by truncation of a frequency component when quantizing the transform coefficient). Is not included. This means that there is no loss of high frequency components and there is no or small noise contained in TB. TB (transform block) is a sub-block of CTB. Therefore, for example, the feature amount acquisition unit 43 counts the CBF values of the sub-blocks belonging to the block as an index related to the loss of high-frequency components for each block of the reconstructed image I rec input from the deblock filter 24. By doing so, the proportion of sub-blocks whose transform coefficients are zero (hereinafter referred to as zero coefficient ratio) may be calculated. For blocks with a higher zero coefficient ratio, the effect of deterioration in subjective image quality due to image blurring is more likely than the gain of noise removal by SAO processing, so the strength of SAO processing is adapted. It is beneficial to reduce it.

代替的に又は追加的に、特徴量取得部43は、高周波成分のロスに関連する指標として、ブロック又はサブブロックの各々について使用された量子化パラメータ(例えば、ブロック内での平均値)を取得してもよい。量子化パラメータの値が大きいことは、量子化に伴う高周波成分のロスが大きいことを意味し、逆に量子化パラメータの値が小さいことは、量子化に伴う高周波成分のロスが小さいことを意味する。よって、量子化パラメータの値がより小さいブロックについては、SAO処理によるノイズ除去の利得よりも、画像の不鮮明化に伴う主観的画質の劣化の作用の方が上回る可能性が高いことから、SAO処理の強度を適応的に軽減することが有益である。また、上述したゼロ係数率に基づく(又は第1の実施例におけるブロックの平坦さに基づく)SAO処理の強度の軽減の度合いが、量子化パラメータの値が大きいほど弱められてもよい。   Alternatively or additionally, the feature amount acquisition unit 43 acquires a quantization parameter (for example, an average value in the block) used for each block or sub-block as an index related to the loss of high-frequency components. May be. A large quantization parameter value means a large loss of high-frequency components due to quantization, and conversely a small quantization parameter value means a small loss of high-frequency components due to quantization. To do. Therefore, a block having a smaller quantization parameter value is more likely to be affected by subjective image quality degradation due to image blurring than the noise removal gain by SAO processing. It is beneficial to adaptively reduce the intensity of the. Further, the degree of reduction in the strength of the SAO processing based on the above-described zero coefficient rate (or based on the flatness of the block in the first embodiment) may be weakened as the value of the quantization parameter increases.

代替的に又は追加的に、特徴量取得部43は、高周波成分のロスに関連する指標として、動き補償のサンプル精度が特定の精度であるサブブロックの割合を取得してもよい。例えば、あるPB(予測ブロック)において動き補償のサンプル精度が小数精度(1/2精度又は1/4精度など)である場合、そのPBにおいて補間フィルタが利用され得る。PBは、CTBのサブブロックである。そして、タップ長の長い補間フィルタ(HEVCにおける補間フィルタの最大タップ長は8タップである)は、実質的なローパスフィルタとして作用し、画像を平滑化する効果を有する。そのため、動き補償のサンプル精度が小数精度であるサブブロックの割合(以下、小数精度サブブロック率という)が大きい場合、さらにオフセットを適用することで、画像が過剰に不鮮明化される可能性が高い。一方、あるPBにおいて動き補償のサンプル精度が整数精度のみである場合、そのPBにおいて補間フィルタは利用されない。そのため、この場合、さらにオフセットを適用しても、画像が過剰に不鮮明化する可能性は低い。動き補償のサンプル精度は、動きベクトル情報から把握され得る。   Alternatively or additionally, the feature quantity acquisition unit 43 may acquire the proportion of sub-blocks whose motion compensation sample accuracy is a specific accuracy as an index related to the loss of high-frequency components. For example, when the sample accuracy of motion compensation is a decimal accuracy (such as 1/2 accuracy or 1/4 accuracy) in a certain PB (prediction block), an interpolation filter can be used in that PB. PB is a sub-block of CTB. An interpolation filter having a long tap length (the maximum tap length of the interpolation filter in HEVC is 8 taps) acts as a substantial low-pass filter and has an effect of smoothing the image. Therefore, when the proportion of sub-blocks whose motion compensation sample precision is decimal precision (hereinafter referred to as the decimal precision sub-block ratio) is large, there is a high possibility that the image will be excessively blurred by applying an offset. . On the other hand, when the sample accuracy of motion compensation is only integer accuracy in a certain PB, the interpolation filter is not used in that PB. Therefore, in this case, even if the offset is further applied, the possibility that the image is excessively blurred is low. The sample accuracy of motion compensation can be ascertained from motion vector information.

第3の実施例において、特徴量取得部43により取得される画像特徴量は、各ブロックにおける動きベクトルがゼロであるサブブロックの割合(以下、ゼロベクトル率という)を含む。例えば、画角内で被写体が静止している場合、その被写体を映すPBにおいて、動きベクトルはゼロになり得る。その場合にSAO処理を実行すると、インター予測の予測画素値にオフセットが累積的に加算される結果、画像が不鮮明化することがある。そこで、特徴量取得部43は、デブロックフィルタ24から入力されるリコンストラクト画像Irecのブロックごとに、例えば動きベクトル情報を用いてゼロベクトル率を計算してもよい。ゼロベクトル率がより大きいブロックについては、SAO処理によるノイズ除去の利得よりも、画像の不鮮明化に伴う主観的画質の劣化の作用の方が上回る可能性が高いことから、SAO処理の強度を適応的に軽減することが有益である。動きベクトルがゼロであるサブブロックについては、オフセットの累積的な加算を回避するために、オフセットの適用がスキップされてもよい。 In the third embodiment, the image feature amount acquired by the feature amount acquisition unit 43 includes a ratio of sub-blocks in which the motion vector in each block is zero (hereinafter referred to as zero vector rate). For example, when the subject is stationary within the angle of view, the motion vector can be zero in the PB that reflects the subject. In this case, when the SAO process is executed, the image may become blurred as a result of cumulatively adding the offset to the predicted pixel value of the inter prediction. Therefore, the feature amount acquisition unit 43 may calculate the zero vector rate for each block of the reconstructed image I rec input from the deblock filter 24 using, for example, motion vector information. For blocks with a higher zero vector rate, the effect of deterioration in subjective image quality due to image blurring is more likely than the gain of noise removal by SAO processing, so the strength of SAO processing is adapted. It is beneficial to reduce it. For sub-blocks with a motion vector of zero, the application of offset may be skipped to avoid cumulative addition of offset.

特徴量取得部43は、上述したいずれかの手法又は他の手法に従って取得されるブロックごとの画像特徴量Rを、オフセット修正部45へ出力する。   The feature amount acquisition unit 43 outputs the image feature amount R for each block acquired according to any of the above-described methods or other methods to the offset correction unit 45.

(3)オフセット修正部
オフセット修正部45は、オフセット判定部41により判定されたリコンストラクト画像に適用すべきオフセット値を、特徴量取得部43から入力されるブロックごとの画像特徴量に基づいて修正する。例えば、オフセット修正部45は、上述した平坦さに関連する指標に基づき、より平坦なブロックにより小さいオフセット値が適用されるように、オフセット値を修正してもよい。また、オフセット修正部45は、上述した高周波成分のロスに関連する指標に基づき、高周波成分のロスのより小さいブロックにより小さいオフセット値が適用されるように、オフセット値を修正してもよい。高周波成分のロスのより小さいブロックとは、例えば、ゼロ係数率がより大きく、量子化パラメータがより小さく、又は小数精度サブブロック率がより大きいブロックを含み得る。また、オフセット修正部45は、ゼロベクトル率がより大きいブロックにより小さいオフセット値が適用されるように、オフセット値を修正してもよい。
(3) Offset Correction Unit The offset correction unit 45 corrects the offset value to be applied to the reconstructed image determined by the offset determination unit 41 based on the image feature amount for each block input from the feature amount acquisition unit 43. To do. For example, the offset correction unit 45 may correct the offset value so that a smaller offset value is applied to a flatter block based on the above-described index related to flatness. Further, the offset correction unit 45 may correct the offset value so that a smaller offset value is applied to a block with a smaller loss of the high frequency component based on the above-described index related to the loss of the high frequency component. Blocks with lower loss of high frequency components may include, for example, blocks with higher zero coefficient rates, lower quantization parameters, or higher decimal precision sub-block rates. Further, the offset correction unit 45 may correct the offset value so that a smaller offset value is applied to a block having a higher zero vector rate.

オフセット修正部45により実行される処理は、概念的には、次のような関数の形式で表現され得る。   The processing executed by the offset correction unit 45 can be conceptually expressed in the form of the following function.

Figure 2016082304
Figure 2016082304

ここで、V及びVmodはそれぞれ修正前の及び修正後のオフセット値、Rはi番目(iは1以上の整数)の特徴量を表す。関数Fは、例えば次の式(4)ような線形形式であり得る。係数αは、典型的には、特徴量R、R、…に依存するゼロ以上1以下の修正係数である。演算Clip(X)は、関数の出力値をオフセットの所定のレンジに制限するための演算であり、例えばXが上界Xmaxを上回る場合にはClip(X)=Xmaxである。 Here, V and V mod represent offset values before and after correction, respectively, and R i represents an i-th feature amount (i is an integer of 1 or more). The function F may be in a linear form such as the following equation (4). The coefficient α is typically a correction coefficient not less than zero and not more than 1 depending on the feature amounts R 1 , R 2 ,. The operation Clip (X) is an operation for limiting the output value of the function to a predetermined offset range. For example, when X exceeds the upper limit Xmax , Clip (X) = Xmax .

Figure 2016082304
Figure 2016082304

図5Aは、特徴量Rと修正オフセット値Vmodとの間の関係の第1の例を示すグラフである。グラフの横軸は特徴量R、縦軸は修正オフセット値Vmodを示す。図示したグラフG11によれば、修正オフセット値Vmodは、特徴量Rに従って単調増加する直線を描いている。修正オフセット値Vmodの最大値は修正前のオフセット値Vに等しい。こうしたグラフG11は、画像特徴量の値がより小さい場合にSAO処理の作用をより強く軽減させるようなシナリオに適している。例えば、画像特徴量Rが上述した分散、標準偏差、若しくは一次微分総和、又は量子化パラメータに相当するケースは、グラフG11のシナリオに当てはまる。一方、グラフG12によれば、修正オフセット値Vmodは、特徴量Rに従って単調減少する直線を描いている。こうしたグラフG12は、画像特徴量の値がより大きい場合にSAO処理の作用をより強く軽減させるようなシナリオに適している。例えば、画像特徴量Rが上述したゼロ係数率、小数精度サブブロック率又はゼロベクトル率に相当するケースは、グラフG12のシナリオに当てはまる。 FIG. 5A is a graph illustrating a first example of the relationship between the feature amount R and the corrected offset value V mod . The horizontal axis of the graph represents the feature amount R, and the vertical axis represents the corrected offset value V mod . According to the illustrated graph G11, the corrected offset value V mod draws a straight line that monotonously increases according to the feature amount R. The maximum value of the correction offset value V mod is equal to the offset value V before correction. Such a graph G11 is suitable for a scenario in which the effect of the SAO processing is further reduced when the image feature value is smaller. For example, the case where the image feature amount R corresponds to the above-described variance, standard deviation, first-order differential sum, or quantization parameter applies to the scenario of the graph G11. On the other hand, according to the graph G12, the corrected offset value V mod draws a straight line that decreases monotonously according to the feature amount R. Such a graph G12 is suitable for a scenario in which the action of the SAO processing is more strongly reduced when the image feature value is larger. For example, the case where the image feature amount R corresponds to the above-described zero coefficient rate, decimal precision sub-block rate, or zero vector rate applies to the scenario of the graph G12.

図5Bは、特徴量Rと修正オフセット値Vmodとの間の関係の第2の例について説明するためのグラフである。図示したグラフG2によれば、修正オフセット値Vmodは、特徴量Rに従って階段状に増加する折れ線を描いている。例えば、特徴量Rが第1のサブレンジ[0,r]に属する場合には、修正係数α=1/4がオフセット値Vに乗算される。特徴量Rが第2のサブレンジ[r,r]に属する場合には、修正係数α=1/3がオフセット値Vに乗算される。特徴量Rが第3のサブレンジ[r,r]に属する場合には、修正係数α=1/2がオフセット値Vに乗算される。特徴量Rが第4のサブレンジ[r,r]に属する場合には、修正オフセット値Vmodは修正前のオフセット値Vに等しい。こうした修正係数は、例えば事前のチューニングを通じて予め決定され、対応する特徴量のサブレンジに関連付けてメモリに格納され得る。そして、オフセット修正部45は、オフセットを修正する際に、特徴量の値に対応する修正係数をメモリから取得し得る。可逆符号化部16は、こうした修正係数を定義するパラメータを追加的に符号化してもよい。 FIG. 5B is a graph for explaining a second example of the relationship between the feature amount R and the corrected offset value V mod . According to the illustrated graph G2, the corrected offset value V mod draws a polygonal line that increases stepwise according to the feature amount R. For example, when the feature amount R belongs to the first sub-range [0, r 1 ], the correction coefficient α = 1/4 is multiplied by the offset value V. When the feature amount R belongs to the second subrange [r 1 , r 2 ], the correction coefficient α = 1/3 is multiplied by the offset value V. When the feature amount R belongs to the third subrange [r 2 , r 3 ], the correction coefficient α = ½ is multiplied by the offset value V. When the feature amount R belongs to the fourth subrange [r 3 , r 4 ], the corrected offset value V mod is equal to the offset value V before correction. Such correction factors may be predetermined, for example, through pre-tuning and stored in memory in association with the corresponding feature sub-range. Then, the offset correction unit 45 can acquire a correction coefficient corresponding to the feature value from the memory when correcting the offset. The lossless encoding unit 16 may additionally encode a parameter that defines such a correction coefficient.

図5A及び図5Bに示したグラフは、説明のための例に過ぎない。オフセット修正部45は、修正オフセット値Vmodが様々な傾き及び切片を有する直線、又は様々な曲線若しくは折れ線などの他の軌跡を描くように、オフセット値を修正してよい。1つの変形例において、オフセット修正部45は、修正係数αを、オフセット値の修正の強さが量子化パラメータの値が大きいほど弱められるように調整し得る。次の式(5)における修正係数αadjは、調整された修正係数を表し、上界1.0を超えない範囲で修正係数αと調整因子wとの積に等しい。 The graphs shown in FIGS. 5A and 5B are merely examples for explanation. The offset correction unit 45 may correct the offset value so that the correction offset value V mod draws a straight line having various inclinations and intercepts, or other trajectories such as various curves or polygonal lines. In one variation, the offset correction unit 45 can adjust the correction coefficient α such that the correction value of the offset value is weakened as the quantization parameter value increases. The correction coefficient α adj in the following equation (5) represents the adjusted correction coefficient, and is equal to the product of the correction coefficient α and the adjustment factor w within a range not exceeding 1.0.

Figure 2016082304
Figure 2016082304

調整因子wは、例えば、量子化パラメータがサブレンジ[0,20]に属する場合には1.0、量子化パラメータがサブレンジ[20,30]に属する場合には1.2、量子化パラメータがサブレンジ[30,40]に属する場合には1.6に等しい、といったように、量子化パラメータのサブレンジに関連付けて予め定義され得る。このように量子化パラメータの値が大きいほどオフセット値を修正するための修正係数を大きく設定することで、オフセット値の修正の強さを弱めることができる。それにより、SAO処理の作用を軽減する中に、量子化誤差が大きいケースで高周波成分のロスに起因するノイズの除去の効果を維持する仕組みを取り入れることができる。   The adjustment factor w is, for example, 1.0 when the quantization parameter belongs to the subrange [0, 20], 1.2 when the quantization parameter belongs to the subrange [20, 30], and the quantization parameter is the subrange. If it belongs to [30, 40], it can be defined in advance in association with the sub-range of the quantization parameter, such as equal to 1.6. In this way, by setting a larger correction coefficient for correcting the offset value as the quantization parameter value is larger, the strength of correction of the offset value can be reduced. As a result, while reducing the effect of the SAO processing, it is possible to incorporate a mechanism that maintains the effect of removing noise caused by high-frequency component loss in the case where the quantization error is large.

上述したように、エッジオフセット処理は、エッジ状のノイズを除去する処理である。よって、エッジオフセットを軽減することは、エッジが過剰に不鮮明化されることを防止することにつながる。これに対し、バンドオフセット処理は、特定の帯域に現れる画素値のズレを補償する処理である。よって、バンドオフセットを軽減することは、必ずしも画像の不鮮明化の防止にはつながらない。そこで、オフセット修正部45は、オフセット判定部41により判定されたオフセットタイプがエッジオフセットであるブロックについてオフセット値を修正する一方、オフセットタイプがバンドオフセットであるブロックについてはオフセット値を修正しなくてもよい。それにより、バンドオフセットの作用を減殺することなく、エッジオフセットによる画像の不鮮明化を効果的に防止することができる。   As described above, the edge offset processing is processing for removing edge noise. Therefore, reducing the edge offset leads to preventing the edge from being excessively blurred. On the other hand, the band offset process is a process for compensating for a deviation of pixel values appearing in a specific band. Therefore, reducing the band offset does not necessarily prevent the image from becoming blurred. Therefore, the offset correction unit 45 corrects the offset value for the block whose offset type is determined as the edge offset by the offset determination unit 41, but does not need to correct the offset value for the block whose offset type is the band offset. Good. Accordingly, it is possible to effectively prevent image blurring due to edge offset without reducing the effect of band offset.

オフセット修正部45は、上述したいずれかの手法又は他の手法に従ってオフセット値を修正した場合には、修正オフセット値Vmodをオフセット部47へ出力する。オフセット値が修正されなかった場合には、もとのオフセット値Vがオフセット部47へ出力される。また、オフセット修正部45は、オフセット部47へ出力される値に対応するSAO関連パラメータを、符号化のために可逆符号化部16へ出力する。ここでのSAO関連パラメータは、例えば、オフセットタイプ、オフセット値のセット、及び、必要に応じてエッジオフセットクラス又はバンド位置など、を特定するパラメータであってよい。 The offset correction unit 45 outputs the corrected offset value V mod to the offset unit 47 when the offset value is corrected according to any of the methods described above or other methods. When the offset value is not corrected, the original offset value V is output to the offset unit 47. Further, the offset correction unit 45 outputs SAO related parameters corresponding to the values output to the offset unit 47 to the lossless encoding unit 16 for encoding. The SAO-related parameters here may be parameters that specify, for example, an offset type, a set of offset values, and an edge offset class or a band position as necessary.

(4)オフセット部
オフセット部47は、オフセット修正部45によりオフセット値が修正された場合には、修正された当該オフセット値Vmodでリコンストラクト画像の画素値をオフセットする。オフセット部47は、オフセット値が修正されなかった場合には、オフセット判定部41により判定されたオフセット値Vで画素値をオフセットし得る。オフセット部47は、オフセットタイプがエッジオフセットであるブロックについては、注目画素のカテゴリを4通りの候補カテゴリCG1〜CG4の中から決定し、決定したカテゴリに対応する(修正された)オフセット値を注目画素の画素値に加算する。オフセット部47は、オフセットタイプがバンドオフセットであるブロックについては、注目画素の画素値が属するバンドを32個のバンドの中から識別し、識別したバンドに対応する(修正された)オフセット値を注目画素の画素値に加算する。オフセット部47は、例えばオフセットタイプがオフセット無しを示している場合に、画素値のオフセットをスキップしてもよい。
(4) Offset unit When the offset value is corrected by the offset correction unit 45, the offset unit 47 offsets the pixel value of the reconstructed image with the corrected offset value V mod . The offset unit 47 can offset the pixel value with the offset value V determined by the offset determination unit 41 when the offset value is not corrected. For the block whose offset type is edge offset, the offset unit 47 determines the category of the pixel of interest from among the four candidate categories CG1 to CG4, and pays attention to the offset value corresponding to the determined category (corrected). Add to the pixel value of the pixel. For the block whose offset type is band offset, the offset unit 47 identifies the band to which the pixel value of the pixel of interest belongs from among the 32 bands, and focuses on the (corrected) offset value corresponding to the identified band. Add to the pixel value of the pixel. The offset unit 47 may skip the offset of the pixel value when the offset type indicates no offset, for example.

ブロックがBピクチャ又はBスライスに属する場合、そのブロックにおいて、インター予測の際に双予測(Bi-Prediction)が実行され得る。双予測は、予測画素値を導出するための、複数の参照画素値の加重平均の演算を含んでおり、これが実質的なローパスフィルタとして作用し、画像を平滑化する効果を有する。そのため、オフセット部47は、Bピクチャ又はBスライスに属するブロックの画素値のオフセットをスキップすることにより、画像が過剰に不鮮明化されることを回避してもよい。また、オフセット部47は、画角内で被写体が静止している場合のオフセットの累積的な加算を通じて画像が不鮮明化することを回避するために、動きベクトルがゼロであるブロック又はサブブロックの画素値のオフセットをスキップしてもよい。   When a block belongs to a B picture or a B slice, bi-prediction can be performed in the block during inter prediction. Bi-prediction includes calculation of a weighted average of a plurality of reference pixel values for deriving a predicted pixel value, which acts as a substantial low-pass filter and has an effect of smoothing an image. Therefore, the offset unit 47 may avoid that the image is excessively blurred by skipping the offset of the pixel value of the block belonging to the B picture or the B slice. In addition, the offset unit 47 is a pixel of a block or sub-block whose motion vector is zero in order to avoid blurring the image through cumulative addition of offset when the subject is stationary within the angle of view. The value offset may be skipped.

<4.処理の流れ>
[4−1.SAO処理の概略]
図6は、一実施形態に係るSAOフィルタ25により実行されるSAO処理の概略的な流れの一例を示すフローチャートである。図6に示した処理は、画像内のブロックの各々について繰り返される。
<4. Process flow>
[4-1. Outline of SAO processing]
FIG. 6 is a flowchart illustrating an example of a schematic flow of SAO processing executed by the SAO filter 25 according to an embodiment. The process shown in FIG. 6 is repeated for each block in the image.

図6を参照すると、まず、オフセット判定部41は、RD最適化に基づいて、注目ブロックに適用すべきオフセットタイプ(SAOタイプ)及びオフセット値、並びに関連するパラメータを判定する(ステップS10)。その後の処理は、判定されたオフセットタイプに依存して分岐する(ステップS20)。   Referring to FIG. 6, first, the offset determination unit 41 determines an offset type (SAO type) and an offset value to be applied to the block of interest and related parameters based on RD optimization (step S10). Subsequent processing branches depending on the determined offset type (step S20).

判定されたオフセットタイプがエッジオフセットである場合、特徴量取得部43は、オフセット値を修正する際に参照される注目ブロックの画像特徴量を取得する(ステップS30)。次に、オフセット修正部45は、特徴量取得部43から入力される注目ブロックの画像特徴量に基づいて、オフセット判定部41から入力されるオフセット値を修正する(ステップS40)。次に、オフセット部47は、オフセット修正部45により修正されたオフセット値で注目ブロックに属する画素群の各画素値をオフセットする(ステップS50)。   When the determined offset type is an edge offset, the feature amount acquisition unit 43 acquires the image feature amount of the block of interest referred to when correcting the offset value (step S30). Next, the offset correction unit 45 corrects the offset value input from the offset determination unit 41 based on the image feature amount of the target block input from the feature amount acquisition unit 43 (step S40). Next, the offset unit 47 offsets each pixel value of the pixel group belonging to the block of interest with the offset value corrected by the offset correction unit 45 (step S50).

判定されたオフセットタイプがバンドオフセットである場合、オフセット部47は、未修正の(即ち、オフセット判定部41により判定された)オフセット値で注目ブロックに属する画素群の各画素値をオフセットする(ステップS55)。   When the determined offset type is a band offset, the offset unit 47 offsets each pixel value of the pixel group belonging to the block of interest with an uncorrected offset value (that is, determined by the offset determination unit 41) (Step S1). S55).

次に、可逆符号化部16は、オフセット修正部45により修正されたオフセット値を特定するパラメータを含むSAO関連パラメータを符号化する(ステップS60)。なお、注目ブロックのSAO関連パラメータが符号化済みの隣接ブロックのSAO関連パラメータと同一である場合には、SAO関連パラメータの代わりにコピーモードを有効化するコピーフラグが符号化され得る。しかし、コピーモードは本開示に係る技術に直接的に関連しないため、ここではその説明を省略する。   Next, the lossless encoding unit 16 encodes SAO related parameters including a parameter for specifying the offset value corrected by the offset correcting unit 45 (step S60). If the SAO-related parameter of the target block is the same as the SAO-related parameter of the adjacent block that has been encoded, a copy flag that enables the copy mode can be encoded instead of the SAO-related parameter. However, since the copy mode is not directly related to the technology according to the present disclosure, the description thereof is omitted here.

次に、未処理のブロックが残っている場合には、処理はステップS10へ戻り、次のブロックを注目ブロックとして上述した処理が繰り返される(ステップS70)。未処理のブロックが残っていない場合には、図6に示したSAO処理は終了する。   Next, when an unprocessed block remains, the process returns to step S10, and the above-described process is repeated with the next block as a target block (step S70). If no unprocessed block remains, the SAO process shown in FIG. 6 ends.

[4−2.オフセット判定処理]
図7は、図6のステップS10に相当するオフセット判定処理の流れの一例を示すフローチャートである。図7に示した処理は、注目ブロックの色成分ごとに繰り返される(ステップS11)。
[4-2. Offset judgment processing]
FIG. 7 is a flowchart showing an example of the flow of the offset determination process corresponding to step S10 in FIG. The process shown in FIG. 7 is repeated for each color component of the block of interest (step S11).

まず、オフセット判定部41は、エッジオフセットの各クラスについて、4通りの候補カテゴリのそれぞれの最適なオフセット値を判定する(ステップS12)。次に、オフセット判定部41は、各クラスについてRD最適化のためのコストを計算する(ステップS13)。   First, the offset determination unit 41 determines the optimum offset value of each of the four candidate categories for each class of edge offset (step S12). Next, the offset determination unit 41 calculates a cost for RD optimization for each class (step S13).

また、オフセット判定部41は、バンドオフセットのバンドごとの最適なオフセット値を判定する(ステップS14)。次に、オフセット判定部41は、各バンド位置についてRD最適化のためのコストを計算する(ステップS15)。   Moreover, the offset determination part 41 determines the optimal offset value for every band of a band offset (step S14). Next, the offset determination part 41 calculates the cost for RD optimization about each band position (step S15).

次に、オフセット判定部41は、計算したコストを互いに比較することにより、注目ブロックにとって最適なオフセットタイプ(SAOタイプ)、対応するオフセット値のセット、及び関連するパラメータ(エッジオフセットクラス又はバンド位置など)を決定する(ステップS16)。なお、エッジオフセットクラスなどのいくつかのパラメータは、2つの色差成分について共通的に決定されてよい。   Next, the offset determination unit 41 compares the calculated costs with each other, so that the optimum offset type (SAO type) for the block of interest, the corresponding set of offset values, and related parameters (such as edge offset class or band position) ) Is determined (step S16). Note that some parameters such as the edge offset class may be determined in common for the two color difference components.

[4−3.オフセット修正処理]
(1)第1の実施例
図8は、図6のステップS30及びS40に相当するオフセット修正処理の、第1の実施例に係る流れの一例を示すフローチャートである。
[4-3. Offset correction process]
(1) First Embodiment FIG. 8 is a flowchart showing an example of a flow according to the first embodiment of offset correction processing corresponding to steps S30 and S40 of FIG.

まず、特徴量取得部43は、注目ブロックの平坦さに関連する指標を、デブロックフィルタ24から入力されるリコンストラクト画像を用いて計算する(ステップS31)。ここでの平坦さに関連する指標は、例えば、画素値の分散、標準偏差、若しくは一次微分総和、又はこれらの何らかの組合せであってよい。   First, the feature amount acquisition unit 43 calculates an index related to the flatness of the block of interest using the reconstructed image input from the deblocking filter 24 (step S31). The index related to flatness here may be, for example, the variance of pixel values, the standard deviation, or the first derivative sum, or some combination thereof.

次に、オフセット修正部45は、特徴量取得部43により計算された注目ブロックの平坦さに関連する指標の値に対応する修正係数を取得する(ステップS41)。例えば、オフセット修正部45は、計算された指標を用いて修正係数を算出してもよく、又は指標値に関連付けられる修正係数をメモリから取得してもよい。   Next, the offset correction unit 45 acquires a correction coefficient corresponding to the index value related to the flatness of the block of interest calculated by the feature amount acquisition unit 43 (step S41). For example, the offset correction unit 45 may calculate the correction coefficient using the calculated index, or may acquire the correction coefficient associated with the index value from the memory.

次に、オフセット修正部45は、取得した修正係数を用いて、例えば図5A又は図5Bを用いて説明した手法に従い、注目ブロックに適用すべきオフセット値を修正する(ステップS47)。   Next, the offset correction unit 45 corrects the offset value to be applied to the block of interest using the acquired correction coefficient, for example, according to the method described with reference to FIG. 5A or 5B (step S47).

(2)第2の実施例
図9Aは、図6のステップS30及びS40に相当するオフセット修正処理の、第2の実施例に係る流れの一例を示すフローチャートである。
(2) Second Example FIG. 9A is a flowchart illustrating an example of a flow according to a second example of offset correction processing corresponding to steps S30 and S40 of FIG.

まず、特徴量取得部43は、注目ブロックの高周波成分のロスに関連する指標を、例えば符号化ブロックフラグ、量子化パラメータ又は動きベクトル情報などの符号化パラメータを参照することにより取得する(ステップS32)。ここでの高周波成分のロスに関連する指標は、例えば、変換係数がゼロであるサブブロックの割合(ゼロ係数率)、量子化パラメータ(ブロック内での平均値)若しくは動き補償のサンプル精度が小数精度であるサブブロックの割合(小数精度サブブロック率)、又はこれらの何らかの組合せであってよい。   First, the feature quantity acquisition unit 43 acquires an index related to the loss of the high-frequency component of the block of interest by referring to an encoding parameter such as an encoding block flag, a quantization parameter, or motion vector information (step S32). ). The index related to the loss of the high-frequency component here is, for example, a fraction of the sub-block where the transform coefficient is zero (zero coefficient ratio), a quantization parameter (average value in the block), or a motion compensation sample accuracy is a decimal It may be the ratio of sub-blocks that is precision (decimal precision sub-block ratio), or some combination thereof.

次に、オフセット修正部45は、特徴量取得部43により取得された高周波成分のロスに関連する指標の値に対応する修正係数を取得する(ステップS42)。例えば、オフセット修正部45は、高周波成分のロスの度合いから修正係数を算出してもよく、又は指標値に関連付けられる修正係数をメモリから取得してもよい。   Next, the offset correcting unit 45 acquires a correction coefficient corresponding to the index value related to the loss of the high frequency component acquired by the feature amount acquiring unit 43 (step S42). For example, the offset correction unit 45 may calculate a correction coefficient from the degree of high-frequency component loss, or may acquire a correction coefficient associated with the index value from the memory.

次に、オフセット修正部45は、取得した修正係数を用いて、例えば図5A又は図5Bを用いて説明した手法に従い、注目ブロックに適用すべきオフセット値を修正する(ステップS47)。   Next, the offset correction unit 45 corrects the offset value to be applied to the block of interest using the acquired correction coefficient, for example, according to the method described with reference to FIG. 5A or 5B (step S47).

図9Bは、図6のステップS30及びS40に相当するオフセット修正処理の、第2の実施例に係る流れの他の例を示すフローチャートである。   FIG. 9B is a flowchart showing another example of the flow according to the second embodiment of the offset correction process corresponding to steps S30 and S40 of FIG.

まず、特徴量取得部43は、注目ブロックの高周波成分のロスに関連する指標として、符号化ブロックフラグの集計に基づくゼロ係数率、及び量子化パラメータを取得する(ステップS32a)。   First, the feature amount acquisition unit 43 acquires a zero coefficient rate and a quantization parameter based on the summation of the encoded block flags as an index related to the loss of the high frequency component of the block of interest (step S32a).

次に、オフセット修正部45は、特徴量取得部43により取得されたゼロ係数率の値に対応する修正係数を取得する(ステップS42a)。ここでオフセット修正部45により取得される修正係数は、例えば、ゼロ係数率が大きいほどより小さい値を示す。   Next, the offset correction unit 45 acquires a correction coefficient corresponding to the value of the zero coefficient rate acquired by the feature amount acquisition unit 43 (step S42a). Here, for example, the correction coefficient acquired by the offset correction unit 45 shows a smaller value as the zero coefficient ratio is larger.

次に、オフセット修正部45は、取得した修正係数を、量子化パラメータを用いて調整する(ステップS43)。その結果、量子化パラメータの値が大きいほど、修正係数の値は1を超えない範囲で増加され得る(即ち、修正の強さが弱められ得る)。   Next, the offset correction unit 45 adjusts the acquired correction coefficient using the quantization parameter (step S43). As a result, the larger the quantization parameter value, the more the correction coefficient value can be increased in a range not exceeding 1 (ie, the correction strength can be reduced).

次に、オフセット修正部45は、量子化パラメータを用いて調整した修正係数を用いて、注目ブロックに適用すべきオフセット値を修正する(ステップS47a)。   Next, the offset correction unit 45 corrects the offset value to be applied to the block of interest using the correction coefficient adjusted using the quantization parameter (step S47a).

なお、図9Bに示したようにオフセット値の修正の前に修正係数が調整される代わりに、ゼロ係数率に基づくオフセット値の一次修正と、量子化パラメータに基づくオフセット値の二次修正とが行われてもよい。また、ゼロ係数率の代わりに、例えば小数精度サブブロック率などの他の指標が利用されてもよい。   As shown in FIG. 9B, instead of adjusting the correction coefficient before the correction of the offset value, the primary correction of the offset value based on the zero coefficient rate and the secondary correction of the offset value based on the quantization parameter are performed. It may be done. Further, instead of the zero coefficient rate, another index such as a decimal precision sub-block rate may be used.

(3)第3の実施例
図10は、図6のステップS30及びS40に相当するオフセット修正処理の、第3の実施例に係る流れの一例を示すフローチャートである。
(3) Third Example FIG. 10 is a flowchart showing an example of a flow according to a third example of offset correction processing corresponding to steps S30 and S40 of FIG.

まず、特徴量取得部43は、例えば動きベクトル情報を参照することにより、注目ブロックの動きベクトルがゼロであるサブブロックの割合(ゼロベクトル率)を計算する(ステップS33)。   First, the feature quantity acquisition unit 43 calculates the ratio (zero vector rate) of sub-blocks in which the motion vector of the block of interest is zero by referring to, for example, motion vector information (step S33).

次に、オフセット修正部45は、特徴量取得部43により計算されたゼロベクトル率の値に対応する修正係数を取得する(ステップS44)。例えば、オフセット修正部45は、ゼロベクトル率を用いて修正係数を算出してもよく、又はゼロベクトル率の値に関連付けられる修正係数をメモリから取得してもよい。   Next, the offset correction unit 45 acquires a correction coefficient corresponding to the value of the zero vector rate calculated by the feature amount acquisition unit 43 (step S44). For example, the offset correction unit 45 may calculate the correction coefficient using the zero vector rate, or may acquire the correction coefficient associated with the value of the zero vector rate from the memory.

次に、オフセット修正部45は、取得した修正係数を用いて、例えば図5A又は図5Bを用いて説明した手法に従い、注目ブロックに適用すべきオフセット値を修正する(ステップS47)。   Next, the offset correction unit 45 corrects the offset value to be applied to the block of interest using the acquired correction coefficient, for example, according to the method described with reference to FIG. 5A or 5B (step S47).

(4)変形例
図11は、一実施形態に係るSAOフィルタ25により実行されるSAO処理の概略的な流れの他の例を示すフローチャートである。図11に示した処理は、画像内のブロックの各々について繰り返される。
(4) Modification FIG. 11 is a flowchart showing another example of the schematic flow of the SAO process executed by the SAO filter 25 according to an embodiment. The process shown in FIG. 11 is repeated for each block in the image.

図11を参照すると、まず、オフセット部47により、注目ブロックがBピクチャ又はBスライスに属するか否かが判定される(ステップS5)。ここで、注目ブロックがBピクチャ又はBスライスに属すると判定された場合には、ステップS10〜S60の処理はスキップされる。注目ブロックがBピクチャ又はBスライスに属しないと判定された場合には、処理はステップS10へ進む。   Referring to FIG. 11, first, the offset unit 47 determines whether the block of interest belongs to a B picture or a B slice (step S5). Here, when it is determined that the target block belongs to the B picture or the B slice, the processes of steps S10 to S60 are skipped. If it is determined that the target block does not belong to the B picture or B slice, the process proceeds to step S10.

ステップS10〜S60の処理は、図6を用いて説明したものと同様であるため、ここではその説明を省略する。ステップS70において、未処理のブロックが残っている場合には、処理はステップS5へ戻り、次のブロックを注目ブロックとして上述した処理が繰り返される。未処理のブロックが残っていない場合には、図11に示したSAO処理は終了する。   Since the processing in steps S10 to S60 is the same as that described with reference to FIG. 6, the description thereof is omitted here. If an unprocessed block remains in step S70, the process returns to step S5, and the above-described process is repeated with the next block as the target block. If no unprocessed block remains, the SAO process shown in FIG. 11 ends.

<5.画像処理システム>
一実施形態において、上述した画像符号化装置10と、画像符号化装置10により符号化された画像を復号する画像復号装置と、を含む画像処理システムが提供されてもよい。図12は、そのような画像処理システム1の構成の一例を示すブロック図である。図12を参照すると、画像処理システム1は、画像符号化装置10と画像復号装置60と、を含む。画像符号化装置10は、符号化ストリームから再構築されるリコンストラクト画像に適用すべきオフセット値を画像のブロックごとの画像特徴量に基づいて修正し、修正したオフセット値を特定する符号化パラメータを符号化ストリームに挿入する。画像復号装置60は、符号化ストリームを受け取り、画像符号化装置10により符号化された修正されたオフセット値を復号する。そして、画像復号装置60は、復号された修正されたオフセット値で、リコンストラクト画像の画素値をオフセットする。
<5. Image processing system>
In one embodiment, an image processing system including the above-described image encoding device 10 and an image decoding device that decodes an image encoded by the image encoding device 10 may be provided. FIG. 12 is a block diagram showing an example of the configuration of such an image processing system 1. Referring to FIG. 12, the image processing system 1 includes an image encoding device 10 and an image decoding device 60. The image encoding device 10 corrects an offset value to be applied to a reconstructed image reconstructed from an encoded stream based on an image feature amount for each block of the image, and specifies an encoding parameter for specifying the corrected offset value. Insert into encoded stream. The image decoding device 60 receives the encoded stream and decodes the corrected offset value encoded by the image encoding device 10. Then, the image decoding device 60 offsets the pixel value of the reconstructed image with the decoded corrected offset value.

より具体的には、画像復号装置60は、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、デブロックフィルタ66、SAOフィルタ67、並び替えバッファ68、D/A(Digital to Analogue)変換部69、フレームメモリ70、セレクタ71a及び71b、イントラ予測部80並びにインター予測部85を備える。   More specifically, the image decoding device 60 includes an accumulation buffer 61, a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a deblock filter 66, an SAO filter 67, and a rearrangement buffer 68. , A D / A (Digital to Analogue) conversion unit 69, a frame memory 70, selectors 71a and 71b, an intra prediction unit 80, and an inter prediction unit 85.

蓄積バッファ61は、符号化ストリームを記憶媒体を用いて一時的に蓄積する。   The accumulation buffer 61 temporarily accumulates the encoded stream using a storage medium.

可逆復号部62は、蓄積バッファ61から入力される符号化ストリームから、符号化の際に使用された符号化方式に従って量子化データを復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に挿入されている情報を復号する。可逆復号部62により復号される情報は、例えば、SAO関連パラメータ、イントラ予測に関する情報及びインター予測に関する情報を含み得る。可逆復号部62は、量子化データを逆量子化部63へ出力する。また、可逆復号部62は、SAO関連パラメータをSAOフィルタ67へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部80へ出力する。また、可逆復号部62は、インター予測に関する情報をインター予測部85へ出力する。   The lossless decoding unit 62 decodes the quantized data from the encoded stream input from the accumulation buffer 61 according to the encoding method used at the time of encoding. In addition, the lossless decoding unit 62 decodes information inserted in the header area of the encoded stream. The information decoded by the lossless decoding unit 62 may include, for example, SAO related parameters, information related to intra prediction, and information related to inter prediction. The lossless decoding unit 62 outputs the quantized data to the inverse quantization unit 63. Further, the lossless decoding unit 62 outputs SAO related parameters to the SAO filter 67. Further, the lossless decoding unit 62 outputs information related to intra prediction to the intra prediction unit 80. In addition, the lossless decoding unit 62 outputs information on inter prediction to the inter prediction unit 85.

逆量子化部63は、可逆復号部62から入力される量子化データを、符号化の際に使用されたものと同じ量子化ステップで逆量子化し、変換係数データを復元する。逆量子化部63は、復元した変換係数データを逆直交変換部64へ出力する。   The inverse quantization unit 63 inversely quantizes the quantized data input from the lossless decoding unit 62 in the same quantization step as that used for encoding, and restores transform coefficient data. The inverse quantization unit 63 outputs the restored transform coefficient data to the inverse orthogonal transform unit 64.

逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを生成する。逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。   The inverse orthogonal transform unit 64 generates prediction error data by performing inverse orthogonal transform on the transform coefficient data input from the inverse quantization unit 63 according to the orthogonal transform method used at the time of encoding. The inverse orthogonal transform unit 64 outputs the generated prediction error data to the addition unit 65.

加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71bから入力される予測画像データとを加算することにより、復号画像データを生成する。そして、加算部65は、生成した復号画像データをデブロックフィルタ66及びフレームメモリ70へ出力する。   The adding unit 65 generates decoded image data by adding the prediction error data input from the inverse orthogonal transform unit 64 and the predicted image data input from the selector 71b. Then, the adding unit 65 outputs the generated decoded image data to the deblock filter 66 and the frame memory 70.

デブロックフィルタ66は、加算部65から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データをSAOフィルタ67へ出力する。   The deblocking filter 66 removes block distortion by filtering the decoded image data input from the adding unit 65, and outputs the decoded image data after filtering to the SAO filter 67.

SAOフィルタ67は、デブロックフィルタ66から入力される復号画像データにエッジオフセット処理又はバンドオフセット処理を適用することによりノイズを除去し、処理後の復号画像データを並び替えバッファ68及びフレームメモリ70へ出力する。より具体的には、SAOフィルタ67は、可逆復号部62により復号されるSAO関連パラメータから、典型的にはCTBに相当し得るブロックごとに、オフセットタイプ、オフセット値のセット、及び、エッジオフセットクラス又はバンド位置などのその他のパラメータを識別する。ここで識別されるオフセット値は、画像符号化装置10によりブロックごとの画像特徴量に基づいて修正された値を示し得る。そして、SAOフィルタ67は、復号されたオフセット値で各ブロック内の画素値の各々をオフセットする。SAOフィルタ67は、オフセットタイプがオフセット無しを示す場合、ブロックがBピクチャ若しくはBスライスに属する場合、又は動きベクトルがゼロである場合に、当該ブロックについてオフセットをスキップしてもよい。   The SAO filter 67 removes noise by applying edge offset processing or band offset processing to the decoded image data input from the deblocking filter 66, and the decoded image data after processing is sent to the rearrangement buffer 68 and the frame memory 70. Output. More specifically, the SAO filter 67 typically sets an offset type, a set of offset values, and an edge offset class for each block that can correspond to a CTB from SAO-related parameters decoded by the lossless decoding unit 62. Or identify other parameters such as band position. The offset value identified here may indicate a value corrected by the image encoding device 10 based on the image feature amount for each block. Then, the SAO filter 67 offsets each pixel value in each block with the decoded offset value. The SAO filter 67 may skip the offset for the block when the offset type indicates no offset, when the block belongs to a B picture or B slice, or when the motion vector is zero.

並び替えバッファ68は、SAOフィルタ67から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ68は、生成した画像データをD/A変換部69へ出力する。   The rearrangement buffer 68 rearranges the images input from the SAO filter 67 to generate a series of time-series image data. Then, the rearrangement buffer 68 outputs the generated image data to the D / A conversion unit 69.

D/A変換部69は、並び替えバッファ68から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部69は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、復号された映像を表示させる。   The D / A converter 69 converts the digital image data input from the rearrangement buffer 68 into an analog image signal. The D / A conversion unit 69 displays the decoded video by outputting an analog image signal to a display (not shown) connected to the image decoding device 60, for example.

フレームメモリ70は、加算部65から入力されるフィルタリング前の復号画像データ、及びSAOフィルタ67から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。   The frame memory 70 stores the decoded image data before filtering input from the adding unit 65 and the decoded image data after filtering input from the SAO filter 67 using a storage medium.

セレクタ71aは、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ70からの画像データの出力先をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ71aは、イントラ予測モードが指定された場合には、フレームメモリ70から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部80へ出力する。また、セレクタ71aは、インター予測モードが指定された場合には、フィルタリング後の復号画像データを参照画像データとしてインター予測部85へ出力する。   The selector 71a switches the output destination of the image data from the frame memory 70 between the intra prediction unit 80 and the inter prediction unit 85 for each block in the image according to the mode information acquired by the lossless decoding unit 62. . For example, when the intra prediction mode is designated, the selector 71a outputs the decoded image data before filtering supplied from the frame memory 70 to the intra prediction unit 80 as reference image data. Also, when the inter prediction mode is designated, the selector 71a outputs the decoded image data after filtering to the inter prediction unit 85 as reference image data.

セレクタ71bは、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元をイントラ予測部80とインター予測部85との間で切り替える。例えば、セレクタ71bは、イントラ予測モードが指定された場合には、イントラ予測部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71bは、インター予測モードが指定された場合には、インター予測部85から出力される予測画像データを加算部65へ供給する。   The selector 71 b switches the output source of the predicted image data to be supplied to the adding unit 65 between the intra prediction unit 80 and the inter prediction unit 85 according to the mode information acquired by the lossless decoding unit 62. For example, the selector 71b supplies the prediction image data output from the intra prediction unit 80 to the addition unit 65 when the intra prediction mode is designated. Further, when the inter prediction mode is designated, the selector 71b supplies the predicted image data output from the inter prediction unit 85 to the addition unit 65.

イントラ予測部80は、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ70からの参照画像データとに基づいてイントラ予測処理を行い、予測画像データを生成する。そして、イントラ予測部80は、生成した予測画像データをセレクタ71bへ出力する。   The intra prediction unit 80 performs intra prediction processing based on the information related to intra prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 70, and generates predicted image data. Then, the intra prediction unit 80 outputs the generated predicted image data to the selector 71b.

インター予測部85は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ70からの参照画像データとに基づいてインター予測処理を行い、予測画像データを生成する。そして、インター予測部85は、生成した予測画像データをセレクタ71bへ出力する。   The inter prediction unit 85 performs inter prediction processing based on the information related to inter prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 70, and generates predicted image data. Then, the inter prediction unit 85 outputs the generated predicted image data to the selector 71b.

<6.ハードウェア構成例>
上述した実施形態は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。画像符号化装置10又は画像復号装置60がソフトウェアを使用する場合、ソフトウェアを構成するプログラムは、例えば、装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。
<6. Hardware configuration example>
The above-described embodiments may be realized using any of software, hardware, and a combination of software and hardware. When the image encoding device 10 or the image decoding device 60 uses software, a program constituting the software is stored in advance in, for example, a storage medium (non-transitory media) provided inside or outside the device. Stored. Each program is read into a RAM (Random Access Memory) at the time of execution and executed by a processor such as a CPU (Central Processing Unit).

図13は、上述した実施形態を適用可能な装置のハードウェア構成の一例を示すブロック図である。図13を参照すると、画像処理装置800は、システムバス810、画像処理チップ820及びオフチップメモリ890を備える。画像処理チップ820は、n個(nは1以上)の処理回路830−1、830−2、…、830−n、参照バッファ840、システムバスインタフェース850及びローカルバスインタフェース860を含む。   FIG. 13 is a block diagram illustrating an example of a hardware configuration of an apparatus to which the above-described embodiment can be applied. Referring to FIG. 13, the image processing apparatus 800 includes a system bus 810, an image processing chip 820, and an off-chip memory 890. The image processing chip 820 includes n (n is 1 or more) processing circuits 830-1, 830-2,..., 830-n, a reference buffer 840, a system bus interface 850, and a local bus interface 860.

システムバス810は、画像処理チップ820と外部モジュール(例えば、中央制御機能、アプリケーション機能、通信インタフェース又はユーザインタフェースなど)との間の通信路を提供する。処理回路830−1、830−2、…、830−nは、システムバスインタフェース850を介してシステムバス810と接続され、及びローカルバスインタフェース860を介してオフチップメモリ890と接続される。処理回路830−1、830−2、…、830−nは、オンチップメモリ(例えば、SRAM)に相当し得る参照バッファ840にもアクセスすることができる。オフチップメモリ890は、例えば、画像処理チップ820により処理される画像データを記憶するフレームメモリであってよい。   The system bus 810 provides a communication path between the image processing chip 820 and an external module (for example, a central control function, an application function, a communication interface, or a user interface). The processing circuits 830-1, 830-2,..., 830-n are connected to the system bus 810 via the system bus interface 850 and to the off-chip memory 890 via the local bus interface 860. The processing circuits 830-1, 830-2,..., 830-n can also access a reference buffer 840 that can correspond to an on-chip memory (eg, SRAM). The off-chip memory 890 may be a frame memory that stores image data processed by the image processing chip 820, for example.

一例として、処理回路830−1は上述したSAOフィルタ25又はSAOフィルタ67に、処理回路830−2は可逆符号化部16又は可逆復号部62に相当し得る。なお、これら処理回路は、同一の画像処理チップ820ではなく、別個のチップ上に形成されてもよい。上述した手法に従ってエンコーダ側のSAOフィルタにおいてオフセット値が修正される場合、SAO関連パラメータのシンタックスはインパクトを受けない。よって、オフセット値がRD最適化に基づく値から修正されるか否かに依存してデコーダのロジックを改変する必要性は無い。   As an example, the processing circuit 830-1 may correspond to the above-described SAO filter 25 or SAO filter 67, and the processing circuit 830-2 may correspond to the lossless encoding unit 16 or the lossless decoding unit 62. Note that these processing circuits may be formed not on the same image processing chip 820 but on separate chips. When the offset value is corrected in the encoder-side SAO filter according to the above-described method, the syntax of the SAO-related parameters is not affected. Thus, there is no need to alter the decoder logic depending on whether the offset value is modified from a value based on RD optimization.

<7.応用例>
上述した実施形態は、衛星回線、ケーブルTV回線、インターネット、若しくはセルラー通信ネットワークなどを用いて映像の符号化ストリームを送信する送信装置、又は映像の符号化ストリームを光ディスク、磁気ディスク若しくはフラッシュメモリなどの媒体に記録する記録装置、といった様々な電子機器に応用され得る。以下、3つの応用例について説明する。
<7. Application example>
In the above-described embodiment, a transmission device that transmits an encoded video stream using a satellite line, a cable TV line, the Internet, a cellular communication network, or the like, or an encoded video stream such as an optical disk, a magnetic disk, or a flash memory The present invention can be applied to various electronic devices such as a recording device for recording on a medium. Hereinafter, three application examples will be described.

(1)第1の応用例
図14は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、センサ部933、バス934及びバッテリー935を備える。
(1) First Application Example FIG. 14 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied. A cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation Part 932, sensor part 933, bus 934, and battery 935.

アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス934は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931及びセンサ部933を相互に接続する。   The antenna 921 is connected to the communication unit 922. The speaker 924 and the microphone 925 are connected to the audio codec 923. The operation unit 932 is connected to the control unit 931. The bus 934 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, the control unit 931, and the sensor unit 933 to each other.

携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。   The mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.

音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。   In the voice call mode, an analog voice signal generated by the microphone 925 is supplied to the voice codec 923. The audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922. The communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923. The audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.

また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。   Further, in the data communication mode, for example, the control unit 931 generates character data that constitutes an e-mail in response to an operation by the user via the operation unit 932. In addition, the control unit 931 causes the display unit 930 to display characters. In addition, the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922. The communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931. The control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.

記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。   The recording / reproducing unit 929 has an arbitrary readable / writable storage medium. For example, the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.

また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。   In the shooting mode, for example, the camera unit 926 captures an image of a subject, generates image data, and outputs the generated image data to the image processing unit 927. The image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.

また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。   Further, in the videophone mode, for example, the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to. The communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. These transmission signal and reception signal may include an encoded bit stream. Then, the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928. The demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923. The image processing unit 927 decodes the video stream and generates video data. The video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930. The audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.

センサ部933は、加速度センサ及びジャイロセンサなどのセンサ群を含み、携帯電話機920の動きを表す指標を出力する。バッテリー935は、図中では省略されている電力供給ラインを介して、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931及びセンサ部933に電力を供給する。   The sensor unit 933 includes a sensor group such as an acceleration sensor and a gyro sensor, and outputs an index representing the movement of the mobile phone 920. The battery 935 includes a communication unit 922, an audio codec 923, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, and a control via a power supply line which is omitted in the drawing. Power is supplied to the unit 931 and the sensor unit 933.

このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10の機能を有する。それにより、携帯電話機920において、画像特徴量に基づいてSAO処理の作用を適応的に軽減することができる。   In the mobile phone 920 configured as described above, the image processing unit 927 has the function of the image encoding device 10 according to the above-described embodiment. Thereby, in the mobile phone 920, the action of the SAO processing can be adaptively reduced based on the image feature amount.

(2)第2の応用例
図15は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
(2) Second Application Example FIG. 15 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied. For example, the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium. In addition, the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example. In addition, the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.

記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。   The recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.

チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。   The tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.

外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。   The external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network. The external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface. For example, video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.

エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。   The encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.

HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。   The HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.

ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)又はBlu−ray(登録商標)ディスクなどであってよい。   The disk drive 945 performs recording and reading of data with respect to the mounted recording medium. The recording medium mounted on the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .

セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。   The selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.

デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。   The decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.

OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。   The OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.

制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。   The control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example. The CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.

ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。   The user interface 950 is connected to the control unit 949. The user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like. The user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.

このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。それにより、記録再生装置940において、画像特徴量に基づいてSAO処理の作用を適応的に軽減することができる。   In the recording / reproducing apparatus 940 configured as described above, the encoder 943 has the function of the image encoding apparatus 10 according to the above-described embodiment. Thereby, the recording / reproducing apparatus 940 can adaptively reduce the action of the SAO processing based on the image feature amount.

(3)第3の応用例
図16は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
(3) Third Application Example FIG. 16 illustrates an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied. The imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.

撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、センサ972、バス973及びバッテリー974を備える。   The imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a sensor 972. , A bus 973 and a battery 974.

光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス973は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970及びセンサ972を相互に接続する。   The optical block 961 is connected to the imaging unit 962. The imaging unit 962 is connected to the signal processing unit 963. The display unit 965 is connected to the image processing unit 964. The user interface 971 is connected to the control unit 970. The bus 973 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, the control unit 970, and the sensor 972 to each other.

光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。   The optical block 961 includes a focus lens and a diaphragm mechanism. The optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962. The imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.

信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。   The signal processing unit 963 performs various camera signal processes such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962. The signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.

画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。   The image processing unit 964 encodes the image data input from the signal processing unit 963, and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.

OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。   The OSD 969 generates a GUI image such as a menu, a button, or a cursor, and outputs the generated image to the image processing unit 964.

外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。   The external interface 966 is configured as a USB input / output terminal, for example. The external interface 966 connects the imaging device 960 and a printer, for example, when printing an image. Further, a drive is connected to the external interface 966 as necessary. For example, a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960. Further, the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.

メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。   The recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as a built-in hard disk drive or an SSD (Solid State Drive) may be configured.

制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。   The control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example. The CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.

ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。   The user interface 971 is connected to the control unit 970. The user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960. The user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.

センサ972は、加速度センサ及びジャイロセンサなどのセンサ群を含み、撮像装置960の動きを表す指標を出力する。バッテリー974は、図中では省略されている電力供給ラインを介して、撮像部962、信号処理部963、画像処理部964、表示部965、メディアドライブ968、OSD969、制御部970及びセンサ972に電力を供給する。   The sensor 972 includes a sensor group such as an acceleration sensor and a gyro sensor, and outputs an index representing the movement of the imaging device 960. The battery 974 supplies power to the imaging unit 962, the signal processing unit 963, the image processing unit 964, the display unit 965, the media drive 968, the OSD 969, the control unit 970, and the sensor 972 via a power supply line that is omitted in the drawing. Supply.

このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10の機能を有する。それにより、撮像装置960において、画像特徴量に基づいてSAO処理の作用を適応的に軽減することができる。   In the imaging device 960 configured as described above, the image processing unit 964 has the function of the image encoding device 10 according to the above-described embodiment. Thereby, the imaging device 960 can adaptively reduce the action of the SAO processing based on the image feature amount.

<8.まとめ>
ここまで、図1〜図16を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、サンプル適応オフセット(SAO)処理において、リコンストラクト画像に適用すべきオフセット値が当該画像のブロックごとの画像特徴量に基づいて修正され、修正されたオフセット値でリコンストラクト画像の画素値がオフセットされる。それにより、SAO処理において過剰な又は不必要なオフセットが適用される結果として画像のテクスチャが不鮮明化し、復号画像の主観的画質が劣化してしまうという不都合を防止することができる。
<8. Summary>
So far, the embodiments of the technology according to the present disclosure have been described in detail with reference to FIGS. According to the above-described embodiment, in the sample adaptive offset (SAO) process, the offset value to be applied to the reconstructed image is corrected based on the image feature amount for each block of the image, and the reconstruct is performed using the corrected offset value. The pixel value of the image is offset. Accordingly, it is possible to prevent the inconvenience that the texture of the image becomes unclear and the subjective image quality of the decoded image is deteriorated as a result of applying an excessive or unnecessary offset in the SAO processing.

一実施例によれば、あるブロックの画像が比較的平坦であることを画像特徴量が示す場合に、SAO処理において当該ブロックに適用されるオフセットが縮小される。その結果、より少ない高周波成分しか含まない(即ち、除去すべきノイズも少ないと見込まれる)ブロックについて、ノイズ除去の利得に見合わない主観的画質の劣化が防止される。   According to one embodiment, when the image feature amount indicates that the image of a certain block is relatively flat, the offset applied to the block in the SAO process is reduced. As a result, it is possible to prevent deterioration of subjective image quality that does not match the gain of noise removal for a block that includes fewer high-frequency components (that is, less noise to be removed).

別の実施例によれば、あるブロックの高周波成分のロスが比較的少ないことを画像特徴量が示す場合に、SAO処理において当該ブロックに適用されるオフセットが縮小される。その結果、高周波成分のロスに起因して生じるノイズが少ないと見込まれるブロックについて、ノイズ除去の利得に見合わない主観的画質の劣化が防止される。   According to another embodiment, when the image feature amount indicates that the loss of high-frequency components in a block is relatively small, the offset applied to the block in the SAO process is reduced. As a result, it is possible to prevent deterioration in subjective image quality that does not match the gain of noise removal for a block that is expected to generate less noise due to loss of high-frequency components.

また別の実施例によれば、あるブロック内の全ての又は比較的多くのサブブロックにおいて動きベクトルがゼロである場合に、SAO処理において当該ブロックに適用されるオフセットが縮小され又はオフセットの適用がスキップされる。その結果、動きの無い画像領域においてオフセットが累積的に加算されることに起因する画像の不鮮明化が防止される。   According to another embodiment, when the motion vector is zero in all or a relatively large number of sub-blocks in a block, the offset applied to the block in SAO processing is reduced or the application of the offset is reduced. Skipped. As a result, it is possible to prevent the image from being blurred due to the cumulative addition of the offset in the image area having no motion.

また、上述した実施形態によれば、レート歪み(RD)最適化に基づいて判定されるオフセットを修正することにより得られる修正オフセット値が、SAO処理において利用され得る。かかる構成によれば、主観的画質を考慮しないRD最適化のみに基づくオフセット値が利用される既存の手法と比較して、復号画像の主観的画質を向上させることができる。   Further, according to the above-described embodiment, the corrected offset value obtained by correcting the offset determined based on the rate distortion (RD) optimization can be used in the SAO process. According to such a configuration, the subjective image quality of the decoded image can be improved as compared with an existing method in which an offset value based only on RD optimization that does not consider subjective image quality is used.

本明細書に記述したCTB、CB、PB及びTBとの用語は、CTU、CU、PU及びTUとの用語にそれぞれ置き換えられてもよい。CTB、CB、PB及びTBは、画像の一部分としての個々のブロック(又はサブブロック)を主に意味する一方、CTU、CU、PU及びTUは、関連付けられるシンタックスをも含む論理的な単位を主に意味する。   The terms CTB, CB, PB, and TB described herein may be replaced by the terms CTU, CU, PU, and TU, respectively. CTB, CB, PB, and TB primarily mean individual blocks (or sub-blocks) as part of an image, while CTU, CU, PU, and TU are logical units that also contain associated syntax. Mainly means.

また、本明細書では、SAO関連パラメータが、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。   Further, in this specification, the example in which the SAO related parameters are multiplexed in the header of the encoded stream and transmitted from the encoding side to the decoding side has been mainly described. However, the method for transmitting such information is not limited to such an example. For example, these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream. Here, the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream). Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果と共に、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。   In addition, the effects described in the present specification are merely illustrative or illustrative, and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification, together with the above effects or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、
前記オフセット修正部により修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、
を備える画像処理装置。
(2)
前記画像特徴量は、各ブロックの平坦さに関連する指標を含み、
前記オフセット修正部は、より平坦なブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、
前記(1)に記載の画像処理装置。
(3)
前記平坦さに関連する指標は、画素値の分散、標準偏差、及び一次微分総和、のうちの1つ以上を含む、前記(2)に記載の画像処理装置。
(4)
前記画像特徴量は、各ブロックにおける高周波成分のロスに関連する指標を含み、
前記オフセット修正部は、高周波成分のロスのより小さいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、
前記(1)に記載の画像処理装置。
(5)
前記高周波成分のロスに関連する指標は、変換係数がゼロであるサブブロックの割合、量子化パラメータ、及び動き補償のサンプル精度が特定の精度であるサブブロックの割合、のうちの1つ以上を含む、前記(4)に記載の画像処理装置。
(6)
前記オフセット修正部は、前記変換係数がゼロであるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、前記(5)に記載の画像処理装置。
(7)
前記オフセット修正部による前記修正の強さは、前記量子化パラメータの値が大きいほど弱められる、前記(6)に記載の画像処理装置。
(8)
前記オフセット修正部は、前記量子化パラメータがより小さいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、前記(5)に記載の画像処理装置。
(9)
前記オフセット修正部は、前記動き補償のサンプル精度が小数精度であるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、前記(5)に記載の画像処理装置。
(10)
前記画像特徴量は、動きベクトルがゼロであるサブブロックの割合を含む、前記(1)に記載の画像処理装置。
(11)
前記オフセット修正部は、前記動きベクトルがゼロであるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、前記(10)に記載の画像処理装置。
(12)
前記画像処理装置は、前記リコンストラクト画像に適用すべきオフセット値を、レート歪み最適化に基づいて前記ブロックごとに判定するオフセット判定部、をさらに備え、
前記オフセット修正部は、前記オフセット判定部により判定された前記オフセット値を、前記画像特徴量に基づいて修正する、
前記(1)〜(11)のいずれか1項に記載の画像処理装置。
(13)
前記オフセット判定部は、前記ブロックごとにオフセットタイプを選択し、
前記オフセット修正部は、選択された前記オフセットタイプがエッジオフセットであるブロックについて、前記オフセット値を修正する、
前記(12)に記載の画像処理装置。
(14)
前記オフセット部は、Bピクチャ又はBスライスに属するブロックの画素値をオフセットすることをスキップする、前記(1)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記オフセット部は、動きベクトルがゼロであるブロック又はサブブロックの画素値をオフセットすることをスキップする、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記ブロックは、CTB(Coding Tree Block)に相当する、前記(1)〜(15)のいずれか1項に記載の画像処理装置。
(17)
リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正することと、
修正された前記オフセット値で、前記リコンストラクト画像の画素値をオフセットすることと、
を含む画像処理方法。
(18)
リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、
前記オフセット修正部により修正されたオフセット値を符号化する符号化部と、
前記符号化部により符号化された前記修正されたオフセット値を復号する復号部と、
前記復号部により復号された前記修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、
を備える画像処理システム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
An offset correction unit that corrects an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
An offset unit for offsetting a pixel value of the reconstructed image with an offset value corrected by the offset correcting unit;
An image processing apparatus comprising:
(2)
The image feature amount includes an index related to flatness of each block,
The offset correction unit corrects the offset value so that a smaller offset value is applied to a flatter block;
The image processing apparatus according to (1).
(3)
The index related to the flatness is the image processing apparatus according to (2), including one or more of a variance of pixel values, a standard deviation, and a first derivative sum.
(4)
The image feature amount includes an index related to a loss of high frequency components in each block,
The offset correction unit corrects the offset value so that a smaller offset value is applied to a block with a smaller loss of high-frequency components.
The image processing apparatus according to (1).
(5)
The index related to the loss of the high-frequency component may be one or more of a ratio of sub-blocks whose transform coefficient is zero, a quantization parameter, and a ratio of sub-blocks whose motion compensation sample accuracy is a specific accuracy. The image processing apparatus according to (4), including:
(6)
The image processing apparatus according to (5), wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger ratio of sub-blocks having the transform coefficient of zero.
(7)
The image processing apparatus according to (6), wherein the strength of the correction performed by the offset correction unit is reduced as the value of the quantization parameter increases.
(8)
The image processing apparatus according to (5), wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a smaller quantization parameter.
(9)
The image according to (5), wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger proportion of sub-blocks in which the motion compensation sample accuracy is decimal accuracy. Processing equipment.
(10)
The image processing device according to (1), wherein the image feature amount includes a ratio of sub-blocks having a motion vector of zero.
(11)
The image processing apparatus according to (10), wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger proportion of sub-blocks in which the motion vector is zero.
(12)
The image processing apparatus further includes an offset determination unit that determines an offset value to be applied to the reconstructed image for each block based on rate distortion optimization,
The offset correction unit corrects the offset value determined by the offset determination unit based on the image feature amount;
The image processing apparatus according to any one of (1) to (11).
(13)
The offset determination unit selects an offset type for each block,
The offset correction unit corrects the offset value for a block in which the selected offset type is an edge offset;
The image processing apparatus according to (12).
(14)
The image processing apparatus according to any one of (1) to (13), wherein the offset unit skips offsetting a pixel value of a block belonging to a B picture or a B slice.
(15)
The image processing apparatus according to any one of (1) to (14), wherein the offset unit skips offsetting a pixel value of a block or sub-block whose motion vector is zero.
(16)
The image processing apparatus according to any one of (1) to (15), wherein the block corresponds to a CTB (Coding Tree Block).
(17)
Correcting an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
Offsetting the pixel value of the reconstructed image with the modified offset value;
An image processing method including:
(18)
An offset correction unit that corrects an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
An encoding unit for encoding the offset value corrected by the offset correction unit;
A decoding unit for decoding the modified offset value encoded by the encoding unit;
An offset unit for offsetting a pixel value of the reconstructed image with the corrected offset value decoded by the decoding unit;
An image processing system comprising:

1 画像処理システム
10 画像処理装置(画像符号化装置)
16 可逆符号化部
25 SAOフィルタ
41 オフセット判定部
43 特徴量取得部
45 オフセット修正部
47 オフセット部
60 画像処理装置(画像復号装置)
62 可逆復号部
67 SAOフィルタ
DESCRIPTION OF SYMBOLS 1 Image processing system 10 Image processing apparatus (image coding apparatus)
DESCRIPTION OF SYMBOLS 16 Lossless encoding part 25 SAO filter 41 Offset determination part 43 Feature-value acquisition part 45 Offset correction part 47 Offset part 60 Image processing apparatus (image decoding apparatus)
62 Lossless decoding unit 67 SAO filter

Claims (18)

リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、
前記オフセット修正部により修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、
を備える画像処理装置。
An offset correction unit that corrects an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
An offset unit for offsetting a pixel value of the reconstructed image with an offset value corrected by the offset correcting unit;
An image processing apparatus comprising:
前記画像特徴量は、各ブロックの平坦さに関連する指標を含み、
前記オフセット修正部は、より平坦なブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、
請求項1に記載の画像処理装置。
The image feature amount includes an index related to flatness of each block,
The offset correction unit corrects the offset value so that a smaller offset value is applied to a flatter block;
The image processing apparatus according to claim 1.
前記平坦さに関連する指標は、画素値の分散、標準偏差、及び一次微分総和、のうちの1つ以上を含む、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the index relating to flatness includes one or more of a variance of pixel values, a standard deviation, and a first-order differential sum. 前記画像特徴量は、各ブロックにおける高周波成分のロスに関連する指標を含み、
前記オフセット修正部は、高周波成分のロスのより小さいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、
請求項1に記載の画像処理装置。
The image feature amount includes an index related to a loss of high frequency components in each block,
The offset correction unit corrects the offset value so that a smaller offset value is applied to a block with a smaller loss of high-frequency components.
The image processing apparatus according to claim 1.
前記高周波成分のロスに関連する指標は、変換係数がゼロであるサブブロックの割合、量子化パラメータ、及び動き補償のサンプル精度が特定の精度であるサブブロックの割合、のうちの1つ以上を含む、請求項4に記載の画像処理装置。   The index related to the loss of the high-frequency component is one or more of a ratio of sub-blocks having a transform coefficient of zero, a quantization parameter, and a ratio of sub-blocks having a specific accuracy of motion compensation sampling The image processing apparatus according to claim 4, further comprising: 前記オフセット修正部は、前記変換係数がゼロであるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger ratio of sub blocks in which the transform coefficient is zero. 前記オフセット修正部による前記修正の強さは、前記量子化パラメータの値が大きいほど弱められる、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the correction strength by the offset correction unit is weakened as the value of the quantization parameter increases. 前記オフセット修正部は、前記量子化パラメータがより小さいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a smaller quantization parameter. 前記オフセット修正部は、前記動き補償のサンプル精度が小数精度であるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、請求項5に記載の画像処理装置。   The image processing according to claim 5, wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger proportion of sub-blocks in which the motion compensation sample accuracy is decimal accuracy. apparatus. 前記画像特徴量は、動きベクトルがゼロであるサブブロックの割合を含む、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image feature amount includes a proportion of sub-blocks having a motion vector of zero. 前記オフセット修正部は、前記動きベクトルがゼロであるサブブロックの割合がより大きいブロックにより小さいオフセット値が適用されるように前記オフセット値を修正する、請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the offset correction unit corrects the offset value so that a smaller offset value is applied to a block having a larger proportion of sub-blocks in which the motion vector is zero. 前記画像処理装置は、前記リコンストラクト画像に適用すべきオフセット値を、レート歪み最適化に基づいて前記ブロックごとに判定するオフセット判定部、をさらに備え、
前記オフセット修正部は、前記オフセット判定部により判定された前記オフセット値を、前記画像特徴量に基づいて修正する、
請求項1に記載の画像処理装置。
The image processing apparatus further includes an offset determination unit that determines an offset value to be applied to the reconstructed image for each block based on rate distortion optimization,
The offset correction unit corrects the offset value determined by the offset determination unit based on the image feature amount;
The image processing apparatus according to claim 1.
前記オフセット判定部は、前記ブロックごとにオフセットタイプを選択し、
前記オフセット修正部は、選択された前記オフセットタイプがエッジオフセットであるブロックについて、前記オフセット値を修正する、
請求項12に記載の画像処理装置。
The offset determination unit selects an offset type for each block,
The offset correction unit corrects the offset value for a block in which the selected offset type is an edge offset;
The image processing apparatus according to claim 12.
前記オフセット部は、Bピクチャ又はBスライスに属するブロックの画素値をオフセットすることをスキップする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the offset unit skips offsetting pixel values of blocks belonging to a B picture or a B slice. 前記オフセット部は、動きベクトルがゼロであるブロック又はサブブロックの画素値をオフセットすることをスキップする、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the offset unit skips offsetting a pixel value of a block or sub-block whose motion vector is zero. 前記ブロックは、CTB(Coding Tree Block)に相当する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the block corresponds to a CTB (Coding Tree Block). リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正することと、
修正された前記オフセット値で、前記リコンストラクト画像の画素値をオフセットすることと、
を含む画像処理方法。
Correcting an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
Offsetting the pixel value of the reconstructed image with the modified offset value;
An image processing method including:
リコンストラクト画像に適用すべきオフセット値を、前記リコンストラクト画像のブロックごとの画像特徴量に基づいて修正するオフセット修正部と、
前記オフセット修正部により修正されたオフセット値を符号化する符号化部と、
前記符号化部により符号化された前記修正されたオフセット値を復号する復号部と、
前記復号部により復号された前記修正されたオフセット値で、前記リコンストラクト画像の画素値をオフセットするオフセット部と、
を備える画像処理システム。
An offset correction unit that corrects an offset value to be applied to the reconstructed image based on an image feature amount for each block of the reconstructed image;
An encoding unit for encoding the offset value corrected by the offset correction unit;
A decoding unit for decoding the modified offset value encoded by the encoding unit;
An offset unit for offsetting a pixel value of the reconstructed image with the corrected offset value decoded by the decoding unit;
An image processing system comprising:
JP2014209220A 2014-10-10 2014-10-10 Image processing apparatus, image processing method, and image processing system Expired - Fee Related JP6269431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014209220A JP6269431B2 (en) 2014-10-10 2014-10-10 Image processing apparatus, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014209220A JP6269431B2 (en) 2014-10-10 2014-10-10 Image processing apparatus, image processing method, and image processing system

Publications (3)

Publication Number Publication Date
JP2016082304A true JP2016082304A (en) 2016-05-16
JP2016082304A5 JP2016082304A5 (en) 2017-02-23
JP6269431B2 JP6269431B2 (en) 2018-01-31

Family

ID=55956537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014209220A Expired - Fee Related JP6269431B2 (en) 2014-10-10 2014-10-10 Image processing apparatus, image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP6269431B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054489A (en) * 2017-09-19 2019-04-04 富士通株式会社 Information processor, information processing method and information processing program
WO2019139012A1 (en) * 2018-01-09 2019-07-18 シャープ株式会社 Image filter device, image decoder, image encoder, and data structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176910A1 (en) * 2011-06-23 2012-12-27 シャープ株式会社 Offset decoding device, offset encoding device, image filter device, and data structure
US20130287124A1 (en) * 2011-01-14 2013-10-31 Telefonaktiebolaget L M Ericsson (Publ) Deblocking Filtering
US20140050272A1 (en) * 2011-01-14 2014-02-20 Telefonaktiebolaget L M Ericsson (Publ) Deblocking filtering

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130287124A1 (en) * 2011-01-14 2013-10-31 Telefonaktiebolaget L M Ericsson (Publ) Deblocking Filtering
US20140050272A1 (en) * 2011-01-14 2014-02-20 Telefonaktiebolaget L M Ericsson (Publ) Deblocking filtering
JP2014507863A (en) * 2011-01-14 2014-03-27 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Deblocking filtering
WO2012176910A1 (en) * 2011-06-23 2012-12-27 シャープ株式会社 Offset decoding device, offset encoding device, image filter device, and data structure

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IL-KOO KIM (SAMSUNG): "High Efficiency Video Coding (HEVC) Test Model 15 (HM15) Encoder Description[online]", JCTVC-Q JCTVC-Q1002, JPN6017039777, pages 22 - 24, ISSN: 0003664032 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054489A (en) * 2017-09-19 2019-04-04 富士通株式会社 Information processor, information processing method and information processing program
JP6992351B2 (en) 2017-09-19 2022-01-13 富士通株式会社 Information processing equipment, information processing methods and information processing programs
WO2019139012A1 (en) * 2018-01-09 2019-07-18 シャープ株式会社 Image filter device, image decoder, image encoder, and data structure

Also Published As

Publication number Publication date
JP6269431B2 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
US10499057B2 (en) Image processing device and image processing method
US10614593B2 (en) Image processing device and method
US10666945B2 (en) Image processing device and image processing method for decoding a block of an image
US11245895B2 (en) Image processing device and image processing method to apply deblocking filter
US8811480B2 (en) Encoding apparatus, encoding method, decoding apparatus, and decoding method
US9571838B2 (en) Image processing apparatus and image processing method
WO2012153578A1 (en) Image processing device and image processing method
WO2014002896A1 (en) Encoding device, encoding method, decoding device, and decoding method
US20160241882A1 (en) Image processing apparatus and image processing method
WO2014045919A1 (en) Image processing device and method
JP2011223337A (en) Image processing device and method
US20140286436A1 (en) Image processing apparatus and image processing method
JP2012085211A (en) Image processing device and method, and program
JPWO2019003676A1 (en) Image processing apparatus, image processing method, and program
WO2014148070A1 (en) Image processing device and image processing method
JP6217826B2 (en) Image processing apparatus and image processing method
JP6269431B2 (en) Image processing apparatus, image processing method, and image processing system
AU2017201515B2 (en) Image processing device and method
US12137220B2 (en) Imaging apparatus and information processing method to apply deblocking filter
WO2012124406A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R151 Written notification of patent or utility model registration

Ref document number: 6269431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees