JP2021077037A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2021077037A JP2021077037A JP2019202614A JP2019202614A JP2021077037A JP 2021077037 A JP2021077037 A JP 2021077037A JP 2019202614 A JP2019202614 A JP 2019202614A JP 2019202614 A JP2019202614 A JP 2019202614A JP 2021077037 A JP2021077037 A JP 2021077037A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- vector
- processing apparatus
- patch
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 126
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 127
- 238000012937 correction Methods 0.000 claims abstract description 96
- 239000013598 vector Substances 0.000 claims abstract description 90
- 239000011159 matrix material Substances 0.000 claims abstract description 68
- 230000009467 reduction Effects 0.000 claims abstract description 32
- 238000009826 distribution Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 34
- 238000001514 detection method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 6
- 238000007792 addition Methods 0.000 claims description 2
- 239000006185 dispersion Substances 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 44
- 238000003860 storage Methods 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 12
- 238000003786 synthesis reaction Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000009377 nuclear transmutation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
カメラで撮像した画像にはノイズが含まれ、特に高感度で撮像を行う際にはノイズの量が多くなる。従来、そのようなノイズ量の増大を押さえるため、画像の中から、複数の画素からなるパッチに注目し、そのようなパッチベースでノイズを低減する技術が知られている。 The image captured by the camera contains noise, and the amount of noise increases especially when imaging with high sensitivity. Conventionally, in order to suppress such an increase in the amount of noise, a technique has been known in which a patch composed of a plurality of pixels is focused on from an image and noise is reduced based on such a patch.
例えば、非特許文献1に開示される技術では、撮像画像からパッチ集合を選択し、そのパッチ集合の画素値の平均及び共分散集合により表現されるパッチの確率モデルを生成し、最大事後確率法に基づいてすべてのパッチに対してノイズ低減処理が行われる。次いで、ノイズ低減処理が行われたパッチを用いてアグリゲーションと呼ばれる合成処理を行うことにより、デノイズされた画像を生成することができる。このような手法は、NLベイズ法と呼ばれている。 For example, in the technique disclosed in Non-Patent Document 1, a patch set is selected from an captured image, a patch probability model represented by the average of the pixel values of the patch set and a covariance set is generated, and the maximum a posteriori method is used. Noise reduction processing is performed for all patches based on. Next, a denoised image can be generated by performing a synthesis process called aggregation using the patch to which the noise reduction process has been performed. Such a method is called the NL Bayes method.
また例えば、特許文献1では、パッチ集合に対して主成分分析を行い、分析に基づいてパッチ集合内の全てのパッチに対してノイズ低減処理を行い、次いで非特許文献1と同様にパッチの合成処理を行うことでデノイズされた画像を生成する処理が開示されている。 Further, for example, in Patent Document 1, principal component analysis is performed on the patch set, noise reduction processing is performed on all patches in the patch set based on the analysis, and then patch synthesis is performed as in Non-Patent Document 1. A process for generating a denoised image by performing the process is disclosed.
しかしながら、非特許文献1及び特許文献1に開示される技術では、出力画像に固定パターンのノイズが発生する場合があるという課題がある。 However, the techniques disclosed in Non-Patent Document 1 and Patent Document 1 have a problem that noise of a fixed pattern may occur in the output image.
本発明は、固定パターンのノイズを取り除きやすい技術を提供する。 The present invention provides a technique for easily removing noise of a fixed pattern.
本発明の目的を達成するために、例えば、一実施形態に係るは以下の構成を備える。すなわち、入力画像における第1の部分領域と画素値の分布が類似する複数の第2の部分領域を検出する検出手段と、前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する第1の生成手段と、前記第1の生成手段により生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記第1の生成手段により生成されたそれぞれのベクトルを変換する第1の変換手段と、前記第1の変換手段により変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記第1の変換手段により変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する第1の補正手段と、前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正する第2の補正手段と、前記第2の補正手段により補正されたそれぞれのベクトルに対して、前記第1の変換手段による変換の逆変換を行う第2の変換手段と、前記第2の変換手段により変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する第2の生成手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, one embodiment has the following configuration. That is, the detection means for detecting a plurality of second partial regions having a similar distribution of pixel values to the first partial region in the input image, and the second partial region for each of the plurality of second partial regions. The first generation means for generating a vector having the pixel value in the element is equal to the standard deviation of the element at the corresponding position in each vector generated by the first generation means. A first conversion means for converting each vector generated by the first conversion means, a plurality of eigenvalues obtained from a covariance matrix based on each vector converted by the first conversion means, and the first conversion. A first correction means that calculates the result of correcting each of the plurality of eigenvalues as a correction value based on the variance between the vectors converted by the means, and each correction calculated by the first correction means. Based on the value and the eigenvector obtained from the covariance matrix, the second correction means for correcting each vector converted by the first conversion means and the second correction means for correction. After the noise reduction processing for the input image based on the second conversion means that performs the inverse conversion of the conversion by the first conversion means for each vector and the vector converted by the second conversion means. It is characterized by comprising a second generation means for generating the image of.
固定パターンのノイズを取り除きやすい技術を提供することができる。 It is possible to provide a technique that makes it easy to remove noise of a fixed pattern.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.
[実施形態1]
本実施形態に係る画像処理装置は、パッチベースのノイズ低減処理を実行する。図1は、本実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。図1の例において、画像処理装置100は、CPU101、RAM102、記憶部103、汎用インターフェース104、及び表示部105を有しており、これらがメインパス106を介して相互に接続されている。また、画像処理装置100には、汎用インターフェース104を介して外部メモリ110及び入力装置120が接続されている。
[Embodiment 1]
The image processing apparatus according to this embodiment executes patch-based noise reduction processing. FIG. 1 is a block diagram showing an example of the hardware configuration of the image processing device according to the present embodiment. In the example of FIG. 1, the
CPU101は、RAM102に格納されているソフトウェア(コンピュータプログラム)を実行することで、画像処理装置100全体の動作制御を行うと共に、画像処理装置100が行うものとして後述する各処理を実行もしくは制御する。RAM102は、記憶部103からロードされたコンピュータプログラムやデータを保持するためのエリアや、CPU101が各種の処理を実行する際に用いるワークエリアを有する。記憶部103は、各種コンピュータプログラム及び各種データなどを格納する、HDD、ROM、又はSSDなどの記憶装置である。汎用インターフェースは、外部メモリ110及び入力装置120との間のデータ通信を行うために利用されるインターフェースである。表示部105は、CPU101による処理結果を画像や文字などでもって表示する表示装置である。表示部105は、例えば、液晶ディスプレイ又は有機ELディスプレイなどであってもよい。外部メモリ110は、撮像された画像を格納する記憶装置である。入力装置120は、ユーザ入力を取得する、例えばマウス、キーボード、タッチパネル、ボタンなどから構成される入力装置である。
By executing software (computer program) stored in the
以下、CPU101が記憶部103に格納された各種ソフトウェア(コンピュータプログラム)を実現させることにより実現する各種処理の一例について説明する。CPU101は、まず、記憶部103に格納されている画像処理プログラムを起動することができる。次いで、CPU101は、画像処理プログラムをRAM102に展開し、及びユーザインターフェース画面(以下UI画面)を表示部105へと表示してもよい。また、CPU101は、入力装置120を介したユーザ入力に基づいて、外部メモリ110に格納されている入力画像をRAM102へと読み込むことができる。さらにCPU101は、ユーザ入力に基づいて、RAM102に格納した入力画像に対して、後述するノイズ低減処理を行う。そのようにノイズ低減処理を受けた入力画像は、処理後に再びRAM102へと格納され、及び、ユーザ指示に基づいて一連の処理を施された後に、表示部105での表示又は外部メモリ110への格納といった、所定の出力に供されてもよい。
Hereinafter, an example of various processes realized by the
なお、各種ソフトウェア(コンピュータプログラム)及び各種データなどを格納する装置は記憶部103に限定されない。例えば、各種ソフトウェア(コンピュータプログラム)及び各種データなどを、不図示のネットワークを通じて画像処理装置100と接続されているサーバなどに格納していてもよく、外部メモリ110に格納していてもよい。また、そのように格納される各種データは特に限定されず、例えば、入力画像が格納されていてもよい。
The device for storing various software (computer programs) and various data is not limited to the
本実施形態においては、画像処理装置100は、CPU101、RAM102、記憶部103、汎用インターフェース104、及び表示部105を内部に有し、並びに、外部メモリ110及び入力装置120を外部に有している。しかし、画像処理装置100の構成は特にこれには限定されない。例えば、画像処理装置100は、表示部105を外部に有していてもよい。また、タッチパネルのように入力装置120と表示部105とが一体化されていてもよい。また、スマートフォンやタブレット端末のように画像処理装置100と入力装置120とが、一体化されていてもよい。
In the present embodiment, the
[パッチベースのノイズ低減処理]
まず、パッチベースのノイズ低減処理の概要について説明する。本実施形態に係る画像処理装置は、入力画像に対して、着目画素の位置に応じて位置が定まる、所定の範囲を有する部分領域(以下、着目パッチと呼ぶ)を設定する。次いで、画像処理装置は、着目画素の位置に応じて定まる、着目画素近傍の所定の部分領域内の各画素を参照画素とし、各参照画素の位置に応じて位置が定まる着目パッチと同サイズの領域を、参照画素に対応する参照パッチとしてそれぞれ設定する。参照パッチは、着目パッチに対してノイズ低減処理を行う際に、後述の検出部203によって参照される。さらに、画像処理装置は、設定された参照パッチの集合から、着目パッチとの類似度(後述)が高い参照パッチを類似パッチとして1つ以上検出し、一つの着目パッチに対する類似パッチの集合をパッチ集合とする。画像処理装置は、各パッチ集合に対して、パッチ集合の有する類似パッチそれぞれについてノイズ低減処理を行う。最後に、画像処理装置は、ノイズ低減処理を行った各類似パッチを合成(アグリゲーション)することにより、入力画像について、ノイズ低減処理が行われた画像を生成する。以下において、着目パッチ、参照パッチ、類似パッチ、及びパッチ集合の定義は、これに従うものとする。本実施形態に係る画像処理装置が行う各処理について、詳細な説明は図3のフローチャートを用いて後述する。
[Patch-based noise reduction processing]
First, an outline of patch-based noise reduction processing will be described. The image processing apparatus according to the present embodiment sets a partial region (hereinafter, referred to as a patch of interest) having a predetermined range in which the position is determined according to the position of the pixel of interest with respect to the input image. Next, the image processing device uses each pixel in a predetermined partial region near the pixel of interest, which is determined according to the position of the pixel of interest, as a reference pixel, and has the same size as the patch of interest, the position of which is determined according to the position of each reference pixel. Each region is set as a reference patch corresponding to a reference pixel. The reference patch is referred to by the
図2は、本実施形態に係る画像処理装置100の機能構成の一例を示すブロック図である。本実施形態に係る画像処理装置100は、入力部201、設定部202、検出部203、取得部204、変換部205、行列算出部206、固有値算出部207、算出部208、補正部209、逆変換部210、及び合成部211を有する。本実施形態に係る画像処理装置100は、図2に示されるように一つの機器によって構成されていてもよく、複数の装置が互いに接続された構成を有していてもよい。
FIG. 2 is a block diagram showing an example of the functional configuration of the
入力部201は、入力画像の画像データを取得する。本実施形態においては、入力部201は、0〜255(8ビット)の画素値を有するモノクロの入力画像を取得するものとするが、入力部201が取得する入力画像の形式は特に限定されない。入力部201が取得する入力画像は、例えば、1ビットの画像であってもよく、又は、10ビット、12ビット、14ビット、若しくは16ビットのような多ビット数の画像であってもよい。また、入力部201が取得する入力画像は、RGB、XYZ、Labなどのような表色系で表される、複数の色成分ごとの画像からなるカラー画像であってもよい。例えば、入力部201が取得する入力画像は、14bitのBayer配列の画像であってもよい。
The
設定部202は、入力部201が取得した入力画像内に、着目画素及び着目パッチを設定する。本実施形態では、設定部202は、任意の画素を着目画素として設定し、次いで、その着目画素を中心とした5×5ピクセルのサイズの領域を着目パッチとして設定する。なお、本実施形態では、入力画像上の全ての画素が着目画素として設定されるものとするが、特にそのように限定されるわけではない。例えば、設定部202は、入力画像上に着目パッチがタイル状に配置されるように、所定の間隔で着目画素を設定してもよい。本実施形態では、入力画像の左上の画素からラスタ順に着目画素を設定していくものとする。つまり、左上隅の画素から同じ列の右端の画素までを順に着目画素として設定し、次いで一つ下の列の左端から右端までの画素を順に着目画素として設定し、そのような作業を下端の行まで順番に繰り返していくものとする。また、着目パッチを含む後述する各パッチは、そのパッチに含まれる画素の画素値を一列に並べた(つまり、本実施形態では一列に25個の要素を有する)列ベクトルとして表現するものとする。
The
また、本実施形態においては、着目パッチは着目画素を中心とする5×5サイズの領域として設定されるものとするが、特にそのように限定されるわけではない。例えば、着目画素を最端(例えば、左上隅)とする5×5サイズの領域を着目パッチとしてもよく、又は着目パッチが着目画素を含んでいなくともよい。また、着目パッチのサイズは5×5サイズに限定されるものではなく、適宜所望の大きさを有するものとして設定されてもよい。さらに、入力部201が複数の色成分を含む入力画像を取得する場合において、設定部202は、画素の色成分ごとに別々の着目パッチを設定してもよく、着目パッチを5×5×色成分数個の要素を一列に並べた一つの列ベクトルとしてもよい。例えば画素の色成分ごとに別々の着目パッチを設定した場合において、本実施形態に係る画像処理装置100は、後続する処理を、色成分ごとに別々に行う。
Further, in the present embodiment, the patch of interest is set as a region of 5 × 5 size centered on the pixel of interest, but is not particularly limited to that. For example, a region having a size of 5 × 5 with the pixel of interest at the end (for example, the upper left corner) may be the patch of interest, or the patch of interest may not include the pixel of interest. Further, the size of the patch of interest is not limited to the 5 × 5 size, and may be appropriately set to have a desired size. Further, when the
検出部203は、各着目画素の位置に応じてそれぞれ定まる、着目画素の近傍の所定の領域に含まれる各参照画素に対応する、着目パッチと同等のサイズを有する参照パッチを設定する。次いで検出部203は、設定した参照パッチの集合から、着目パッチと類似した画素値の分布を有する参照パッチを類似パッチとして検出する。検出部203は、例えば、参照パッチそれぞれについて着目パッチとの類似度を算出し、算出された類似度に応じて類似パッチとするかどうかの判定を行ってもよい。類似度の算出処理については後述する。参照画素が設定される着目画素の近傍の所定の領域の範囲は特に限定されないが、以下においては説明のため、着目画素を中心とした15×15のサイズの領域が有する各画素を参照画素とするものとする。また、参照画素の位置に基づく参照パッチの設定位置も特に限定はされないが、本実施形態では、着目画素に対する着目パッチの設定と同様に行われるものとする。したがって、検出部203は、着目画素を中心とした225画素を参照画素として設定し、それらの参照画素に対応する参照パッチから最大225の類似パッチを検出する。また、参照画素及び参照パッチは、それぞれ着目画素及び着目パッチを含んでいてもよい。類似パッチの検出処理については後述する。
The
取得部204は、類似パッチ間の対応する画素ごとのノイズの標準偏差を推測し、その推測された値を定数倍した値(以下、スケール値と呼ぶ)を、その画素位置の画素値として有する、標準偏差パッチを取得する。そのために、本実施形態に係る取得部204は、類似パッチの集合であるパッチ集合について、対応する画素ごとに平均をとった平均パッチを取得する。次いで、取得部204は、平均パッチに基づいて、例えば後述する式(3)に基づいて標準偏差パッチを取得する。本実施形態においては、平均パッチ及び標準偏差パッチは類似パッチと等しいサイズを有する。
The
変換部205は、各類似パッチの画素それぞれを、類似パッチ間の対応する画素ごとのノイズの標準偏差がどの位置においても等しくなるように変換する。変換部205は、平均パッチ及び標準偏差パッチに基づいて、上述の変換を行う。変換部205による変換処理の詳細はステップS308において後述する。また、以下においてこの変換によって等しくなった類似パッチのノイズの標準偏差を変換後標準偏差とし、変換後標準偏差の2乗を変換後分散とする。また、変換部205によって変換された各類似パッチを変換パッチと呼ぶものとする。
The
行列算出部206は、各変換パッチに基づいて共分散行列を算出する。行列算出部206が算出する共分散行列は、変換パッチのある画素と別の画素との間にどのような相関関係があるのかを示している。行列算出部206による算出の詳細はステップS309において後述する。
The
固有値算出部207は、算出された共分散行列から、その共分散行列の固有値及び固有ベクトルを算出する。固有値算出部207が算出する固有ベクトルは、変換パッチに基づく共分散行列から算出される主成分であり、変換パッチから抽出されたテクスチャ成分を示している。したがって、各変換パッチは、抽出されたテクスチャ成分と、平均パッチと、を用いて示すことができる。また、固有値算出部207が算出する固有値は、対応する固有ベクトルの分散を示している。つまり、そのようなテクスチャ成分が各変換パッチに出現する度合いの変動を示している。したがって、固有ベクトルに対応する固有値が大きいほど、その固有ベクトルが示すテクスチャ成分の変動が大きくなる。また、詳細はステップS311において後述するが、テクスチャ成分の変動が極めて小さい場合においては、そのテクスチャ成分に対応する固有値は、本実施形態においては、ノイズの分散程度の値とされる。
The
算出部208は、固有値算出部207が算出した固有値及び固有ベクトルに基づいて、変換パッチの補正に用いる補正用行列を算出する。算出部208が算出する補正用行列は、変換パッチについてノイズを低減するために用いられる。そのために、算出部208は、まず固有値の補正を行う。本実施形態においては、算出部208は、固有値がノイズによって偶然小さな値となる場合に、そのような固有値を補正することにより、その固有値に対応する固有ベクトルが被写体のテクスチャとしてノイズ低減後の画像に残留しにくくすることができる。次いで、算出部208は、補正した固有値(以下補正値と呼ぶ)を用いて補正用行列を生成する。補正値の算出、及び補正用行列の生成について、詳細な工程はステップS311及びS312においてそれぞれ後述する。
The
補正部209は、生成された補正用行列に基づいて、各変換パッチの補正を行う。つまり、各変換パッチのノイズの低減を行う。また、逆変換部210は、平均パッチ及び標準偏差パッチに基づいて、ノイズの低減を行った各変換パッチを変換する。本実施形態においては、逆変換部210は、変換部205による変換を打ち消すような変換を行う。以下、逆変換部210が変換した変換パッチを逆変換パッチと呼ぶものとする。合成部211は、逆変換部210が変換した各逆変換パッチを合成(アグリゲーション)することによって、ノイズが低減された画像データを生成する。補正処理、逆変換処理、及び合成処理の一例については、それぞれステップS313、S314、及びS315〜S317において後述する。
The
図2に示した各機能部はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。本実施形態では、図2に示した各機能部はコンピュータプログラムで実装されるものとする。また以下では、図2に示した機能部を処理の主体として説明するが、実際には、該機能部の機能をCPU101に実現させるためのコンピュータプログラムをCPU101が実行することで、該機能部の機能が実現される。
Each functional part shown in FIG. 2 may be implemented by hardware or may be implemented by a computer program. In this embodiment, each functional unit shown in FIG. 2 is implemented by a computer program. Further, in the following, the functional unit shown in FIG. 2 will be described as the main body of the processing, but in reality, the
以下、図3を参照して、本実施形態に係る画像処理装置によるノイズ低減処理の流れを説明する。図3は本実施形態に係るノイズ低減処理を行うための処理手順の一例を示すフローチャートである。 Hereinafter, the flow of noise reduction processing by the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing an example of a processing procedure for performing the noise reduction processing according to the present embodiment.
S301において入力部201は入力画像の画像データを読み込む。S302において合成部211は、アグリゲーションを行うための分子用画像及び分母用画像のそれぞれにおける各画素の画素値を0に初期化する。この分子用画像及び分母用画像は、垂直方向及び水平方向どちらに関しても入力画像と同じ画素数を有する。分子用画像には、後述する合成処理において、S315で、各逆変換パッチの有する画素値が、それぞれ対応する位置に加算される。次いでS317において、合成部211が、分子用画像上に加算された値を、それぞれの位置の加算回数に応じて平均化する。そのために、分母用画像は、各逆変換パッチの画素値が分子用画像上に加算された回数を、各位置に格納する役割を果たす。
In S301, the
S303において設定部202は、入力画像に着目画素を設定する。本実施形態では、設定部202は、上述の通り左上からラスタ順に着目画素を設定する。次いで設定部202は、設定した着目画素から、処理対象となる着目画素を選択し、その着目画素に対応する部分領域である着目パッチTを設定する。本実施形態において設定部202は、着目画素を中心とした5×5画素の領域を着目パッチとして設定する。以下では、着目パッチを、着目パッチの有するM個の画素(本実施形態ではM=25)の画素値をラスタ順に並べた列ベクトルTで表すものとする。
In S303, the
S304において検出部203は、入力画像から、着目パッチTに対して複数の参照画素を設定し、参照画素に対応する参照パッチを設定する。各参照パッチの形状は着目パッチTと一致する。したがって、各参照パッチはM個の画素により構成される。以下、複数の参照パッチの内のi番目の参照パッチを、その参照パッチが有するM個の画素値をラスタ順に並べた列ベクトルRiで表すものとする。本実施形態においては、一つの着目パッチに対する参照パッチは合計225個あるものとする(i=1、2、…、225)が、上述のようにこれに限定されるものではない。
In S304, the
S305において検出部203は、参照パッチの内から、着目パッチとの類似度が高いものを類似パッチとして検出する。そのために、まず検出部203は、S304において設定した参照パッチそれぞれについて、着目パッチとの類似度を取得する。本実施形態において、類似度は、着目パッチと参照パッチとの対応する位置の画素値の差分二乗和(SSD)により算出されるが、類似度の取得方法は特にこれに限定されるわけではない。例えば、検出部203は、着目パッチと参照パッチとの類似度を、それらのパッチの対応する位置の画素値の差分絶対値和(SAD)を用いて算出してもよい。検出部203は、i番目の参照パッチの差分二乗和SSDiを、以下の式(1)により算出する。
ここで、Ri(j)は、i番目の参照パッチにおけるj番目の画素の画素値である。T(j)は着目パッチTにおけるj番目の画素の画素値である。本実施形態において検出部203は、着目パッチTと参照パッチとの対応する位置の画素値の差分を2乗した値を累積加算することにより、差分二乗和を算出する。このように差分二乗和SSDiを用いて類似度を取得する場合、差分二乗和の値が小さいほど、参照パッチRiは着目パッチTに類似していることを示している。つまり、差分二乗和の値が小さくなるほど類似度が高くなり、逆に差分二乗和の値が大きくなるほど類似度が低くなる。
Here, Ri (j) is the pixel value of the j-th pixel in the i-th reference patch. T (j) is the pixel value of the jth pixel in the patch T of interest. In the present embodiment, the
検出部203は、そのようにして算出される類似度が高い参照パッチを、類似パッチとして検出する。検出部203は、例えば、各参照パッチについて、予め定められた所定の閾値と上述の差分2乗和とを比較し、差分2乗和が閾値未満となるような参照パッチを、類似パッチとして検出してもよい。差分2乗和と比較される閾値は特に限定はされず、所望の条件に応じて適宜設定されてもよい。以下、そのような処理により、検出部203はN個(N≧1)の類似パッチを検出するものとする。つまり、パッチ集合にはN個の類似パッチが含まれるものとする。また、検出されたN個の類似パッチの内のi番目のものを、その類似パッチが有するM個の画素値をラスタ順に並べた列ベクトルPiとして表すものとする。
The
S306において取得部204は、S305において検出された類似パッチの集合に基づいて、平均パッチを取得する。つまり、取得部204は、複数の類似パッチの対応する位置の画素値の平均を算出し、その位置にそれぞれ平均値を格納した平均パッチを生成する。したがって、平均パッチは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、平均パッチは、平均パッチの有するM個の画素値をラスタ順に並べた列ベクトルQによって表されるものとする。そのような場合、取得部204は、以下の式(2)により平均パッチQを算出する。
なお、本実施形態では、取得部204は、すべての類似パッチに基づいて平均パッチQを算出するものとするが、特にそのように限定されるわけではない。例えば、取得部204は、類似パッチの一部(例えば類似度に応じて選択される)を用いて平均パッチQを算出してもよい。そのような場合、以下に続く処理においても、類似パッチの集合として、S306において用いられた類似パッチの集合を用いるものとする。
In the present embodiment, the
S307において取得部204は、平均パッチの画素位置それぞれにおけるノイズの標準偏差のスケール値を表す標準偏差パッチSを算出する。つまり、標準偏差パッチSは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、標準偏差パッチSは、標準偏差パッチの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。取得部204は、標準偏差パッチが有する画素の内のj番目の画素値S(j)を、平均パッチにおけるその位置の画素値Q(j)を用いて、以下の式(3)によって推測する。
S(j)=(α(kQ(j)+v))1/2 (3)
In S307, the
S (j) = (α (kQ (j) + v)) 1/2 (3)
式(3)において、k及びvは、入力画像が有するノイズの画素値依存性を表すためのパラメータである(つまり、これらのパラメータに基づいてノイズの標準偏差が推測される)。これらのパラメータは撮像装置の機種及び感度設定に応じて、予め所定の値として設定される。また、これらのパラメータは、予め感度ごとに測定され、不図示のテーブルとして記憶部103に格納されている。さらに、αは予め定められる所定の値であり、本実施形態においてはα=1であるものとするが、後述の式4での変換によって変換パッチの対応する位置におけるノイズの標準偏差は一定となればよいことを考えると、αの値は特に限定されない。
In the equation (3), k and v are parameters for expressing the pixel value dependence of the noise of the input image (that is, the standard deviation of the noise is estimated based on these parameters). These parameters are set in advance as predetermined values according to the model of the imaging device and the sensitivity setting. Further, these parameters are measured in advance for each sensitivity and stored in the
S308において、変換部205は、平均パッチQと標準偏差パッチSとに基づいて、各類似パッチPiが有する各画素値を変換した変換パッチUiを算出する。本実施形態では、変換部205は、Uiが有するj番目の画素値Ui(j)として、以下の式(4)によって変換された画素値を算出する。
Ui(j)≡(Pi(j)−Q(j))/S(j) (4)
In S308, the
U i (j) ≡ (P i (j) -Q (j)) / S (j) (4)
式(4)による変換により、S(j)がノイズの標準偏差のスケール値を表すことから、変換パッチの対応する位置におけるノイズの標準偏差は一定となる。また、変換部205は、そのように一定となった変換パッチのノイズの標準偏差を2乗した変換後分散Vを算出する。本実施形態では、変換パッチの各位置において標準偏差が等しくなるため、変換後分散Vは、各変換パッチを表すベクトル間の分散となる。本実施形態においては、α=1であることから、つまり、S(j)が入力画像のノイズの標準偏差の推測値を表すものであることから、V=1である。なお、パラメータk及びvの両方を同時に定数α倍した場合においても、変換パッチの対応する位置におけるノイズの標準偏差は一定となる。そのようにパラメータを設定した場合では、V=α−2とする。
Since S (j) represents the scale value of the noise standard deviation by the conversion according to the equation (4), the noise standard deviation at the corresponding position of the conversion patch becomes constant. Further, the
S309において行列算出部206は、S308において変換された変換パッチに基づいて、変換パッチの共分散行列Cを算出する。共分散行列Cは、一辺のサイズが変換パッチを構成する画素数Mと等しくなる正方行列である。本実施形態において、行列算出部206は、変換パッチUiを用いて、下記の式(5)によって共分散行列Cを算出する。式(5)によって算出される共分散行列Cは、対角成分が変換パッチの対応する画素値の分散であり、非対角成分が変換パッチのある画素と別の画素との相関を示す行列である。
S310において固有値算出部207は、共分散行列Cの固有値及び固有ベクトルを算出する。一般に、ある正方行列に対して、固有値及び固有ベクトルはそれぞれ複数存在し、その固有値及び固有ベクトルそれぞれの数は正方行列の一辺のサイズと等しくなる。つまり、本実施形態においては、共分散行列Cの固有値及び固有ベクトルはそれぞれM個存在する。また、固有ベクトルの要素数は、変換パッチを構成する画素数と等しくなる(つまり、M個となる)。ここでは、共分散行列Cのj番目の固有値をλjとし、j番目の固有ベクトルをEjと表すものとする。共分散行列Cの固有値λj及びEjは、共分散行列の公知の性質によって算出される。また、共分散行列Cの固有値λj及びEjは、以下の式(6)を満たす。したがって、λjとEjとは対応している。
CEj=λjEj (6)
In S310, the
CE j = λ j E j (6)
ここで、固有ベクトルEjは、変換パッチの集合において抽出されるテクスチャ成分に相当する。また、固有値λjは、各固有ベクトルが表すテクスチャ成分の分散を表す。つまり、固有値λjは、各固有ベクトルが表すテクスチャ成分の変換パッチ間におけるばらつきに相当する。固有ベクトルの表すテクスチャ成分がノイズによるテクスチャである場合、その固有ベクトルに対応する固有値は、画像上のノイズの変換パッチにおける分散程度の値となる。したがって、固有値の値がノイズの分散より大きい値であるほど、その固有値に対応する固有ベクトルは、ノイズ低減処理において画像に残すべき被写体のテクスチャ成分である可能性が高くなる。後述するS313では、そのような固有値とノイズの分散の値の関係に従って、残すべきテクスチャ成分を残し、及びノイズによるテクスチャ成分を除去できるように、補正部209が各変換パッチに対してノイズ低減処理を行う。
Here, the eigenvector E j corresponds to the texture component extracted in the set of conversion patches. The eigenvalue λ j represents the variance of the texture component represented by each eigenvector. That is, the eigenvalue λ j corresponds to the variation between the conversion patches of the texture components represented by each eigenvector. When the texture component represented by the eigenvector is a texture due to noise, the eigenvalue corresponding to the eigenvector is a value of the degree of dispersion in the noise conversion patch on the image. Therefore, the larger the value of the eigenvalue is, the higher the possibility that the eigenvector corresponding to the eigenvalue is the texture component of the subject to be left in the image in the noise reduction processing. In S313, which will be described later, the
S311において算出部208は、S307で算出した変換後分散Vに基づいて、S310で算出した各固有値を補正する。後述するS313におけるノイズ低減処理では、補正部209が、補正後の固有値(補正値)の大きさに応じて、その固有値に対応する固有ベクトルであるテクスチャ成分がノイズ低減処理後の出力画像中に保存されるか否かを決定する。補正値が変換後分散V程度である場合、補正部209は、対応する固有ベクトルが表すテクスチャ成分をノイズとみなし、変換パッチから除去する。一方、補正値が変換後分散Vから離れている場合、補正部209は、対応する固有ベクトルが表すテクスチャ成分を、保存すべきテクスチャとみなし、変換パッチ中に保存する。しかしながら実際には、ノイズによって生じるテクスチャ成分の固有値は、変換後分散Vの近傍でばらつきを有する。固有値のばらつきの結果、本来除去すべきノイズによるテクスチャ成分が、保存すべきテクスチャとみなされてしまう場合がある。そのような観点から、算出部208は、保存すべきテクスチャ成分である場合に算出される値よりも小さい固有値を、変換後分散V程度の値に補正する。例えば、算出部208は、保存すべきテクスチャ成分である場合に算出される値よりも小さい固有値を、変換後分散V±εの範囲内でランダムに定められる値へと補正してもよい。なお、本実施形態におけるεは、十分に小さい所定の数であるとする。そのような補正処理によれば、ノイズによるテクスチャ成分であるにも関わらず画像に保存される現象を抑制することができる。
In S311 the
以下、S311における具体的な補正の処理を、図4を参照しながら説明する。本実施形態においては、算出部208がj番目の固有値λjを補正することにより得られる値を、j番目の補正値ηjと表すものとする。算出部208は、固有値の値に基づいて補正用のテーブルを参照し、固有値を補正する。図4(a)は、算出部208が参照するそのような補正用のテーブルの一例を示している。この図の例では、算出部208は、変換後分散Vに基づく閾値βVを算出する。次いで、算出部208は、固有値λjが閾値以下である場合には、固有値λjは、変換後分散Vと同程度になるように補正される。また、固有値λjが閾値よりも大きい場合において、固有値λjは、補正値ηjが変換後分散Vよりも大きな値となるように補正される。さらに、固有値λjが十分に大きい場合には、そのように補正される補正値ηjは、元の固有値λjと概一致する(つまり、固有値はほとんど補正されない)。
Hereinafter, the specific correction process in S311 will be described with reference to FIG. In the present embodiment, the calculation unit 208 a value obtained by correcting the j-th eigenvalue lambda j, and represent the j-th correction value eta j. The
βの値は予め定められる所定のパラメータであり、本実施形態においてはβ=2.0とするが、βの値は特に限定はされない。βが大きいほど固定パターンのノイズが消滅しやすくなるという観点から、βは1以上の実数であってもよい。また、βが大きすぎると本来残すべきテクスチャがノイズとして除去されやすくなってしまうことから、βは10以下であってもよい。また、固有値λjが閾値βVよりも大きく、及び、補正後の補正値ηjが固有値λjと概一致するまで区間は、図4(a)のように滑らかに繋がれていてもよく、図4(b)のように不連続であってもよい。図4(b)に示されるような補正の方法であれば、算出部208は、補正テーブルは参照せず、λj>βVであれば補正値をλjとし、λj≦βVであれば補正値をVとする。算出部208は、S310において算出された固有値全てに対して上述の処理を行うことができる。
The value of β is a predetermined parameter determined in advance, and in the present embodiment, β = 2.0, but the value of β is not particularly limited. From the viewpoint that the larger β is, the more easily the noise of the fixed pattern disappears, β may be a real number of 1 or more. Further, if β is too large, the texture that should be left is easily removed as noise, so β may be 10 or less. Further, the sections may be smoothly connected as shown in FIG. 4A until the eigenvalue λ j is larger than the threshold value βV and the corrected correction value η j roughly coincides with the eigenvalue λ j. It may be discontinuous as shown in FIG. 4 (b). In the case of the correction method as shown in FIG. 4B, the
S312において算出部208は、S311で算出した補正値と、S310で算出した固有ベクトルと、に基づいて、変換パッチの補正に用いる補正用行列を算出する。本実施形態において、算出部208は、複数の固有値λiを補正した補正値ηi(i=1、…M)と、固有値λiに対応する固有ベクトルEiと、を用いて、以下の式(7)に示される補正用行列Hを算出する。式(7)に示される補正用行列Hは、変換パッチUiとの積HUiを計算することにより、変換パッチUiに含まれるノイズとみなされる値を算出することのできる行列である。HUiは、変換パッチUiの各要素を、(E1 E2 … EM)によるM次元空間への写像を行い、補正値ηを用いた補正を行い、写像前の空間へと戻して得られるベクトルである。
S313において補正部209は、変換パッチUiからノイズを低減した補正パッチOiを算出する。補正パッチOiは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、補正パッチOiは、補正パッチの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。補正部209は、例えば、変換パッチUiと補正用行列Hとを用いて、式(8)によって、変換パッチUiを補正した補正パッチOiを算出する。
Oi≡Ui−HUi (8)
O i ≡ U i −HU i (8)
上述の通り、式(8)における右辺の第2項目であるHUiは、変換パッチUiに含まれるノイズとみなされる値である。つまり、HUiは、変換パッチUiに対する補正値である。本実施形態における補正部209は、この補正値HUiを変換パッチUiから除くことで、変換パッチUiからノイズを低減した補正パッチOiを算出する。 As described above, HU i , which is the second item on the right side in the equation (8), is a value regarded as noise included in the conversion patch U i. That is, HU i is a correction value for the conversion patch U i. Correction unit 209 in the present embodiment, by excluding this correction value HU i from the conversion patch U i, to calculate the correction patch O i with reduced noise from the conversion patch U i.
S314において逆変換部210は、変換パッチUiを補正して取得された補正パッチOiに対して、S308において行った変換を相殺するような変換を行う。以下において、そのような変換によって得られるパッチを逆変換パッチJiと表すものとする。逆変換パッチJiは、着目パッチと同様の形状を有しており、M個の画素により構成される。以下において、逆変換パッチJiは、逆変換パッチJiの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。逆変換部210は、例えば、以下の式(9)を用いた変換により、i番目の補正パッチOi、標準偏差パッチのj番目の画素値S(j)、及び平均パッチのj番目の画素Q(j)から、逆変換パッチのj番目の画素値Ji(j)を算出する。
Ji(j)=S(j)・Oi(j)+Q(j) (9)
J i (j) = S (j) · O i (j) + Q (j) (9)
S315において合成部211は、S314において算出された逆変換パッチJiに基づいて、分子用画像と分母用画像とを算出する。分子用画像及び分母用画像は共に入力画像と同様の形状を有しており、後述するS317において、分子用画像の各画素の画素値を、分母用画像のそれぞれ同位置の画素値で除算することにより出力画像が生成される画像データである。合成部211は、逆変換パッチJiに含まれる各画素位置の画素値を、分子用画像上の、入力画像において類似パッチPiが検出された位置にそれぞれ加算する。また、合成部211は、分母用画像上の、入力画像において類似パッチPiが検出された位置に、それぞれ1を加算する。合成部211は、そのような操作を、M個の逆変換パッチ全てに対して行う。
Combining
S316において合成部211は、S303において設定された着目パッチの内に、未処理の着目パッチが存在するかどうかの判定を行う。未処理の着目画素が存在する場合処理はS303に戻り、そうでない場合処理はS317へと進む。
In S316, the
S317において合成部211は、分子用画像における各画素位置の画素値を、分母用画像における同位置の画素値で除算する。このような処理によれば、S303〜S315の繰り返しの処理によって分子用画像の同画素位置に複数の画素値が加算されている場合においても、その画素値の平均値を出力画像として生成することができる。
In S317, the
このような構成によれば、ノイズ標準偏差の輝度依存性を考慮して適切に補正された固有値を用いてノイズの低減処理を行うことにより、ノイズにより偶然生じたテクスチャをノイズとみなして取り除くことができる。したがって、出力画像における固定パターンのノイズの発生を抑えることができる。 According to such a configuration, the texture accidentally generated by the noise is regarded as noise and removed by performing the noise reduction processing using the eigenvalues appropriately corrected in consideration of the brightness dependence of the noise standard deviation. Can be done. Therefore, it is possible to suppress the generation of fixed pattern noise in the output image.
出力画像は記憶部103に格納されても良いし、表示部105に表示しても良いし、汎用インターフェース104を介して外部メモリ110に保存しても良い。このように出力画像の出力先は特定の出力先に限らない。
The output image may be stored in the
[変形例1]
実施形態1に係る取得部204は、平均パッチQと、式(3)に示されるノイズの画素値依存性と、に基づいて標準偏差パッチSの各画素値を算出していた。しかし、標準偏差パッチSを算出する方法は特にこれに限定されるわけではない。この例においては、取得部204は、以下の式(10)及び式(11)に示されるように、類似パッチPiについての標準偏差パッチSiを算出し、そのようなSi(i=1〜M)の平均として標準偏差パッチSを算出する。
The
このように、類似パッチごとにスケール値を算出してその平均を標準偏差パッチSとすることにより、ある画素に外れ値のような強いノイズを有する類似パッチが存在する場合においても、出力画像がその外れ値の影響を受けにくくなる。つまり、例えばノイズによって非常に明るくなった画素を有する類似パッチが存在している場合に、類似パッチ間の平均を取る前に式(10)に基づいて0.5乗の処理を行うことにより、そのような外れ値を有する画素の出力画像への影響が低減されやすくなる。 In this way, by calculating the scale value for each similar patch and using the average as the standard deviation patch S, the output image can be obtained even when there is a similar patch with strong noise such as outliers in a certain pixel. It is less susceptible to the outliers. That is, for example, when there is a similar patch having pixels that are very bright due to noise, the 0.5th power processing is performed based on the equation (10) before averaging between the similar patches. The influence of pixels having such outliers on the output image is likely to be reduced.
[変形例2]
取得部204は、S306において、類似パッチの集合であるパッチ集合について、平均パッチQの代わりに各画素値の中央値を取ったメディアンパッチMPを算出しても良い。メディアンパッチMPは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、メディアンパッチMPは、該メディアンパッチMPの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。そして実施形態1において、画像処理装置100は、平均パッチQの代わりにメディアンパッチMPを用いる。
[Modification 2]
In S306, the
メディアンは、一般に、外れ値の影響を受けにくいことが知られている。したがって、例えば、平均パッチQの代わりにメディアンパッチMPを用いて実施形態1に係る処理を行うことにより、ノイズによる外れ値の影響を受けにくいノイズ低減処理を行うことができる。 Medians are generally known to be less susceptible to outliers. Therefore, for example, by performing the processing according to the first embodiment using the median patch MP instead of the average patch Q, it is possible to perform the noise reduction processing that is not easily affected by the outliers due to noise.
[実施形態2]
実施形態2に係る画像処理装置は、実施形態1と同様に共分散行列Cを算出し、次いで、共分散行列Cについて主成分分析を行うことにより取得される固有ベクトル群を用いて、ノイズの低減処理を行う。つまり、共分散行列Cの固有値に基づいて、ノイズ低減処理に使用する固有ベクトルを選択する。実施形態2に係る画像処理装置は、共分散行列Cの固有値に基づいて、所定の条件を満たす固有ベクトルFを後述の式(13)のように並べた行列Bを算出する。次いで、後述の式(14)で表される射影行列Wを用いて変換パッチUiを補正し、補正パッチOiを算出し、そのような補正パッチOiに基づいて実施形態1と同様の処理を行う。本実施形態に係る画像処理装置100は、そのような処理のために算出部508を有することを除き、実施形態1と同様の構成を有し、重複する説明は省略する。図5は本実施形態に係る画像処理装置100の機能構成の一例を示すためのブロック図である。算出部508は、固有値算出部207が算出した固有値及び固有ベクトルと、閾値θと、に基づいて、射影行列Wを算出する。射影行列WについてはS611において後述する。また、主成分分析については公知の技術であるため詳細な説明は省略する。
[Embodiment 2]
The image processing apparatus according to the second embodiment calculates the covariance matrix C in the same manner as in the first embodiment, and then uses the eigenvector group obtained by performing the principal component analysis on the covariance matrix C to reduce noise. Perform processing. That is, the eigenvectors used for the noise reduction processing are selected based on the eigenvalues of the covariance matrix C. The image processing apparatus according to the second embodiment calculates a matrix B in which eigenvectors F satisfying a predetermined condition are arranged as shown in the following equation (13) based on the eigenvalues of the covariance matrix C. Then, by correcting the transformation patch U i by using the projection matrix W represented by the formula (14) described later, calculates a correction patch O i, similar to the embodiment 1 on the basis of such a correction patch O i Perform processing. The
以下、図6を参照して、本実施形態に係る画像処理装置によるノイズ低減処理の流れを説明する。図6は本実施形態に係るノイズ低減処理を行うための処理手順の一例を示すフローチャートである。本実施形態に係る画像処理装置100は、S611〜S613を除き、実施形態1に係る図3の処理と同様の処理工程を行うため、重複する説明は省略する。
Hereinafter, the flow of noise reduction processing by the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing an example of a processing procedure for performing the noise reduction processing according to the present embodiment. Since the
S611において算出部508は、S308で算出した変換後分散に基づいて、閾値θを算出する。算出部508は、閾値θとS610で算出した各固有値とに基づいて、各固有値に対応する固有ベクトルを共分散行列Cの残すべきテクスチャ成分を表すベクトルとして扱うかノイズに相当するベクトルとして扱うかを判定する。つまり、本実施形態に係る算出部508は、対応する固有値が閾値θ以上となる固有ベクトルを、共分散行列Cの残すべきテクスチャ成分として扱う。
In S611, the
算出部508は、対応する固有値が閾値θ未満となる固有ベクトルを、ノイズに相当するベクトルであるとする。本実施形態に係る画像処理装置100は、そのようなノイズに相当するベクトルを取り除くようなノイズ低減処理を行うことにより、出力画像に固定パターンのノイズが表れにくくすることができる。ノイズに相当する固有ベクトルに対応する固有値はノイズの分散程度の値となるという観点から、本実施形態においては、算出部508は、係数γを1以上の実数として以下の式(12)を用いることにより閾値θを算出する。
θ=γV (12)
The
θ = γV (12)
係数γは予め与えられるパラメータであり、本実施形態においてはγ=2.0とするが、γの値は特にこれには限定されない。本実施形態においては、γが大きいほど出力画像上の固定パターンのノイズが消滅しやすくなる。一方で、γが大きいほど出力画像上に本来残すべきテクスチャがノイズとして除去されやすくなってしまうことから、γは10以下であってもよい。 The coefficient γ is a parameter given in advance, and in the present embodiment, γ = 2.0, but the value of γ is not particularly limited to this. In the present embodiment, the larger the γ, the easier it is for the noise of the fixed pattern on the output image to disappear. On the other hand, the larger the γ, the easier it is for the texture that should be left on the output image to be removed as noise. Therefore, the γ may be 10 or less.
S612において算出部508は、固有値と閾値θとに基づいて、変換後ベクトルUiの補正に用いる射影行列Wを算出する。本実施形態において、算出部508は、以下の式(13)及び式(14)に基づいて射影行列Wを算出する。
B=(F1 F2 … FK) 式(13)
W=BBt (14)
B = (F 1 F 2 ... F K ) Equation (13)
W = BB t (14)
式(13)におけるF1〜FKはそれぞれ、対応する固有値が閾値θ以上であると判定された固有ベクトルである。本実施形態においては、対応する固有値が閾値以上であると判定された固有ベクトルはK個(K≦M)存在するものとする。本実施形態においては、算出部508は、対応する固有値λjがθ以上となる固有ベクトルEjを、それぞれF1〜FKとする。したがって、行列BはK行M列の行列となり、射影行列WはM行M列の正方行列となる。射影行列Wは、後述の式(15)において射影行列Wと変換パッチUiとの積をとることにより、変換パッチUiからF1〜FKの成分のみを残すような行列である。
Each of F 1 to F K in the equation (13) is an eigenvector whose corresponding eigenvalue is determined to be equal to or higher than the threshold value θ. In the present embodiment, it is assumed that there are K (K ≦ M) eigenvectors for which the corresponding eigenvalues are determined to be equal to or greater than the threshold value. In the present embodiment, the
S613において補正部209は、変換パッチUiと射影行列Wとに基づいて、補正パッチOiを算出する。本実施形態においては、補正部209は、下記の式(15)を用いることにより、変換パッチUiと射影行列Wとに基づいて、補正パッチOiを算出する。
Oi=WUi (15)
O i = WU i (15)
このような構成によれば、ノイズに相当している可能性が高い成分をテクスチャ成分から取り除く射影行列Wによって補正された補正パッチOiに基づいて、実施形態1と同様に逆変換パッチの合成が行われる。したがって、ノイズによる偶然生じたテクスチャをノイズとみなして取り除くことができる。したがって、出力画像から固定パターンのノイズを取り除くことができる。 According to such a configuration, based on the likely component that corresponds to the noise in the correction patch O i corrected by projection matrix W to remove from the texture component synthesized similarly inverse transform patch as in Embodiment 1 Is done. Therefore, the texture generated by chance due to noise can be regarded as noise and removed. Therefore, fixed pattern noise can be removed from the output image.
(その他の実施形態)
上述の実施形態においては、コンピュータプログラムを動作させることで実現するソフトウェアを例にして説明を行ったが、特にこれに限定されるわけではない。例えば、図2又は図5に示すブロック図の各構成の一部、並びにそのすべてが、専用の画像処理回路によって実現されてもよい。
(Other embodiments)
In the above-described embodiment, software realized by operating a computer program has been described as an example, but the present invention is not particularly limited to this. For example, a part of each configuration of the block diagram shown in FIG. 2 or FIG. 5, or all of them may be realized by a dedicated image processing circuit.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
201:入力部、202:設定部、203:検出部、204:取得部、205:変換部、206:行列算出部、207:固有値算出部、208:算出部、209:補正部、210:逆変換部、211:合成部 201: Input unit, 202: Setting unit, 203: Detection unit, 204: Acquisition unit, 205: Conversion unit, 206: Matrix calculation unit, 207: Eigenvalue calculation unit, 208: Calculation unit, 209: Correction unit, 210: Reverse Conversion unit, 211: Synthesis unit
Claims (20)
前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する第1の生成手段と、
前記第1の生成手段により生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記第1の生成手段により生成されたそれぞれのベクトルを変換する第1の変換手段と、
前記第1の変換手段により変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記第1の変換手段により変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する第1の補正手段と、
前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正する第2の補正手段と、
前記第2の補正手段により補正されたそれぞれのベクトルに対して、前記第1の変換手段による変換の逆変換を行う第2の変換手段と、
前記第2の変換手段により変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する第2の生成手段と、
を備えることを特徴とする、画像処理装置。 A detection means for detecting a plurality of second subregions having a pixel value distribution similar to that of the first subregion in the input image, and
For each of the plurality of second subregions, a first generation means for generating a vector having a pixel value in the second subregion as an element, and
With the first conversion means that transforms each vector generated by the first generation means so that the standard deviations of the elements at the corresponding positions in each vector generated by the first generation means are equal. ,
Based on the plurality of eigenvalues obtained from the covariance matrix based on each vector converted by the first conversion means and the variance between the vectors converted by the first conversion means, the plurality of eigenvalues The first correction means for calculating the result of each correction as a correction value, and
A second correction means for correcting each vector converted by the first conversion means based on each correction value calculated by the first correction means and an eigenvector obtained from the covariance matrix. When,
A second conversion means that performs the inverse transformation of the conversion by the first conversion means for each vector corrected by the second correction means, and
A second generation means for generating an image after noise reduction processing on the input image based on the vector converted by the second conversion means, and
An image processing apparatus comprising.
加算された前記画素値のそれぞれについて、前記位置ごとの加算回数で除算した結果を出力する値として算出し、
該出力する値のそれぞれを、前記入力画像に対するノイズ低減処理後の画像における各位置の画素値とすることを特徴とする、請求項1又は2に記載の画像処理装置。 The second generation means performs noise reduction processing on the input image in which pixel values, which are elements of the vector converted by the second conversion means, correspond to a plurality of the second partial regions in the input image. Add to each position in the later image,
Each of the added pixel values is calculated as a value to be output as a result of dividing by the number of additions for each position.
The image processing apparatus according to claim 1 or 2, wherein each of the output values is a pixel value at each position in the image after noise reduction processing for the input image.
推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4に記載の画像処理装置。 The first conversion means estimates the standard deviation based on the respective vectors generated by the first generation means and the predetermined parameters.
The image processing apparatus according to claim 4, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant as an element of each position is calculated.
前記第1の生成手段により生成されたそれぞれのベクトルから推測された前記標準偏差を定数倍した値を対応する位置の要素として有する各ベクトルについて、対応する位置の要素の平均値を各位置の要素として有する、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。 The first conversion means has a standard deviation of elements at each position of the vector generated by the first generation means from each vector generated by the first generation means based on the predetermined parameter. Guess each
For each vector having a value obtained by multiplying the standard deviation estimated from each vector generated by the first generation means by a constant as an element of the corresponding position, the average value of the elements of the corresponding position is the element of each position. The image processing apparatus according to claim 4 or 5, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant is calculated as an element of each position.
前記第1の生成手段により生成されたそれぞれのベクトルから推測された前記標準偏差を定数倍した値を対応する位置の要素として有する各ベクトルについて、対応する位置の要素の中央値を各位置の要素として有する、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。 The first conversion means has a standard deviation of elements at each position of the vector generated by the first generation means from each vector generated by the first generation means based on the predetermined parameter. Guess each
For each vector having a value obtained by multiplying the standard deviation estimated from each vector generated by the first generation means by a constant, as an element of the corresponding position, the median value of the element of the corresponding position is the element of each position. The image processing apparatus according to claim 4 or 5, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant is calculated as an element of each position.
該行列に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正することを特徴とする、請求項1乃至14の何れか一項に記載の画像処理装置。 The second correction means calculates a matrix used for correction of each vector converted by the first conversion means based on each eigenvalue corrected by the first correction means and the eigenvector. And
The image processing apparatus according to any one of claims 1 to 14, wherein each vector converted by the first conversion means is corrected based on the matrix.
前記検出手段が、前記第1の部分領域内の画素値を要素とするベクトルと、前記第3の部分領域の画素値を要素とするベクトルと、の対応する要素の類似度に基づいて、複数の前記第3の部分領域から前記第2の部分領域を選択することを特徴とする、請求項1乃至17の何れか一項に記載の画像処理装置。 Further, a setting means for setting a plurality of third subregions having the same size as the first subregion in the input image is provided.
A plurality of detection means are used based on the similarity of the corresponding elements of the vector having the pixel value in the first partial region as an element and the vector having the pixel value in the third partial region as an element. The image processing apparatus according to any one of claims 1 to 17, wherein the second partial region is selected from the third partial region of the above.
前記画像処理装置の検出手段が、入力画像における第1の部分領域と画素値の分布が類似する複数の第2の部分領域を検出する工程と、
前記画像処理装置の第1の生成手段が、前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する工程と、
前記画像処理装置の第1の変換手段が、前記生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記生成されたそれぞれのベクトルを変換する工程と、
前記画像処理装置の第1の補正手段が、前記変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する工程と、
前記画像処理装置の第2の補正手段が、前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記変換されたそれぞれのベクトルを補正する工程と、
前記画像処理装置の第2の変換手段が、前記補正されたそれぞれのベクトルに対して、前記変換の逆変換を行う工程と、
前記画像処理装置の第2の生成手段が、前記変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する工程と、
を備えることを特徴とする、画像処理方法。 This is an image processing method performed by an image processing device.
A step in which the detection means of the image processing device detects a plurality of second subregions having a pixel value distribution similar to that of the first subregion in the input image.
A step in which the first generation means of the image processing apparatus generates a vector having a pixel value in the second partial region as an element for each of the plurality of second partial regions.
A step of converting each of the generated vectors so that the first conversion means of the image processing apparatus makes the standard deviations of the elements at the corresponding positions in each of the generated vectors equal.
The first correction means of the image processing apparatus determines the plurality of eigenvalues obtained from the covariance matrix based on the transformed vectors, and the variances between the transformed vectors, based on the plurality of eigenvalues. The process of calculating the result of each correction as a correction value, and
The second correction means of the image processing apparatus corrects each of the converted vectors based on the respective correction values calculated by the first correction means and the eigenvectors obtained from the covariance matrix. And the process to do
A step in which the second conversion means of the image processing apparatus performs the inverse transformation of the conversion on each of the corrected vectors.
A step in which the second generation means of the image processing apparatus generates an image after noise reduction processing on the input image based on the converted vector.
An image processing method comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019202614A JP2021077037A (en) | 2019-11-07 | 2019-11-07 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019202614A JP2021077037A (en) | 2019-11-07 | 2019-11-07 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021077037A true JP2021077037A (en) | 2021-05-20 |
Family
ID=75899987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202614A Pending JP2021077037A (en) | 2019-11-07 | 2019-11-07 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021077037A (en) |
-
2019
- 2019-11-07 JP JP2019202614A patent/JP2021077037A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7030493B2 (en) | Image processing equipment, image processing methods and programs | |
JP7328096B2 (en) | Image processing device, image processing method, and program | |
US8712182B2 (en) | Image processing device, image processing method, and program | |
JP6128987B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US11145032B2 (en) | Image processing apparatus, method and storage medium for reducing color noise and false color | |
US10740878B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP7114431B2 (en) | Image processing method, image processing device and program | |
US9508025B2 (en) | Image processing device, image processing method and medium | |
JP2019096222A5 (en) | ||
US9196025B2 (en) | Image processing apparatus, image processing method and image processing program | |
CN110689486A (en) | Image processing method, device, equipment and computer storage medium | |
JP7301589B2 (en) | Image processing device, image processing method, and program | |
KR101362183B1 (en) | Depth image noise removal apparatus and method based on camera pose | |
JP6645442B2 (en) | Information processing apparatus, information processing method, and program | |
JP7409606B2 (en) | Image processing device, image processing method and program | |
JP2021077037A (en) | Image processing apparatus, image processing method, and program | |
US11580620B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable medium | |
WO2019116975A1 (en) | Image processing method, image processing device, and program | |
JP2021077038A (en) | Image processing apparatus, image processing method, and program | |
JP7005168B2 (en) | Image processing equipment, image processing methods and programs | |
JP2021082212A (en) | Image processing system, image processing method, and program | |
JP6375778B2 (en) | Image processing method and image processing apparatus | |
JP7409607B2 (en) | Image processing device, image processing method and program | |
EP3719740B1 (en) | Image processing device, image processing method, and image processing program | |
JP2021043583A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |