JP2021077037A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021077037A
JP2021077037A JP2019202614A JP2019202614A JP2021077037A JP 2021077037 A JP2021077037 A JP 2021077037A JP 2019202614 A JP2019202614 A JP 2019202614A JP 2019202614 A JP2019202614 A JP 2019202614A JP 2021077037 A JP2021077037 A JP 2021077037A
Authority
JP
Japan
Prior art keywords
image processing
vector
processing apparatus
patch
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019202614A
Other languages
Japanese (ja)
Inventor
和浩 矢幡
Kazuhiro Yahata
和浩 矢幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019202614A priority Critical patent/JP2021077037A/en
Publication of JP2021077037A publication Critical patent/JP2021077037A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

To provide an image processing technology that can easily remove noise in a fixed pattern.SOLUTION: An image processing apparatus detects a plurality of second partial regions similar in the distribution of pixel values to a first partial region in an input image. The image processing apparatus generates, for each of the plurality of second partial regions, vectors having pixel values in the second partial regions as elements. The image processing apparatus converts the generated vectors such that the standard deviations of the elements at corresponding positions in the generated vectors become equal to each other. On the basis of a plurality of eigenvalues determined from a covariance matrix based on the converted vectors and dispersion between the converted vectors, the image processing apparatus calculates results of correcting the plurality of eigenvalues as correction values. The image processing apparatus corrects the converted vectors on the basis of the calculated correction values and the eigenvectors determined from the covariance matrix. The image processing apparatus performs inverse conversion for the corrected vectors. The image processing apparatus creates an image after noise reduction processing on the input image on the basis of the converted vectors.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

カメラで撮像した画像にはノイズが含まれ、特に高感度で撮像を行う際にはノイズの量が多くなる。従来、そのようなノイズ量の増大を押さえるため、画像の中から、複数の画素からなるパッチに注目し、そのようなパッチベースでノイズを低減する技術が知られている。 The image captured by the camera contains noise, and the amount of noise increases especially when imaging with high sensitivity. Conventionally, in order to suppress such an increase in the amount of noise, a technique has been known in which a patch composed of a plurality of pixels is focused on from an image and noise is reduced based on such a patch.

例えば、非特許文献1に開示される技術では、撮像画像からパッチ集合を選択し、そのパッチ集合の画素値の平均及び共分散集合により表現されるパッチの確率モデルを生成し、最大事後確率法に基づいてすべてのパッチに対してノイズ低減処理が行われる。次いで、ノイズ低減処理が行われたパッチを用いてアグリゲーションと呼ばれる合成処理を行うことにより、デノイズされた画像を生成することができる。このような手法は、NLベイズ法と呼ばれている。 For example, in the technique disclosed in Non-Patent Document 1, a patch set is selected from an captured image, a patch probability model represented by the average of the pixel values of the patch set and a covariance set is generated, and the maximum a posteriori method is used. Noise reduction processing is performed for all patches based on. Next, a denoised image can be generated by performing a synthesis process called aggregation using the patch to which the noise reduction process has been performed. Such a method is called the NL Bayes method.

また例えば、特許文献1では、パッチ集合に対して主成分分析を行い、分析に基づいてパッチ集合内の全てのパッチに対してノイズ低減処理を行い、次いで非特許文献1と同様にパッチの合成処理を行うことでデノイズされた画像を生成する処理が開示されている。 Further, for example, in Patent Document 1, principal component analysis is performed on the patch set, noise reduction processing is performed on all patches in the patch set based on the analysis, and then patch synthesis is performed as in Non-Patent Document 1. A process for generating a denoised image by performing the process is disclosed.

特開2013−026669号公報Japanese Unexamined Patent Publication No. 2013-0266669 Implementation of the “Non−Local Bayes” (NL−Bayes) Image Denoising Algorithm, Image Processing On Line, 3 (2013), pp. 1−42.Implementation of the “Non-Local Bayes” (NL-Bayes) Image Denoising Algorithm, Image Processing On Line, 3 (2013), pp. 1-42.

しかしながら、非特許文献1及び特許文献1に開示される技術では、出力画像に固定パターンのノイズが発生する場合があるという課題がある。 However, the techniques disclosed in Non-Patent Document 1 and Patent Document 1 have a problem that noise of a fixed pattern may occur in the output image.

本発明は、固定パターンのノイズを取り除きやすい技術を提供する。 The present invention provides a technique for easily removing noise of a fixed pattern.

本発明の目的を達成するために、例えば、一実施形態に係るは以下の構成を備える。すなわち、入力画像における第1の部分領域と画素値の分布が類似する複数の第2の部分領域を検出する検出手段と、前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する第1の生成手段と、前記第1の生成手段により生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記第1の生成手段により生成されたそれぞれのベクトルを変換する第1の変換手段と、前記第1の変換手段により変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記第1の変換手段により変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する第1の補正手段と、前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正する第2の補正手段と、前記第2の補正手段により補正されたそれぞれのベクトルに対して、前記第1の変換手段による変換の逆変換を行う第2の変換手段と、前記第2の変換手段により変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する第2の生成手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, one embodiment has the following configuration. That is, the detection means for detecting a plurality of second partial regions having a similar distribution of pixel values to the first partial region in the input image, and the second partial region for each of the plurality of second partial regions. The first generation means for generating a vector having the pixel value in the element is equal to the standard deviation of the element at the corresponding position in each vector generated by the first generation means. A first conversion means for converting each vector generated by the first conversion means, a plurality of eigenvalues obtained from a covariance matrix based on each vector converted by the first conversion means, and the first conversion. A first correction means that calculates the result of correcting each of the plurality of eigenvalues as a correction value based on the variance between the vectors converted by the means, and each correction calculated by the first correction means. Based on the value and the eigenvector obtained from the covariance matrix, the second correction means for correcting each vector converted by the first conversion means and the second correction means for correction. After the noise reduction processing for the input image based on the second conversion means that performs the inverse conversion of the conversion by the first conversion means for each vector and the vector converted by the second conversion means. It is characterized by comprising a second generation means for generating the image of.

固定パターンのノイズを取り除きやすい技術を提供することができる。 It is possible to provide a technique that makes it easy to remove noise of a fixed pattern.

各実施形態に係るコンピュータ装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware composition of the computer apparatus which concerns on each embodiment. 実施形態1に係る画像処理装置における機能構成の一例を示す図。The figure which shows an example of the functional structure in the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るノイズ除去処理のフローチャート。The flowchart of the noise removal processing which concerns on Embodiment 1. 実施形態1に係る固有値の補正に用いるテーブルの一例を示す図。The figure which shows an example of the table used for the correction of the eigenvalue according to Embodiment 1. 実施形態2に係る画像処理装置における機能構成の一例を示す図。The figure which shows an example of the functional structure in the image processing apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る画像処理方法における処理例のフローチャート。The flowchart of the processing example in the image processing method which concerns on Embodiment 2.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[実施形態1]
本実施形態に係る画像処理装置は、パッチベースのノイズ低減処理を実行する。図1は、本実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。図1の例において、画像処理装置100は、CPU101、RAM102、記憶部103、汎用インターフェース104、及び表示部105を有しており、これらがメインパス106を介して相互に接続されている。また、画像処理装置100には、汎用インターフェース104を介して外部メモリ110及び入力装置120が接続されている。
[Embodiment 1]
The image processing apparatus according to this embodiment executes patch-based noise reduction processing. FIG. 1 is a block diagram showing an example of the hardware configuration of the image processing device according to the present embodiment. In the example of FIG. 1, the image processing device 100 has a CPU 101, a RAM 102, a storage unit 103, a general-purpose interface 104, and a display unit 105, which are connected to each other via a main path 106. Further, an external memory 110 and an input device 120 are connected to the image processing device 100 via a general-purpose interface 104.

CPU101は、RAM102に格納されているソフトウェア(コンピュータプログラム)を実行することで、画像処理装置100全体の動作制御を行うと共に、画像処理装置100が行うものとして後述する各処理を実行もしくは制御する。RAM102は、記憶部103からロードされたコンピュータプログラムやデータを保持するためのエリアや、CPU101が各種の処理を実行する際に用いるワークエリアを有する。記憶部103は、各種コンピュータプログラム及び各種データなどを格納する、HDD、ROM、又はSSDなどの記憶装置である。汎用インターフェースは、外部メモリ110及び入力装置120との間のデータ通信を行うために利用されるインターフェースである。表示部105は、CPU101による処理結果を画像や文字などでもって表示する表示装置である。表示部105は、例えば、液晶ディスプレイ又は有機ELディスプレイなどであってもよい。外部メモリ110は、撮像された画像を格納する記憶装置である。入力装置120は、ユーザ入力を取得する、例えばマウス、キーボード、タッチパネル、ボタンなどから構成される入力装置である。 By executing software (computer program) stored in the RAM 102, the CPU 101 controls the operation of the entire image processing device 100, and also executes or controls each process described later as what the image processing device 100 performs. The RAM 102 has an area for holding computer programs and data loaded from the storage unit 103, and a work area used by the CPU 101 to execute various processes. The storage unit 103 is a storage device such as an HDD, a ROM, or an SSD that stores various computer programs and various data. The general-purpose interface is an interface used for data communication between the external memory 110 and the input device 120. The display unit 105 is a display device that displays the processing result of the CPU 101 with images, characters, and the like. The display unit 105 may be, for example, a liquid crystal display or an organic EL display. The external memory 110 is a storage device that stores the captured image. The input device 120 is an input device that acquires user input, for example, is composed of a mouse, a keyboard, a touch panel, buttons, and the like.

以下、CPU101が記憶部103に格納された各種ソフトウェア(コンピュータプログラム)を実現させることにより実現する各種処理の一例について説明する。CPU101は、まず、記憶部103に格納されている画像処理プログラムを起動することができる。次いで、CPU101は、画像処理プログラムをRAM102に展開し、及びユーザインターフェース画面(以下UI画面)を表示部105へと表示してもよい。また、CPU101は、入力装置120を介したユーザ入力に基づいて、外部メモリ110に格納されている入力画像をRAM102へと読み込むことができる。さらにCPU101は、ユーザ入力に基づいて、RAM102に格納した入力画像に対して、後述するノイズ低減処理を行う。そのようにノイズ低減処理を受けた入力画像は、処理後に再びRAM102へと格納され、及び、ユーザ指示に基づいて一連の処理を施された後に、表示部105での表示又は外部メモリ110への格納といった、所定の出力に供されてもよい。 Hereinafter, an example of various processes realized by the CPU 101 realizing various software (computer programs) stored in the storage unit 103 will be described. First, the CPU 101 can start the image processing program stored in the storage unit 103. Next, the CPU 101 may expand the image processing program into the RAM 102 and display the user interface screen (hereinafter referred to as the UI screen) on the display unit 105. Further, the CPU 101 can read the input image stored in the external memory 110 into the RAM 102 based on the user input via the input device 120. Further, the CPU 101 performs noise reduction processing, which will be described later, on the input image stored in the RAM 102 based on the user input. The input image that has undergone the noise reduction processing is stored in the RAM 102 again after the processing, and after being subjected to a series of processing based on the user's instruction, is displayed on the display unit 105 or sent to the external memory 110. It may be used for a predetermined output such as storage.

なお、各種ソフトウェア(コンピュータプログラム)及び各種データなどを格納する装置は記憶部103に限定されない。例えば、各種ソフトウェア(コンピュータプログラム)及び各種データなどを、不図示のネットワークを通じて画像処理装置100と接続されているサーバなどに格納していてもよく、外部メモリ110に格納していてもよい。また、そのように格納される各種データは特に限定されず、例えば、入力画像が格納されていてもよい。 The device for storing various software (computer programs) and various data is not limited to the storage unit 103. For example, various software (computer programs), various data, and the like may be stored in a server or the like connected to the image processing device 100 through a network (not shown), or may be stored in the external memory 110. Further, the various data stored in this way are not particularly limited, and for example, an input image may be stored.

本実施形態においては、画像処理装置100は、CPU101、RAM102、記憶部103、汎用インターフェース104、及び表示部105を内部に有し、並びに、外部メモリ110及び入力装置120を外部に有している。しかし、画像処理装置100の構成は特にこれには限定されない。例えば、画像処理装置100は、表示部105を外部に有していてもよい。また、タッチパネルのように入力装置120と表示部105とが一体化されていてもよい。また、スマートフォンやタブレット端末のように画像処理装置100と入力装置120とが、一体化されていてもよい。 In the present embodiment, the image processing device 100 has a CPU 101, a RAM 102, a storage unit 103, a general-purpose interface 104, and a display unit 105 inside, and has an external memory 110 and an input device 120 outside. .. However, the configuration of the image processing device 100 is not particularly limited to this. For example, the image processing device 100 may have a display unit 105 externally. Further, the input device 120 and the display unit 105 may be integrated like a touch panel. Further, the image processing device 100 and the input device 120 may be integrated like a smartphone or a tablet terminal.

[パッチベースのノイズ低減処理]
まず、パッチベースのノイズ低減処理の概要について説明する。本実施形態に係る画像処理装置は、入力画像に対して、着目画素の位置に応じて位置が定まる、所定の範囲を有する部分領域(以下、着目パッチと呼ぶ)を設定する。次いで、画像処理装置は、着目画素の位置に応じて定まる、着目画素近傍の所定の部分領域内の各画素を参照画素とし、各参照画素の位置に応じて位置が定まる着目パッチと同サイズの領域を、参照画素に対応する参照パッチとしてそれぞれ設定する。参照パッチは、着目パッチに対してノイズ低減処理を行う際に、後述の検出部203によって参照される。さらに、画像処理装置は、設定された参照パッチの集合から、着目パッチとの類似度(後述)が高い参照パッチを類似パッチとして1つ以上検出し、一つの着目パッチに対する類似パッチの集合をパッチ集合とする。画像処理装置は、各パッチ集合に対して、パッチ集合の有する類似パッチそれぞれについてノイズ低減処理を行う。最後に、画像処理装置は、ノイズ低減処理を行った各類似パッチを合成(アグリゲーション)することにより、入力画像について、ノイズ低減処理が行われた画像を生成する。以下において、着目パッチ、参照パッチ、類似パッチ、及びパッチ集合の定義は、これに従うものとする。本実施形態に係る画像処理装置が行う各処理について、詳細な説明は図3のフローチャートを用いて後述する。
[Patch-based noise reduction processing]
First, an outline of patch-based noise reduction processing will be described. The image processing apparatus according to the present embodiment sets a partial region (hereinafter, referred to as a patch of interest) having a predetermined range in which the position is determined according to the position of the pixel of interest with respect to the input image. Next, the image processing device uses each pixel in a predetermined partial region near the pixel of interest, which is determined according to the position of the pixel of interest, as a reference pixel, and has the same size as the patch of interest, the position of which is determined according to the position of each reference pixel. Each region is set as a reference patch corresponding to a reference pixel. The reference patch is referred to by the detection unit 203 described later when performing noise reduction processing on the patch of interest. Further, the image processing device detects one or more reference patches having a high degree of similarity with the patch of interest (described later) from the set set of reference patches as similar patches, and patches the set of similar patches for one patch of interest. Let it be a set. The image processing apparatus performs noise reduction processing on each patch set for each similar patch of the patch set. Finally, the image processing apparatus generates an image in which the noise reduction processing is performed for the input image by synthesizing (aggregating) each similar patch that has been subjected to the noise reduction processing. In the following, the definitions of the patch of interest, the reference patch, the similar patch, and the patch set shall follow this. A detailed description of each process performed by the image processing apparatus according to the present embodiment will be described later using the flowchart of FIG.

図2は、本実施形態に係る画像処理装置100の機能構成の一例を示すブロック図である。本実施形態に係る画像処理装置100は、入力部201、設定部202、検出部203、取得部204、変換部205、行列算出部206、固有値算出部207、算出部208、補正部209、逆変換部210、及び合成部211を有する。本実施形態に係る画像処理装置100は、図2に示されるように一つの機器によって構成されていてもよく、複数の装置が互いに接続された構成を有していてもよい。 FIG. 2 is a block diagram showing an example of the functional configuration of the image processing device 100 according to the present embodiment. The image processing device 100 according to the present embodiment includes an input unit 201, a setting unit 202, a detection unit 203, an acquisition unit 204, a conversion unit 205, a matrix calculation unit 206, an eigenvalue calculation unit 207, a calculation unit 208, a correction unit 209, and a reverse. It has a conversion unit 210 and a synthesis unit 211. The image processing apparatus 100 according to the present embodiment may be configured by one device as shown in FIG. 2, or may have a configuration in which a plurality of devices are connected to each other.

入力部201は、入力画像の画像データを取得する。本実施形態においては、入力部201は、0〜255(8ビット)の画素値を有するモノクロの入力画像を取得するものとするが、入力部201が取得する入力画像の形式は特に限定されない。入力部201が取得する入力画像は、例えば、1ビットの画像であってもよく、又は、10ビット、12ビット、14ビット、若しくは16ビットのような多ビット数の画像であってもよい。また、入力部201が取得する入力画像は、RGB、XYZ、Labなどのような表色系で表される、複数の色成分ごとの画像からなるカラー画像であってもよい。例えば、入力部201が取得する入力画像は、14bitのBayer配列の画像であってもよい。 The input unit 201 acquires the image data of the input image. In the present embodiment, the input unit 201 acquires a monochrome input image having a pixel value of 0 to 255 (8 bits), but the format of the input image acquired by the input unit 201 is not particularly limited. The input image acquired by the input unit 201 may be, for example, a 1-bit image, or an image having a large number of bits such as 10 bits, 12 bits, 14 bits, or 16 bits. Further, the input image acquired by the input unit 201 may be a color image composed of images for each of a plurality of color components represented by a color system such as RGB, XYZ, Lab, and the like. For example, the input image acquired by the input unit 201 may be a 14-bit Bayer array image.

設定部202は、入力部201が取得した入力画像内に、着目画素及び着目パッチを設定する。本実施形態では、設定部202は、任意の画素を着目画素として設定し、次いで、その着目画素を中心とした5×5ピクセルのサイズの領域を着目パッチとして設定する。なお、本実施形態では、入力画像上の全ての画素が着目画素として設定されるものとするが、特にそのように限定されるわけではない。例えば、設定部202は、入力画像上に着目パッチがタイル状に配置されるように、所定の間隔で着目画素を設定してもよい。本実施形態では、入力画像の左上の画素からラスタ順に着目画素を設定していくものとする。つまり、左上隅の画素から同じ列の右端の画素までを順に着目画素として設定し、次いで一つ下の列の左端から右端までの画素を順に着目画素として設定し、そのような作業を下端の行まで順番に繰り返していくものとする。また、着目パッチを含む後述する各パッチは、そのパッチに含まれる画素の画素値を一列に並べた(つまり、本実施形態では一列に25個の要素を有する)列ベクトルとして表現するものとする。 The setting unit 202 sets the pixel of interest and the patch of interest in the input image acquired by the input unit 201. In the present embodiment, the setting unit 202 sets an arbitrary pixel as a pixel of interest, and then sets a region having a size of 5 × 5 pixels centered on the pixel of interest as a patch of interest. In the present embodiment, all the pixels on the input image are set as the pixels of interest, but the present invention is not particularly limited to that. For example, the setting unit 202 may set the pixels of interest at predetermined intervals so that the patches of interest are arranged in a tile shape on the input image. In the present embodiment, the pixels of interest are set in raster order from the upper left pixel of the input image. That is, the pixels in the upper left corner to the rightmost pixel in the same column are set as the pixels of interest in order, then the pixels from the left end to the right end in the next lower row are set in order as the pixels of interest, and such work is performed at the lower end. It shall be repeated in order up to the line. Further, each patch to be described later including the patch of interest is expressed as a column vector in which the pixel values of the pixels included in the patch are arranged in a row (that is, in the present embodiment, 25 elements are arranged in a row). ..

また、本実施形態においては、着目パッチは着目画素を中心とする5×5サイズの領域として設定されるものとするが、特にそのように限定されるわけではない。例えば、着目画素を最端(例えば、左上隅)とする5×5サイズの領域を着目パッチとしてもよく、又は着目パッチが着目画素を含んでいなくともよい。また、着目パッチのサイズは5×5サイズに限定されるものではなく、適宜所望の大きさを有するものとして設定されてもよい。さらに、入力部201が複数の色成分を含む入力画像を取得する場合において、設定部202は、画素の色成分ごとに別々の着目パッチを設定してもよく、着目パッチを5×5×色成分数個の要素を一列に並べた一つの列ベクトルとしてもよい。例えば画素の色成分ごとに別々の着目パッチを設定した場合において、本実施形態に係る画像処理装置100は、後続する処理を、色成分ごとに別々に行う。 Further, in the present embodiment, the patch of interest is set as a region of 5 × 5 size centered on the pixel of interest, but is not particularly limited to that. For example, a region having a size of 5 × 5 with the pixel of interest at the end (for example, the upper left corner) may be the patch of interest, or the patch of interest may not include the pixel of interest. Further, the size of the patch of interest is not limited to the 5 × 5 size, and may be appropriately set to have a desired size. Further, when the input unit 201 acquires an input image including a plurality of color components, the setting unit 202 may set different patches of interest for each color component of the pixel, and the patch of interest may be set to 5 × 5 × colors. It may be a single column vector in which several elements are arranged in a row. For example, when different patches of interest are set for each color component of a pixel, the image processing apparatus 100 according to the present embodiment performs subsequent processing separately for each color component.

検出部203は、各着目画素の位置に応じてそれぞれ定まる、着目画素の近傍の所定の領域に含まれる各参照画素に対応する、着目パッチと同等のサイズを有する参照パッチを設定する。次いで検出部203は、設定した参照パッチの集合から、着目パッチと類似した画素値の分布を有する参照パッチを類似パッチとして検出する。検出部203は、例えば、参照パッチそれぞれについて着目パッチとの類似度を算出し、算出された類似度に応じて類似パッチとするかどうかの判定を行ってもよい。類似度の算出処理については後述する。参照画素が設定される着目画素の近傍の所定の領域の範囲は特に限定されないが、以下においては説明のため、着目画素を中心とした15×15のサイズの領域が有する各画素を参照画素とするものとする。また、参照画素の位置に基づく参照パッチの設定位置も特に限定はされないが、本実施形態では、着目画素に対する着目パッチの設定と同様に行われるものとする。したがって、検出部203は、着目画素を中心とした225画素を参照画素として設定し、それらの参照画素に対応する参照パッチから最大225の類似パッチを検出する。また、参照画素及び参照パッチは、それぞれ着目画素及び着目パッチを含んでいてもよい。類似パッチの検出処理については後述する。 The detection unit 203 sets a reference patch having a size equivalent to that of the patch of interest, which corresponds to each reference pixel included in a predetermined region in the vicinity of the pixel of interest, which is determined according to the position of each pixel of interest. Next, the detection unit 203 detects a reference patch having a pixel value distribution similar to that of the patch of interest as a similar patch from the set of the set reference patches. For example, the detection unit 203 may calculate the similarity with the patch of interest for each reference patch, and determine whether or not to use the similar patch according to the calculated similarity. The calculation process of the degree of similarity will be described later. The range of a predetermined region in the vicinity of the pixel of interest in which the reference pixel is set is not particularly limited, but for the sake of explanation below, each pixel of the region having a size of 15 × 15 centered on the pixel of interest is referred to as a reference pixel. It shall be. Further, the setting position of the reference patch based on the position of the reference pixel is not particularly limited, but in the present embodiment, it is assumed that the setting position of the reference patch for the pixel of interest is set in the same manner. Therefore, the detection unit 203 sets 225 pixels centered on the pixel of interest as reference pixels, and detects a maximum of 225 similar patches from the reference patches corresponding to those reference pixels. Further, the reference pixel and the reference patch may include the pixel of interest and the patch of interest, respectively. The detection process of similar patches will be described later.

取得部204は、類似パッチ間の対応する画素ごとのノイズの標準偏差を推測し、その推測された値を定数倍した値(以下、スケール値と呼ぶ)を、その画素位置の画素値として有する、標準偏差パッチを取得する。そのために、本実施形態に係る取得部204は、類似パッチの集合であるパッチ集合について、対応する画素ごとに平均をとった平均パッチを取得する。次いで、取得部204は、平均パッチに基づいて、例えば後述する式(3)に基づいて標準偏差パッチを取得する。本実施形態においては、平均パッチ及び標準偏差パッチは類似パッチと等しいサイズを有する。 The acquisition unit 204 estimates the standard deviation of the noise for each corresponding pixel between similar patches, and has a value obtained by multiplying the estimated value by a constant (hereinafter referred to as a scale value) as the pixel value of the pixel position. , Get the standard deviation patch. Therefore, the acquisition unit 204 according to the present embodiment acquires an average patch obtained by averaging each corresponding pixel with respect to a patch set which is a set of similar patches. Next, the acquisition unit 204 acquires the standard deviation patch based on the average patch, for example, based on the equation (3) described later. In this embodiment, the mean patch and standard deviation patch have the same size as similar patches.

変換部205は、各類似パッチの画素それぞれを、類似パッチ間の対応する画素ごとのノイズの標準偏差がどの位置においても等しくなるように変換する。変換部205は、平均パッチ及び標準偏差パッチに基づいて、上述の変換を行う。変換部205による変換処理の詳細はステップS308において後述する。また、以下においてこの変換によって等しくなった類似パッチのノイズの標準偏差を変換後標準偏差とし、変換後標準偏差の2乗を変換後分散とする。また、変換部205によって変換された各類似パッチを変換パッチと呼ぶものとする。 The conversion unit 205 converts each pixel of each similar patch so that the standard deviation of noise for each corresponding pixel between similar patches is equal at any position. The conversion unit 205 performs the above conversion based on the average patch and the standard deviation patch. Details of the conversion process by the conversion unit 205 will be described later in step S308. Further, in the following, the standard deviation of the noise of similar patches equalized by this conversion is defined as the converted standard deviation, and the square of the converted standard deviation is defined as the post-conversion variance. Further, each similar patch converted by the conversion unit 205 is referred to as a conversion patch.

行列算出部206は、各変換パッチに基づいて共分散行列を算出する。行列算出部206が算出する共分散行列は、変換パッチのある画素と別の画素との間にどのような相関関係があるのかを示している。行列算出部206による算出の詳細はステップS309において後述する。 The matrix calculation unit 206 calculates the covariance matrix based on each transmutation patch. The covariance matrix calculated by the matrix calculation unit 206 shows what kind of correlation there is between a pixel having a conversion patch and another pixel. Details of the calculation by the matrix calculation unit 206 will be described later in step S309.

固有値算出部207は、算出された共分散行列から、その共分散行列の固有値及び固有ベクトルを算出する。固有値算出部207が算出する固有ベクトルは、変換パッチに基づく共分散行列から算出される主成分であり、変換パッチから抽出されたテクスチャ成分を示している。したがって、各変換パッチは、抽出されたテクスチャ成分と、平均パッチと、を用いて示すことができる。また、固有値算出部207が算出する固有値は、対応する固有ベクトルの分散を示している。つまり、そのようなテクスチャ成分が各変換パッチに出現する度合いの変動を示している。したがって、固有ベクトルに対応する固有値が大きいほど、その固有ベクトルが示すテクスチャ成分の変動が大きくなる。また、詳細はステップS311において後述するが、テクスチャ成分の変動が極めて小さい場合においては、そのテクスチャ成分に対応する固有値は、本実施形態においては、ノイズの分散程度の値とされる。 The eigenvalue calculation unit 207 calculates the eigenvalues and eigenvectors of the covariance matrix from the calculated covariance matrix. The eigenvector calculated by the eigenvalue calculation unit 207 is a principal component calculated from the covariance matrix based on the conversion patch, and indicates the texture component extracted from the conversion patch. Therefore, each conversion patch can be shown using the extracted texture component and the average patch. Further, the eigenvalues calculated by the eigenvalue calculation unit 207 indicate the variance of the corresponding eigenvectors. That is, it shows the variation in the degree to which such texture components appear in each conversion patch. Therefore, the larger the eigenvalue corresponding to the eigenvector, the larger the variation of the texture component indicated by the eigenvector. Further, although the details will be described later in step S311, when the variation of the texture component is extremely small, the eigenvalue corresponding to the texture component is a value of the degree of noise dispersion in the present embodiment.

算出部208は、固有値算出部207が算出した固有値及び固有ベクトルに基づいて、変換パッチの補正に用いる補正用行列を算出する。算出部208が算出する補正用行列は、変換パッチについてノイズを低減するために用いられる。そのために、算出部208は、まず固有値の補正を行う。本実施形態においては、算出部208は、固有値がノイズによって偶然小さな値となる場合に、そのような固有値を補正することにより、その固有値に対応する固有ベクトルが被写体のテクスチャとしてノイズ低減後の画像に残留しにくくすることができる。次いで、算出部208は、補正した固有値(以下補正値と呼ぶ)を用いて補正用行列を生成する。補正値の算出、及び補正用行列の生成について、詳細な工程はステップS311及びS312においてそれぞれ後述する。 The calculation unit 208 calculates a correction matrix used for correction of the conversion patch based on the eigenvalues and eigenvectors calculated by the eigenvalue calculation unit 207. The correction matrix calculated by the calculation unit 208 is used to reduce noise in the conversion patch. Therefore, the calculation unit 208 first corrects the eigenvalues. In the present embodiment, when the eigenvalues happen to be small due to noise, the calculation unit 208 corrects the eigenvalues so that the eigenvectors corresponding to the eigenvalues are used as the texture of the subject in the image after noise reduction. It can be made difficult to remain. Next, the calculation unit 208 generates a correction matrix using the corrected eigenvalues (hereinafter referred to as correction values). The detailed steps of calculating the correction value and generating the correction matrix will be described later in steps S311 and S312, respectively.

補正部209は、生成された補正用行列に基づいて、各変換パッチの補正を行う。つまり、各変換パッチのノイズの低減を行う。また、逆変換部210は、平均パッチ及び標準偏差パッチに基づいて、ノイズの低減を行った各変換パッチを変換する。本実施形態においては、逆変換部210は、変換部205による変換を打ち消すような変換を行う。以下、逆変換部210が変換した変換パッチを逆変換パッチと呼ぶものとする。合成部211は、逆変換部210が変換した各逆変換パッチを合成(アグリゲーション)することによって、ノイズが低減された画像データを生成する。補正処理、逆変換処理、及び合成処理の一例については、それぞれステップS313、S314、及びS315〜S317において後述する。 The correction unit 209 corrects each conversion patch based on the generated correction matrix. That is, the noise of each conversion patch is reduced. Further, the inverse conversion unit 210 converts each conversion patch with noise reduction based on the average patch and the standard deviation patch. In the present embodiment, the inverse conversion unit 210 performs a conversion that cancels the conversion by the conversion unit 205. Hereinafter, the conversion patch converted by the inverse conversion unit 210 will be referred to as an inverse conversion patch. The compositing unit 211 generates image data with reduced noise by synthesizing (aggregating) each inverse conversion patch converted by the inverse conversion unit 210. Examples of the correction process, the inverse transformation process, and the synthesis process will be described later in steps S313, S314, and S315 to S317, respectively.

図2に示した各機能部はハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。本実施形態では、図2に示した各機能部はコンピュータプログラムで実装されるものとする。また以下では、図2に示した機能部を処理の主体として説明するが、実際には、該機能部の機能をCPU101に実現させるためのコンピュータプログラムをCPU101が実行することで、該機能部の機能が実現される。 Each functional part shown in FIG. 2 may be implemented by hardware or may be implemented by a computer program. In this embodiment, each functional unit shown in FIG. 2 is implemented by a computer program. Further, in the following, the functional unit shown in FIG. 2 will be described as the main body of the processing, but in reality, the CPU 101 executes a computer program for realizing the function of the functional unit in the CPU 101. The function is realized.

以下、図3を参照して、本実施形態に係る画像処理装置によるノイズ低減処理の流れを説明する。図3は本実施形態に係るノイズ低減処理を行うための処理手順の一例を示すフローチャートである。 Hereinafter, the flow of noise reduction processing by the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing an example of a processing procedure for performing the noise reduction processing according to the present embodiment.

S301において入力部201は入力画像の画像データを読み込む。S302において合成部211は、アグリゲーションを行うための分子用画像及び分母用画像のそれぞれにおける各画素の画素値を0に初期化する。この分子用画像及び分母用画像は、垂直方向及び水平方向どちらに関しても入力画像と同じ画素数を有する。分子用画像には、後述する合成処理において、S315で、各逆変換パッチの有する画素値が、それぞれ対応する位置に加算される。次いでS317において、合成部211が、分子用画像上に加算された値を、それぞれの位置の加算回数に応じて平均化する。そのために、分母用画像は、各逆変換パッチの画素値が分子用画像上に加算された回数を、各位置に格納する役割を果たす。 In S301, the input unit 201 reads the image data of the input image. In S302, the synthesis unit 211 initializes the pixel value of each pixel in each of the numerator image and the denominator image for performing aggregation to 0. The numerator image and denominator image have the same number of pixels as the input image in both the vertical direction and the horizontal direction. In the synthesis process described later, the pixel values of each inverse conversion patch are added to the corresponding positions in the molecular image in S315. Next, in S317, the synthesis unit 211 averages the values added on the molecular image according to the number of additions at each position. Therefore, the denominator image plays a role of storing the number of times the pixel values of each inverse transformation patch are added on the numerator image at each position.

S303において設定部202は、入力画像に着目画素を設定する。本実施形態では、設定部202は、上述の通り左上からラスタ順に着目画素を設定する。次いで設定部202は、設定した着目画素から、処理対象となる着目画素を選択し、その着目画素に対応する部分領域である着目パッチTを設定する。本実施形態において設定部202は、着目画素を中心とした5×5画素の領域を着目パッチとして設定する。以下では、着目パッチを、着目パッチの有するM個の画素(本実施形態ではM=25)の画素値をラスタ順に並べた列ベクトルTで表すものとする。 In S303, the setting unit 202 sets the pixel of interest in the input image. In the present embodiment, the setting unit 202 sets the pixels of interest in raster order from the upper left as described above. Next, the setting unit 202 selects the pixel of interest to be processed from the set pixels of interest, and sets the patch T of interest, which is a partial region corresponding to the pixel of interest. In the present embodiment, the setting unit 202 sets a region of 5 × 5 pixels centered on the pixel of interest as a patch of interest. In the following, the patch of interest is represented by a column vector T in which the pixel values of the M pixels (M = 25 in this embodiment) of the patch of interest are arranged in raster order.

S304において検出部203は、入力画像から、着目パッチTに対して複数の参照画素を設定し、参照画素に対応する参照パッチを設定する。各参照パッチの形状は着目パッチTと一致する。したがって、各参照パッチはM個の画素により構成される。以下、複数の参照パッチの内のi番目の参照パッチを、その参照パッチが有するM個の画素値をラスタ順に並べた列ベクトルRで表すものとする。本実施形態においては、一つの着目パッチに対する参照パッチは合計225個あるものとする(i=1、2、…、225)が、上述のようにこれに限定されるものではない。 In S304, the detection unit 203 sets a plurality of reference pixels for the patch T of interest from the input image, and sets a reference patch corresponding to the reference pixel. The shape of each reference patch matches the patch T of interest. Therefore, each reference patch is composed of M pixels. Hereinafter, the i-th reference patch of the plurality of reference patches, and represents a column vector R i formed by arranging M pieces of pixel values in which the reference patch has in raster order. In the present embodiment, it is assumed that there are a total of 225 reference patches for one patch of interest (i = 1, 2, ..., 225), but the present invention is not limited to this as described above.

S305において検出部203は、参照パッチの内から、着目パッチとの類似度が高いものを類似パッチとして検出する。そのために、まず検出部203は、S304において設定した参照パッチそれぞれについて、着目パッチとの類似度を取得する。本実施形態において、類似度は、着目パッチと参照パッチとの対応する位置の画素値の差分二乗和(SSD)により算出されるが、類似度の取得方法は特にこれに限定されるわけではない。例えば、検出部203は、着目パッチと参照パッチとの類似度を、それらのパッチの対応する位置の画素値の差分絶対値和(SAD)を用いて算出してもよい。検出部203は、i番目の参照パッチの差分二乗和SSDを、以下の式(1)により算出する。

Figure 2021077037
In S305, the detection unit 203 detects a patch having a high degree of similarity to the patch of interest as a similar patch from among the reference patches. Therefore, first, the detection unit 203 acquires the similarity with the patch of interest for each of the reference patches set in S304. In the present embodiment, the similarity is calculated by the sum of squared differences (SSD) of the pixel values at the corresponding positions of the patch of interest and the reference patch, but the method of acquiring the similarity is not particularly limited to this. .. For example, the detection unit 203 may calculate the similarity between the patch of interest and the reference patch by using the sum of the difference absolute values (SAD) of the pixel values at the corresponding positions of those patches. The detection unit 203 calculates the difference squared sum SSD i of the i-th reference patch by the following equation (1).
Figure 2021077037

ここで、R(j)は、i番目の参照パッチにおけるj番目の画素の画素値である。T(j)は着目パッチTにおけるj番目の画素の画素値である。本実施形態において検出部203は、着目パッチTと参照パッチとの対応する位置の画素値の差分を2乗した値を累積加算することにより、差分二乗和を算出する。このように差分二乗和SSDを用いて類似度を取得する場合、差分二乗和の値が小さいほど、参照パッチRは着目パッチTに類似していることを示している。つまり、差分二乗和の値が小さくなるほど類似度が高くなり、逆に差分二乗和の値が大きくなるほど類似度が低くなる。 Here, Ri (j) is the pixel value of the j-th pixel in the i-th reference patch. T (j) is the pixel value of the jth pixel in the patch T of interest. In the present embodiment, the detection unit 203 calculates the sum of squared differences by cumulatively adding the squared difference of the pixel values at the corresponding positions of the patch T of interest and the reference patch. When the similarity is acquired using the difference squared sum SSD i in this way, the smaller the value of the difference squared sum, the more similar the reference patch Ri is to the patch T of interest. That is, the smaller the value of the sum of the difference squares, the higher the degree of similarity, and conversely, the larger the value of the sum of the difference squares, the lower the degree of similarity.

検出部203は、そのようにして算出される類似度が高い参照パッチを、類似パッチとして検出する。検出部203は、例えば、各参照パッチについて、予め定められた所定の閾値と上述の差分2乗和とを比較し、差分2乗和が閾値未満となるような参照パッチを、類似パッチとして検出してもよい。差分2乗和と比較される閾値は特に限定はされず、所望の条件に応じて適宜設定されてもよい。以下、そのような処理により、検出部203はN個(N≧1)の類似パッチを検出するものとする。つまり、パッチ集合にはN個の類似パッチが含まれるものとする。また、検出されたN個の類似パッチの内のi番目のものを、その類似パッチが有するM個の画素値をラスタ順に並べた列ベクトルPとして表すものとする。 The detection unit 203 detects the reference patch having a high degree of similarity calculated in this way as a similar patch. For example, the detection unit 203 compares a predetermined threshold value with the above-mentioned difference square sum for each reference patch, and detects a reference patch such that the difference square sum is less than the threshold value as a similar patch. You may. The threshold value to be compared with the sum of squared differences is not particularly limited, and may be appropriately set according to desired conditions. Hereinafter, it is assumed that the detection unit 203 detects N (N ≧ 1) similar patches by such processing. That is, it is assumed that the patch set includes N similar patches. Further, those of the i-th among the detected N number of similar patches, denote the M pixel value in which the similar patches have as a column vector P i which are arranged in raster order.

S306において取得部204は、S305において検出された類似パッチの集合に基づいて、平均パッチを取得する。つまり、取得部204は、複数の類似パッチの対応する位置の画素値の平均を算出し、その位置にそれぞれ平均値を格納した平均パッチを生成する。したがって、平均パッチは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、平均パッチは、平均パッチの有するM個の画素値をラスタ順に並べた列ベクトルQによって表されるものとする。そのような場合、取得部204は、以下の式(2)により平均パッチQを算出する。

Figure 2021077037
In S306, the acquisition unit 204 acquires the average patch based on the set of similar patches detected in S305. That is, the acquisition unit 204 calculates the average of the pixel values at the corresponding positions of the plurality of similar patches, and generates an average patch in which the average value is stored at each position. Therefore, the average patch has the same shape as the patch of interest and is composed of M pixels. In the following, it is assumed that the average patch is represented by a column vector Q in which the M pixel values of the average patch are arranged in raster order. In such a case, the acquisition unit 204 calculates the average patch Q by the following equation (2).
Figure 2021077037

なお、本実施形態では、取得部204は、すべての類似パッチに基づいて平均パッチQを算出するものとするが、特にそのように限定されるわけではない。例えば、取得部204は、類似パッチの一部(例えば類似度に応じて選択される)を用いて平均パッチQを算出してもよい。そのような場合、以下に続く処理においても、類似パッチの集合として、S306において用いられた類似パッチの集合を用いるものとする。 In the present embodiment, the acquisition unit 204 calculates the average patch Q based on all similar patches, but the acquisition unit 204 is not particularly limited to that. For example, the acquisition unit 204 may calculate the average patch Q using a part of similar patches (for example, selected according to the degree of similarity). In such a case, the set of similar patches used in S306 shall be used as the set of similar patches in the subsequent processing.

S307において取得部204は、平均パッチの画素位置それぞれにおけるノイズの標準偏差のスケール値を表す標準偏差パッチSを算出する。つまり、標準偏差パッチSは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、標準偏差パッチSは、標準偏差パッチの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。取得部204は、標準偏差パッチが有する画素の内のj番目の画素値S(j)を、平均パッチにおけるその位置の画素値Q(j)を用いて、以下の式(3)によって推測する。
S(j)=(α(kQ(j)+v))1/2 (3)
In S307, the acquisition unit 204 calculates the standard deviation patch S representing the scale value of the standard deviation of the noise at each of the pixel positions of the average patch. That is, the standard deviation patch S has the same shape as the patch of interest, and is composed of M pixels. In the following, it is assumed that the standard deviation patch S is represented by a column vector in which M pixel values of the standard deviation patch are arranged in raster order. The acquisition unit 204 estimates the j-th pixel value S (j) of the pixels of the standard deviation patch by the following equation (3) using the pixel value Q (j) at that position in the average patch. ..
S (j) = (α (kQ (j) + v)) 1/2 (3)

式(3)において、k及びvは、入力画像が有するノイズの画素値依存性を表すためのパラメータである(つまり、これらのパラメータに基づいてノイズの標準偏差が推測される)。これらのパラメータは撮像装置の機種及び感度設定に応じて、予め所定の値として設定される。また、これらのパラメータは、予め感度ごとに測定され、不図示のテーブルとして記憶部103に格納されている。さらに、αは予め定められる所定の値であり、本実施形態においてはα=1であるものとするが、後述の式4での変換によって変換パッチの対応する位置におけるノイズの標準偏差は一定となればよいことを考えると、αの値は特に限定されない。 In the equation (3), k and v are parameters for expressing the pixel value dependence of the noise of the input image (that is, the standard deviation of the noise is estimated based on these parameters). These parameters are set in advance as predetermined values according to the model of the imaging device and the sensitivity setting. Further, these parameters are measured in advance for each sensitivity and stored in the storage unit 103 as a table (not shown). Further, α is a predetermined value determined in advance, and α = 1 in this embodiment, but the standard deviation of noise at the corresponding position of the conversion patch is constant due to the conversion in Equation 4 described later. Considering that it should be, the value of α is not particularly limited.

S308において、変換部205は、平均パッチQと標準偏差パッチSとに基づいて、各類似パッチPが有する各画素値を変換した変換パッチUを算出する。本実施形態では、変換部205は、Uが有するj番目の画素値U(j)として、以下の式(4)によって変換された画素値を算出する。
(j)≡(P(j)−Q(j))/S(j) (4)
In S308, the conversion unit 205, based on the average patch Q and the standard deviation patches S, calculates the conversion patch U i of converting each pixel value included in each similar patch P i. In the present embodiment, the conversion unit 205, a j-th pixel value U i having the U i (j), and calculates the converted pixel value by the following equation (4).
U i (j) ≡ (P i (j) -Q (j)) / S (j) (4)

式(4)による変換により、S(j)がノイズの標準偏差のスケール値を表すことから、変換パッチの対応する位置におけるノイズの標準偏差は一定となる。また、変換部205は、そのように一定となった変換パッチのノイズの標準偏差を2乗した変換後分散Vを算出する。本実施形態では、変換パッチの各位置において標準偏差が等しくなるため、変換後分散Vは、各変換パッチを表すベクトル間の分散となる。本実施形態においては、α=1であることから、つまり、S(j)が入力画像のノイズの標準偏差の推測値を表すものであることから、V=1である。なお、パラメータk及びvの両方を同時に定数α倍した場合においても、変換パッチの対応する位置におけるノイズの標準偏差は一定となる。そのようにパラメータを設定した場合では、V=α−2とする。 Since S (j) represents the scale value of the noise standard deviation by the conversion according to the equation (4), the noise standard deviation at the corresponding position of the conversion patch becomes constant. Further, the conversion unit 205 calculates the post-conversion variance V, which is the square of the standard deviation of the noise of the conversion patch that has become constant in this way. In this embodiment, since the standard deviations are equal at each position of the conversion patch, the post-conversion variance V is the variance between the vectors representing each conversion patch. In the present embodiment, V = 1 because α = 1, that is, S (j) represents an estimated value of the standard deviation of the noise of the input image. Even when both the parameters k and v are multiplied by a constant α at the same time, the standard deviation of noise at the corresponding position of the conversion patch is constant. When the parameters are set in this way, V = α- 2 .

S309において行列算出部206は、S308において変換された変換パッチに基づいて、変換パッチの共分散行列Cを算出する。共分散行列Cは、一辺のサイズが変換パッチを構成する画素数Mと等しくなる正方行列である。本実施形態において、行列算出部206は、変換パッチUを用いて、下記の式(5)によって共分散行列Cを算出する。式(5)によって算出される共分散行列Cは、対角成分が変換パッチの対応する画素値の分散であり、非対角成分が変換パッチのある画素と別の画素との相関を示す行列である。

Figure 2021077037
In S309, the matrix calculation unit 206 calculates the covariance matrix C of the conversion patch based on the conversion patch converted in S308. The covariance matrix C is a square matrix in which the size of one side is equal to the number of pixels M constituting the conversion patch. In this embodiment, matrix computation unit 206 uses the conversion patch U i, to calculate the covariance matrix C by the following equation (5). In the covariance matrix C calculated by the equation (5), the diagonal component is the dispersion of the corresponding pixel values of the conversion patch, and the off-diagonal component is a matrix showing the correlation between the pixel with the conversion patch and another pixel. Is.
Figure 2021077037

S310において固有値算出部207は、共分散行列Cの固有値及び固有ベクトルを算出する。一般に、ある正方行列に対して、固有値及び固有ベクトルはそれぞれ複数存在し、その固有値及び固有ベクトルそれぞれの数は正方行列の一辺のサイズと等しくなる。つまり、本実施形態においては、共分散行列Cの固有値及び固有ベクトルはそれぞれM個存在する。また、固有ベクトルの要素数は、変換パッチを構成する画素数と等しくなる(つまり、M個となる)。ここでは、共分散行列Cのj番目の固有値をλとし、j番目の固有ベクトルをEと表すものとする。共分散行列Cの固有値λ及びEは、共分散行列の公知の性質によって算出される。また、共分散行列Cの固有値λ及びEは、以下の式(6)を満たす。したがって、λとEとは対応している。
CE=λ (6)
In S310, the eigenvalue calculation unit 207 calculates the eigenvalue and the eigenvector of the covariance matrix C. Generally, for a square matrix, there are a plurality of eigenvalues and eigenvectors, and the number of each eigenvalue and eigenvector is equal to the size of one side of the square matrix. That is, in this embodiment, there are M eigenvalues and M eigenvectors of the covariance matrix C, respectively. Further, the number of elements of the eigenvector is equal to the number of pixels constituting the conversion patch (that is, M). Here, it is assumed that the j-th eigenvalue of the covariance matrix C is λ j and the j-th eigenvector is E j . The eigenvalues λ j and E j of the covariance matrix C are calculated by the known properties of the covariance matrix. Further, the eigenvalues λ j and E j of the covariance matrix C satisfy the following equation (6). Therefore, λ j and E j correspond to each other.
CE j = λ j E j (6)

ここで、固有ベクトルEは、変換パッチの集合において抽出されるテクスチャ成分に相当する。また、固有値λは、各固有ベクトルが表すテクスチャ成分の分散を表す。つまり、固有値λは、各固有ベクトルが表すテクスチャ成分の変換パッチ間におけるばらつきに相当する。固有ベクトルの表すテクスチャ成分がノイズによるテクスチャである場合、その固有ベクトルに対応する固有値は、画像上のノイズの変換パッチにおける分散程度の値となる。したがって、固有値の値がノイズの分散より大きい値であるほど、その固有値に対応する固有ベクトルは、ノイズ低減処理において画像に残すべき被写体のテクスチャ成分である可能性が高くなる。後述するS313では、そのような固有値とノイズの分散の値の関係に従って、残すべきテクスチャ成分を残し、及びノイズによるテクスチャ成分を除去できるように、補正部209が各変換パッチに対してノイズ低減処理を行う。 Here, the eigenvector E j corresponds to the texture component extracted in the set of conversion patches. The eigenvalue λ j represents the variance of the texture component represented by each eigenvector. That is, the eigenvalue λ j corresponds to the variation between the conversion patches of the texture components represented by each eigenvector. When the texture component represented by the eigenvector is a texture due to noise, the eigenvalue corresponding to the eigenvector is a value of the degree of dispersion in the noise conversion patch on the image. Therefore, the larger the value of the eigenvalue is, the higher the possibility that the eigenvector corresponding to the eigenvalue is the texture component of the subject to be left in the image in the noise reduction processing. In S313, which will be described later, the correction unit 209 performs noise reduction processing for each conversion patch so that the texture component to be left can be left and the texture component due to noise can be removed according to the relationship between the eigenvalue and the noise dispersion value. I do.

S311において算出部208は、S307で算出した変換後分散Vに基づいて、S310で算出した各固有値を補正する。後述するS313におけるノイズ低減処理では、補正部209が、補正後の固有値(補正値)の大きさに応じて、その固有値に対応する固有ベクトルであるテクスチャ成分がノイズ低減処理後の出力画像中に保存されるか否かを決定する。補正値が変換後分散V程度である場合、補正部209は、対応する固有ベクトルが表すテクスチャ成分をノイズとみなし、変換パッチから除去する。一方、補正値が変換後分散Vから離れている場合、補正部209は、対応する固有ベクトルが表すテクスチャ成分を、保存すべきテクスチャとみなし、変換パッチ中に保存する。しかしながら実際には、ノイズによって生じるテクスチャ成分の固有値は、変換後分散Vの近傍でばらつきを有する。固有値のばらつきの結果、本来除去すべきノイズによるテクスチャ成分が、保存すべきテクスチャとみなされてしまう場合がある。そのような観点から、算出部208は、保存すべきテクスチャ成分である場合に算出される値よりも小さい固有値を、変換後分散V程度の値に補正する。例えば、算出部208は、保存すべきテクスチャ成分である場合に算出される値よりも小さい固有値を、変換後分散V±εの範囲内でランダムに定められる値へと補正してもよい。なお、本実施形態におけるεは、十分に小さい所定の数であるとする。そのような補正処理によれば、ノイズによるテクスチャ成分であるにも関わらず画像に保存される現象を抑制することができる。 In S311 the calculation unit 208 corrects each eigenvalue calculated in S310 based on the converted variance V calculated in S307. In the noise reduction processing in S313 described later, the correction unit 209 saves the texture component, which is an eigenvector corresponding to the eigenvalue (correction value) after the correction, in the output image after the noise reduction processing. Decide whether or not it will be done. When the correction value is about the variance V after conversion, the correction unit 209 considers the texture component represented by the corresponding eigenvector as noise and removes it from the conversion patch. On the other hand, when the correction value is separated from the variance V after conversion, the correction unit 209 considers the texture component represented by the corresponding eigenvector as the texture to be saved and saves it in the conversion patch. However, in reality, the eigenvalues of the texture components caused by noise vary in the vicinity of the converted variance V. As a result of the variation in the eigenvalues, the texture component due to noise that should be removed may be regarded as the texture to be preserved. From such a viewpoint, the calculation unit 208 corrects an eigenvalue smaller than the value calculated when the texture component should be preserved to a value of about the variance V after conversion. For example, the calculation unit 208 may correct an eigenvalue smaller than the value calculated when the texture component is to be preserved to a value randomly determined within the range of the converted variance V ± ε. It is assumed that ε in this embodiment is a sufficiently small predetermined number. According to such a correction process, it is possible to suppress the phenomenon of being stored in the image even though it is a texture component due to noise.

以下、S311における具体的な補正の処理を、図4を参照しながら説明する。本実施形態においては、算出部208がj番目の固有値λを補正することにより得られる値を、j番目の補正値ηと表すものとする。算出部208は、固有値の値に基づいて補正用のテーブルを参照し、固有値を補正する。図4(a)は、算出部208が参照するそのような補正用のテーブルの一例を示している。この図の例では、算出部208は、変換後分散Vに基づく閾値βVを算出する。次いで、算出部208は、固有値λが閾値以下である場合には、固有値λは、変換後分散Vと同程度になるように補正される。また、固有値λが閾値よりも大きい場合において、固有値λは、補正値ηが変換後分散Vよりも大きな値となるように補正される。さらに、固有値λが十分に大きい場合には、そのように補正される補正値ηは、元の固有値λと概一致する(つまり、固有値はほとんど補正されない)。 Hereinafter, the specific correction process in S311 will be described with reference to FIG. In the present embodiment, the calculation unit 208 a value obtained by correcting the j-th eigenvalue lambda j, and represent the j-th correction value eta j. The calculation unit 208 refers to the correction table based on the value of the eigenvalue and corrects the eigenvalue. FIG. 4A shows an example of such a correction table referred to by the calculation unit 208. In the example of this figure, the calculation unit 208 calculates the threshold value βV based on the converted variance V. Next, the calculation unit 208 corrects the eigenvalue λ j to be about the same as the converted variance V when the eigenvalue λ j is equal to or less than the threshold value. Further, when the eigenvalue λ j is larger than the threshold value, the eigenvalue λ j is corrected so that the correction value η j is larger than the converted variance V. Further, when the eigenvalue λ j is sufficiently large, the correction value η j so corrected is approximately the same as the original eigenvalue λ j (that is, the eigenvalue is hardly corrected).

βの値は予め定められる所定のパラメータであり、本実施形態においてはβ=2.0とするが、βの値は特に限定はされない。βが大きいほど固定パターンのノイズが消滅しやすくなるという観点から、βは1以上の実数であってもよい。また、βが大きすぎると本来残すべきテクスチャがノイズとして除去されやすくなってしまうことから、βは10以下であってもよい。また、固有値λが閾値βVよりも大きく、及び、補正後の補正値ηが固有値λと概一致するまで区間は、図4(a)のように滑らかに繋がれていてもよく、図4(b)のように不連続であってもよい。図4(b)に示されるような補正の方法であれば、算出部208は、補正テーブルは参照せず、λ>βVであれば補正値をλとし、λ≦βVであれば補正値をVとする。算出部208は、S310において算出された固有値全てに対して上述の処理を行うことができる。 The value of β is a predetermined parameter determined in advance, and in the present embodiment, β = 2.0, but the value of β is not particularly limited. From the viewpoint that the larger β is, the more easily the noise of the fixed pattern disappears, β may be a real number of 1 or more. Further, if β is too large, the texture that should be left is easily removed as noise, so β may be 10 or less. Further, the sections may be smoothly connected as shown in FIG. 4A until the eigenvalue λ j is larger than the threshold value βV and the corrected correction value η j roughly coincides with the eigenvalue λ j. It may be discontinuous as shown in FIG. 4 (b). In the case of the correction method as shown in FIG. 4B, the calculation unit 208 does not refer to the correction table , and if λ j > βV, the correction value is λ j, and if λ j ≦ βV, the correction value is set to λ j. Let V be the correction value. The calculation unit 208 can perform the above-mentioned processing on all the eigenvalues calculated in S310.

S312において算出部208は、S311で算出した補正値と、S310で算出した固有ベクトルと、に基づいて、変換パッチの補正に用いる補正用行列を算出する。本実施形態において、算出部208は、複数の固有値λを補正した補正値η(i=1、…M)と、固有値λに対応する固有ベクトルEと、を用いて、以下の式(7)に示される補正用行列Hを算出する。式(7)に示される補正用行列Hは、変換パッチUとの積HUを計算することにより、変換パッチUに含まれるノイズとみなされる値を算出することのできる行列である。HUは、変換パッチUの各要素を、(E … E)によるM次元空間への写像を行い、補正値ηを用いた補正を行い、写像前の空間へと戻して得られるベクトルである。

Figure 2021077037
In S312, the calculation unit 208 calculates a correction matrix used for correction of the conversion patch based on the correction value calculated in S311 and the eigenvector calculated in S310. In the present embodiment, the calculation unit 208 uses the correction value η i (i = 1, ... M) obtained by correcting a plurality of eigenvalues λ i and the eigenvector E i corresponding to the eigenvalue λ i , and uses the following equation. The correction matrix H shown in (7) is calculated. Correction matrix H shown in equation (7), by calculating the product HU i the conversion patch U i, a matrix capable of calculating a value that is regarded as noise included in the conversion patch U i. HU i is each element of the transformation patch U i, performs a mapping to the M-dimensional space by (E 1 E 2 ... E M ), performs correction using the correction value eta, back into the space before mapping The resulting vector.
Figure 2021077037

S313において補正部209は、変換パッチUからノイズを低減した補正パッチOを算出する。補正パッチOは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、補正パッチOは、補正パッチの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。補正部209は、例えば、変換パッチUと補正用行列Hとを用いて、式(8)によって、変換パッチUを補正した補正パッチOを算出する。
≡U−HU (8)
Correction unit 209 in S313 calculates the correction patch O i with reduced noise from the conversion patch U i. Correction patch O i has the same shape as noted patches are constituted by M pixels. In the following, correction patch O i is assumed to be represented by a column vector obtained by arranging M pieces of pixel values included in the correction patch in raster order. Correction unit 209, for example, by using a conversion patch U i and correction matrix H, the equation (8), calculates the correction patch O i obtained by correcting the conversion patch U i.
O i ≡ U i −HU i (8)

上述の通り、式(8)における右辺の第2項目であるHUは、変換パッチUに含まれるノイズとみなされる値である。つまり、HUは、変換パッチUに対する補正値である。本実施形態における補正部209は、この補正値HUを変換パッチUから除くことで、変換パッチUからノイズを低減した補正パッチOを算出する。 As described above, HU i , which is the second item on the right side in the equation (8), is a value regarded as noise included in the conversion patch U i. That is, HU i is a correction value for the conversion patch U i. Correction unit 209 in the present embodiment, by excluding this correction value HU i from the conversion patch U i, to calculate the correction patch O i with reduced noise from the conversion patch U i.

S314において逆変換部210は、変換パッチUを補正して取得された補正パッチOに対して、S308において行った変換を相殺するような変換を行う。以下において、そのような変換によって得られるパッチを逆変換パッチJと表すものとする。逆変換パッチJは、着目パッチと同様の形状を有しており、M個の画素により構成される。以下において、逆変換パッチJは、逆変換パッチJの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。逆変換部210は、例えば、以下の式(9)を用いた変換により、i番目の補正パッチO、標準偏差パッチのj番目の画素値S(j)、及び平均パッチのj番目の画素Q(j)から、逆変換パッチのj番目の画素値J(j)を算出する。
(j)=S(j)・O(j)+Q(j) (9)
Inverse transform unit 210 in S314, to the conversion patch U i correction patch O i obtained by correcting the performs conversion so as to offset the conversion performed in S308. Below in denote the patch obtained by such a conversion and inverse conversion patch J i. Inverse transform patch J i has the same shape as noted patches composed of M pixels. In the following, the inverse transform patch J i is assumed to be represented by a column vector obtained by arranging M pieces of pixel values included in the inverse transform patch J i in raster order. The inverse transform unit 210, for example, by conversion using the following equation (9), the j-th pixel of the i-th correction patch O i, the standard deviation patch j-th pixel value S (j), and the average patch from Q (j), to calculate the inverse transform patch j-th pixel value J i (j).
J i (j) = S (j) · O i (j) + Q (j) (9)

S315において合成部211は、S314において算出された逆変換パッチJに基づいて、分子用画像と分母用画像とを算出する。分子用画像及び分母用画像は共に入力画像と同様の形状を有しており、後述するS317において、分子用画像の各画素の画素値を、分母用画像のそれぞれ同位置の画素値で除算することにより出力画像が生成される画像データである。合成部211は、逆変換パッチJに含まれる各画素位置の画素値を、分子用画像上の、入力画像において類似パッチPが検出された位置にそれぞれ加算する。また、合成部211は、分母用画像上の、入力画像において類似パッチPが検出された位置に、それぞれ1を加算する。合成部211は、そのような操作を、M個の逆変換パッチ全てに対して行う。 Combining unit 211 at S315, based on the inverse transform patch J i calculated in S314, to calculate the molecular images and denominator image. Both the molecular image and the denominator image have the same shape as the input image, and in S317 described later, the pixel value of each pixel of the molecular image is divided by the pixel value at the same position of the denominator image. This is image data for which an output image is generated. Combining unit 211, the pixel value of each pixel position included in the inverse transform patch J i, on the molecule images, similar patch P i in the input image is respectively added to the detected position. Further, the synthesis unit 211 adds 1 to each position on the denominator image where a similar patch Pi is detected in the input image. The synthesis unit 211 performs such an operation on all M inverse conversion patches.

S316において合成部211は、S303において設定された着目パッチの内に、未処理の着目パッチが存在するかどうかの判定を行う。未処理の着目画素が存在する場合処理はS303に戻り、そうでない場合処理はS317へと進む。 In S316, the synthesis unit 211 determines whether or not there is an unprocessed patch of interest among the patches of interest set in S303. If there is an unprocessed pixel of interest, the process returns to S303, otherwise the process proceeds to S317.

S317において合成部211は、分子用画像における各画素位置の画素値を、分母用画像における同位置の画素値で除算する。このような処理によれば、S303〜S315の繰り返しの処理によって分子用画像の同画素位置に複数の画素値が加算されている場合においても、その画素値の平均値を出力画像として生成することができる。 In S317, the synthesis unit 211 divides the pixel value at each pixel position in the numerator image by the pixel value at the same position in the denominator image. According to such processing, even when a plurality of pixel values are added to the same pixel positions in the molecular image by the repeated processing of S303 to S315, the average value of the pixel values is generated as an output image. Can be done.

このような構成によれば、ノイズ標準偏差の輝度依存性を考慮して適切に補正された固有値を用いてノイズの低減処理を行うことにより、ノイズにより偶然生じたテクスチャをノイズとみなして取り除くことができる。したがって、出力画像における固定パターンのノイズの発生を抑えることができる。 According to such a configuration, the texture accidentally generated by the noise is regarded as noise and removed by performing the noise reduction processing using the eigenvalues appropriately corrected in consideration of the brightness dependence of the noise standard deviation. Can be done. Therefore, it is possible to suppress the generation of fixed pattern noise in the output image.

出力画像は記憶部103に格納されても良いし、表示部105に表示しても良いし、汎用インターフェース104を介して外部メモリ110に保存しても良い。このように出力画像の出力先は特定の出力先に限らない。 The output image may be stored in the storage unit 103, displayed in the display unit 105, or stored in the external memory 110 via the general-purpose interface 104. In this way, the output destination of the output image is not limited to a specific output destination.

[変形例1]
実施形態1に係る取得部204は、平均パッチQと、式(3)に示されるノイズの画素値依存性と、に基づいて標準偏差パッチSの各画素値を算出していた。しかし、標準偏差パッチSを算出する方法は特にこれに限定されるわけではない。この例においては、取得部204は、以下の式(10)及び式(11)に示されるように、類似パッチPについての標準偏差パッチSを算出し、そのようなS(i=1〜M)の平均として標準偏差パッチSを算出する。

Figure 2021077037
[Modification 1]
The acquisition unit 204 according to the first embodiment calculated each pixel value of the standard deviation patch S based on the average patch Q and the pixel value dependence of the noise represented by the equation (3). However, the method for calculating the standard deviation patch S is not particularly limited to this. In this example, the acquisition unit 204 calculates the standard deviation patch S i for a similar patch P i , as shown in Eqs. (10) and (11) below, and such S i (i = The standard deviation patch S is calculated as the average of 1 to M).
Figure 2021077037

このように、類似パッチごとにスケール値を算出してその平均を標準偏差パッチSとすることにより、ある画素に外れ値のような強いノイズを有する類似パッチが存在する場合においても、出力画像がその外れ値の影響を受けにくくなる。つまり、例えばノイズによって非常に明るくなった画素を有する類似パッチが存在している場合に、類似パッチ間の平均を取る前に式(10)に基づいて0.5乗の処理を行うことにより、そのような外れ値を有する画素の出力画像への影響が低減されやすくなる。 In this way, by calculating the scale value for each similar patch and using the average as the standard deviation patch S, the output image can be obtained even when there is a similar patch with strong noise such as outliers in a certain pixel. It is less susceptible to the outliers. That is, for example, when there is a similar patch having pixels that are very bright due to noise, the 0.5th power processing is performed based on the equation (10) before averaging between the similar patches. The influence of pixels having such outliers on the output image is likely to be reduced.

[変形例2]
取得部204は、S306において、類似パッチの集合であるパッチ集合について、平均パッチQの代わりに各画素値の中央値を取ったメディアンパッチMPを算出しても良い。メディアンパッチMPは、着目パッチと同様の形状を有しており、M個の画素により構成されている。以下において、メディアンパッチMPは、該メディアンパッチMPの有するM個の画素値をラスタ順に並べた列ベクトルによって表されるものとする。そして実施形態1において、画像処理装置100は、平均パッチQの代わりにメディアンパッチMPを用いる。
[Modification 2]
In S306, the acquisition unit 204 may calculate the median patch MP in which the median value of each pixel value is taken instead of the average patch Q for the patch set which is a set of similar patches. The median patch MP has the same shape as the patch of interest and is composed of M pixels. In the following, the median patch MP is represented by a column vector in which the M pixel values of the median patch MP are arranged in raster order. Then, in the first embodiment, the image processing apparatus 100 uses the median patch MP instead of the average patch Q.

メディアンは、一般に、外れ値の影響を受けにくいことが知られている。したがって、例えば、平均パッチQの代わりにメディアンパッチMPを用いて実施形態1に係る処理を行うことにより、ノイズによる外れ値の影響を受けにくいノイズ低減処理を行うことができる。 Medians are generally known to be less susceptible to outliers. Therefore, for example, by performing the processing according to the first embodiment using the median patch MP instead of the average patch Q, it is possible to perform the noise reduction processing that is not easily affected by the outliers due to noise.

[実施形態2]
実施形態2に係る画像処理装置は、実施形態1と同様に共分散行列Cを算出し、次いで、共分散行列Cについて主成分分析を行うことにより取得される固有ベクトル群を用いて、ノイズの低減処理を行う。つまり、共分散行列Cの固有値に基づいて、ノイズ低減処理に使用する固有ベクトルを選択する。実施形態2に係る画像処理装置は、共分散行列Cの固有値に基づいて、所定の条件を満たす固有ベクトルFを後述の式(13)のように並べた行列Bを算出する。次いで、後述の式(14)で表される射影行列Wを用いて変換パッチUを補正し、補正パッチOを算出し、そのような補正パッチOに基づいて実施形態1と同様の処理を行う。本実施形態に係る画像処理装置100は、そのような処理のために算出部508を有することを除き、実施形態1と同様の構成を有し、重複する説明は省略する。図5は本実施形態に係る画像処理装置100の機能構成の一例を示すためのブロック図である。算出部508は、固有値算出部207が算出した固有値及び固有ベクトルと、閾値θと、に基づいて、射影行列Wを算出する。射影行列WについてはS611において後述する。また、主成分分析については公知の技術であるため詳細な説明は省略する。
[Embodiment 2]
The image processing apparatus according to the second embodiment calculates the covariance matrix C in the same manner as in the first embodiment, and then uses the eigenvector group obtained by performing the principal component analysis on the covariance matrix C to reduce noise. Perform processing. That is, the eigenvectors used for the noise reduction processing are selected based on the eigenvalues of the covariance matrix C. The image processing apparatus according to the second embodiment calculates a matrix B in which eigenvectors F satisfying a predetermined condition are arranged as shown in the following equation (13) based on the eigenvalues of the covariance matrix C. Then, by correcting the transformation patch U i by using the projection matrix W represented by the formula (14) described later, calculates a correction patch O i, similar to the embodiment 1 on the basis of such a correction patch O i Perform processing. The image processing apparatus 100 according to the present embodiment has the same configuration as that of the first embodiment except that it has a calculation unit 508 for such processing, and redundant description will be omitted. FIG. 5 is a block diagram for showing an example of the functional configuration of the image processing device 100 according to the present embodiment. The calculation unit 508 calculates the projection matrix W based on the eigenvalues and eigenvectors calculated by the eigenvalue calculation unit 207 and the threshold value θ. The projection matrix W will be described later in S611. Further, since the principal component analysis is a known technique, detailed description thereof will be omitted.

以下、図6を参照して、本実施形態に係る画像処理装置によるノイズ低減処理の流れを説明する。図6は本実施形態に係るノイズ低減処理を行うための処理手順の一例を示すフローチャートである。本実施形態に係る画像処理装置100は、S611〜S613を除き、実施形態1に係る図3の処理と同様の処理工程を行うため、重複する説明は省略する。 Hereinafter, the flow of noise reduction processing by the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing an example of a processing procedure for performing the noise reduction processing according to the present embodiment. Since the image processing apparatus 100 according to the present embodiment performs the same processing step as the processing of FIG. 3 according to the first embodiment except for S611 to S613, duplicate description will be omitted.

S611において算出部508は、S308で算出した変換後分散に基づいて、閾値θを算出する。算出部508は、閾値θとS610で算出した各固有値とに基づいて、各固有値に対応する固有ベクトルを共分散行列Cの残すべきテクスチャ成分を表すベクトルとして扱うかノイズに相当するベクトルとして扱うかを判定する。つまり、本実施形態に係る算出部508は、対応する固有値が閾値θ以上となる固有ベクトルを、共分散行列Cの残すべきテクスチャ成分として扱う。 In S611, the calculation unit 508 calculates the threshold value θ based on the converted variance calculated in S308. Based on the threshold value θ and each eigenvalue calculated in S610, the calculation unit 508 determines whether the eigenvector corresponding to each eigenvalue is treated as a vector representing the texture component to be left in the covariance matrix C or as a vector corresponding to noise. judge. That is, the calculation unit 508 according to the present embodiment treats the eigenvector whose corresponding eigenvalue is the threshold value θ or more as the texture component to be left in the covariance matrix C.

算出部508は、対応する固有値が閾値θ未満となる固有ベクトルを、ノイズに相当するベクトルであるとする。本実施形態に係る画像処理装置100は、そのようなノイズに相当するベクトルを取り除くようなノイズ低減処理を行うことにより、出力画像に固定パターンのノイズが表れにくくすることができる。ノイズに相当する固有ベクトルに対応する固有値はノイズの分散程度の値となるという観点から、本実施形態においては、算出部508は、係数γを1以上の実数として以下の式(12)を用いることにより閾値θを算出する。
θ=γV (12)
The calculation unit 508 assumes that the eigenvector whose corresponding eigenvalue is less than the threshold value θ is a vector corresponding to noise. The image processing apparatus 100 according to the present embodiment can make it difficult for fixed pattern noise to appear in the output image by performing noise reduction processing that removes a vector corresponding to such noise. From the viewpoint that the eigenvalue corresponding to the eigenvector corresponding to noise is a value of about the dispersion of noise, in the present embodiment, the calculation unit 508 uses the following equation (12) with the coefficient γ as a real number of 1 or more. The threshold value θ is calculated by.
θ = γV (12)

係数γは予め与えられるパラメータであり、本実施形態においてはγ=2.0とするが、γの値は特にこれには限定されない。本実施形態においては、γが大きいほど出力画像上の固定パターンのノイズが消滅しやすくなる。一方で、γが大きいほど出力画像上に本来残すべきテクスチャがノイズとして除去されやすくなってしまうことから、γは10以下であってもよい。 The coefficient γ is a parameter given in advance, and in the present embodiment, γ = 2.0, but the value of γ is not particularly limited to this. In the present embodiment, the larger the γ, the easier it is for the noise of the fixed pattern on the output image to disappear. On the other hand, the larger the γ, the easier it is for the texture that should be left on the output image to be removed as noise. Therefore, the γ may be 10 or less.

S612において算出部508は、固有値と閾値θとに基づいて、変換後ベクトルUの補正に用いる射影行列Wを算出する。本実施形態において、算出部508は、以下の式(13)及び式(14)に基づいて射影行列Wを算出する。
B=(F … F) 式(13)
W=BB (14)
Calculator 508 in S612, based on the eigenvalues and the threshold theta, calculates the projection matrix W used for correction of the converted vector U i. In the present embodiment, the calculation unit 508 calculates the projection matrix W based on the following equations (13) and (14).
B = (F 1 F 2 ... F K ) Equation (13)
W = BB t (14)

式(13)におけるF〜Fはそれぞれ、対応する固有値が閾値θ以上であると判定された固有ベクトルである。本実施形態においては、対応する固有値が閾値以上であると判定された固有ベクトルはK個(K≦M)存在するものとする。本実施形態においては、算出部508は、対応する固有値λがθ以上となる固有ベクトルEを、それぞれF〜Fとする。したがって、行列BはK行M列の行列となり、射影行列WはM行M列の正方行列となる。射影行列Wは、後述の式(15)において射影行列Wと変換パッチUとの積をとることにより、変換パッチUからF〜Fの成分のみを残すような行列である。 Each of F 1 to F K in the equation (13) is an eigenvector whose corresponding eigenvalue is determined to be equal to or higher than the threshold value θ. In the present embodiment, it is assumed that there are K (K ≦ M) eigenvectors for which the corresponding eigenvalues are determined to be equal to or greater than the threshold value. In the present embodiment, the calculation unit 508 sets the eigenvectors E j whose corresponding eigenvalues λ j are θ or more as F 1 to F K , respectively. Therefore, the matrix B is a matrix of K rows and M columns, and the projection matrix W is a square matrix of M rows and M columns. Projection matrix W by taking the product of the projection matrix W and the conversion patch U i in equation (15) below is a matrix that leaves only the component of F 1 to F K from the conversion patch U i.

S613において補正部209は、変換パッチUと射影行列Wとに基づいて、補正パッチOを算出する。本実施形態においては、補正部209は、下記の式(15)を用いることにより、変換パッチUと射影行列Wとに基づいて、補正パッチOを算出する。
=WU (15)
Correction unit 209 in S613, based on the projection matrix W and the conversion patch U i, to calculate the correction patch O i. In the present embodiment, the correction unit 209 by using equation (15) below, based on a conversion patch U i and projection matrix W, and calculates the correction patch O i.
O i = WU i (15)

このような構成によれば、ノイズに相当している可能性が高い成分をテクスチャ成分から取り除く射影行列Wによって補正された補正パッチOに基づいて、実施形態1と同様に逆変換パッチの合成が行われる。したがって、ノイズによる偶然生じたテクスチャをノイズとみなして取り除くことができる。したがって、出力画像から固定パターンのノイズを取り除くことができる。 According to such a configuration, based on the likely component that corresponds to the noise in the correction patch O i corrected by projection matrix W to remove from the texture component synthesized similarly inverse transform patch as in Embodiment 1 Is done. Therefore, the texture generated by chance due to noise can be regarded as noise and removed. Therefore, fixed pattern noise can be removed from the output image.

(その他の実施形態)
上述の実施形態においては、コンピュータプログラムを動作させることで実現するソフトウェアを例にして説明を行ったが、特にこれに限定されるわけではない。例えば、図2又は図5に示すブロック図の各構成の一部、並びにそのすべてが、専用の画像処理回路によって実現されてもよい。
(Other embodiments)
In the above-described embodiment, software realized by operating a computer program has been described as an example, but the present invention is not particularly limited to this. For example, a part of each configuration of the block diagram shown in FIG. 2 or FIG. 5, or all of them may be realized by a dedicated image processing circuit.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

201:入力部、202:設定部、203:検出部、204:取得部、205:変換部、206:行列算出部、207:固有値算出部、208:算出部、209:補正部、210:逆変換部、211:合成部 201: Input unit, 202: Setting unit, 203: Detection unit, 204: Acquisition unit, 205: Conversion unit, 206: Matrix calculation unit, 207: Eigenvalue calculation unit, 208: Calculation unit, 209: Correction unit, 210: Reverse Conversion unit, 211: Synthesis unit

Claims (20)

入力画像における第1の部分領域と画素値の分布が類似する複数の第2の部分領域を検出する検出手段と、
前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する第1の生成手段と、
前記第1の生成手段により生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記第1の生成手段により生成されたそれぞれのベクトルを変換する第1の変換手段と、
前記第1の変換手段により変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記第1の変換手段により変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する第1の補正手段と、
前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正する第2の補正手段と、
前記第2の補正手段により補正されたそれぞれのベクトルに対して、前記第1の変換手段による変換の逆変換を行う第2の変換手段と、
前記第2の変換手段により変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する第2の生成手段と、
を備えることを特徴とする、画像処理装置。
A detection means for detecting a plurality of second subregions having a pixel value distribution similar to that of the first subregion in the input image, and
For each of the plurality of second subregions, a first generation means for generating a vector having a pixel value in the second subregion as an element, and
With the first conversion means that transforms each vector generated by the first generation means so that the standard deviations of the elements at the corresponding positions in each vector generated by the first generation means are equal. ,
Based on the plurality of eigenvalues obtained from the covariance matrix based on each vector converted by the first conversion means and the variance between the vectors converted by the first conversion means, the plurality of eigenvalues The first correction means for calculating the result of each correction as a correction value, and
A second correction means for correcting each vector converted by the first conversion means based on each correction value calculated by the first correction means and an eigenvector obtained from the covariance matrix. When,
A second conversion means that performs the inverse transformation of the conversion by the first conversion means for each vector corrected by the second correction means, and
A second generation means for generating an image after noise reduction processing on the input image based on the vector converted by the second conversion means, and
An image processing apparatus comprising.
前記第2の生成手段は、前記第2の変換手段により変換されたベクトルを用いて、前記入力画像における複数の前記第2の部分領域の位置に対応する、前記入力画像に対するノイズ低減処理後の画像における位置の画素値を算出することを特徴とする、請求項1に記載の画像処理装置。 The second generation means uses the vector converted by the second conversion means to perform noise reduction processing on the input image, which corresponds to the position of a plurality of the second partial regions in the input image. The image processing apparatus according to claim 1, further comprising calculating a pixel value of a position in an image. 前記第2の生成手段は、前記第2の変換手段により変換されたベクトルの要素である画素値を、前記入力画像における複数の前記第2の部分領域に対応する、前記入力画像に対するノイズ低減処理後の画像中の各位置に加算し、
加算された前記画素値のそれぞれについて、前記位置ごとの加算回数で除算した結果を出力する値として算出し、
該出力する値のそれぞれを、前記入力画像に対するノイズ低減処理後の画像における各位置の画素値とすることを特徴とする、請求項1又は2に記載の画像処理装置。
The second generation means performs noise reduction processing on the input image in which pixel values, which are elements of the vector converted by the second conversion means, correspond to a plurality of the second partial regions in the input image. Add to each position in the later image,
Each of the added pixel values is calculated as a value to be output as a result of dividing by the number of additions for each position.
The image processing apparatus according to claim 1 or 2, wherein each of the output values is a pixel value at each position in the image after noise reduction processing for the input image.
前記第1の変換手段により変換されたベクトル間の分散は、前記入力画像を撮像する撮像装置について予め与えられている所定のパラメータに基づいて設定されている所定の値であることを特徴とする、請求項1乃至3の何れか一項に記載の画像処理装置。 The variance between the vectors converted by the first conversion means is a predetermined value set based on a predetermined parameter given in advance for the image pickup apparatus for capturing the input image. , The image processing apparatus according to any one of claims 1 to 3. 前記第1の変換手段は、前記第1の生成手段により生成されたそれぞれのベクトルと、前記所定のパラメータと、に基づいて、前記標準偏差を推測し、
推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4に記載の画像処理装置。
The first conversion means estimates the standard deviation based on the respective vectors generated by the first generation means and the predetermined parameters.
The image processing apparatus according to claim 4, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant as an element of each position is calculated.
前記第1の変換手段は、前記第1の生成手段により生成されたそれぞれのベクトルの対応する位置の要素の平均値を前記対応する位置の要素として有するベクトルと、前記所定のパラメータと、に基づいて、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。 The first conversion means is based on a vector having the average value of the elements at the corresponding positions of each vector generated by the first generation means as the elements at the corresponding positions, and the predetermined parameters. The image processing apparatus according to claim 4 or 5, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant value as an element of each position is calculated. 前記第1の変換手段は、前記所定のパラメータに基づいて、前記第1の生成手段により生成されたそれぞれのベクトルから、前記第1の生成手段により生成されたベクトルの各位置における要素の標準偏差をそれぞれ推測し、
前記第1の生成手段により生成されたそれぞれのベクトルから推測された前記標準偏差を定数倍した値を対応する位置の要素として有する各ベクトルについて、対応する位置の要素の平均値を各位置の要素として有する、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。
The first conversion means has a standard deviation of elements at each position of the vector generated by the first generation means from each vector generated by the first generation means based on the predetermined parameter. Guess each
For each vector having a value obtained by multiplying the standard deviation estimated from each vector generated by the first generation means by a constant as an element of the corresponding position, the average value of the elements of the corresponding position is the element of each position. The image processing apparatus according to claim 4 or 5, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant is calculated as an element of each position.
前記第1の変換手段は、前記第1の生成手段により生成されたそれぞれのベクトルの、対応する位置の要素の平均値を前記対応する位置の要素として有するベクトルと、対応する位置の要素から推測された前記標準偏差を定数倍した値を前記対応する位置の要素として有するベクトルと、に基づいて、前記第1の生成手段により生成されたそれぞれのベクトルを変換することを特徴とする、請求項6又は7に記載の画像処理装置。 The first conversion means estimates from a vector having the average value of the elements at the corresponding positions of each vector generated by the first generation means as the elements at the corresponding positions and the elements at the corresponding positions. The claim is characterized in that each vector generated by the first generation means is converted based on a vector having a value obtained by multiplying the standard deviation by a constant as an element of the corresponding position. The image processing apparatus according to 6 or 7. 前記第1の変換手段は、前記第1の生成手段により生成されたそれぞれのベクトルの対応する位置の要素の中央値を前記対応する位置の要素として有するベクトルと、前記所定のパラメータと、に基づいて、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。 The first conversion means is based on a vector having the median value of the element at the corresponding position of each vector generated by the first generation means as the element at the corresponding position, and the predetermined parameter. The image processing apparatus according to claim 4 or 5, further comprising calculating a vector having a value obtained by multiplying the estimated standard deviation by a constant as an element at each position. 前記第1の変換手段は、前記所定のパラメータに基づいて、前記第1の生成手段により生成されたそれぞれのベクトルから、前記第1の生成手段により生成されたベクトルの各位置における要素の標準偏差をそれぞれ推測し、
前記第1の生成手段により生成されたそれぞれのベクトルから推測された前記標準偏差を定数倍した値を対応する位置の要素として有する各ベクトルについて、対応する位置の要素の中央値を各位置の要素として有する、推測された前記標準偏差を定数倍した値を各位置の要素として有するベクトルを算出することを特徴とする、請求項4又は5に記載の画像処理装置。
The first conversion means has a standard deviation of elements at each position of the vector generated by the first generation means from each vector generated by the first generation means based on the predetermined parameter. Guess each
For each vector having a value obtained by multiplying the standard deviation estimated from each vector generated by the first generation means by a constant, as an element of the corresponding position, the median value of the element of the corresponding position is the element of each position. The image processing apparatus according to claim 4 or 5, wherein a vector having a value obtained by multiplying the estimated standard deviation by a constant is calculated as an element of each position.
前記第1の変換手段は、前記第1の生成手段により生成されたそれぞれのベクトルの、対応する位置の要素の中央値を前記対応する位置の要素として有するベクトルと、対応する位置の要素から推測された前記標準偏差を定数倍した値を前記対応する位置の要素として有するベクトルと、に基づいて、前記第1の生成手段により生成されたそれぞれのベクトルを変換することを特徴とする、請求項9又は10に記載の画像処理装置。 The first conversion means estimates from a vector having the median value of the element at the corresponding position as the element at the corresponding position of each vector generated by the first generation means and the element at the corresponding position. The claim is characterized in that each vector generated by the first generation means is converted based on a vector having a value obtained by multiplying the standard deviation by a constant as an element of the corresponding position. The image processing apparatus according to 9 or 10. 前記第1の補正手段は、前記固有値が、前記第1の変換手段により変換されたベクトル間の分散に基づいて算出される所定の閾値以下である場合において、前記固有値を、前記第1の変換手段により変換されたベクトル間の分散へと補正することを特徴とする、請求項1乃至11の何れか一項に記載の画像処理装置。 The first correction means converts the eigenvalue into the first conversion when the eigenvalue is equal to or less than a predetermined threshold value calculated based on the variance between the vectors converted by the first conversion means. The image processing apparatus according to any one of claims 1 to 11, wherein the image processing apparatus is corrected to a variance between vectors converted by means. 前記第1の補正手段は、前記固有値が、前記第1の変換手段により変換されたベクトル間の分散に基づいて算出される所定の閾値より大きい場合において、前記固有値を、前記第1の変換手段により変換されたベクトル間の分散より大きく、及び前記固有値より小さい値へと補正することを特徴とする、請求項1乃至12の何れか一項に記載の画像処理装置。 When the eigenvalue is larger than a predetermined threshold value calculated based on the variance between the vectors converted by the first conversion means, the first correction means converts the eigenvalue into the first conversion means. The image processing apparatus according to any one of claims 1 to 12, wherein the image processing apparatus is corrected to a value larger than the variance between the vectors converted by the above and smaller than the eigenvalue. 前記第1の補正手段は、前記固有値が、前記第1の変換手段により変換されたベクトル間の分散に基づいて算出される所定の閾値より大きい場合において、前記固有値を補正せずに前記補正値とすることを特徴とする、請求項1乃至12の何れか一項に記載の画像処理装置。 The first correction means does not correct the eigenvalue when the eigenvalue is larger than a predetermined threshold value calculated based on the variance between the vectors converted by the first conversion means. The image processing apparatus according to any one of claims 1 to 12, wherein the image processing apparatus is characterized by the above. 前記第2の補正手段は、前記第1の補正手段により補正された各固有値と、前記固有ベクトルと、に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルの補正に用いる行列を算出し、
該行列に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正することを特徴とする、請求項1乃至14の何れか一項に記載の画像処理装置。
The second correction means calculates a matrix used for correction of each vector converted by the first conversion means based on each eigenvalue corrected by the first correction means and the eigenvector. And
The image processing apparatus according to any one of claims 1 to 14, wherein each vector converted by the first conversion means is corrected based on the matrix.
前記第2の補正手段は、前記第1の補正手段により補正された各固有値と、前記第1の変換手段により変換されたベクトル間の分散と、に基づいて、前記固有ベクトルから、前記第1の変換手段により変換されたそれぞれのベクトルの補正に用いる固有ベクトルを選択することを特徴とする、請求項1乃至15の何れか一項に記載の画像処理装置。 The second correction means is based on the eigenvalues corrected by the first correction means and the variance between the vectors converted by the first conversion means, and from the eigenvectors, the first correction means. The image processing apparatus according to any one of claims 1 to 15, wherein an eigenvector used for correction of each vector converted by the conversion means is selected. 前記選択された固有ベクトルの有する要素に基づいて、前記第1の変換手段により変換されたそれぞれのベクトルを補正することを特徴とする、請求項16に記載の画像処理装置。 The image processing apparatus according to claim 16, wherein each vector converted by the first conversion means is corrected based on the elements of the selected eigenvector. 前記入力画像において前記第1の部分領域とサイズが等しい複数の第3の部分領域を設定する設定手段をさらに備え、
前記検出手段が、前記第1の部分領域内の画素値を要素とするベクトルと、前記第3の部分領域の画素値を要素とするベクトルと、の対応する要素の類似度に基づいて、複数の前記第3の部分領域から前記第2の部分領域を選択することを特徴とする、請求項1乃至17の何れか一項に記載の画像処理装置。
Further, a setting means for setting a plurality of third subregions having the same size as the first subregion in the input image is provided.
A plurality of detection means are used based on the similarity of the corresponding elements of the vector having the pixel value in the first partial region as an element and the vector having the pixel value in the third partial region as an element. The image processing apparatus according to any one of claims 1 to 17, wherein the second partial region is selected from the third partial region of the above.
画像処理装置が行う画像処理方法であって、
前記画像処理装置の検出手段が、入力画像における第1の部分領域と画素値の分布が類似する複数の第2の部分領域を検出する工程と、
前記画像処理装置の第1の生成手段が、前記複数の第2の部分領域のそれぞれについて、該第2の部分領域内の画素値を要素とするベクトルを生成する工程と、
前記画像処理装置の第1の変換手段が、前記生成されたそれぞれのベクトルにおいて対応する位置の要素の標準偏差が等しくなるように、前記生成されたそれぞれのベクトルを変換する工程と、
前記画像処理装置の第1の補正手段が、前記変換された各ベクトルに基づく共分散行列から求めた複数の固有値と、前記変換されたベクトル間の分散と、に基づいて、前記複数の固有値のそれぞれを補正した結果を補正値として算出する工程と、
前記画像処理装置の第2の補正手段が、前記第1の補正手段が算出したそれぞれの補正値と、前記共分散行列から求めた固有ベクトルと、に基づいて、前記変換されたそれぞれのベクトルを補正する工程と、
前記画像処理装置の第2の変換手段が、前記補正されたそれぞれのベクトルに対して、前記変換の逆変換を行う工程と、
前記画像処理装置の第2の生成手段が、前記変換されたベクトルに基づいて、前記入力画像に対するノイズ低減処理後の画像を生成する工程と、
を備えることを特徴とする、画像処理方法。
This is an image processing method performed by an image processing device.
A step in which the detection means of the image processing device detects a plurality of second subregions having a pixel value distribution similar to that of the first subregion in the input image.
A step in which the first generation means of the image processing apparatus generates a vector having a pixel value in the second partial region as an element for each of the plurality of second partial regions.
A step of converting each of the generated vectors so that the first conversion means of the image processing apparatus makes the standard deviations of the elements at the corresponding positions in each of the generated vectors equal.
The first correction means of the image processing apparatus determines the plurality of eigenvalues obtained from the covariance matrix based on the transformed vectors, and the variances between the transformed vectors, based on the plurality of eigenvalues. The process of calculating the result of each correction as a correction value, and
The second correction means of the image processing apparatus corrects each of the converted vectors based on the respective correction values calculated by the first correction means and the eigenvectors obtained from the covariance matrix. And the process to do
A step in which the second conversion means of the image processing apparatus performs the inverse transformation of the conversion on each of the corrected vectors.
A step in which the second generation means of the image processing apparatus generates an image after noise reduction processing on the input image based on the converted vector.
An image processing method comprising.
コンピュータを、請求項1乃至18の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 18.
JP2019202614A 2019-11-07 2019-11-07 Image processing apparatus, image processing method, and program Pending JP2021077037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019202614A JP2021077037A (en) 2019-11-07 2019-11-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202614A JP2021077037A (en) 2019-11-07 2019-11-07 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021077037A true JP2021077037A (en) 2021-05-20

Family

ID=75899987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202614A Pending JP2021077037A (en) 2019-11-07 2019-11-07 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021077037A (en)

Similar Documents

Publication Publication Date Title
JP7030493B2 (en) Image processing equipment, image processing methods and programs
JP7328096B2 (en) Image processing device, image processing method, and program
US8712182B2 (en) Image processing device, image processing method, and program
JP6128987B2 (en) Image processing apparatus, image processing method, and image processing program
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
US10740878B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP7114431B2 (en) Image processing method, image processing device and program
US9508025B2 (en) Image processing device, image processing method and medium
JP2019096222A5 (en)
US9196025B2 (en) Image processing apparatus, image processing method and image processing program
CN110689486A (en) Image processing method, device, equipment and computer storage medium
JP7301589B2 (en) Image processing device, image processing method, and program
KR101362183B1 (en) Depth image noise removal apparatus and method based on camera pose
JP6645442B2 (en) Information processing apparatus, information processing method, and program
JP7409606B2 (en) Image processing device, image processing method and program
JP2021077037A (en) Image processing apparatus, image processing method, and program
US11580620B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
WO2019116975A1 (en) Image processing method, image processing device, and program
JP2021077038A (en) Image processing apparatus, image processing method, and program
JP7005168B2 (en) Image processing equipment, image processing methods and programs
JP2021082212A (en) Image processing system, image processing method, and program
JP6375778B2 (en) Image processing method and image processing apparatus
JP7409607B2 (en) Image processing device, image processing method and program
EP3719740B1 (en) Image processing device, image processing method, and image processing program
JP2021043583A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113