JP2016110340A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2016110340A
JP2016110340A JP2014246327A JP2014246327A JP2016110340A JP 2016110340 A JP2016110340 A JP 2016110340A JP 2014246327 A JP2014246327 A JP 2014246327A JP 2014246327 A JP2014246327 A JP 2014246327A JP 2016110340 A JP2016110340 A JP 2016110340A
Authority
JP
Japan
Prior art keywords
pixel
region
target
value
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014246327A
Other languages
Japanese (ja)
Inventor
和浩 矢幡
Kazuhiro Yahata
和浩 矢幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014246327A priority Critical patent/JP2016110340A/en
Publication of JP2016110340A publication Critical patent/JP2016110340A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize noise reduction processing using block matching excellent even for a gradation region.SOLUTION: An image processing device comprises: setting means for setting a target pixel in input image data and a target area corresponding to the target pixel, and a reference pixel and a reference area corresponding to the reference pixel; analysis means for analyzing a magnitude relation between a pixel value of a pixel in the target area and a pixel value of a corresponding pixel in the reference area to calculate an index which shows deviation in the magnitude relation between the corresponding pixels included in the target area and the reference area; weight derivation means for, on the basis of the pixel value of the pixel in the target area, the pixel value of the pixel in the reference area and the index, deriving weight of the reference pixel corresponding to the reference area; and calculation means for, on the basis of the pixel value of the reference pixel and the weight corresponding to the reference pixel, calculating a weighted mean to calculate a pixel value of the target pixel.SELECTED DRAWING: Figure 5

Description

本発明は、画像データのノイズを低減する技術に関する。   The present invention relates to a technique for reducing noise in image data.

近年、より暗いシーンやより速い被写体を撮影するために、カメラを従来よりもさらに高感度にすることが望まれている。しかしながら、カメラの感度を上げると撮像画像におけるノイズが増えるため、ノイズをより強く低減するためのノイズ低減処理が必要となる。単純な加重平均によるノイズ低減処理を施すと解像感が低下する。そこでエッジやテクスチャ等の画像の特徴を保存しつつ、ノイズを低減する技術が求められている。そのようなエッジを保存するノイズ低減技術の一般的な手法は、ノイズを低減しようとしている着目画素とその周辺の参照画素との類似度を求め、その類似度に応じた参照画素毎の重みを決定して重み付き平均を計算する方法がある。非特許文献1は、Non−local means法と呼ばれるノイズ低減処理を開示している。着目画素と参照画素の類似度を算出するために、着目画素近傍の着目領域と参照画素近傍の参照領域の対応する各々の画素を比較するブロックマッチングを用いることを開示している。着目領域に含まれる各画素と参照領域に含まれる各画素との差分二乗和を類似度として算出している。   In recent years, in order to capture darker scenes and faster subjects, it has been desired to make the camera more sensitive than before. However, if the sensitivity of the camera is increased, noise in the captured image increases, so noise reduction processing is required to more strongly reduce noise. When noise reduction processing using a simple weighted average is performed, the resolution is lowered. Therefore, there is a need for a technique for reducing noise while preserving image features such as edges and textures. A general technique for noise reduction technology that preserves such edges is to obtain the similarity between the target pixel whose noise is to be reduced and the surrounding reference pixels, and to determine the weight for each reference pixel according to the similarity. There is a way to determine and calculate a weighted average. Non-Patent Document 1 discloses a noise reduction process called a non-local means method. In order to calculate the similarity between the target pixel and the reference pixel, it is disclosed to use block matching that compares each corresponding pixel in the target region near the target pixel and the reference region near the reference pixel. The sum of squared differences between each pixel included in the region of interest and each pixel included in the reference region is calculated as the similarity.

“A non local algorithm for image denoising” IEEE Computer Vision and Pattern Recognition 2005,Vol.2,60−65,(2005)“A non-local algorithm for image denoising” IEEE Computer Vision and Pattern Recognition 2005, Vol. 2, 60-65, (2005)

非特許文献1に開示された方法によれば、グラデーション部においては、グラデーション方向に位置が異なる参照領域は、着目領域に対して類似していないと判定されやすくなる。グラデーション方向に位置が異なる領域間では、対応する全ての画素間について差分が生じる。差分二乗和では、各画素間の差分が累積されるため、参照領域の類似度となる差分二乗和の値が大きくなってしまう。その結果、重みが大きい値の参照画素が少なくなり、参照画素の重み付き平均により着目画素のノイズ低減処理後の画素値を算出しても、十分なノイズ低減効果を得られないという課題がある。   According to the method disclosed in Non-Patent Document 1, in the gradation part, it is easy to determine that the reference areas whose positions are different in the gradation direction are not similar to the attention area. Differences occur between all corresponding pixels between regions having different positions in the gradation direction. In the sum of squared differences, the difference between the pixels is accumulated, so that the value of the sum of squared differences that becomes the similarity of the reference region becomes large. As a result, there are fewer reference pixels with a large weight value, and there is a problem that a sufficient noise reduction effect cannot be obtained even if the pixel value after the noise reduction processing of the target pixel is calculated by the weighted average of the reference pixels. .

そこで本発明は、ブロックマッチングを用いたノイズ低減処理において、グラデーション領域に対しても良好なノイズ低減処理を実現することを目的とする。   Therefore, an object of the present invention is to realize a good noise reduction process even for a gradation area in a noise reduction process using block matching.

上記課題を解決するため本発明は、ノイズ低減処理をする画像処理装置であって、入力された画像データにおける着目画素および着目画素に対応する着目領域と、参照画素および参照画素に対応する参照領域とを設定する設定手段と、前記着目領域における画素の画素値と、対応する前記参照領域における画素の画素値との大小関係を解析し、前記着目領域および前記参照領域とに含まれる対応する画素間における大小関係の偏りを示す指標を算出する解析手段と、前記着目領域における画素の画素値と前記参照領域における画素の画素値と前記指標とに基づいて、前記参照領域に対応する前記参照画素の重みを導出する重み導出手段と、前記参照画素の画素値と前記参照画素に対応する重みとに基づいて、重み付き平均を算出することにより前記着目画素の画素値を算出する算出手段とを有することを特徴とする。   In order to solve the above problems, the present invention is an image processing apparatus that performs noise reduction processing, and includes a target pixel and a target region corresponding to the target pixel in input image data, and a reference pixel and a reference region corresponding to the reference pixel. And a corresponding pixel included in the target region and the reference region by analyzing the magnitude relationship between the pixel value of the pixel in the target region and the pixel value of the corresponding pixel in the reference region. The reference pixel corresponding to the reference region based on the analysis means for calculating the index indicating the bias of the magnitude relationship between the pixel value, the pixel value of the pixel in the region of interest, the pixel value of the pixel in the reference region, and the index A weight deriving means for deriving a weight of the reference pixel, and calculating a weighted average based on a pixel value of the reference pixel and a weight corresponding to the reference pixel. It characterized by having a calculating means for calculating a pixel value of the target pixel.

本発明により、ブロックマッチンググラデーション部において、より良好なノイズ低減画像を得ることができる。   According to the present invention, a better noise-reduced image can be obtained in the block matching gradation portion.

画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. 着目画素、着目領域、参照画素、参照領域の関係を説明する図である。It is a figure explaining the relationship between an attention pixel, an attention area, a reference pixel, and a reference area. グラデーション部の1例を示した図である。It is the figure which showed one example of the gradation part. グラデーション指標を説明する図Diagram explaining gradation index ノイズ低減処理部の論理構成を示すブロック図である。It is a block diagram which shows the logic structure of a noise reduction process part. ノイズ低減処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a noise reduction process.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, the structure shown in the following Examples is only an example, and this invention is not limited to the structure shown in figure.

<第1実施形態>
第1実施形態における画像処理装置のハードウェア構成について、図1を参照して説明する。本実施形態における画像処理装置は一例として、パーソナルコンピュータ(PC)において実行される画像処理アプリケーションを例として説明する。画像処理アプリケーションは、入力された画像データに対してNon−local means法を用いたノイズ低減処理を行う。画像処理装置はCPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、メインバス109を備える。汎用I/Fはカメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、メモリーカードなどの外部メモリ107をメインバス109に接続する。
<First Embodiment>
A hardware configuration of the image processing apparatus according to the first embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment will be described as an example of an image processing application executed on a personal computer (PC). The image processing application performs noise reduction processing using non-local means method on the input image data. The image processing apparatus includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, a monitor 108, and a main bus 109. The general-purpose I / F connects an imaging device 105 such as a camera, an input device 106 such as a mouse and a keyboard, and an external memory 107 such as a memory card to a main bus 109.

以下では、CPU101がHDD103に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで、画像処理装置全体を制御する。なおここでは、CPU100が装置全体を制御する場合を説明するが、複数のハードウェアが処理を分担することにより、装置全体を制御するようにしてもよい。   In the following, the CPU 101 controls the entire image processing apparatus by operating various software (computer programs) stored in the HDD 103. Although the case where the CPU 100 controls the entire apparatus will be described here, the entire apparatus may be controlled by a plurality of hardware sharing the processing.

まず、CPU101はHDD103に格納されている画像処理アプリケーションを起動し、RAM102に展開するとともに、モニタ108にユーザインターフェース(UI)を表示する。続いて、HDD103や外部メモリ107に格納されている各種データ、撮像装置105で撮影された画像、入力装置106からの指示などがRAM102に転送される。RAM102は受信したデータを一時的に記憶する記憶領域を有する。画像処理アプリケーション内の処理に従って、RAM102に格納されているデータはCPU101からの指令に基づき各種演算を行う。演算結果はモニタ108に表示したり、HDD103、外部メモリ107に格納したりする。   First, the CPU 101 activates an image processing application stored in the HDD 103, expands it in the RAM 102, and displays a user interface (UI) on the monitor 108. Subsequently, various data stored in the HDD 103 and the external memory 107, an image captured by the imaging device 105, an instruction from the input device 106, and the like are transferred to the RAM 102. The RAM 102 has a storage area for temporarily storing received data. In accordance with processing in the image processing application, data stored in the RAM 102 performs various calculations based on commands from the CPU 101. The calculation result is displayed on the monitor 108 or stored in the HDD 103 or the external memory 107.

上記の構成に於いて、CPU101からの指令に基づき、画像処理アプリケーションにノイズ低減の対象となる画像を入力し、ノイズ低減処理を行う処理の詳細について説明する。まず、Non−local means法の基本的な処理について説明する。   In the above-described configuration, details of processing for performing noise reduction processing by inputting an image to be subjected to noise reduction to an image processing application based on a command from the CPU 101 will be described. First, basic processing of the non-local means method will be described.

<Non−local means法の概要>
撮影で得られる画像は、ノイズのない本来の値であるシグナル成分にノイズ成分が加わったものであることが知られている。理想的なノイズ低減処理は、着目画素のシグナル成分と同じシグナル成分をもつ複数の画素の画素値の平均を計算することである。これによりシグナル成分はそのままに、平均によりノイズ成分の標準偏差が低下して着目画素のノイズ成分が削減され、ノイズ低減画像が得られる。ただし、ノイズ成分があるために画像における各画素のシグナル成分は正確には分かり得ない。
<Outline of Non-local means method>
It is known that an image obtained by photographing is obtained by adding a noise component to a signal component that is an original value without noise. An ideal noise reduction process is to calculate the average of the pixel values of a plurality of pixels having the same signal component as the signal component of the pixel of interest. As a result, the standard deviation of the noise component is reduced by the average while the signal component remains as it is, the noise component of the pixel of interest is reduced, and a noise-reduced image is obtained. However, since there is a noise component, the signal component of each pixel in the image cannot be accurately understood.

そこでNon−local means法においては、着目画素に対応する着目領域と参照画素に対応する参照領域における画素値の分布の類似度に基づいて、参照画素の重みを決定し、重み付き平均を実行することにより着目画素のノイズ成分を低減する。図2は、Non−local means法を説明するための図である。着目画素(黒塗りの画素)に対して着目画素を含む5画素×5画素の領域を着目領域とする。また、参照画素(斜線の画素)に対して参照画素を含む5画素×5画素の領域を参照領域とする。着目領域における各画素と参照領域における各画素との画素値の差分に基づいて、着目領域と参照領域とがどれくらい似ているかを示す類似度を算出する。類似度は、式(1)の通りに各対応する画素間の画素値の差分二乗和によって算出することができる。   Therefore, in the non-local means method, the weight of the reference pixel is determined based on the similarity of the distribution of the pixel values in the target region corresponding to the target pixel and the reference region corresponding to the reference pixel, and weighted averaging is performed. As a result, the noise component of the pixel of interest is reduced. FIG. 2 is a diagram for explaining the non-local means method. A region of 5 pixels × 5 pixels including the target pixel with respect to the target pixel (black pixel) is set as the target region. In addition, an area of 5 pixels × 5 pixels including the reference pixel with respect to the reference pixel (hatched pixel) is set as a reference area. Based on the difference in pixel value between each pixel in the region of interest and each pixel in the reference region, a similarity indicating how much the region of interest and the reference region are similar is calculated. The degree of similarity can be calculated by the sum of squared differences of pixel values between corresponding pixels as in equation (1).

Figure 2016110340
Figure 2016110340

なお、画像データにおいてi番目の着目画素の画素値をIiとし、i番目の着目画素に対してj番目の参照画素の画素値をIjとする。さらに、kは、各領域における対応する位置を示す。つまりIikは、i番目の着目画素に対応する着目領域においてk番目の位置の画素の画素値を示し、Ijkは、j番目の参照画素に対応する参照領域においてk番目の位置の画素の画素値を示す。また、Nbはi番目の着目領域に対応する参照画素群の数(本実施形態では81)を示す。類似度Sijは、式(1)の通り、着目領域に含まれる画素数(参照領域に含まれる画素数と同等)分の画素値の差分二乗の総和である。画素値の差分により算出される類似度は、類似度が示す値が小さい(0に近い)ほど着目領域と参照領域とが似ていることを意味し、類似度が示す値が大きいほど着目領域と参照領域とが似ていないことを意味する。このように算出された類似度を参照画素群(図2における着目画素を含む9画素かける9画素の81画素)の画素全てに対して算出し、類似度に応じた重みを決定する。従って、i番目の着目画素については、Nb画素の参照画素について、類似度Sijを算出する。   In the image data, the pixel value of the i-th pixel of interest is Ii, and the pixel value of the j-th reference pixel is Ij for the i-th pixel of interest. Further, k indicates a corresponding position in each region. That is, Iik indicates the pixel value of the pixel at the k-th position in the region of interest corresponding to the i-th pixel of interest, and Ijk is the pixel value of the pixel at the k-th position in the reference region corresponding to the j-th reference pixel. Indicates. Nb indicates the number of reference pixel groups corresponding to the i-th region of interest (81 in this embodiment). Similarity Sij is the total sum of the squares of the difference of pixel values for the number of pixels included in the target area (equivalent to the number of pixels included in the reference area), as in Expression (1). The similarity calculated by the difference between pixel values means that the region of interest and the reference region are more similar as the value indicated by the similarity is smaller (closer to 0), and the region of interest as the value indicated by the similarity is larger. Means that the reference area is not similar. The similarity calculated in this way is calculated for all the pixels of the reference pixel group (9 pixels including the target pixel in FIG. 2 and 81 pixels of 9 pixels), and a weight corresponding to the similarity is determined. Therefore, the similarity Sij is calculated for the reference pixel of the Nb pixel for the i-th pixel of interest.

各参照画素の重みは、類似度が示す値が小さい(似ている)ほど大きく、類似度が示す値が大きい(似ていない)ほど小さくなるように導出すればよい。以上のようなノイズ低減処理について、式(2)によって表すことができる。j番目の参照画素の画素値をIj、i番目の着目画素に対するj番目の参照画素の重みをwijとすると、i番目の着目画素のノイズ低減処理後の画素値Ii,newが、式(1)によって算出される。   The weight of each reference pixel may be derived such that the smaller the value indicated by the similarity (the more similar), the larger the weight, and the smaller the value indicated by the similarity, the smaller the value indicated by the similarity. The noise reduction process as described above can be expressed by Expression (2). Assuming that the pixel value of the j-th reference pixel is Ij and the weight of the j-th reference pixel with respect to the i-th target pixel is wij, the pixel values Ii, new after the noise reduction processing of the i-th target pixel are expressed by the formula (1 ).

Figure 2016110340
Figure 2016110340

なお、分母は重みの和が1となるように規格化を行うものである。また、図2に示す例では着目領域は着目画素を含み、参照領域は参照画素を含む構成としたが、着目領域は必ずしも着目画素を含む必要はなく、各参照領域も必ずしも各参照画素を含む必要はない。   The denominator is normalized so that the sum of the weights becomes 1. In the example shown in FIG. 2, the target area includes the target pixel, and the reference area includes the reference pixel. However, the target area does not necessarily include the target pixel, and each reference area does not necessarily include each reference pixel. There is no need.

ここで、画像データがグラデーション部である場合の類似度について説明する。図3(a)は、下から上へと画素値が徐々に減少していくグラデーション部の画像の1例である。各々のマスは画素を示しており、マスの中に書かれた数字が画素に格納された画素値を示している。なお、以後の説明を容易にするため、画素値はシグナル成分のみを示している。中央部に太線で囲んだ画素を着目画素とする。着目領域は着目画素を中心とした5画素×5画素のサイズとする。図3(a)に示す通りに着目領域を設定した場合、着目領域に対して差分二乗和による類似度が小さい(似ている)と判定される参照領域に対応する参照画素は、図3(b)に太線で囲まれた水平方向のおおよそ1次元的な画素群に限られる。なぜならば、垂直方向に1画素以上ずれた参照領域と着目領域の類似度の計算においては、領域間で対応する各々の画素間には画素値の差が生じ、全ての画素間の差分が累積するためである。したがって、垂直方向に1画素以上ずれた参照領域と着目領域とは類似しないという判定となり、0より大きい値の重みが与えられる参照画素は少なくなる。その結果、着目画素のノイズ低減処理後の画素値を算出するために重み付き平均に用いられる参照画素が少なくなり、ノイズ低減効果が低減してしまう。   Here, the similarity when the image data is a gradation portion will be described. FIG. 3A is an example of an image of a gradation portion in which pixel values gradually decrease from bottom to top. Each square represents a pixel, and a number written in the square represents a pixel value stored in the pixel. In order to facilitate the following description, the pixel value indicates only the signal component. A pixel surrounded by a thick line at the center is defined as a pixel of interest. The region of interest has a size of 5 pixels × 5 pixels around the pixel of interest. When the region of interest is set as shown in FIG. 3A, the reference pixels corresponding to the reference region determined to have a low similarity (similarity) based on the sum of squares of the difference to the region of interest are shown in FIG. The pixel group is limited to an approximately one-dimensional pixel group in the horizontal direction surrounded by a thick line in b). This is because, in the calculation of the similarity between the reference region shifted by one pixel or more in the vertical direction and the region of interest, a difference in pixel value occurs between each corresponding pixel in the region, and the difference between all the pixels is accumulated. It is to do. Accordingly, it is determined that the reference region shifted by one pixel or more in the vertical direction is not similar to the target region, and the number of reference pixels to which a weight greater than 0 is given is reduced. As a result, the reference pixel used for the weighted average for calculating the pixel value after the noise reduction processing of the target pixel is reduced, and the noise reduction effect is reduced.

<ノイズ低減処理部の構成について>
以上述べたように、ブロックマッチングを用いて着目領域と参照領域との類似度を算出し重みを導出する場合、グラデーション部においては、着目領域に対して周辺の参照領域の多くが類似していないと判定され、ノイズ低減効果が低下してしまう。そこで本実施形態では、着目領域と参照領域とに関わる着目画素の近傍の所定領域がグラデーション部であるかどうかを予め判定する方法について説明する。図5は、本実施形態におけるノイズ低減処理部の詳細な論理構成を示す。
<Configuration of noise reduction processing section>
As described above, when the similarity between the target area and the reference area is calculated using block matching and the weight is derived, in the gradation part, many of the surrounding reference areas are not similar to the target area. And the noise reduction effect is reduced. Therefore, in the present embodiment, a method for determining in advance whether or not a predetermined area near the target pixel related to the target area and the reference area is a gradation portion will be described. FIG. 5 shows a detailed logical configuration of the noise reduction processing unit in the present embodiment.

領域設定部601は、入力された画像データに対してi番目の着目画素に対する着目領域と複数の参照画素、参照領域を設定し、画素値を取得する。ここで入力される画像データは、R(レッド)、G(グリーン)、B(ブルー)各色に対応する画像データが入力されるとする。各画像データは0〜255いずれかの画素値が格納された画素からなる8ビットのデータを例とする。以降の処理は、各色に対応する画像データに対して実行される。領域設定部601は、図2の通り着目画素、着目領域、参照画素、参照領域を設定する。つまり領域設定部601は、着目画素iを設定すると、着目画素iを中心とする5画素×5画素を着目領域として設定する。また、1つの着目画素に対して、参照画素群から順に参照画素を設定し、着目領域と同様、参照画素を中心とする5画素×5画素の参照領域を設定する。本実施形態では1つの着目画素に対して、91画素分参照領域を設定することになる。   The area setting unit 601 sets a target area, a plurality of reference pixels, and a reference area for the i-th target pixel for the input image data, and acquires a pixel value. Assume that the image data input here is image data corresponding to each color of R (red), G (green), and B (blue). Each image data is, for example, 8-bit data composed of pixels in which any pixel value from 0 to 255 is stored. Subsequent processing is executed for image data corresponding to each color. The area setting unit 601 sets a target pixel, a target area, a reference pixel, and a reference area as shown in FIG. That is, when the target pixel i is set, the region setting unit 601 sets 5 pixels × 5 pixels around the target pixel i as the target region. For one target pixel, reference pixels are set in order from the reference pixel group, and a reference area of 5 pixels × 5 pixels centering on the reference pixel is set in the same manner as the target area. In the present embodiment, 91 pixel reference areas are set for one target pixel.

大小関係解析部502は、着目領域の画素と参照領域の画素との大小関係お解析する。着目領域におけるk番目の画素と、参照領域におけるk番目の画素の大小関係を比較することにより、着目領域と参照領域とがグラデーション部かどうかを判定する。類似度算出部502は、着目領域における各画素の画素値と参照領域における各画素の画素値と、大小関係解析部502による解析結果に基づいて、着目領域に対する参照領域の類似度を算出する。解析方法および解析結果を用いた類似度の算出方法の詳細は後述する。   The magnitude relation analysis unit 502 analyzes the magnitude relation between the pixel in the target area and the pixel in the reference area. By comparing the magnitude relationship between the kth pixel in the region of interest and the kth pixel in the reference region, it is determined whether the region of interest and the reference region are gradation portions. The similarity calculation unit 502 calculates the similarity of the reference region with respect to the region of interest based on the pixel value of each pixel in the region of interest, the pixel value of each pixel in the reference region, and the analysis result by the magnitude relationship analysis unit 502. Details of the analysis method and the similarity calculation method using the analysis result will be described later.

重み算出部504は、類似度算出部503から得られる参照画素毎の類似度に基づいて、各参照画素に対する重みを決定する。重み付き平均算出部505は、参照画素群の各画素値と対応する重みとの重み付き平均により、着目画素のノイズ低減処理後の画素値を算出する。以下、第初関係解析部502における解析方法と類似度算出部502における解析結果に応じた類似度の算出方法について、具体的に述べる。前述の通りここでは、着目画素に対して着目画素を含む5画素×5画素の領域を着目領域として設定する。また、参照画素群のうちある画素を参照画素とした時の5画素×5画素の領域を参照領域として設定する。従って、着目領域と参照領域とでは、25対の画素の対ができる。大小関係解析部502は、各領域において対応する画素間の大小関係を解析する。   The weight calculation unit 504 determines a weight for each reference pixel based on the similarity for each reference pixel obtained from the similarity calculation unit 503. The weighted average calculation unit 505 calculates a pixel value after noise reduction processing of the pixel of interest based on a weighted average of each pixel value of the reference pixel group and the corresponding weight. Hereinafter, the analysis method in the first relationship analysis unit 502 and the similarity calculation method according to the analysis result in the similarity calculation unit 502 will be specifically described. As described above, here, a region of 5 pixels × 5 pixels including the target pixel is set as the target region with respect to the target pixel. Further, an area of 5 pixels × 5 pixels when a certain pixel in the reference pixel group is used as a reference pixel is set as a reference area. Therefore, 25 pairs of pixels are formed in the target area and the reference area. The magnitude relation analysis unit 502 analyzes the magnitude relation between corresponding pixels in each region.

類似度算出部503は、着目領域と参照領域の類似度を算出するための指標の1つとして、差分二乗和Dijを算出する。   The similarity calculation unit 503 calculates the difference square sum Dij as one of the indexes for calculating the similarity between the attention area and the reference area.

Figure 2016110340
Figure 2016110340

なお式(3)の右辺は、式(1)と同じである。   In addition, the right side of Formula (3) is the same as Formula (1).

ここで、和記号Σの中身にあるIik−Ijkは、着目領域におけるk番目の画素の画素値と参照領域におけるk番目の画素の画素値との差分値Δijkである。
Δijk=Iik−Ijk 式(4)
大小関係解析部502は、この差分値Δijkに基づいて、式(5)によって定義されるGijを算出する。なおここで指標Gijは、着目領域および参照領域がグラデーション部かどうかを判定するためのおおまかな指標となるため、グラデーション指標と呼ぶことにする。
Here, Iik−Ijk in the contents of the sum symbol Σ is a difference value Δijk between the pixel value of the kth pixel in the region of interest and the pixel value of the kth pixel in the reference region.
Δ ijk = I ik −I jk equation (4)
The magnitude relation analysis unit 502 calculates Gij defined by Expression (5) based on the difference value Δijk. Here, the index Gij is a rough index for determining whether or not the region of interest and the reference region are gradation portions, and is therefore referred to as a gradation index.

Figure 2016110340
Figure 2016110340

ここで、Hは式(6)によって定義される関数である。   Here, H is a function defined by equation (6).

Figure 2016110340
Figure 2016110340

関数H(Δijk)は、着目領域におけるk番目の画素の画素値の方が参照領域におけるk番目の画素の画素値よりも小さい(Δijk<0)場合、−1を導出する。着目領域におけるk番目の画素の画素値と参照領域におけるk番目の画素の画素値が同じ(Δijk=0)である場合、0を導出する。着目領域におけるk番目の画素の画素値の方が参照領域におけるk番目の画素の画素値よりも大きい(Δijk>0)場合、1を導出する。そして、式(5)に示すグラデーション指標Gijは、着目領域におけるk番目の画素の画素値と参照領域におけるk番目の画素の画素値との大小関係に応じて出力される値を累積した絶対値である。従ってグラデーション指標Gijが大きい値を示すということは、各領域の対応する画素間において、大小関係が偏っていることを示す。ここでは、領域における25対の画素群のうち、ほとんどの位置において着目領域における画素の画素値の方が参照領域における画素の画素値を上回るか、下回るいずれかの場合に、グラデーション指標Gijの値が大きくなる。   The function H (Δijk) derives −1 when the pixel value of the kth pixel in the region of interest is smaller than the pixel value of the kth pixel in the reference region (Δijk <0). If the pixel value of the kth pixel in the attention area is the same as the pixel value of the kth pixel in the reference area (Δijk = 0), 0 is derived. When the pixel value of the kth pixel in the region of interest is larger than the pixel value of the kth pixel in the reference region (Δijk> 0), 1 is derived. The gradation index Gij shown in Expression (5) is an absolute value obtained by accumulating values output in accordance with the magnitude relationship between the pixel value of the kth pixel in the region of interest and the pixel value of the kth pixel in the reference region. It is. Accordingly, the fact that the gradation index Gij indicates a large value indicates that the magnitude relationship is biased among the corresponding pixels in each region. Here, the value of the gradation index Gij when the pixel value of the pixel in the region of interest is either higher or lower than the pixel value of the pixel in the reference region at most positions in the 25 pairs of pixel groups in the region. Becomes larger.

ここで図4は、グラデーション指標Gijが着目領域および参照領域の両方がグラデーション部であるかどうかを判定するためのおおまかな指標である理由を説明する図である。簡単のため1次元の画像を考える。図4(a)において横軸は、1次元方向の画素位置を示し、縦軸は画素値を表す。また黒丸は、各画素位置における画素値を示す。つまり図4(a)は、画像を構成する12画素の画素値を模式的に示している。もしこの画像が平坦部であれば、黒丸は同じ画素値に並ぶはずである。しかしながらノイズを含む平坦部は、その画素値がランダムに変化する。   Here, FIG. 4 is a diagram for explaining the reason why the gradation index Gij is a rough index for determining whether or not both the target region and the reference region are gradation portions. Consider a one-dimensional image for simplicity. In FIG. 4A, the horizontal axis indicates the pixel position in the one-dimensional direction, and the vertical axis indicates the pixel value. A black circle indicates a pixel value at each pixel position. That is, FIG. 4A schematically shows pixel values of 12 pixels constituting the image. If this image is a flat part, the black circles should be arranged at the same pixel value. However, the pixel value of the flat portion including noise changes randomly.

着目領域に含まれる画素を5画素、参照領域に含まれる画素を5画素とし、それぞれの領域間で対応する画素を破線の矢印で示している。破線の先の実線で示した矢印部は、画素対の大小関係を示している。平坦部の場合、ノイズがなければその画素値は同じになるが、ノイズによってその大小関係がランダムに変わる。従って画像が平坦部である場合は、グラデーション指標Gijはあまり大きな値になることはない。   The pixels included in the region of interest are 5 pixels, the pixels included in the reference region are 5 pixels, and the corresponding pixels between the regions are indicated by dashed arrows. The arrow portion indicated by the solid line ahead of the broken line indicates the magnitude relationship of the pixel pair. In the case of a flat part, the pixel value is the same if there is no noise, but the magnitude relationship changes randomly depending on the noise. Therefore, when the image is a flat portion, the gradation index Gij does not take a very large value.

図4(b)は、エッジ部の画像の1例を示す。着目画素や参照画素なども図4(a)と同様に示す。なおここでは大小関係の変化をわかりやすくするため、着目領域と参照領域それぞれには7画素が含まれるとした。図4(b)に示したエッジ部の場合、左から5番目の画素と6番目の画素に急峻な画素値の変化があり、5番目の画素と6番目の画素との境界におけるエッジの両端には平坦部がある。その結果、グラデーション指標に対するエッジ部(5番目の画素と6番目の画素の境界)とで発生する画素値の大小関係の寄与は小さい。エッジ部のごく近傍において、その画素値の差がノイズよりも数倍大きい場合には大小関係が偏るものの、大小関係の偏りが生じるのはエッジがある一部だけであるため、やはりグラデーション指標Gijが大きな値になる事は少ない。   FIG. 4B shows an example of an image of the edge portion. The target pixel and reference pixel are also shown in the same manner as in FIG. Here, in order to make the change in the magnitude relationship easy to understand, it is assumed that the focus area and the reference area each include 7 pixels. In the case of the edge portion shown in FIG. 4B, there is a sharp change in the pixel value between the fifth pixel and the sixth pixel from the left, and both ends of the edge at the boundary between the fifth pixel and the sixth pixel. Has a flat part. As a result, the contribution of the magnitude relationship of pixel values generated at the edge portion (the boundary between the fifth pixel and the sixth pixel) to the gradation index is small. In the very vicinity of the edge portion, when the pixel value difference is several times larger than the noise, the magnitude relation is biased, but the magnitude relation is biased only in a part where there is an edge, and therefore the gradation index Gij Is rarely a large value.

一方、図4(c)はグラデーション部の画像の1例を示す。グラデーション部では画素値が徐々に変化しており、着目領域も参照領域もグラデーション領域にある場合は、対応する画素間の大小関係(Δijkの符号)はいずれかに偏る。これはグラデーション部の各画素にノイズが付加されたとしても着目画素と参照画素がある程度離れていれば対応する画素間の画素値の大小関係(差分値Δijkの符号)はどちらかに偏る。このためグラデーション部においては、グラデーション指標Gijは大きな値になりやすい。従って、グラデーション指標Gijが大きい領域はグラデーション部である可能性が高く、グラデーション指標Gijが小さい領域はグラデーション部である可能性が低いと言える。   On the other hand, FIG. 4C shows an example of the image of the gradation portion. In the gradation portion, the pixel value gradually changes, and when the target region and the reference region are both in the gradation region, the magnitude relationship (sign of Δijk) between the corresponding pixels is biased to any one. Even if noise is added to each pixel in the gradation portion, if the target pixel and the reference pixel are separated from each other to some extent, the magnitude relationship (sign of the difference value Δijk) between the corresponding pixels is biased in either direction. For this reason, in the gradation part, the gradation index Gij tends to be a large value. Accordingly, it can be said that a region having a large gradation index Gij is highly likely to be a gradation portion, and a region having a small gradation index Gij is unlikely to be a gradation portion.

グラデーション部においてもノイズ低減効果を維持するためには、グラデーション指標Gijが高い場合には、参照画素の重みに対して、差分二乗和だけで算出する類似度よりもその値を小さくする(類似している方向に補正する)とよい。そこで本実施形態における類似度算出部503は、式(7)に示すように、差分二乗和による指標Dijとグラデーション指標Gijとに基づいて、類似度Sijを計算する。
ij=Dij−ρGij 式(7)
ここで、ρは正の数である。ρが大きいほど補正効果が強いため、グラデーション部のノイズ低減効果が高まる。なお、ρを極端に大きな値を設定すると、グラデーション部以外の領域においてぼけてしまうので注意が必要である。ρの具体的な値は、ρを調整しながらノイズ低減処理後の画像データを確認して経験的にきめれば良いが、目安としてはノイズ分散の2倍程度が好ましい。
In order to maintain the noise reduction effect even in the gradation portion, when the gradation index Gij is high, the value is made smaller than the similarity calculated only by the sum of squared differences with respect to the weight of the reference pixel (similarity Correct it in the direction of Therefore, the similarity calculation unit 503 according to the present embodiment calculates the similarity Sij based on the index Dij based on the sum of squared differences and the gradation index Gij, as shown in Expression (7).
S ij = D ij −ρG ij equation (7)
Here, ρ is a positive number. Since the correction effect is stronger as ρ is larger, the noise reduction effect in the gradation portion is enhanced. Note that if ρ is set to an extremely large value, the region other than the gradation portion is blurred. The specific value of ρ may be determined empirically by checking the image data after the noise reduction processing while adjusting ρ, but as a guideline, it is preferably about twice the noise variance.

<ノイズ低減処理における処理のフロー>
図6は、第1実施形態におけるノイズ低減処理部の処理のフローチャートである。CPU101は、図6に示すフローチャートを実行するプログラムをRAM102から読み込み、実行すればよい。
<Processing flow in noise reduction processing>
FIG. 6 is a flowchart of the processing of the noise reduction processing unit in the first embodiment. The CPU 101 may read a program for executing the flowchart shown in FIG.

まずステップS601において領域設定部501は、入力された画像データからi番目の着目画素に対する着目領域と複数の参照画素、参照領域を設定する。ステップS602において類似度算出部503は、着目領域の各画素の画素値と参照領域の各画素の画素値とに基づいて、式(3)により差分二乗和を算出し、指標Dijを決定する。ステップS603において大小関係解析部502は、式(5)、(6)を用いてグラデーション指標Gijを算出する。なおステップS602およびステップS603については処理の順序は限定しない。並行して処理してもよいし、グラデーション指標Gijを先に算出しても良い。   First, in step S601, the region setting unit 501 sets a target region, a plurality of reference pixels, and a reference region for the i-th target pixel from the input image data. In step S602, the similarity calculation unit 503 calculates the sum of squared differences using Expression (3) based on the pixel value of each pixel in the region of interest and the pixel value of each pixel in the reference region, and determines an index Dij. In step S603, the magnitude relation analysis unit 502 calculates the gradation index Gij using the equations (5) and (6). Note that the order of processing of step S602 and step S603 is not limited. Processing may be performed in parallel, or the gradation index Gij may be calculated first.

ステップS604において類似度算出部S503は、式(7)を用いて、差分二乗和からなる指標Dijとグラデーション指標Gijを用いて各参照領域の類似度を算出する。ステップS605において重み算出部506は、各参照領域の類似度に基づいて、参照領域に対応する参照画素毎に重みWijを式(8)の通りに決定する。   In step S <b> 604, the similarity calculation unit S <b> 503 calculates the similarity of each reference region using the expression Dij and the gradation index Gij that are sums of squares of differences using Expression (7). In step S605, the weight calculation unit 506 determines the weight Wij for each reference pixel corresponding to the reference area as in Expression (8) based on the similarity of each reference area.

Figure 2016110340
Figure 2016110340

ステップS606において重み付き平均算出部505は、式(1)の通りに各参照画素の画素値と重みとを用いて重み付き平均を実行し、着目画素のノイズ低減処理後の画素値として出力する。   In step S606, the weighted average calculation unit 505 performs weighted average using the pixel value and the weight of each reference pixel as in Expression (1), and outputs the result as the pixel value after the noise reduction processing of the target pixel. .

以上のように本実施形態では、着目領域と参照領域の各対応する画素対の大小関係を解析し、その大小関係の偏りからグラデーション部であるかどうかの指標を得る。この指標を用いて類似度を算出することにより、グラデーション部においてもノイズ低減効果を高めることができる。   As described above, in the present embodiment, the magnitude relationship between each corresponding pixel pair in the target area and the reference area is analyzed, and an index as to whether it is a gradation portion is obtained from the deviation in the magnitude relation. By calculating the similarity using this index, the noise reduction effect can be enhanced even in the gradation portion.

<変形例1>
第1実施形態では、式(6)を用いて、着目領域のk番目の画素の画素値と参照領域のk番目の画素値の大小関係を3つに分類し、式(5)によりその大小関係の偏りが値の大きさに反映される指標を算出した。グラデーション指標GijはIikとIjkの大小関係の偏りを計算できるものであればよく、かならずしも式(5)および式(6)で定義されたものである必要はない。例えば差分Δijkの代わりに比Rijk=Iik/Ijkを使用してもよい。そして関数Hの代わりに、比Rijkが1より大きい場合に1、1である場合に0、1より小さい場合に−1となる関数Jを導入し、その和をグラデーション指標としても同様の結果を得る事が可能である。
<Modification 1>
In the first embodiment, the magnitude relationship between the pixel value of the kth pixel in the target area and the kth pixel value in the reference area is classified into three using Expression (6), and the magnitude is represented by Expression (5). An index that reflects the bias of the relationship in the magnitude of the value was calculated. The gradation index Gij only needs to be able to calculate the bias of the magnitude relationship between Iik and Ijk, and is not necessarily defined by the equations (5) and (6). For example, the ratio Rijk = Iik / Ijk may be used instead of the difference Δijk. Then, instead of the function H, a function J that is 1 when the ratio Rijk is greater than 1, 0 when the ratio Rijk is 1, and -1 when the ratio Rijk is smaller than 1 is introduced. It is possible to get.

また、大小関係解析部502は、差分値Δijの符号をカウントするカウンタにより、大小関係の偏りを判定してもよい。Δijの符号がプラス(+)である場合は+1カウントし、Δijの符号がマイナス(−)である場合は−1カウントする。これにより大小関係に偏りがある場合はカウンタの絶対値が大きくなるため、第1実施形態と同様グラデーション部を簡易的に判定することができる。   Further, the magnitude relation analysis unit 502 may determine the magnitude relation bias by a counter that counts the sign of the difference value Δij. When the sign of Δij is plus (+), +1 is counted, and when the sign of Δij is minus (−), −1 is counted. As a result, when there is a bias in the magnitude relationship, the absolute value of the counter increases, so that the gradation portion can be easily determined as in the first embodiment.

<変形例2>
第1実施形態では、類似度算出部503が大小関係解析結果であるグラデーション指標と差分二乗和に基づいて類似度を出力した。しかしながら、大小関係解析部502の結果を重み算出部504が参照する構成であってもよい。この場合、類似度算出部503は、差分二乗和を類似度として出力することになる。重み算出部504は、大小関係解析部502による解析の結果が、着目領域および参照領域がグラデーション部である可能性が高いことを示す場合、類似度算出部503から得られる類似度(差分二乗和)を小さくする方向に補正をした上で、重みを決定する。あるいは大小関係解析部502による解析の結果が、着目領域および参照領域がグラデーション部である可能性が高いことを示す場合、類似度算出部503から得られる類似度(差分二乗和)から決定される重みに対手、重みを大きくする方向に補正してもよい。
<Modification 2>
In the first embodiment, the similarity calculation unit 503 outputs the similarity based on the gradation index that is the magnitude relationship analysis result and the sum of squared differences. However, the weight calculation unit 504 may refer to the result of the magnitude relation analysis unit 502. In this case, the similarity calculation unit 503 outputs the sum of squared differences as the similarity. When the result of the analysis by the magnitude relation analysis unit 502 indicates that the region of interest and the reference region are likely to be a gradation portion, the weight calculation unit 504 determines the similarity (sum of squared differences) obtained from the similarity calculation unit 503. ) Is corrected in the direction of decreasing, and the weight is determined. Alternatively, when the result of analysis by the magnitude relation analysis unit 502 indicates that there is a high possibility that the region of interest and the reference region are gradation portions, it is determined from the similarity (sum of squared differences) obtained from the similarity calculation unit 503. You may correct | amend to the direction which increases a weight with a hand in a weight.

<変形例3>
重み付き平均算出部505は、式(2)によって着目画素のノイズ低減処理後の画素値を算出した。別の例として、着目領域の画素値の平均値Miと参照領域の画素値の平均値Mjを計算し、式(9)によって重み付き平均を計算してもよい。
<Modification 3>
The weighted average calculation unit 505 calculates the pixel value after the noise reduction processing of the pixel of interest by Expression (2). As another example, the average value Mi of the pixel values in the region of interest and the average value Mj of the pixel values in the reference region may be calculated, and the weighted average may be calculated using Equation (9).

Figure 2016110340
Figure 2016110340

式(2)と式(7)は、重み付き平均に使用する参照画素の画素値から平均値の差を足すか足さないかの差がある。式(1)によって重み付き平均を計算した場合は低周波ノイズが低減されやすく、式(7)によって重み付き平均を計算した場合はコントラストが高くなる傾向にある。   Expressions (2) and (7) have a difference between whether or not the difference between the average values is added to the pixel value of the reference pixel used for the weighted average. When the weighted average is calculated by the equation (1), the low frequency noise is easily reduced, and when the weighted average is calculated by the equation (7), the contrast tends to be high.

<変形例4>
第1実施形態において類似度算出部503は、着目領域における各画素と参照領域における各画素との差分二乗和を、類似度を決定する1つの指標として算出した。類似度の算出には差分二乗和以外の方法による指標を適用することもできる。例えば、差分二乗和の代わりに差分絶対値和や差分四乗和でも可能である。ただしその場合は式(7)におけるρもそれに合わせて変更する。
<Modification 4>
In the first embodiment, the similarity calculation unit 503 calculates the sum of squared differences between each pixel in the attention area and each pixel in the reference area as one index for determining the similarity. An index based on a method other than the sum of squared differences can be applied to calculate the similarity. For example, instead of the sum of squared differences, a sum of absolute differences or a sum of squared differences is possible. However, in that case, ρ in equation (7) is also changed accordingly.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

501 領域設定部
502 大小関係解析部
503 類似度算出部
504 重み算出部
505 重み付き平均算出部
501 Area setting unit 502 Size relationship analysis unit 503 Similarity calculation unit 504 Weight calculation unit 505 Weighted average calculation unit

Claims (6)

入力された画像データにおける着目画素および着目画素に対応する着目領域と、参照画素および参照画素に対応する参照領域とを設定する設定手段と、
前記着目領域における画素の画素値と、対応する前記参照領域における画素の画素値との大小関係を解析し、前記着目領域および前記参照領域とに含まれる対応する画素間における大小関係の偏りを示す指標を算出する解析手段と、
前記着目領域における画素の画素値と前記参照領域における画素の画素値と前記指標とに基づいて、前記参照領域に対応する前記参照画素の重みを導出する重み導出手段と、
前記参照画素の画素値と前記参照画素に対応する重みとに基づいて、重み付き平均を算出することにより前記着目画素の画素値を算出する算出手段とを有することを特徴とする画像処理装置。
Setting means for setting a target pixel in the input image data, a target region corresponding to the target pixel, and a reference region corresponding to the reference pixel and the reference pixel;
Analyzes the magnitude relationship between the pixel value of the pixel in the target area and the pixel value of the corresponding pixel in the reference area, and shows the bias of the magnitude relation between the corresponding pixels included in the target area and the reference area An analysis means for calculating an index;
Weight deriving means for deriving a weight of the reference pixel corresponding to the reference region based on a pixel value of the pixel in the region of interest, a pixel value of the pixel in the reference region, and the index;
An image processing apparatus comprising: a calculation unit that calculates a pixel value of the target pixel by calculating a weighted average based on a pixel value of the reference pixel and a weight corresponding to the reference pixel.
前記解析手段は、前記着目領域および前記参照領域とに含まれる対応する画素間における大小関係の偏りがあるほど値が大きくなるように指標を算出することを特徴とする請求項1に記載の画像処理装置。   The image according to claim 1, wherein the analysis unit calculates the index such that the value increases as there is a bias in a magnitude relationship between corresponding pixels included in the region of interest and the reference region. Processing equipment. 前記重み導出手段は、前記指標が前記大小関係の偏りがない場合に算出される重みよりも前記指標が前記大小関係の偏りがある場合に算出さえる重みの方が大きい値になるように前記参照画素の重みを導出することを特徴とする請求項1または2に記載の画像処理装置。   The weight deriving means may be configured so that the weight calculated when the index is biased in the magnitude relationship is larger than the weight calculated when the index is biased in the magnitude relationship. The image processing apparatus according to claim 1, wherein a pixel weight is derived. 前記解析手段は、前記着目領域における画素の画素値と、対応する前記参照領域における画素の画素値との差分を算出し、前記差分が0より大きいか、0より小さいかによって値が決定する関数を用いて前記指標を算出することを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。   The analysis means calculates a difference between a pixel value of a pixel in the region of interest and a pixel value of a corresponding pixel in the reference region, and determines a value depending on whether the difference is greater than 0 or less than 0. The image processing apparatus according to any one of claims 1 to 3, wherein the index is calculated using an image. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至4の何れか一項に記載された画像処理装置として機能させることを特徴とするコンピュータプログラム。   A computer program that causes a computer to function as the image processing apparatus according to claim 1 by being read and executed by a computer. 入力された画像データにおける着目画素および着目画素に対応する着目領域と、参照画素および参照画素に対応する参照領域とを設定し、
前記着目領域における画素の画素値と、対応する前記参照領域における画素の画素値との大小関係を解析し、前記着目領域および前記参照領域とに含まれる対応する画素間における大小関係の偏りを示す指標を算出し、
前記着目領域における画素の画素値と前記参照領域における画素の画素値と前記指標とに基づいて、前記参照領域に対応する前記参照画素の重みを導出し、
前記参照画素の画素値と前記参照画素に対応する重みとに基づいて、重み付き平均を算出することにより前記着目画素の画素値を算出することを特徴とする画像処理方法。
Set the target pixel and the target region corresponding to the target pixel in the input image data, the reference pixel and the reference region corresponding to the reference pixel,
Analyzes the magnitude relationship between the pixel value of the pixel in the target area and the pixel value of the corresponding pixel in the reference area, and shows the bias of the magnitude relation between the corresponding pixels included in the target area and the reference area Calculate the metrics,
Based on the pixel value of the pixel in the region of interest, the pixel value of the pixel in the reference region, and the index, the weight of the reference pixel corresponding to the reference region is derived,
An image processing method comprising: calculating a weighted average based on a pixel value of the reference pixel and a weight corresponding to the reference pixel to calculate a pixel value of the pixel of interest.
JP2014246327A 2014-12-04 2014-12-04 Image processing device, image processing method and program Pending JP2016110340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014246327A JP2016110340A (en) 2014-12-04 2014-12-04 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014246327A JP2016110340A (en) 2014-12-04 2014-12-04 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016110340A true JP2016110340A (en) 2016-06-20

Family

ID=56124242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014246327A Pending JP2016110340A (en) 2014-12-04 2014-12-04 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2016110340A (en)

Similar Documents

Publication Publication Date Title
US10453204B2 (en) Image alignment for burst mode images
US9275281B2 (en) Mobile image capture, processing, and electronic form generation
US9418319B2 (en) Object detection using cascaded convolutional neural networks
JP6362333B2 (en) Image processing apparatus, image processing method, and program
US9576218B2 (en) Selecting features from image data
JP7030493B2 (en) Image processing equipment, image processing methods and programs
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
WO2013005815A1 (en) Object detection device, object detection method, and program
WO2019026104A1 (en) Information processing device, information processing program, and information processing method
JP6860079B2 (en) Anomaly detection device, anomaly detection method, and program
WO2014074959A1 (en) Real-time face detection using pixel pairs
JP2018026115A (en) Flame detection method, flame detector, and electronic apparatus
WO2019123554A1 (en) Image processing device, image processing method, and recording medium
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
JP2013254490A (en) Device, method and electronic apparatus for extracting edge of object in image
JP2015179426A (en) Information processing apparatus, parameter determination method, and program
JP2016201037A (en) Image processing device, image processing method, and program
JP2016110340A (en) Image processing device, image processing method and program
JP7409606B2 (en) Image processing device, image processing method and program
JP6625165B2 (en) Image processing apparatus, image processing method, and program
CN109993694B (en) Method and device for generating super-resolution image
JP2016110341A (en) Image processing device, image processing method and program
JP2017120455A (en) Information processing device, program and control method
JP2007156954A (en) Reliability table creation method, optical flow estimation method, reliability table creation device, optical flow estimation device, and program
JP5988879B2 (en) Feature point detection apparatus and program