JP7263018B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7263018B2 JP7263018B2 JP2019004360A JP2019004360A JP7263018B2 JP 7263018 B2 JP7263018 B2 JP 7263018B2 JP 2019004360 A JP2019004360 A JP 2019004360A JP 2019004360 A JP2019004360 A JP 2019004360A JP 7263018 B2 JP7263018 B2 JP 7263018B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- processing
- color
- image processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 250
- 238000003672 processing method Methods 0.000 title claims 3
- 238000012937 correction Methods 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 claims description 12
- 230000007423 decrease Effects 0.000 claims 1
- 238000011946 reduction process Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
Images
Description
本発明は、ノイズ低減等の画像処理技術に関する。 The present invention relates to image processing techniques such as noise reduction.
従来、デジタルカメラなどの撮像装置は、低照度時に撮像した情報量の少ない撮像信号をデジタルゲインにより増幅することで、情報量の多い出力信号に変換する技術が知られている。しかしながら、撮像信号を増幅した場合、情報量が増えると同時に、撮像信号に含まれているランダムノイズも増幅されてしまう。特に、高輝度部と比較して、低輝度部に含まれるランダムノイズが多くなることが知られている。
これに対し、例えば特許文献1に開示されているような方法が知られている。特許文献1には、信号中に含まれるノイズ量を推定し、その推定したノイズ量に応じてノイズ低減処理を実行する方法が開示されている。このように、信号中に含まれるノイズ量に応じてノイズ低減処理を実行することにより、高輝度部と低輝度部の間で異なる量のランダムノイズが含まれている場合でもノイズ低減処理を実行することが可能になる。
2. Description of the Related Art Conventionally, an image pickup apparatus such as a digital camera is known to convert an image pickup signal having a small amount of information captured at low illuminance into an output signal having a large amount of information by amplifying the image signal with a digital gain. However, when the imaging signal is amplified, the amount of information increases, and at the same time, the random noise included in the imaging signal is also amplified. In particular, it is known that there is more random noise included in low-luminance areas than in high-luminance areas.
On the other hand, for example, a method disclosed in
しかしながら、特許文献1に開示されている、推定したノイズ量に応じてノイズ低減処理を実行する手法では、画像信号を構成する赤(R)信号,緑(G)信号,青(B)信号の分布にずれが生じた場合に、特定の色に偏ってしまう現象が生ずることがある。このような特定の色に偏る現象は"色被り"と呼ばれ、特に、低輝度部において色合いがおかしくなる現象が強調される。
However, in the method of executing noise reduction processing according to the estimated noise amount disclosed in
そこで、本発明は、色被りを抑制したノイズ低減処理を可能にすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to enable noise reduction processing that suppresses color cast.
本発明は、画像信号から、色彩値を算出する色彩値算出手段と、前記画像信号の平均値を算出する平均値算出手段と、前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する決定手段と、前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う処理手段と、を有することを特徴とする。 The present invention comprises a color value calculating means for calculating a color value from an image signal, an average value calculating means for calculating an average value of the image signal, and an evaluation value including the average value and the color value. The image processing apparatus further comprises determining means for determining an intensity coefficient indicating intensity of reduction processing, and processing means for performing the noise reduction processing on the image signal according to the intensity coefficient.
本発明によれば、色被りを抑制したノイズ低減が可能となる。 According to the present invention, it is possible to reduce noise while suppressing color cast.
以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態における撮像システムの概略構成例を示した図である。
図1に示した撮像システムは、動画像を撮像および画像処理する装置としての監視カメラ101と、IPネットワーク網を介して相互に通信可能な状態で接続されるクライアント装置102とから構成されている。ここでは、監視カメラ101が本実施形態の画像処理装置の機能を備えている例を挙げて説明する。なお、クライアント装置102が本実施形態の画像処理装置の機能を備えていてもよい。監視カメラ101により撮影された動画は、クライアント装置102に送られて表示され、また必要に応じて記録等される。本実施形態では監視カメラ101を例に挙げたが、これには限定されず、例えばデジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどでもよい。
Preferred embodiments of the present invention will now be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram showing a schematic configuration example of an imaging system according to this embodiment.
The imaging system shown in FIG. 1 is composed of a
図2は、図1に示した本実施形態の監視カメラ101の概略的な内部構成例を示すブロック図である。
撮像光学系201は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッタ等を有して構成され、被写体等の光像を撮像素子部202の撮像面上に形成(結像)させる。撮像素子部202は、撮像面に入射した光を電気信号へと変換する撮像素子と、撮像素子の各画素に対応したカラーフィルタとを有して構成されたカラー撮像センサである。撮像素子部202は、カラーフィルタを透過して撮像面に入射した光を撮像素子により受光し、電気信号へ変換して出力する。なお、撮像素子部202は、全ての画素に対して、任意の露光時間を設定可能な撮像センサであるとする。本実施形態の監視カメラ101の場合、撮像素子部202では動画の撮像が行われ、撮像素子部202からは、動画の時間軸上で連続した各フレームの画像信号が出力される。
FIG. 2 is a block diagram showing a schematic internal configuration example of the
The imaging
CPU203は、本実施形態の監視カメラ101の各構成の全てに関わる処理を実行する。CPU203は、ROM(Read Only Memory)204やRAM(Random Access Memory)205に格納されたプログラムの命令を順次、読み込み、解釈した結果に従って処理を実行する。撮像系制御部206は、CPU203から供給されるフォーカス制御指示、シャッタ制御指示、絞り制御指示などの各指示を基に、撮像光学系201のフォーカス合わせ、シャッタ開閉、絞り調整などの各制御を行う。制御部207は、クライアント装置102からの指示を基に、CPU203を介して各部の制御を行う。ROM204は、CPU203が実行するプログラムや各種設定値を格納している。RAM205は、ROM204に格納されたプログラムが展開され、また、各構成における処理途中のデータの一時的な記憶等を行う。
The
A/D変換部208は、撮像素子部202による光電変換で得られたアナログ電気信号(アナログ撮像信号)をデジタル信号値に変換する。A/D変換部208によるアナログデジタル変換により得られたデジタル信号値は、動画の各フレームの画像信号として画像処理部209に送られる。画像処理部209は、画像信号に対して画像処理を行う部分であり、その画像処理の詳細については後述する。エンコーダ部210は、画像処理部209による画像処理後の画像信号を用いて、例えばJPEGやH.264などの所定のファイルフォーマットへの変換処理、つまりエンコード処理を行う。このエンコーダ部210によるエンコード処理後の画像データは、クライアント装置102に送られる。
The A/
<第1実施形態>
図3は、本実施形態の監視カメラ101が備えている画像処理部209の概略的な内部構成例を示すブロック図である。
画像入力部301には、前述のように撮像素子部202にて撮像され、A/D変換部208にてアナログデジタル変換された、動画の各フレームの画像信号が入力される。現像処理部302は、画像入力部301からの画像信号に対して、デモザイク、ホワイトバランス、ガンマ、シャープネスなどの処理を行う。NR(ノイズリダクション)処理部303は、現像処理部302による処理後の画像に、空間フィルタ処理あるいは時間フィルタ処理を施すことで、空間方向および時間方向に発生するランダムノイズを低減するNR処理を行う。本実施形態におけるNR処理部303の詳細な構成および動作については後述する。画像出力部304は、NR処理部303による処理後の画像信号を、図1のエンコーダ部210に出力する。なお、画像入力部301と画像出力部304は必須ではなく、A/D変換部208から出力された画像信号を現像処理部302に直接入力し、NR処理部303から出力された画像信号を直接エンコーダ部210に出力するように構成してもよい。
<First embodiment>
FIG. 3 is a block diagram showing a schematic internal configuration example of the
The
以下、本実施形態に係る画像処理の詳細を述べる前に、一般的なNR処理の原理と課題について説明する。
先ず、NR処理の原理について説明する。
一般的なNR処理の一つに、着目画素とその近傍の複数の参照画素について画素値の比較を行い、相関性の高い画素を加算平均した値を、着目画素のノイズ低減処理後の画素値として出力する方法が知れている。このとき、参照画素を参照する範囲や、参照画素と着目画素の相関を算出する際に用いるパラメータを変更することで、NR処理の強度を制御することが可能になる。
Before describing the details of the image processing according to this embodiment, the principle and problems of general NR processing will be described below.
First, the principle of NR processing will be explained.
One of the common NR processes is to compare the pixel values of a pixel of interest and a plurality of reference pixels in the vicinity thereof, and calculate the value obtained by adding and averaging the highly correlated pixels to obtain the pixel value of the pixel of interest after noise reduction processing. I know how to output as At this time, the strength of the NR processing can be controlled by changing the range in which the reference pixels are referred to and the parameters used when calculating the correlation between the reference pixels and the pixel of interest.
また、NR処理強度の決定方法の一例として、特開2004-72422号公報に開示されたNR処理強度の決定方法がある。この方法では、ノイズに影響を与える要因を取得し、センサ上のノイズレベルを推定し、その推定したノイズレベルに応じたNR処理強度に設定することで、高輝度部から低輝度部に対してNR処理の強度を適切に設定することができる。 Further, as an example of a method for determining the NR processing strength, there is a method for determining the NR processing strength disclosed in Japanese Patent Application Laid-Open No. 2004-72422. In this method, the factors that affect noise are obtained, the noise level on the sensor is estimated, and the NR processing intensity is set according to the estimated noise level. The intensity of NR processing can be set appropriately.
続いて、先行技術として知られている一般的なNR処理の課題について説明する。
夜間等の暗い環境下で撮影されたSN比が小さい画像では、画像の三原色であるR(赤)成分、G(緑)成分、B(青)成分について特定の色に偏ってしまう色被りの現象が生じることがある。例えば、図4に示すように、上から白の領域401、グレーの領域402、黒の領域403の順に3つの無彩色領域が並んだチャート400を撮影したとする。図4に示したチャート400を、例えば低照度環境や高温環境で撮影した場合、デジタルゲインによって大きく増幅されるランダムノイズや温度上昇により発生する暗電流ノイズの影響を受けて、特定の色への偏り、つまり色被りが生ずる。例えば図5に示すように、R成分、G成分およびB成分の各成分間で平均値のずれ(つまり各色成分の各分布の偏り)が生ずることで、マゼンダ味を帯びた色被りが発生する。このような色被りは、特に、ランダムノイズが多く含まれる低輝度部に発生しやすい。なおノイズの多い低輝度部で平均値ずれが生じている場合において、特開2004-72422号公報に記載のNR処理強度決定方法を適用すると、低輝度部のようにランダムノイズが多く含まれると推定される領域にはNR処理強度が強く設定される。そのため、図5のNR処理実行前と比較して、図6に示すように、R成分、G成分およびB成分の各成分間の色の重なりが無くなって差が広がることで、マゼンダ味を帯びた色被りが更に強調された画像になってしまう。
Next, problems of general NR processing known as prior art will be described.
In images with a low SN ratio taken in dark environments such as at night, the R (red) component, G (green) component, and B (blue) component, which are the three primary colors of the image, are biased towards specific colors. phenomenon may occur. For example, as shown in FIG. 4, assume that a
そこで、本実施形態では、後述するように、画像信号から得られるノイズレベルだけでなく、RGBの各色の成分ごとの平均値およびNR処理を含む画像処理の実行前後の色彩変化に基づいて、NR処理強度を決定する。これにより、本実施形態においては、各色の成分の分布に偏りが発生する場合であっても色被りを抑制したNR処理を実現可能としている。 Therefore, in the present embodiment, as will be described later, not only the noise level obtained from the image signal, but also the average value of each color component of RGB and the color change before and after image processing including NR processing are performed. Determine treatment intensity. As a result, in the present embodiment, it is possible to realize NR processing that suppresses color cast even when the distribution of each color component is uneven.
図7は、動画の画像信号にNR処理を施して出力する、本実施形態のNR処理部303の内部構成例を示すブロック図である。
本実施形態のNR処理部303は、入力信号取得部701、ノイズレベル算出部702、平均値算出部703、色彩値算出部704、NR強度決定部705、NR処理実行部706、出力信号保持部707を有して構成されている。
FIG. 7 is a block diagram showing an example of the internal configuration of the
The
入力信号取得部701は、動画を構成している、時間軸上で連続した各フレームの中 で、例えば或る時間のフレームを着目フレームとして、その着目フレームのR成分,G成分,B成分の三原色の画像信号(以下、RGB入力信号とする。)を取得する。
The input
ノイズレベル算出部702は、RGB入力信号から、RGBの成分ごとのノイズレベル(ノイズ量)を算出するようなノイズレベル算出処理を行う。RGBの成分ごとのノイズレベル算出処理の詳細は後述する。そして、ノイズレベル算出部702は、RGB成分ごとに算出したノイズレベルを表す信号を、NR強度決定部705に出力する。
The
平均値算出部703は、RGB入力信号から、RGBの成分ごとの平均値を算出する処理を行う。RGB成分ごとの平均値算出処理の詳細は後述する。そして、平均値算出部703は、RGBの成分ごとに算出した平均値を表す信号をNR強度決定部705に出力する。
The average
色彩値算出部704は、RGB入力信号と後述のNR処理実行部706よるNR処理後の信号(以下、RGB出力信号とする。)とから、それぞれの信号の色彩値を算出する処理を行う。RGB入力信号とRGB出力信号とから色彩値を算出する処理の詳細は後述する。そして、色彩値算出部704は、RGB入力信号とRGB出力信号の色彩を表す信号を、NR強度決定部705に出力する。
A color
NR強度決定部705は、ノイズレベル算出部702にて算出されたRGBの成分ごとのノイズレベルと、平均値算出部703にて算出された成分ごとの平均値と、色彩値算出部704にて算出された色彩値を表す信号とを基に、NR処理の強度係数を決定する。強度係数の決定方法の詳細については後述する。そして、NR強度決定部705は、強度係数を表す信号をNR処理実行部706に出力する。
The NR
NR処理実行部706は、NR強度決定部705で決定されたNR処理強度に基づき、入力信号取得部701にて取得されたRGB入力信号に対してNR処理を実行する。このNR処理実行後のRGB出力信号は、出力信号保持部707と図3の画像出力部304に送られる。
The NR
出力信号保持部707は、NR処理実行部706にてNR処理が実行されたRGB出力信号を保持する。出力信号保持部707に保持されたRGB出力信号は、色彩値算出部704において色彩が算出される際に、前述したNR処理後のRGB出力信号として入力される。
The output
最後に、NR処理実行部706から出力されるRGB出力信号は、NR処理実行部706によるNR処理後の現フレームの画像信号として、図3の画像出力部304に送られる。
Finally, the RGB output signal output from the NR
図8は、図7に示したNR処理部303の各ブロックにおいて行われる処理の流れを示すフローチャートである。図8のフローチャートの説明では、ステップS801~S807をそれぞれS801~S807と略記する。なお、図7の構成と図8のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェアにより実行される場合、図8のフローチャートの処理は、例えばROM等に記載されているプログラムをCPUが実行することにより実現される。これらのことは後述する他のフローチャートにおいても同様とする。
FIG. 8 is a flow chart showing the flow of processing performed in each block of the
図8のS801において、入力信号取得部701は、前述したRGB入力信号を取得する。以下の説明では、RGB入力信号のRGBの各成分をRIN(v,h),GIN(v,h),BIN(v,h)と表す。なお、(v,h)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置を表している。ここで、本実施形態ではRGB入力信号に対する処理を記載するが、NR処理部303で処理を行う入力信号のデータに特に制限はなく、入力信号取得部701において自由に変換することも可能である。例えば、YUV信号やL*a*b*成分、可視・非可視成分に対して、後述するNR処理が実行されてもよい。
In S801 of FIG. 8, the input
次にS802において、ノイズレベル算出部702は、RGB入力信号RIN(v,h),GIN(v,h),BIN(v,h)から、RGBの各成分のノイズレベル(ノイズ量)を算出する。例えば、ノイズレベル算出部702は、画像中に含まれるノイズレベルを表す評価値として、式(1)、式(2)を用い、ノイズの分散を算出する。
式(1)、式(2)は、R成分についてのノイズ分散σ2
R(v,h)を求める式である。また式の記載は省略するが、ノイズレベル算出部702は、式(1)、式(2)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分のノイズ分散σ2
G(v,h),σ2
B(v,h)にていても算出する。ここで、式(1)、式(2)のs1、s2の値を大きく設定することで、該当信号に含まれるノイズ分散を正確に算出することができる。
Equations (1) and (2) are equations for obtaining the noise variance σ 2 R(v,h) for the R component. Although the description of the equations is omitted, the noise
なお、ノイズレベルの評価値としては、式(1)、式(2)の演算式による分散に限定されず、例えば、ノイズの標準偏差、撮像センサのノイズ特性等のような様々な評価値を用いてもよい。また、ノイズレベルの評価値は、分散と標準偏差、撮像センサのノイズ特性等の、少なくとも2つを組み合わせたものが用いられていてもよい。 Note that the evaluation value of the noise level is not limited to the variance obtained by the equations (1) and (2), and various evaluation values such as the noise standard deviation and the noise characteristics of the image sensor can be used. may be used. Also, the evaluation value of the noise level may be a combination of at least two of the variance, the standard deviation, the noise characteristics of the image sensor, and the like.
またS803において、平均値算出部703は、RGB入力信号から、RGBの成分ごとの平均値を評価値として算出する処理を行う。例えば、平均値算出部703は、前述の式(2)を用いることで、R成分の平均値を算出する。また式の記載は省略するが、平均値算出部703は、式(2)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分の平均値につていても算出する。
In S803, the average
またS804において、色彩値算出部704は、RGB入力信号と、後述のNR処理後の信号が保持されている出力信号保持部707より読み出されたRGB出力信号とから、それぞれの信号における色彩を表す評価値として色彩値を算出する。出力信号保持部707より読み出されたRGB出力信号は、NR処理の対象とするフレームよりも前のフレームのNR処理後の信号であり、望ましくは直前のフレームのNR処理後の信号である。式の記載は省略するが、色彩値算出部704は、RGB入力信号の色彩値をa*
IN(v,h),b*
IN(v,h)として算出し、またRGB出力信号の色彩値をa*
OUT(v,h),b*
OUT(v,h)として算出する。なお、色彩を表す評価値としては、Lab空間のa*,b*の値に限定されず、例えば、YUV変換した際のUV成分やXYZ表色系のx,y値、HSV色空間のH,S値を用いてもよい。
In S804, the color
次にS805において、NR強度決定部705は、前述のようにしてそれぞれ得られた評価値に基づいてNR処理の強度を決定する。すなわちNR強度決定部705は、ノイズレベル算出部702からのRGBの成分ごとのノイズレベルと、平均値算出部703からのRGB成分ごとの平均値と、色彩値算出部704からの色彩値とに基づいて、NR処理の強度を決定する。
Next, in S805, the NR
図9は、NR強度決定部705の構成の一例を示すブロック図である。
図9に示すように、NR強度決定部705は、色彩値変化量算出部901、平均値差分算出部902、クリップ処理部903、NR強度係数算出部904を有して構成される。
FIG. 9 is a block diagram showing an example of the configuration of NR
As shown in FIG. 9 , the NR
色彩値変化量算出部901は、色彩値算出部704にて算出された色彩値を基に、色彩値の変化量を算出する。色彩値の変化量算出処理の詳細は後述する。そして、色彩値変化量算出部901は、色彩値の変化量を表す信号をクリップ処理部903に出力する。
A color value change
平均値差分算出部902は、図7の平均値算出部703にて算出されたRGB入力信号の平均値を用いて、平均値の差分値(以下、平均値差分とする。)を算出する。平均値差分算出処理の詳細は後述する。そして、平均値差分算出部902は、平均値差分を表す信号をクリップ処理部903に出力する。
The average value
クリップ処理部903は、ノイズレベル算出部702から入力されたRGB入力信号のノイズ分散と、色彩値変化量算出部901から入力された色彩値の変化量と、平均値差分算出部902から入力された平均値差分とに対して、クリップ処理を行う。クリップ処理の詳細は後述する。クリップ処理部903は、クリップ処理後の信号をNR強度係数算出部904に出力する。
The
NR強度係数算出部904は、クリップ処理部903によるクリップ処理後の信号に基づき、NR処理実行部706で実行されるNR処理の強度係数を算出する。NR強度係数算出処理の詳細は後述する。NR強度係数算出部904にて算出されたNR処理の強度係数は、図7のNR処理実行部706に出力される。
The NR strength
図10は、図9に示したNR強度決定部705の各ブロックにおいて行われる処理の流れを示すフローチャートである。
図10のS1001において、色彩値変化量算出部901は、色彩値算出部704から入力されたRGB入力信号の色彩値a*
IN(v,h),b*
IN(v,h)とRGB出力信号の色彩値a*
OUT(v,h),b*
OUT(v,h)との間の変化量を算出する。すなわち、色彩値変化量算出部901はNR処理前後の色彩値の変化量を算出する。例えば、色彩値変化量算出部901は、式(3)を用いて、NR処理前後の色彩値の変化量Δa*b*(v,h)を算出する。そして、色彩値変化量算出部901により算出された色彩値の変化量Δa*b*(v,h)はクリップ処理部903に送られる。なお、NR処理の対象とするフレームと、出力信号保持部707より読み出されたフレームとの間で、被写体に変化が生じていると、NR処理の結果に関係なく、色彩値の変化量が大きくなる。そこで、フレーム間で領域ごとに動きベクトルを算出し、動きベクトルが大きく、被写体に変化が生じた可能性が高いと推定できる領域においては、色彩値の変化量Δa*b*(v,h)を0、あるいは、デフォルト値に固定する構成を追加してもよい。
In S1001 of FIG. 10, the color value change
またS1002において、平均値差分算出部902は、平均値算出部703から入力されるRGB入力信号の平均値を用いて、平均値差分ΔAve(v,h)を算出する。例えば、平均値差分算出部902は、式(4)を用いて平均値差分ΔAve(v,h)を算出する。平均値差分算出部902により算出された平均値差分ΔAve(v,h)はクリップ処理部903に送られる。
次にS1003において、クリップ処理部903は、RGB入力信号のノイズレベル(ノイズ分散σ2
R(v,h),σ2
G(v,h),σ2
B(v,h))と色彩値の変化量Δa*b*(v,h)と平均値差分ΔAve(v,h)とに対しクリップ処理を行う。例えば、クリップ処理部903は、式(5)、式(6)、式(7)を用いて、それぞれの信号に対してクリップ処理を行う。
ここで、式(5)は、R成分についてのノイズ分散σ2
R(v,h)に対するクリップ処理を表す式である。式(5)において、σ2
MAXはR成分のノイズ分散σ2
R(v,h)に対する上限を定めるパラメータであり、σ2
MINはR成分のノイズ分散σ2
R(v,h)に対する下限を定めるパラメータである。また式の記載は省略するが、クリップ処理部903は、式(5)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分のノイズ分散σ2
G(v,h),σ2
B(v,h)に対するクリップ処理も行う。
Here, equation (5) is an equation representing clip processing for the noise variance σ 2 R(v,h) for the R component. In equation (5), σ 2 MAX is a parameter that defines the upper limit for the R component noise variance σ 2 R(v,h) , and σ 2 MIN is the lower limit for the R component noise variance σ 2 R(v,h). is a parameter that determines Although the description of the equation is omitted, the
式(6)は、色彩値の変化量Δa*b*(v,h)に対するクリップ処理を表す式である。式(6)において、Δa*b*(v,h)MAXは色彩値の変化量Δa*b*(v,h)に対する上限を定めるパラメータであり、Δa*b*(v,h)MINは色彩値の変化量Δa*b*(v,h)に対する下限を定めるパラメータである。 Equation (6) is an equation that expresses the clip processing for the color value change amount Δa * b * (v, h). In equation (6), Δa * b * (v, h) MAX is a parameter that defines the upper limit for the amount of change in color value Δa * b * (v, h), and Δa * b * (v, h) MIN is This is a parameter that defines the lower limit for the color value change amount Δa * b * (v, h).
式(7)は、平均値差分ΔAve(v,h)に対するクリップ処理を表す式である。式(7)において、ΔAveMAXは平均値差分ΔAve(v,h)に対する上限を定めるパラメータであり、ΔAveMINは平均値差分ΔAve(v,h)に対する下限を定めるパラメータである。 Equation (7) is an equation representing clip processing for the average value difference ΔAve(v, h). In equation (7), ΔAve MAX is a parameter that defines the upper limit for the average difference ΔAve(v,h), and ΔAve MIN is a parameter that defines the lower limit for the average difference ΔAve(v,h).
次にS1004において、NR強度係数算出部904は、クリップ処理後のノイズ分散と色彩値の変化量と平均値差分とを基にNR処理の強度係数NRSTを算出する。例えばNR強度係数算出部904は、ノイズ分散σ2
R(v,h),σ2
G(v,h),σ2
B(v,h)と変化量Δa*b*(v,h)と平均値差分ΔAve(v,h)とを用い、式(8)のように割合を計算することでNR処理の強度係数NRSTを算出する。
なお式(8)は、R成分についてNR処理の強度係数NRSTを算出する式である。式の記載は省略するが、NR強度係数算出部904は、式(8)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分についてのNR処理の強度係数についても算出する。式(8)のNRMAXは、NR強度NRST(v,h)の上限と下限との間のレンジを定めるパラメータである。式(8)のαはノイズ分散がNR強度係数に与える影響を制御するパラメータであり、同様に、βは色彩値の変化量がNR強度係数に与える影響を制御するパラメータ、γは平均値差分がNR強度係数に与える影響を制御するパラメータである。これらα、β、γのパラメータにより、ノイズ分散、色彩値の変化量、平均値差分が、NR強度係数に与える割合が制御される。本実施形態では、NRMAXのレンジを0-128までの範囲として定義するが、これに限るものではない。また、σ2
MAX,σ2
MIN,Δa*b*(v,h)MAX,Δa*b*(v,h)MIN,ΔAveMAX,ΔAveMINは、先の式(5)、式(6)、式(7)で用いられたパラメータと同様のものである。
Formula (8) is a formula for calculating the intensity coefficient NRST of the NR processing for the R component. Although the description of the formula is omitted, the NR intensity
ここで、平均値差分の値は、その値が小さいほど無彩色に近い領域であることを表し、一方、その値が大きいほど有彩色であることを表すパラメータである。すなわち、式(8)で定義されたNR強度NRST(v,h)は、ノイズ量だけでなく、RGBの各成分の平均値差分を考慮して算出された値となる。したがって、NR強度NRST(v,h)を用いたNR処理を行った場合には、色被りの現象が目立つ無彩色領域に対してNR処理強度が制御され、その色被りの現象を抑制することができることになる。それに加え、本実施形態の場合、NR強度NRST(v,h)は、NR処理前後の色彩の変化量を考慮して算出された形となっている。したがって、NR強度NRST(v,h)を用いたNR処理を行った場合、有彩色領域も含め、図6に示したようなNR処理によって引き起こされる色被りが強調される現象を抑制することができることになる。 Here, the value of the average difference is a parameter that indicates that the smaller the value, the more achromatic the area is, while the larger the value, the more chromatic the area is. That is, the NR intensity NR ST (v, h) defined by Equation (8) is a value calculated by considering not only the amount of noise but also the average value difference of each component of RGB. Therefore, when NR processing is performed using the NR intensity NR ST (v, h), the NR processing intensity is controlled for an achromatic region in which the color cast phenomenon is conspicuous, and the color cast phenomenon is suppressed. It will be possible. In addition, in the case of the present embodiment, the NR intensity NR ST (v, h) is calculated in consideration of the amount of color change before and after the NR processing. Therefore, when NR processing is performed using the NR intensity NR ST (v, h), it is possible to suppress the phenomenon in which the color cast caused by the NR processing as shown in FIG. will be possible.
なお、前述した上限、下限、α、β、γ、NR強度のレンジ等の各パラメータは、事前に定められた固定値に限らない。それら各パラメータは、例えばノイズ量に応じて変更された値、ユーザが動的に変更した値、センサ温度等に依存して変更した値、画像全体の輝度変化に応じて変更した値、センサ等の経年劣化を考慮して変更した値等、様々な要因により変更されてもよい。例えば撮像センサの温度を検知し、その温度変化によってパラメータを変化させてもよい。温度変化によりパラメータを変化させる場合、一例として、温度が高いときにはパラメータの値を大きく設定し、逆に温度が低いときにはパラメータの値を小さく設定する。また、画像全体の輝度に分布によってパラメータを変化させてもよい。例えば低輝度側の分布が多い場合には、画像全体が、紫がかった画像になる虞がある。このため、低輝度側の分布が多い場合にはパラメータの値を大きく設定し、逆に、高輝度側に分布が多い場合にはパラメータの値を小さく設定する。また撮像センサの特性やOB(Optical Black)領域におけるノイズ分散によって、α、β、γの重みを変更してもよい。撮像センサの特性として、例えばGの成分が小さくなるような傾向がある場合にはαと比較してβ,γの値を相対的に大きくするような重みを設定する。また例えば、カメラのダイナミックレンジがWDR(ワイドダイナミックレンジ)に設定されている場合には、パラメータを大きく設定してもよい。WDR設定の場合、例えば明暗差が大きなシーンほど、色滲みが顕著に発生することになる虞があるため、NR処理が強くかかるようにパラメータを大きく設定する。なお、夜景撮影がなされるような場合には、本実施形態に関連するパラメータの設定をゼロにし、従来通りのNR処理を行えるようにしてもよい。その他にも、画像に対し、例えば被写体として空に対応した領域設定を可能とし、晴天で青みがかかる領域や夕暮れで赤みがかかる領域については、それら青みや赤みの色を維持できるようにしてもよい。この場合、例えば学習処理により撮影時間帯等によって前述のα、β、γに対する重みを変更可能としてもよい。 Note that each parameter such as the upper limit, the lower limit, α, β, γ, and the range of NR intensity is not limited to a predetermined fixed value. Each of these parameters is, for example, a value changed according to the amount of noise, a value dynamically changed by the user, a value changed depending on the sensor temperature, etc., a value changed according to the brightness change of the entire image, a sensor, etc. may be changed due to various factors, such as a value changed in consideration of aging deterioration. For example, the temperature of the imaging sensor may be detected, and the parameter may be changed according to the temperature change. When changing a parameter according to a change in temperature, for example, the parameter value is set large when the temperature is high, and conversely, the parameter value is set small when the temperature is low. Also, the parameter may be changed according to the luminance distribution of the entire image. For example, when there is a large distribution on the low luminance side, the entire image may become purplish. Therefore, the parameter value is set large when there are many distributions on the low luminance side, and conversely, the parameter values are set small when there are many distributions on the high luminance side. Also, the weights of α, β, and γ may be changed according to the characteristics of the imaging sensor and the noise variance in the OB (Optical Black) area. If, for example, the characteristic of the image sensor is such that the G component tends to be small, the weights are set so that the values of β and γ are relatively large compared to α. Further, for example, when the dynamic range of the camera is set to WDR (wide dynamic range), the parameter may be set large. In the case of the WDR setting, for example, the larger the difference in brightness, the more conspicuous color bleeding may occur, so the parameter is set large so that the NR processing is strongly applied. It should be noted that, in the case of night scene photography, the parameters related to this embodiment may be set to zero so that conventional NR processing can be performed. In addition, for example, it is possible to set an area corresponding to the sky as a subject for the image, and for areas that are bluish in fine weather and areas that are reddish in dusk, it is possible to maintain those bluish and reddish colors. good. In this case, for example, the weights for α, β, and γ may be changed according to the photographing time zone or the like by learning processing.
図8のフローチャートに説明を戻す。
S806において、NR処理実行部706は、NR強度決定部705にて前述のように決定されたNR処理強度に基づき、入力信号取得部701からのRGB入力信号に対してNR処理を実行する。例えば、NR処理実行部706に実装されているNR処理がイプシロンフィルタによるNR処理であるすると、NR処理実行部706では、式(9)、式(10)の演算で表されるNR処理が行われる。
In S<b>806 , the NR
ここで、NR強度係数が大きな値で入力された場合、例えば式(9)のs1,s2の値を大きくすることや、式(10)の閾値εが大きくする設定が行われて、NR処理の効果を強くするような処理が実行される。式の記載は省略するが、NR処理実行部706は、式(9)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分についてのNR処理についても実行する。なお、NR処理の実装例は、式(9)、式(10)の演算式による実装には限定されない。例えば、NR処理実行部706には、バイラテラル空間NRフィルタや、エッジ情報を参照したNRフィルタ、孤立点の除去を行うフィルタ処理、また時間方向のランダムノイズを低減する巡回NR処理フィルタが用いられてもよい。また、これらのフィルタの少なくとも2つの処理を組み合わせたものが用いられてもよい。
Here, when the NR intensity coefficient is input with a large value, for example, the values of s1 and s2 in equation (9) are increased, and the threshold ε in equation (10) is set to be increased, and NR processing is performed. A process that strengthens the effect of is executed. Although description of the formula is omitted, the NR
次にステップS807において、出力信号保持部707は、NR処理実行部706にてNR処理が実行された後のRGB出力信号を保持する。
次にステップS808において、NR処理部303は、入力された現在のフレームの全ての画素についてS801~807の処理を行ったか否かを判定する。そして、S808において未処理の画素があると判定した場合、NR処理部303の処理はS801に戻り、その未処理の画素についてS801~807の処理が行われる。一方、S808において入力された現在のフレームの全ての画素についてS801~807の処理が行われたと判定した場合、NR処理部303は、そのフレームについての図8のフローチャートを終了する。その後、NR処理部303では、次に入力されるフレームについての図8のフローチャートの処理を開始する。
Next, in step S<b>807 , the output
Next, in step S808, the
以上、説明したように、本実施形態においては、RGB入力信号から得られるノイズレベルだけでなく、RGBの各成分の平均値およびNR処理の実行前後の色彩変化を基に、NR処理強度を決定してNR処理を行うようにしている。これにより、本実実施形態によれば、低輝度部や温度上昇等により発生する色被りの現象を軽減しつつ、ノイズを好適に低減することが可能になる。すなわち、本実施形態によれば、例えば監視カメラにおいて、照度および温度変化等の撮影環境の変化等によって生じる色被りを効果的に抑制すると同時に、色再現性の高いノイズ低減処理が可能になる。さらに本実施形態の画像処理場合、照度や温度変化等の撮影環境の変化等で生ずる色被りだけでなく、例えば監視カメラ内部の各構成の経年劣化等、その他様々な要因により生ずる色被り等についても抑制可能となり、ノイズを好適に低減することが可能となる。 As described above, in the present embodiment, the NR processing intensity is determined not only based on the noise level obtained from the RGB input signal, but also based on the average value of each component of RGB and the color change before and after the NR processing. NR processing is performed. As a result, according to this embodiment, it is possible to suitably reduce noise while reducing the phenomenon of color cast that occurs due to low-luminance areas, temperature rise, and the like. That is, according to the present embodiment, for example, in a surveillance camera, noise reduction processing with high color reproducibility can be performed while effectively suppressing color cast caused by changes in the shooting environment such as changes in illuminance and temperature. Furthermore, in the image processing of this embodiment, not only color cast caused by changes in the shooting environment such as changes in illuminance and temperature, but also color cast caused by various factors such as deterioration of each component inside the surveillance camera over time. can be suppressed, and noise can be preferably reduced.
なお、本実施形態においては、色彩値算出部704は、NR処理の対象とするフレームの画像信号と前のフレームのNR処理実行後の画像信号の色彩値を算出して、NR強度決定部705に送ったが、これに限られるものではない。
色彩値算出部704が、同一フレームにおけるNR処理実行前とNR処理実行後の画像信号の色彩値を算出し、NR強度決定部705の色彩値変化量算出部901が、これらの色彩値の変化量を算出する構成としてもよい。具体的には、図11に示すように、NR処理部303は、入力信号取得部1101、ノイズ量算出部1102、平均値算出部1103、色彩値算出部1106、NR強度決定部1107、NR処理実行部1108に加えて、仮NR強度決定部1104と仮NR処理実行部1105から構成される。
Note that in this embodiment, the color
A color
仮NR強度決定部1104は、ノイズ量算出部1102にて算出されたノイズレベルと、平均値算出部1103にて算出された成分の平均値とに基づいて、仮のNR処理の強度係数NR'STを決定する。すなわち、式(8)において、色彩値の変化量に関する項を除外して、仮のNR処理の強度係数NR'STを決定する。仮NR処理実行部1105は、この仮のNR処理強度に基づいてNR処理を実行し、NR処理実行後の画像信号を色彩値算出部1106に出力する。そして、色彩値算出部1106は、仮NR処理実行部1105から算出されたNR処理実行後の画像信号と、同一フレームのNR処理実行前の画像信号の色彩値を算出し、その後は図8のS805以降と同様の処理を実行する。
Temporary NR
また、その他の構成として、同一フレームにおける色彩値の変化量に応じて、NR処理実行前後の画像信号を合成する構成としてもよい。具体的には、図12に示すように、入力信号取得部1201、ノイズ量算出部1202、平均値算出部1203、NR強度決定部1204、NR処理実行部1205、色彩値算出部1206に加えて、合成比率算出部1207と、合成処理部1208とから構成される。合成比率算出部1207は、色彩値算出部1206にて算出されたNR処理実行前後の色彩値および、ノイズレベル、平均値に基づいて、合成比率を算出する。より具体的には、式(8)と同様の形で、式(11)のようにして合成比率を算出する。
なお式(11)は、R成分について合成比率を算出する式であり、式の記載は省略するが、G成分とB成分についての合成比率についても算出する。ここで、式(11)のBlendMAXは、合成比率Blend(v,h)の上限と下限との間のレンジを定めるパラメータであり、その他のパラメータは式(8)と同様である。本実施形態では、BlendMAXのレンジを0.0-1.0までの範囲として定義するが、これに限るものではない。 Formula (11) is a formula for calculating the composition ratio for the R component, and although description of the equation is omitted, the composition ratio for the G component and the B component is also calculated. Here, Blend MAX in Equation (11) is a parameter that defines the range between the upper limit and the lower limit of the synthesis ratio Blend(v, h), and other parameters are the same as in Equation (8). In this embodiment, the range of Blend MAX is defined as a range from 0.0 to 1.0, but it is not limited to this.
そして、合成処理部1208は、合成比率算出部1207で算出された合成比率に基づき、式(12)のようにして、NR処理前の信号RIN(v,h)とNR処理後の信号R' OUT(v,h)を合成し、最終的な出力信号ROUT(v,h)を算出する。
なお式(12)は、R成分について最終的な出力信号を算出する式であり、式の記載は省略するが、G成分とB成分についても算出する。ここで、式(11)の合成比率は、入力信号のRGB成分の平均値および、ノイズレベルに加えて、NR処理実行前後の彩度値の変化も考慮して算出される。したがって、式(12)で算出される最終的な出力信号は、色被りの現象を抑制とノイズ低減の効果が両立された合成信号が得られる。
前述の図11、図12のように構成することで、同一フレームの画像信号のNR処理実行前後の色彩値の変化量を基に、NR処理の強度および効果を決定してNR処理を行うことが可能になる。
Formula (12) is a formula for calculating the final output signal for the R component, and although description of the formula is omitted, the G component and the B component are also calculated. Here, the synthesis ratio of equation (11) is calculated by taking into consideration the average value of the RGB components of the input signal, the noise level, and also the change in the saturation value before and after the NR processing. Therefore, the final output signal calculated by the equation (12) is a combined signal that achieves both the effect of suppressing the phenomenon of color cast and the effect of noise reduction.
By configuring as shown in FIGS. 11 and 12 described above, the strength and effect of NR processing are determined based on the amount of change in color value before and after execution of NR processing of the image signal of the same frame, and NR processing is performed. becomes possible.
<第2実施形態>
以下、第2実施形態について説明する。
第2実施形態の撮像システム、監視カメラ101の内部構成は、概ね前述の第1実施形態の構成と同様であるため、それらの図示と説明は省略する。
図11は、第2実施形態におけるNR処理部303の内部構成例を示すブロック図である。第2実施形態のNR処理部303は、入力信号取得部1301、平均値算出部1302、色彩値算出部1303、NR強度決定部1304、NR処理実行部1305、出力信号保持部1306に加え、補正値算出部1307及び補正処理部1308を有している。入力信号取得部1301は図7の入力信号取得部701と同様のものである。以下、平均値算出部1302は平均値算出部703と、色彩値算出部1303は色彩値算出部704と、NR処理実行部1305はNR処理実行部706と、出力信号保持部1306は出力信号保持部707と同様のものであるため、それらの詳細説明は省略する。
<Second embodiment>
A second embodiment will be described below.
The internal configurations of the imaging system and
FIG. 11 is a block diagram showing an example internal configuration of the
ここで、前述した第1実施形態の場合、NR処理部303のNR処理実行部706では、図8のS806のように、RGB入力信号に対してNR処理を実行している。これに対し、第2実施形態のNR処理部303では、平均値算出部1302で算出される平均値と色彩値算出部1303で算出される色彩値とに基づいてRGB入力信号を補正し、その補正後のRGB入力信号に対してNR処理を実行する。
Here, in the case of the first embodiment described above, the NR
また第1実施形態のNR強度決定部705では、図8のS805のように、RGB入力信号のノイズレベル、平均値、色彩値に基づいてNR強度を決定している。これに対し、第2実施形態のNR強度決定部1304では、平均値算出部1302による平均値と色彩値算出部1303による色彩値とに基づいて算出した補正値に応じたNR処理の強度を決定する。色彩値算出部1303により算出される色彩値は、第1実施形態で説明したように、RGB入力信号の色彩値a*
IN(v,h),b*
IN(v,h)と、NR処理後のRGB出力信号の色彩値a*
OUT(v,h),b*
OUT(v,h)とである。
Also, the NR
図14は、第2実施形態の図13に示したNR処理部303の各ブロックにて行われる処理の流れを示すフローチャートである。なお、図12と前述の図8において、S1401はS801と同じ処理であり、以下、S1402はS803と、S1403はS804と、S1408はS807と、S1409はS808と同じ処理であるので、それらの説明は省略する。以下、図14のフローチャートにおいて、図8とは異なる処理について説明する。
FIG. 14 is a flow chart showing the flow of processing performed in each block of the
S1404において、補正値算出部1307は、平均値算出部1302で前述同様に算出された平均値と、色彩値算出部1303で前述同様に算出された色彩値とに基づいて、補正値を生成する。例えば補正値算出部1307は、色彩値算出部704からのRGB入力信号の色彩値a*
IN(v,h),b*
IN(v,h)及びRGB出力信号の色彩値a*
OUT(v,h),b*
OUT(v,h)を用い、式(3)により変化量Δa*b*(v,h)を算出する。この変化量Δa*b*(v,h)は、第1実施形態で説明したように、NR処理の実行前後の色彩変化を表した値である。また、補正値算出部1307は、前述した式(4)により平均値差分ΔAve(v,h)を算出する。
In S1404, the correction
そして、補正値算出部1307は、それら色彩値の変化量Δa*b*(v,h)と平均値差分ΔAve(v,h)とを基に補正値を決定する。具体的には、補正値算出部1307では、平均値差分が小さく且つ色彩変化量の値が大きくなるほど、補正値を大きく設定する。またこのとき補正値は、RGBの各成分の平均値が等しい値に近づくような値に設定する。ここで、平均値差分の差が小さく且つ色彩変化量が大きい領域は、本来であれば無彩色領域であると考えられるが、NR処理により色被りが発生する可能性が高い領域である。したがって、補正値算出部1307は、S1404の処理により。そのような領域について、RGBの各成分の平均値に対して無彩色に近づくような補正値を算出する。
Then, the correction
次にS1405において、補正処理部1308は、RGB入力信号RIN(v,h),GIN(v,h),BIN(v,h)に対し、補正値算出部1307により算出された補正値に応じた補正処理を行う。そして、その補正処理後のRGB入力信号が、NR処理実行部1305に送られる。
Next, in S1405, the
またS1406において、NR強度決定部1304は、補正値算出部1307により算出された補正値に応じてNR処理の強度を決定する。NR強度決定部1304における処理は、概ね前述の第1実施形態と同様の処理であるが、第1実施形態のようなノイズレベルは用いられず、補正値に応じてNR強度係数を決定する処理となされている。例えば、補正値が大きい場合、RGBの各成分にゲインがかけられてランダムノイズが増幅されていることが想定されるので、NR強度決定部1304は、補正値算出部1307で算出された補正値が大きくなるほどNR処理の強度を大きな値に設定する。
Also, in S<b>1406 , the NR
次にS1407において、NR処理実行部1305は、S1405で補正された後のRGB入力信号に対し、S1406,S1405で決定されたNR強度に応じたNR処理を実行する。
Next, in S1407, the NR
以上説明したように、第2実施形態においては、RGB入力信号から得られるRGBの各成分の平均値とNR処理の実行前後の色彩変化とに基づく補正値により、RGB入力信号を補正し、また、その補正値に応じてNR強度を決定する。そして、第2実施形態では、補正値による補正後のRGB入力信号に対して、補正値に応じて決定したNR強度に応じたNR処理を実行する。これにより、第2実施形態によれば、無彩色領域に発生する色被りの現象を軽減しつつ、ノイズを好適に低減することが可能になる。 As described above, in the second embodiment, the RGB input signal is corrected using a correction value based on the average value of each RGB component obtained from the RGB input signal and the color change before and after execution of the NR processing, and , the NR intensity is determined according to the correction value. Then, in the second embodiment, NR processing corresponding to the NR intensity determined according to the correction value is performed on the RGB input signal corrected by the correction value. Thus, according to the second embodiment, it is possible to preferably reduce noise while reducing the phenomenon of color cast that occurs in an achromatic region.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical spirit or main features.
101:監視カメラ、102:クライアント装置、303:NR処理部、701:入力信号取得部、702:ノイズレベル算出部、703:平均値算出部、704:色彩値算出部、705:NR強度決定部、706:NR処理実行部、707:出力信号保持部 101: surveillance camera, 102: client device, 303: NR processing unit, 701: input signal acquisition unit, 702: noise level calculation unit, 703: average value calculation unit, 704: color value calculation unit, 705: NR intensity determination unit , 706: NR processing execution unit, 707: output signal holding unit
Claims (17)
前記画像信号の平均値を算出する平均値算出手段と、
前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する決定手段と、
前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う処理手段と、
を有することを特徴とする画像処理装置。 a color value calculation means for calculating a color value from an image signal;
average value calculation means for calculating an average value of the image signal;
determining means for determining an intensity coefficient indicating intensity of noise reduction processing according to the evaluation value including the average value and the color value;
a processing means for performing the noise reduction processing according to the intensity coefficient on the image signal;
An image processing device comprising:
前記処理手段は、前記補正手段によって補正された画像信号に対して、前記ノイズ低減処理を行うことを特徴とする請求項2に記載の画像処理装置。 correction means for correcting the image signal based on the average value and the color value;
3. The image processing apparatus according to claim 2, wherein said processing means performs said noise reduction processing on the image signal corrected by said correction means.
画像信号から、色彩値を算出する工程と、
前記画像信号の平均値を算出する工程と、
前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する工程と、
前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う工程と、
を有することを特徴とする画像処理方法。 An image processing method executed by an image processing device,
a step of calculating a color value from the image signal;
calculating an average value of the image signal;
determining an intensity coefficient indicating the intensity of noise reduction processing according to the evaluation value including the average value and the color value;
performing the noise reduction process on the image signal according to the intensity coefficient;
An image processing method characterized by comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19156056.4A EP3528202B1 (en) | 2018-02-14 | 2019-02-07 | Image processing apparatus, image processing method, and program |
US16/275,019 US11100610B2 (en) | 2018-02-14 | 2019-02-13 | Image processing apparatus, image processing method, and storage medium |
CN201910113523.XA CN110166716B (en) | 2018-02-14 | 2019-02-14 | Image processing apparatus and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018024128 | 2018-02-14 | ||
JP2018024128 | 2018-02-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019140674A JP2019140674A (en) | 2019-08-22 |
JP7263018B2 true JP7263018B2 (en) | 2023-04-24 |
Family
ID=67694518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004360A Active JP7263018B2 (en) | 2018-02-14 | 2019-01-15 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7263018B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175718A (en) | 2003-12-09 | 2005-06-30 | Olympus Corp | Imaging system and image processing program |
JP2006211610A (en) | 2005-01-31 | 2006-08-10 | Olympus Corp | Imaging system |
JP2006309524A (en) | 2005-04-28 | 2006-11-09 | Olympus Corp | Image processor, image processing method, electronic camera, and scanner |
JP2011160168A (en) | 2010-02-01 | 2011-08-18 | Hitachi Consumer Electronics Co Ltd | Image processing apparatus |
JP2014165891A (en) | 2013-02-28 | 2014-09-08 | Hitachi Ltd | Imaging apparatus and image signal processor |
-
2019
- 2019-01-15 JP JP2019004360A patent/JP7263018B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175718A (en) | 2003-12-09 | 2005-06-30 | Olympus Corp | Imaging system and image processing program |
JP2006211610A (en) | 2005-01-31 | 2006-08-10 | Olympus Corp | Imaging system |
JP2006309524A (en) | 2005-04-28 | 2006-11-09 | Olympus Corp | Image processor, image processing method, electronic camera, and scanner |
JP2011160168A (en) | 2010-02-01 | 2011-08-18 | Hitachi Consumer Electronics Co Ltd | Image processing apparatus |
JP2014165891A (en) | 2013-02-28 | 2014-09-08 | Hitachi Ltd | Imaging apparatus and image signal processor |
Also Published As
Publication number | Publication date |
---|---|
JP2019140674A (en) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101263888B1 (en) | Image processing apparatus and image processing method as well as computer program | |
US9407889B2 (en) | Image processing apparatus and image processing method for white balance control | |
US8614751B2 (en) | Image processing apparatus and image processing method | |
CN105960658B (en) | Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer | |
US9589339B2 (en) | Image processing apparatus and control method therefor | |
US20130278793A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US11838649B2 (en) | Image capturing device and control method thereof and medium | |
US10621703B2 (en) | Image processing apparatus, image processing method, and program | |
CN109672810B (en) | Image processing apparatus, image processing method, and storage medium | |
US9071803B2 (en) | Image processing apparatus, image pickup apparatus, image processing method and non-transitory computer-readable storage medium storing image processing program | |
JP7263018B2 (en) | Image processing device, image processing method and program | |
CN111770321B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
CN110166716B (en) | Image processing apparatus and image processing method | |
US11270421B2 (en) | Image processing apparatus and image processing method that reduce image noise, and storage medium | |
US9013606B2 (en) | Image processing apparatus and control method thereof | |
JP5307572B2 (en) | Imaging system, video signal processing program, and imaging method | |
JP6849351B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2022186166A (en) | Imaging apparatus, control method for the same, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230412 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7263018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |