JP7263018B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7263018B2
JP7263018B2 JP2019004360A JP2019004360A JP7263018B2 JP 7263018 B2 JP7263018 B2 JP 7263018B2 JP 2019004360 A JP2019004360 A JP 2019004360A JP 2019004360 A JP2019004360 A JP 2019004360A JP 7263018 B2 JP7263018 B2 JP 7263018B2
Authority
JP
Japan
Prior art keywords
value
processing
color
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019004360A
Other languages
Japanese (ja)
Other versions
JP2019140674A (en
Inventor
広崇 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP19156056.4A priority Critical patent/EP3528202B1/en
Priority to US16/275,019 priority patent/US11100610B2/en
Priority to CN201910113523.XA priority patent/CN110166716B/en
Publication of JP2019140674A publication Critical patent/JP2019140674A/en
Application granted granted Critical
Publication of JP7263018B2 publication Critical patent/JP7263018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ノイズ低減等の画像処理技術に関する。 The present invention relates to image processing techniques such as noise reduction.

従来、デジタルカメラなどの撮像装置は、低照度時に撮像した情報量の少ない撮像信号をデジタルゲインにより増幅することで、情報量の多い出力信号に変換する技術が知られている。しかしながら、撮像信号を増幅した場合、情報量が増えると同時に、撮像信号に含まれているランダムノイズも増幅されてしまう。特に、高輝度部と比較して、低輝度部に含まれるランダムノイズが多くなることが知られている。
これに対し、例えば特許文献1に開示されているような方法が知られている。特許文献1には、信号中に含まれるノイズ量を推定し、その推定したノイズ量に応じてノイズ低減処理を実行する方法が開示されている。このように、信号中に含まれるノイズ量に応じてノイズ低減処理を実行することにより、高輝度部と低輝度部の間で異なる量のランダムノイズが含まれている場合でもノイズ低減処理を実行することが可能になる。
2. Description of the Related Art Conventionally, an image pickup apparatus such as a digital camera is known to convert an image pickup signal having a small amount of information captured at low illuminance into an output signal having a large amount of information by amplifying the image signal with a digital gain. However, when the imaging signal is amplified, the amount of information increases, and at the same time, the random noise included in the imaging signal is also amplified. In particular, it is known that there is more random noise included in low-luminance areas than in high-luminance areas.
On the other hand, for example, a method disclosed in Patent Document 1 is known. Patent Literature 1 discloses a method of estimating the amount of noise contained in a signal and executing noise reduction processing according to the estimated amount of noise. In this way, by executing noise reduction processing according to the amount of noise contained in the signal, noise reduction processing can be executed even when different amounts of random noise are included between the high luminance portion and the low luminance portion. it becomes possible to

特開2004-72422号公報JP-A-2004-72422

しかしながら、特許文献1に開示されている、推定したノイズ量に応じてノイズ低減処理を実行する手法では、画像信号を構成する赤(R)信号,緑(G)信号,青(B)信号の分布にずれが生じた場合に、特定の色に偏ってしまう現象が生ずることがある。このような特定の色に偏る現象は"色被り"と呼ばれ、特に、低輝度部において色合いがおかしくなる現象が強調される。 However, in the method of executing noise reduction processing according to the estimated noise amount disclosed in Patent Document 1, the red (R) signal, green (G) signal, and blue (B) signal that constitute the image signal When there is a deviation in the distribution, a phenomenon of bias toward a specific color may occur. Such a phenomenon of bias toward a specific color is called "color cast", and in particular, the phenomenon of strange hues in low-luminance areas is emphasized.

そこで、本発明は、色被りを抑制したノイズ低減処理を可能にすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to enable noise reduction processing that suppresses color cast.

本発明は、画像信号から、色彩値を算出する色彩値算出手段と、前記画像信号の平均値を算出する平均値算出手段と、前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する決定手段と、前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う処理手段と、を有することを特徴とする。 The present invention comprises a color value calculating means for calculating a color value from an image signal, an average value calculating means for calculating an average value of the image signal, and an evaluation value including the average value and the color value. The image processing apparatus further comprises determining means for determining an intensity coefficient indicating intensity of reduction processing, and processing means for performing the noise reduction processing on the image signal according to the intensity coefficient.

本発明によれば、色被りを抑制したノイズ低減が可能となる。 According to the present invention, it is possible to reduce noise while suppressing color cast.

撮像システムの概要構成例を示す図である。1 is a diagram showing a schematic configuration example of an imaging system; FIG. 撮像装置の内部構成例を示す図である。It is a figure which shows the internal structural example of an imaging device. 画像処理部の内部構成を示す図である。3 is a diagram showing the internal configuration of an image processing unit; FIG. 一般的な技術の課題を説明するためのチャート例を示す図である。It is a figure which shows the example of a chart for demonstrating the subject of a general technique. 一般的な技術の課題を説明するためのヒストグラムを示す図である。FIG. 4 is a diagram showing a histogram for explaining a general technical problem; 一般的な技術の課題を説明するためのヒストグラムを示す図である。FIG. 4 is a diagram showing a histogram for explaining a general technical problem; 第1実施形態のNR処理部の内部構成例を示す図である。It is a figure which shows the internal structural example of the NR process part of 1st Embodiment. 第1実施形態のNR処理のフローチャートである。4 is a flowchart of NR processing according to the first embodiment; 第1実施形態のNR強度決定部の内部構成例を示す図である。It is a figure which shows the internal structural example of the NR intensity|strength determination part of 1st Embodiment. 第1実施形態のNR強度決定処理のフローチャートである。4 is a flowchart of NR intensity determination processing of the first embodiment; 第1実施形態のNR処理部の別の内部構成例を示す図である。FIG. 5 is a diagram showing another internal configuration example of the NR processing unit of the first embodiment; 第1実施形態のNR処理部のさらに別の内部構成例を示す図である。FIG. 9 is a diagram showing still another internal configuration example of the NR processing unit of the first embodiment; 第2実施形態のNR処理部の内部構成例を示す図である。It is a figure which shows the internal structural example of the NR process part of 2nd Embodiment. 第2実施形態のNR処理のフローチャートである。9 is a flowchart of NR processing according to the second embodiment;

以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態における撮像システムの概略構成例を示した図である。
図1に示した撮像システムは、動画像を撮像および画像処理する装置としての監視カメラ101と、IPネットワーク網を介して相互に通信可能な状態で接続されるクライアント装置102とから構成されている。ここでは、監視カメラ101が本実施形態の画像処理装置の機能を備えている例を挙げて説明する。なお、クライアント装置102が本実施形態の画像処理装置の機能を備えていてもよい。監視カメラ101により撮影された動画は、クライアント装置102に送られて表示され、また必要に応じて記録等される。本実施形態では監視カメラ101を例に挙げたが、これには限定されず、例えばデジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどでもよい。
Preferred embodiments of the present invention will now be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram showing a schematic configuration example of an imaging system according to this embodiment.
The imaging system shown in FIG. 1 is composed of a monitoring camera 101 as a device for capturing and processing moving images, and a client device 102 connected in a mutually communicable state via an IP network. . Here, an example in which the monitoring camera 101 has the functions of the image processing apparatus of this embodiment will be described. Note that the client device 102 may have the functions of the image processing device of this embodiment. A moving image captured by the monitoring camera 101 is sent to the client device 102 for display, and is recorded as necessary. In the present embodiment, the monitoring camera 101 is used as an example, but the present invention is not limited to this. For example, digital cameras, digital video cameras, various mobile terminals such as smartphones and tablet terminals equipped with a camera function, industrial cameras, and vehicle-mounted cameras. , a medical camera, and the like.

図2は、図1に示した本実施形態の監視カメラ101の概略的な内部構成例を示すブロック図である。
撮像光学系201は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッタ等を有して構成され、被写体等の光像を撮像素子部202の撮像面上に形成(結像)させる。撮像素子部202は、撮像面に入射した光を電気信号へと変換する撮像素子と、撮像素子の各画素に対応したカラーフィルタとを有して構成されたカラー撮像センサである。撮像素子部202は、カラーフィルタを透過して撮像面に入射した光を撮像素子により受光し、電気信号へ変換して出力する。なお、撮像素子部202は、全ての画素に対して、任意の露光時間を設定可能な撮像センサであるとする。本実施形態の監視カメラ101の場合、撮像素子部202では動画の撮像が行われ、撮像素子部202からは、動画の時間軸上で連続した各フレームの画像信号が出力される。
FIG. 2 is a block diagram showing a schematic internal configuration example of the monitoring camera 101 of this embodiment shown in FIG.
The imaging optical system 201 includes a zoom lens, a focus lens, a blur correction lens, an aperture, a shutter, and the like, and forms (images) an optical image of an object or the like on an imaging surface of the imaging element unit 202 . The image pickup device unit 202 is a color image sensor including an image pickup device that converts light incident on an image pickup surface into an electric signal, and color filters corresponding to pixels of the image pickup device. The imaging device unit 202 receives light that has passed through the color filter and is incident on the imaging surface with the imaging device, converts the light into an electrical signal, and outputs the electrical signal. Assume that the image sensor unit 202 is an image sensor capable of setting an arbitrary exposure time for all pixels. In the case of the monitoring camera 101 of this embodiment, the imaging element unit 202 captures moving images, and the imaging element unit 202 outputs image signals of successive frames on the time axis of the moving images.

CPU203は、本実施形態の監視カメラ101の各構成の全てに関わる処理を実行する。CPU203は、ROM(Read Only Memory)204やRAM(Random Access Memory)205に格納されたプログラムの命令を順次、読み込み、解釈した結果に従って処理を実行する。撮像系制御部206は、CPU203から供給されるフォーカス制御指示、シャッタ制御指示、絞り制御指示などの各指示を基に、撮像光学系201のフォーカス合わせ、シャッタ開閉、絞り調整などの各制御を行う。制御部207は、クライアント装置102からの指示を基に、CPU203を介して各部の制御を行う。ROM204は、CPU203が実行するプログラムや各種設定値を格納している。RAM205は、ROM204に格納されたプログラムが展開され、また、各構成における処理途中のデータの一時的な記憶等を行う。 The CPU 203 executes processing related to all components of the surveillance camera 101 of this embodiment. The CPU 203 sequentially reads program instructions stored in a ROM (Read Only Memory) 204 and a RAM (Random Access Memory) 205 and executes processing according to the interpreted results. The image pickup system control unit 206 performs various controls such as focusing, shutter opening/closing, and aperture adjustment of the image pickup optical system 201 based on instructions supplied from the CPU 203, such as focus control instructions, shutter control instructions, and aperture control instructions. . A control unit 207 controls each unit via the CPU 203 based on an instruction from the client device 102 . A ROM 204 stores programs executed by the CPU 203 and various setting values. The RAM 205 expands the programs stored in the ROM 204, and temporarily stores data during processing in each configuration.

A/D変換部208は、撮像素子部202による光電変換で得られたアナログ電気信号(アナログ撮像信号)をデジタル信号値に変換する。A/D変換部208によるアナログデジタル変換により得られたデジタル信号値は、動画の各フレームの画像信号として画像処理部209に送られる。画像処理部209は、画像信号に対して画像処理を行う部分であり、その画像処理の詳細については後述する。エンコーダ部210は、画像処理部209による画像処理後の画像信号を用いて、例えばJPEGやH.264などの所定のファイルフォーマットへの変換処理、つまりエンコード処理を行う。このエンコーダ部210によるエンコード処理後の画像データは、クライアント装置102に送られる。 The A/D conversion unit 208 converts an analog electric signal (analog imaging signal) obtained by photoelectric conversion by the imaging element unit 202 into a digital signal value. A digital signal value obtained by analog-to-digital conversion by the A/D conversion unit 208 is sent to the image processing unit 209 as an image signal for each frame of the moving image. The image processing unit 209 is a part that performs image processing on the image signal, and the details of the image processing will be described later. The encoder unit 210 uses the image signal after image processing by the image processing unit 209 to encode, for example, JPEG or H.264. 264 or other predetermined file format, that is, encoding. The image data after being encoded by the encoder unit 210 is sent to the client device 102 .

<第1実施形態>
図3は、本実施形態の監視カメラ101が備えている画像処理部209の概略的な内部構成例を示すブロック図である。
画像入力部301には、前述のように撮像素子部202にて撮像され、A/D変換部208にてアナログデジタル変換された、動画の各フレームの画像信号が入力される。現像処理部302は、画像入力部301からの画像信号に対して、デモザイク、ホワイトバランス、ガンマ、シャープネスなどの処理を行う。NR(ノイズリダクション)処理部303は、現像処理部302による処理後の画像に、空間フィルタ処理あるいは時間フィルタ処理を施すことで、空間方向および時間方向に発生するランダムノイズを低減するNR処理を行う。本実施形態におけるNR処理部303の詳細な構成および動作については後述する。画像出力部304は、NR処理部303による処理後の画像信号を、図1のエンコーダ部210に出力する。なお、画像入力部301と画像出力部304は必須ではなく、A/D変換部208から出力された画像信号を現像処理部302に直接入力し、NR処理部303から出力された画像信号を直接エンコーダ部210に出力するように構成してもよい。
<First embodiment>
FIG. 3 is a block diagram showing a schematic internal configuration example of the image processing unit 209 included in the monitoring camera 101 of this embodiment.
The image input unit 301 receives image signals of each frame of a moving image captured by the image sensor unit 202 and analog-to-digital converted by the A/D conversion unit 208 as described above. A development processing unit 302 performs processing such as demosaicing, white balance, gamma, and sharpness on the image signal from the image input unit 301 . An NR (noise reduction) processing unit 303 performs NR processing for reducing random noise generated in the spatial direction and the temporal direction by applying spatial filtering processing or temporal filtering processing to the image processed by the development processing unit 302. . The detailed configuration and operation of the NR processing unit 303 in this embodiment will be described later. The image output unit 304 outputs the image signal processed by the NR processing unit 303 to the encoder unit 210 in FIG. Note that the image input unit 301 and the image output unit 304 are not essential, and the image signal output from the A/D conversion unit 208 is directly input to the development processing unit 302, and the image signal output from the NR processing unit 303 is directly input to the development processing unit 302. It may be configured to output to the encoder section 210 .

以下、本実施形態に係る画像処理の詳細を述べる前に、一般的なNR処理の原理と課題について説明する。
先ず、NR処理の原理について説明する。
一般的なNR処理の一つに、着目画素とその近傍の複数の参照画素について画素値の比較を行い、相関性の高い画素を加算平均した値を、着目画素のノイズ低減処理後の画素値として出力する方法が知れている。このとき、参照画素を参照する範囲や、参照画素と着目画素の相関を算出する際に用いるパラメータを変更することで、NR処理の強度を制御することが可能になる。
Before describing the details of the image processing according to this embodiment, the principle and problems of general NR processing will be described below.
First, the principle of NR processing will be explained.
One of the common NR processes is to compare the pixel values of a pixel of interest and a plurality of reference pixels in the vicinity thereof, and calculate the value obtained by adding and averaging the highly correlated pixels to obtain the pixel value of the pixel of interest after noise reduction processing. I know how to output as At this time, the strength of the NR processing can be controlled by changing the range in which the reference pixels are referred to and the parameters used when calculating the correlation between the reference pixels and the pixel of interest.

また、NR処理強度の決定方法の一例として、特開2004-72422号公報に開示されたNR処理強度の決定方法がある。この方法では、ノイズに影響を与える要因を取得し、センサ上のノイズレベルを推定し、その推定したノイズレベルに応じたNR処理強度に設定することで、高輝度部から低輝度部に対してNR処理の強度を適切に設定することができる。 Further, as an example of a method for determining the NR processing strength, there is a method for determining the NR processing strength disclosed in Japanese Patent Application Laid-Open No. 2004-72422. In this method, the factors that affect noise are obtained, the noise level on the sensor is estimated, and the NR processing intensity is set according to the estimated noise level. The intensity of NR processing can be set appropriately.

続いて、先行技術として知られている一般的なNR処理の課題について説明する。
夜間等の暗い環境下で撮影されたSN比が小さい画像では、画像の三原色であるR(赤)成分、G(緑)成分、B(青)成分について特定の色に偏ってしまう色被りの現象が生じることがある。例えば、図4に示すように、上から白の領域401、グレーの領域402、黒の領域403の順に3つの無彩色領域が並んだチャート400を撮影したとする。図4に示したチャート400を、例えば低照度環境や高温環境で撮影した場合、デジタルゲインによって大きく増幅されるランダムノイズや温度上昇により発生する暗電流ノイズの影響を受けて、特定の色への偏り、つまり色被りが生ずる。例えば図5に示すように、R成分、G成分およびB成分の各成分間で平均値のずれ(つまり各色成分の各分布の偏り)が生ずることで、マゼンダ味を帯びた色被りが発生する。このような色被りは、特に、ランダムノイズが多く含まれる低輝度部に発生しやすい。なおノイズの多い低輝度部で平均値ずれが生じている場合において、特開2004-72422号公報に記載のNR処理強度決定方法を適用すると、低輝度部のようにランダムノイズが多く含まれると推定される領域にはNR処理強度が強く設定される。そのため、図5のNR処理実行前と比較して、図6に示すように、R成分、G成分およびB成分の各成分間の色の重なりが無くなって差が広がることで、マゼンダ味を帯びた色被りが更に強調された画像になってしまう。
Next, problems of general NR processing known as prior art will be described.
In images with a low SN ratio taken in dark environments such as at night, the R (red) component, G (green) component, and B (blue) component, which are the three primary colors of the image, are biased towards specific colors. phenomenon may occur. For example, as shown in FIG. 4, assume that a chart 400 in which three achromatic regions are arranged in order from the top: a white region 401, a gray region 402, and a black region 403 is photographed. When the chart 400 shown in FIG. 4 is photographed in a low-illuminance environment or a high-temperature environment, for example, random noise that is greatly amplified by the digital gain and dark current noise that occurs due to a temperature rise may affect a particular color. A bias, that is, a color cast occurs. For example, as shown in FIG. 5, a magenta-tinged color cast occurs due to the deviation of the average value among the R, G, and B components (that is, the deviation of each distribution of each color component). . Such color cast is particularly likely to occur in low-luminance areas containing a large amount of random noise. If the NR processing strength determination method described in Japanese Patent Application Laid-Open No. 2004-72422 is applied in the case where there is a deviation in the average value in a low luminance area with a lot of noise, it is possible that a lot of random noise is included in the low luminance area. A strong NR processing strength is set for the estimated region. Therefore, compared to before the NR processing in FIG. 5, as shown in FIG. 6, there is no overlap between the colors of the R, G, and B components, and the difference widens, giving the image a magenta tint. This results in an image in which the color cast is further emphasized.

そこで、本実施形態では、後述するように、画像信号から得られるノイズレベルだけでなく、RGBの各色の成分ごとの平均値およびNR処理を含む画像処理の実行前後の色彩変化に基づいて、NR処理強度を決定する。これにより、本実施形態においては、各色の成分の分布に偏りが発生する場合であっても色被りを抑制したNR処理を実現可能としている。 Therefore, in the present embodiment, as will be described later, not only the noise level obtained from the image signal, but also the average value of each color component of RGB and the color change before and after image processing including NR processing are performed. Determine treatment intensity. As a result, in the present embodiment, it is possible to realize NR processing that suppresses color cast even when the distribution of each color component is uneven.

図7は、動画の画像信号にNR処理を施して出力する、本実施形態のNR処理部303の内部構成例を示すブロック図である。
本実施形態のNR処理部303は、入力信号取得部701、ノイズレベル算出部702、平均値算出部703、色彩値算出部704、NR強度決定部705、NR処理実行部706、出力信号保持部707を有して構成されている。
FIG. 7 is a block diagram showing an example of the internal configuration of the NR processing unit 303 of this embodiment, which performs NR processing on a moving image signal and outputs it.
The NR processing unit 303 of this embodiment includes an input signal acquisition unit 701, a noise level calculation unit 702, an average value calculation unit 703, a color value calculation unit 704, an NR intensity determination unit 705, an NR processing execution unit 706, and an output signal holding unit. 707.

入力信号取得部701は、動画を構成している、時間軸上で連続した各フレームの中 で、例えば或る時間のフレームを着目フレームとして、その着目フレームのR成分,G成分,B成分の三原色の画像信号(以下、RGB入力信号とする。)を取得する。 The input signal acquisition unit 701 selects, for example, a frame of interest at a certain time among frames that constitute a moving image and are continuous on the time axis, and obtains the R, G, and B components of the frame of interest. Image signals of three primary colors (hereinafter referred to as RGB input signals) are acquired.

ノイズレベル算出部702は、RGB入力信号から、RGBの成分ごとのノイズレベル(ノイズ量)を算出するようなノイズレベル算出処理を行う。RGBの成分ごとのノイズレベル算出処理の詳細は後述する。そして、ノイズレベル算出部702は、RGB成分ごとに算出したノイズレベルを表す信号を、NR強度決定部705に出力する。 The noise level calculator 702 performs noise level calculation processing to calculate the noise level (noise amount) for each RGB component from the RGB input signal. The details of the noise level calculation process for each RGB component will be described later. Noise level calculation section 702 then outputs a signal representing the noise level calculated for each RGB component to NR intensity determination section 705 .

平均値算出部703は、RGB入力信号から、RGBの成分ごとの平均値を算出する処理を行う。RGB成分ごとの平均値算出処理の詳細は後述する。そして、平均値算出部703は、RGBの成分ごとに算出した平均値を表す信号をNR強度決定部705に出力する。 The average value calculation unit 703 performs a process of calculating an average value for each RGB component from the RGB input signal. The details of the average value calculation process for each RGB component will be described later. Then, average value calculation section 703 outputs a signal representing the average value calculated for each RGB component to NR intensity determination section 705 .

色彩値算出部704は、RGB入力信号と後述のNR処理実行部706よるNR処理後の信号(以下、RGB出力信号とする。)とから、それぞれの信号の色彩値を算出する処理を行う。RGB入力信号とRGB出力信号とから色彩値を算出する処理の詳細は後述する。そして、色彩値算出部704は、RGB入力信号とRGB出力信号の色彩を表す信号を、NR強度決定部705に出力する。 A color value calculation unit 704 performs processing for calculating color values of each signal from an RGB input signal and a signal after NR processing by an NR processing execution unit 706 described later (hereinafter referred to as an RGB output signal). The details of the process of calculating color values from the RGB input signal and the RGB output signal will be described later. Then, the color value calculation unit 704 outputs signals representing the colors of the RGB input signal and the RGB output signal to the NR intensity determination unit 705 .

NR強度決定部705は、ノイズレベル算出部702にて算出されたRGBの成分ごとのノイズレベルと、平均値算出部703にて算出された成分ごとの平均値と、色彩値算出部704にて算出された色彩値を表す信号とを基に、NR処理の強度係数を決定する。強度係数の決定方法の詳細については後述する。そして、NR強度決定部705は、強度係数を表す信号をNR処理実行部706に出力する。 The NR intensity determination unit 705 calculates the noise level for each RGB component calculated by the noise level calculation unit 702, the average value for each component calculated by the average value calculation unit 703, and the color value calculation unit 704. An intensity coefficient for NR processing is determined based on the signal representing the calculated color value. The details of how to determine the intensity coefficient will be described later. NR strength determination section 705 then outputs a signal representing the strength coefficient to NR processing execution section 706 .

NR処理実行部706は、NR強度決定部705で決定されたNR処理強度に基づき、入力信号取得部701にて取得されたRGB入力信号に対してNR処理を実行する。このNR処理実行後のRGB出力信号は、出力信号保持部707と図3の画像出力部304に送られる。 The NR processing execution unit 706 executes NR processing on the RGB input signals acquired by the input signal acquisition unit 701 based on the NR processing intensity determined by the NR intensity determination unit 705 . The RGB output signals after this NR processing are sent to the output signal holding unit 707 and the image output unit 304 in FIG.

出力信号保持部707は、NR処理実行部706にてNR処理が実行されたRGB出力信号を保持する。出力信号保持部707に保持されたRGB出力信号は、色彩値算出部704において色彩が算出される際に、前述したNR処理後のRGB出力信号として入力される。 The output signal holding unit 707 holds the RGB output signals on which NR processing has been performed by the NR processing execution unit 706 . The RGB output signals held in the output signal holding unit 707 are input as RGB output signals after the above-described NR processing when the color value calculation unit 704 calculates colors.

最後に、NR処理実行部706から出力されるRGB出力信号は、NR処理実行部706によるNR処理後の現フレームの画像信号として、図3の画像出力部304に送られる。 Finally, the RGB output signal output from the NR processing execution unit 706 is sent to the image output unit 304 in FIG. 3 as the current frame image signal after the NR processing by the NR processing execution unit 706 .

図8は、図7に示したNR処理部303の各ブロックにおいて行われる処理の流れを示すフローチャートである。図8のフローチャートの説明では、ステップS801~S807をそれぞれS801~S807と略記する。なお、図7の構成と図8のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェアにより実行される場合、図8のフローチャートの処理は、例えばROM等に記載されているプログラムをCPUが実行することにより実現される。これらのことは後述する他のフローチャートにおいても同様とする。 FIG. 8 is a flow chart showing the flow of processing performed in each block of the NR processing unit 303 shown in FIG. In the description of the flowchart in FIG. 8, steps S801 to S807 are abbreviated as S801 to S807, respectively. The configuration of FIG. 7 and the processing of the flowchart of FIG. 8 may be executed by a hardware configuration, or may be partially implemented by a software configuration and the rest by a hardware configuration. When executed by software, the processing of the flowchart of FIG. 8 is realized by the CPU executing a program written in, for example, a ROM. The same applies to other flowcharts to be described later.

図8のS801において、入力信号取得部701は、前述したRGB入力信号を取得する。以下の説明では、RGB入力信号のRGBの各成分をRIN(v,h),GIN(v,h),BIN(v,h)と表す。なお、(v,h)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置を表している。ここで、本実施形態ではRGB入力信号に対する処理を記載するが、NR処理部303で処理を行う入力信号のデータに特に制限はなく、入力信号取得部701において自由に変換することも可能である。例えば、YUV信号やL***成分、可視・非可視成分に対して、後述するNR処理が実行されてもよい。 In S801 of FIG. 8, the input signal acquisition unit 701 acquires the above-described RGB input signal. In the following description, the RGB components of the RGB input signal are expressed as R IN (v, h), G IN (v, h), and B IN (v, h). Note that (v, h) represents two-dimensional coordinate positions in the horizontal direction (x-axis direction) and vertical direction (y-axis direction) in the image. Here, in this embodiment, processing for RGB input signals will be described, but there are no particular restrictions on the data of the input signals processed by the NR processing unit 303, and the input signal acquisition unit 701 can freely convert the data. . For example, NR processing, which will be described later, may be performed on YUV signals, L * a * b * components, and visible/invisible components.

次にS802において、ノイズレベル算出部702は、RGB入力信号RIN(v,h),GIN(v,h),BIN(v,h)から、RGBの各成分のノイズレベル(ノイズ量)を算出する。例えば、ノイズレベル算出部702は、画像中に含まれるノイズレベルを表す評価値として、式(1)、式(2)を用い、ノイズの分散を算出する。

Figure 0007263018000001
Figure 0007263018000002
Next , in S802, the noise level calculator 702 calculates the noise level (noise amount ) is calculated. For example, the noise level calculation unit 702 calculates the variance of noise using equations (1) and (2) as an evaluation value representing the noise level contained in the image.
Figure 0007263018000001
Figure 0007263018000002

式(1)、式(2)は、R成分についてのノイズ分散σ2 R(v,h)を求める式である。また式の記載は省略するが、ノイズレベル算出部702は、式(1)、式(2)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分のノイズ分散σ2 G(v,h),σ2 B(v,h)にていても算出する。ここで、式(1)、式(2)のs1、s2の値を大きく設定することで、該当信号に含まれるノイズ分散を正確に算出することができる。 Equations (1) and (2) are equations for obtaining the noise variance σ 2 R(v,h) for the R component. Although the description of the equations is omitted, the noise level calculation unit 702 calculates the noise variance σ 2 G(v,h) and σ 2 B(v,h) are also calculated. Here, by setting the values of s1 and s2 in equations (1) and (2) large, it is possible to accurately calculate the noise variance contained in the corresponding signal.

なお、ノイズレベルの評価値としては、式(1)、式(2)の演算式による分散に限定されず、例えば、ノイズの標準偏差、撮像センサのノイズ特性等のような様々な評価値を用いてもよい。また、ノイズレベルの評価値は、分散と標準偏差、撮像センサのノイズ特性等の、少なくとも2つを組み合わせたものが用いられていてもよい。 Note that the evaluation value of the noise level is not limited to the variance obtained by the equations (1) and (2), and various evaluation values such as the noise standard deviation and the noise characteristics of the image sensor can be used. may be used. Also, the evaluation value of the noise level may be a combination of at least two of the variance, the standard deviation, the noise characteristics of the image sensor, and the like.

またS803において、平均値算出部703は、RGB入力信号から、RGBの成分ごとの平均値を評価値として算出する処理を行う。例えば、平均値算出部703は、前述の式(2)を用いることで、R成分の平均値を算出する。また式の記載は省略するが、平均値算出部703は、式(2)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分の平均値につていても算出する。 In S803, the average value calculation unit 703 performs processing for calculating an average value for each RGB component as an evaluation value from the RGB input signal. For example, the average value calculation unit 703 calculates the average value of the R component by using Equation (2) described above. Although the description of the formula is omitted, the average value calculation unit 703 calculates the average value of the G component and the B component by using the formula (2) in which the R component is replaced with the G component or the B component. do.

またS804において、色彩値算出部704は、RGB入力信号と、後述のNR処理後の信号が保持されている出力信号保持部707より読み出されたRGB出力信号とから、それぞれの信号における色彩を表す評価値として色彩値を算出する。出力信号保持部707より読み出されたRGB出力信号は、NR処理の対象とするフレームよりも前のフレームのNR処理後の信号であり、望ましくは直前のフレームのNR処理後の信号である。式の記載は省略するが、色彩値算出部704は、RGB入力信号の色彩値をa* IN(v,h),b* IN(v,h)として算出し、またRGB出力信号の色彩値をa* OUT(v,h),b* OUT(v,h)として算出する。なお、色彩を表す評価値としては、Lab空間のa*,b*の値に限定されず、例えば、YUV変換した際のUV成分やXYZ表色系のx,y値、HSV色空間のH,S値を用いてもよい。 In S804, the color value calculation unit 704 calculates the color of each signal from the RGB input signal and the RGB output signal read from the output signal holding unit 707 holding the signal after the NR processing, which will be described later. A color value is calculated as an evaluation value to represent. The RGB output signals read out from the output signal holding unit 707 are NR-processed signals of frames preceding the frame to be NR-processed, preferably NR-processed signals of the immediately preceding frame. Although description of formulas is omitted, the color value calculation unit 704 calculates the color values of the RGB input signal as a * IN(v,h) and b * IN(v,h) , and calculates the color value of the RGB output signal. are calculated as a * OUT(v,h) and b * OUT(v,h) . Note that the evaluation values representing colors are not limited to the values of a * and b * in the Lab space. , S value may be used.

次にS805において、NR強度決定部705は、前述のようにしてそれぞれ得られた評価値に基づいてNR処理の強度を決定する。すなわちNR強度決定部705は、ノイズレベル算出部702からのRGBの成分ごとのノイズレベルと、平均値算出部703からのRGB成分ごとの平均値と、色彩値算出部704からの色彩値とに基づいて、NR処理の強度を決定する。 Next, in S805, the NR intensity determination unit 705 determines the intensity of NR processing based on the evaluation values obtained as described above. That is, the NR intensity determination unit 705 determines the noise level for each RGB component from the noise level calculation unit 702, the average value for each RGB component from the average value calculation unit 703, and the color value from the color value calculation unit 704. Based on this, the strength of the NR processing is determined.

図9は、NR強度決定部705の構成の一例を示すブロック図である。
図9に示すように、NR強度決定部705は、色彩値変化量算出部901、平均値差分算出部902、クリップ処理部903、NR強度係数算出部904を有して構成される。
FIG. 9 is a block diagram showing an example of the configuration of NR intensity determination section 705. As shown in FIG.
As shown in FIG. 9 , the NR intensity determination unit 705 includes a color value change amount calculation unit 901 , an average value difference calculation unit 902 , a clip processing unit 903 and an NR intensity coefficient calculation unit 904 .

色彩値変化量算出部901は、色彩値算出部704にて算出された色彩値を基に、色彩値の変化量を算出する。色彩値の変化量算出処理の詳細は後述する。そして、色彩値変化量算出部901は、色彩値の変化量を表す信号をクリップ処理部903に出力する。 A color value change amount calculation unit 901 calculates a color value change amount based on the color value calculated by the color value calculation unit 704 . Details of the color value change amount calculation processing will be described later. Then, the color value change amount calculation unit 901 outputs a signal representing the color value change amount to the clip processing unit 903 .

平均値差分算出部902は、図7の平均値算出部703にて算出されたRGB入力信号の平均値を用いて、平均値の差分値(以下、平均値差分とする。)を算出する。平均値差分算出処理の詳細は後述する。そして、平均値差分算出部902は、平均値差分を表す信号をクリップ処理部903に出力する。 The average value difference calculation unit 902 calculates a difference value of average values (hereinafter referred to as an average value difference) using the average values of the RGB input signals calculated by the average value calculation unit 703 in FIG. Details of the average value difference calculation process will be described later. Then, the average value difference calculation unit 902 outputs a signal representing the average value difference to the clip processing unit 903 .

クリップ処理部903は、ノイズレベル算出部702から入力されたRGB入力信号のノイズ分散と、色彩値変化量算出部901から入力された色彩値の変化量と、平均値差分算出部902から入力された平均値差分とに対して、クリップ処理を行う。クリップ処理の詳細は後述する。クリップ処理部903は、クリップ処理後の信号をNR強度係数算出部904に出力する。 The clip processing unit 903 calculates the noise variance of the RGB input signal input from the noise level calculation unit 702, the color value change amount input from the color value change amount calculation unit 901, and the average value difference calculation unit 902. Clip processing is performed on the average value difference obtained. Details of clip processing will be described later. Clip processing section 903 outputs the clipped signal to NR intensity coefficient calculation section 904 .

NR強度係数算出部904は、クリップ処理部903によるクリップ処理後の信号に基づき、NR処理実行部706で実行されるNR処理の強度係数を算出する。NR強度係数算出処理の詳細は後述する。NR強度係数算出部904にて算出されたNR処理の強度係数は、図7のNR処理実行部706に出力される。 The NR strength coefficient calculation unit 904 calculates the strength coefficient of the NR processing executed by the NR processing execution unit 706 based on the signal after the clip processing by the clip processing unit 903 . Details of the NR intensity coefficient calculation process will be described later. The strength coefficient of the NR processing calculated by the NR strength coefficient calculator 904 is output to the NR processing execution unit 706 in FIG.

図10は、図9に示したNR強度決定部705の各ブロックにおいて行われる処理の流れを示すフローチャートである。
図10のS1001において、色彩値変化量算出部901は、色彩値算出部704から入力されたRGB入力信号の色彩値a* IN(v,h),b* IN(v,h)とRGB出力信号の色彩値a* OUT(v,h),b* OUT(v,h)との間の変化量を算出する。すなわち、色彩値変化量算出部901はNR処理前後の色彩値の変化量を算出する。例えば、色彩値変化量算出部901は、式(3)を用いて、NR処理前後の色彩値の変化量Δa**(v,h)を算出する。そして、色彩値変化量算出部901により算出された色彩値の変化量Δa**(v,h)はクリップ処理部903に送られる。なお、NR処理の対象とするフレームと、出力信号保持部707より読み出されたフレームとの間で、被写体に変化が生じていると、NR処理の結果に関係なく、色彩値の変化量が大きくなる。そこで、フレーム間で領域ごとに動きベクトルを算出し、動きベクトルが大きく、被写体に変化が生じた可能性が高いと推定できる領域においては、色彩値の変化量Δa**(v,h)を0、あるいは、デフォルト値に固定する構成を追加してもよい。

Figure 0007263018000003
FIG. 10 is a flow chart showing the flow of processing performed in each block of the NR intensity determination section 705 shown in FIG.
In S1001 of FIG. 10, the color value change amount calculation unit 901 calculates the color values a * IN(v,h) and b * IN(v,h) of the RGB input signals input from the color value calculation unit 704 and the RGB output. Calculate the amount of change between the signal color values a * OUT(v,h) and b * OUT(v,h) . That is, the color value change amount calculator 901 calculates the amount of color value change before and after NR processing. For example, the color value change amount calculation unit 901 calculates the color value change amount Δa * b * (v, h) before and after the NR processing using Equation (3). Then, the color value change amount Δa * b * (v, h) calculated by the color value change amount calculation unit 901 is sent to the clip processing unit 903 . Note that if there is a change in the subject between the frame to be subjected to NR processing and the frame read from the output signal holding unit 707, the amount of change in the color value will change regardless of the result of NR processing. growing. Therefore, a motion vector is calculated for each region between frames, and in a region where the motion vector is large and it is highly likely that the subject has changed, the color value change amount Δa * b * (v,h) may be fixed to 0 or a default value.
Figure 0007263018000003

またS1002において、平均値差分算出部902は、平均値算出部703から入力されるRGB入力信号の平均値を用いて、平均値差分ΔAve(v,h)を算出する。例えば、平均値差分算出部902は、式(4)を用いて平均値差分ΔAve(v,h)を算出する。平均値差分算出部902により算出された平均値差分ΔAve(v,h)はクリップ処理部903に送られる。

Figure 0007263018000004
In S<b>1002 , the average value difference calculation unit 902 uses the average value of the RGB input signals input from the average value calculation unit 703 to calculate the average value difference ΔAve(v, h). For example, average value difference calculation section 902 calculates average value difference ΔAve(v, h) using equation (4). The average value difference ΔAve(v, h) calculated by the average value difference calculation unit 902 is sent to the clip processing unit 903 .
Figure 0007263018000004

次にS1003において、クリップ処理部903は、RGB入力信号のノイズレベル(ノイズ分散σ2 R(v,h),σ2 G(v,h),σ2 B(v,h))と色彩値の変化量Δa**(v,h)と平均値差分ΔAve(v,h)とに対しクリップ処理を行う。例えば、クリップ処理部903は、式(5)、式(6)、式(7)を用いて、それぞれの信号に対してクリップ処理を行う。

Figure 0007263018000005
Figure 0007263018000006
Figure 0007263018000007
Next, in S1003, the clip processing unit 903 calculates the noise level (noise variance σ 2 R(v,h) , σ 2 G(v,h) , σ 2 B(v,h) ) and the color value of the RGB input signal. Clip processing is performed on the amount of change Δa * b * (v, h) and the average value difference ΔAve(v, h). For example, the clip processing unit 903 performs clip processing on each signal using equations (5), (6), and (7).
Figure 0007263018000005
Figure 0007263018000006
Figure 0007263018000007

ここで、式(5)は、R成分についてのノイズ分散σ2 R(v,h)に対するクリップ処理を表す式である。式(5)において、σ2 MAXはR成分のノイズ分散σ2 R(v,h)に対する上限を定めるパラメータであり、σ2 MINはR成分のノイズ分散σ2 R(v,h)に対する下限を定めるパラメータである。また式の記載は省略するが、クリップ処理部903は、式(5)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分のノイズ分散σ2 G(v,h),σ2 B(v,h)に対するクリップ処理も行う。 Here, equation (5) is an equation representing clip processing for the noise variance σ 2 R(v,h) for the R component. In equation (5), σ 2 MAX is a parameter that defines the upper limit for the R component noise variance σ 2 R(v,h) , and σ 2 MIN is the lower limit for the R component noise variance σ 2 R(v,h). is a parameter that determines Although the description of the equation is omitted, the clip processing unit 903 calculates the noise variance σ 2 G(v, h ) and σ 2 B(v,h) are also clipped.

式(6)は、色彩値の変化量Δa**(v,h)に対するクリップ処理を表す式である。式(6)において、Δa**(v,h)MAXは色彩値の変化量Δa**(v,h)に対する上限を定めるパラメータであり、Δa**(v,h)MINは色彩値の変化量Δa**(v,h)に対する下限を定めるパラメータである。 Equation (6) is an equation that expresses the clip processing for the color value change amount Δa * b * (v, h). In equation (6), Δa * b * (v, h) MAX is a parameter that defines the upper limit for the amount of change in color value Δa * b * (v, h), and Δa * b * (v, h) MIN is This is a parameter that defines the lower limit for the color value change amount Δa * b * (v, h).

式(7)は、平均値差分ΔAve(v,h)に対するクリップ処理を表す式である。式(7)において、ΔAveMAXは平均値差分ΔAve(v,h)に対する上限を定めるパラメータであり、ΔAveMINは平均値差分ΔAve(v,h)に対する下限を定めるパラメータである。 Equation (7) is an equation representing clip processing for the average value difference ΔAve(v, h). In equation (7), ΔAve MAX is a parameter that defines the upper limit for the average difference ΔAve(v,h), and ΔAve MIN is a parameter that defines the lower limit for the average difference ΔAve(v,h).

次にS1004において、NR強度係数算出部904は、クリップ処理後のノイズ分散と色彩値の変化量と平均値差分とを基にNR処理の強度係数NRSTを算出する。例えばNR強度係数算出部904は、ノイズ分散σ2 R(v,h),σ2 G(v,h),σ2 B(v,h)と変化量Δa**(v,h)と平均値差分ΔAve(v,h)とを用い、式(8)のように割合を計算することでNR処理の強度係数NRSTを算出する。

Figure 0007263018000008
Next, in S1004, the NR strength coefficient calculation unit 904 calculates the strength coefficient NRST of the NR processing based on the noise variance after the clip processing, the change amount of the color value, and the mean value difference. For example, the NR intensity coefficient calculation unit 904 calculates noise variances σ 2 R(v,h) , σ 2 G(v,h) , σ 2 B(v,h) and variation amounts Δa * b * (v,h) and The intensity coefficient NRST of the NR processing is calculated by calculating the ratio as in Equation (8) using the average value difference ΔAve(v, h).
Figure 0007263018000008

なお式(8)は、R成分についてNR処理の強度係数NRSTを算出する式である。式の記載は省略するが、NR強度係数算出部904は、式(8)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分についてのNR処理の強度係数についても算出する。式(8)のNRMAXは、NR強度NRST(v,h)の上限と下限との間のレンジを定めるパラメータである。式(8)のαはノイズ分散がNR強度係数に与える影響を制御するパラメータであり、同様に、βは色彩値の変化量がNR強度係数に与える影響を制御するパラメータ、γは平均値差分がNR強度係数に与える影響を制御するパラメータである。これらα、β、γのパラメータにより、ノイズ分散、色彩値の変化量、平均値差分が、NR強度係数に与える割合が制御される。本実施形態では、NRMAXのレンジを0-128までの範囲として定義するが、これに限るものではない。また、σ2 MAX,σ2 MIN,Δa**(v,h)MAX,Δa**(v,h)MIN,ΔAveMAX,ΔAveMINは、先の式(5)、式(6)、式(7)で用いられたパラメータと同様のものである。 Formula (8) is a formula for calculating the intensity coefficient NRST of the NR processing for the R component. Although the description of the formula is omitted, the NR intensity coefficient calculation unit 904 also calculates the intensity coefficient of the NR processing for the G component and the B component by using the equation in which the R component in Equation (8) is replaced with the G component or the B component. calculate. NR MAX in equation (8) is a parameter that defines the range between the upper and lower limits of the NR intensity NR ST (v,h). α in equation (8) is a parameter that controls the effect of the noise variance on the NR intensity coefficient; similarly, β is a parameter that controls the effect of the amount of change in color value on the NR intensity coefficient; is a parameter that controls the effect of on the NR intensity coefficient. These α, β, and γ parameters control the ratio of the noise variance, color value variation, and mean value difference to the NR intensity coefficient. In this embodiment, the range of NR MAX is defined as a range from 0 to 128, but it is not limited to this. σ 2 MAX , σ 2 MIN , Δa * b * (v, h) MAX , Δa * b * (v, h) MIN , ΔAve MAX , ΔAve MIN are obtained from the above equations (5) and (6) , which are similar to the parameters used in equation (7).

ここで、平均値差分の値は、その値が小さいほど無彩色に近い領域であることを表し、一方、その値が大きいほど有彩色であることを表すパラメータである。すなわち、式(8)で定義されたNR強度NRST(v,h)は、ノイズ量だけでなく、RGBの各成分の平均値差分を考慮して算出された値となる。したがって、NR強度NRST(v,h)を用いたNR処理を行った場合には、色被りの現象が目立つ無彩色領域に対してNR処理強度が制御され、その色被りの現象を抑制することができることになる。それに加え、本実施形態の場合、NR強度NRST(v,h)は、NR処理前後の色彩の変化量を考慮して算出された形となっている。したがって、NR強度NRST(v,h)を用いたNR処理を行った場合、有彩色領域も含め、図6に示したようなNR処理によって引き起こされる色被りが強調される現象を抑制することができることになる。 Here, the value of the average difference is a parameter that indicates that the smaller the value, the more achromatic the area is, while the larger the value, the more chromatic the area is. That is, the NR intensity NR ST (v, h) defined by Equation (8) is a value calculated by considering not only the amount of noise but also the average value difference of each component of RGB. Therefore, when NR processing is performed using the NR intensity NR ST (v, h), the NR processing intensity is controlled for an achromatic region in which the color cast phenomenon is conspicuous, and the color cast phenomenon is suppressed. It will be possible. In addition, in the case of the present embodiment, the NR intensity NR ST (v, h) is calculated in consideration of the amount of color change before and after the NR processing. Therefore, when NR processing is performed using the NR intensity NR ST (v, h), it is possible to suppress the phenomenon in which the color cast caused by the NR processing as shown in FIG. will be possible.

なお、前述した上限、下限、α、β、γ、NR強度のレンジ等の各パラメータは、事前に定められた固定値に限らない。それら各パラメータは、例えばノイズ量に応じて変更された値、ユーザが動的に変更した値、センサ温度等に依存して変更した値、画像全体の輝度変化に応じて変更した値、センサ等の経年劣化を考慮して変更した値等、様々な要因により変更されてもよい。例えば撮像センサの温度を検知し、その温度変化によってパラメータを変化させてもよい。温度変化によりパラメータを変化させる場合、一例として、温度が高いときにはパラメータの値を大きく設定し、逆に温度が低いときにはパラメータの値を小さく設定する。また、画像全体の輝度に分布によってパラメータを変化させてもよい。例えば低輝度側の分布が多い場合には、画像全体が、紫がかった画像になる虞がある。このため、低輝度側の分布が多い場合にはパラメータの値を大きく設定し、逆に、高輝度側に分布が多い場合にはパラメータの値を小さく設定する。また撮像センサの特性やOB(Optical Black)領域におけるノイズ分散によって、α、β、γの重みを変更してもよい。撮像センサの特性として、例えばGの成分が小さくなるような傾向がある場合にはαと比較してβ,γの値を相対的に大きくするような重みを設定する。また例えば、カメラのダイナミックレンジがWDR(ワイドダイナミックレンジ)に設定されている場合には、パラメータを大きく設定してもよい。WDR設定の場合、例えば明暗差が大きなシーンほど、色滲みが顕著に発生することになる虞があるため、NR処理が強くかかるようにパラメータを大きく設定する。なお、夜景撮影がなされるような場合には、本実施形態に関連するパラメータの設定をゼロにし、従来通りのNR処理を行えるようにしてもよい。その他にも、画像に対し、例えば被写体として空に対応した領域設定を可能とし、晴天で青みがかかる領域や夕暮れで赤みがかかる領域については、それら青みや赤みの色を維持できるようにしてもよい。この場合、例えば学習処理により撮影時間帯等によって前述のα、β、γに対する重みを変更可能としてもよい。 Note that each parameter such as the upper limit, the lower limit, α, β, γ, and the range of NR intensity is not limited to a predetermined fixed value. Each of these parameters is, for example, a value changed according to the amount of noise, a value dynamically changed by the user, a value changed depending on the sensor temperature, etc., a value changed according to the brightness change of the entire image, a sensor, etc. may be changed due to various factors, such as a value changed in consideration of aging deterioration. For example, the temperature of the imaging sensor may be detected, and the parameter may be changed according to the temperature change. When changing a parameter according to a change in temperature, for example, the parameter value is set large when the temperature is high, and conversely, the parameter value is set small when the temperature is low. Also, the parameter may be changed according to the luminance distribution of the entire image. For example, when there is a large distribution on the low luminance side, the entire image may become purplish. Therefore, the parameter value is set large when there are many distributions on the low luminance side, and conversely, the parameter values are set small when there are many distributions on the high luminance side. Also, the weights of α, β, and γ may be changed according to the characteristics of the imaging sensor and the noise variance in the OB (Optical Black) area. If, for example, the characteristic of the image sensor is such that the G component tends to be small, the weights are set so that the values of β and γ are relatively large compared to α. Further, for example, when the dynamic range of the camera is set to WDR (wide dynamic range), the parameter may be set large. In the case of the WDR setting, for example, the larger the difference in brightness, the more conspicuous color bleeding may occur, so the parameter is set large so that the NR processing is strongly applied. It should be noted that, in the case of night scene photography, the parameters related to this embodiment may be set to zero so that conventional NR processing can be performed. In addition, for example, it is possible to set an area corresponding to the sky as a subject for the image, and for areas that are bluish in fine weather and areas that are reddish in dusk, it is possible to maintain those bluish and reddish colors. good. In this case, for example, the weights for α, β, and γ may be changed according to the photographing time zone or the like by learning processing.

図8のフローチャートに説明を戻す。
S806において、NR処理実行部706は、NR強度決定部705にて前述のように決定されたNR処理強度に基づき、入力信号取得部701からのRGB入力信号に対してNR処理を実行する。例えば、NR処理実行部706に実装されているNR処理がイプシロンフィルタによるNR処理であるすると、NR処理実行部706では、式(9)、式(10)の演算で表されるNR処理が行われる。

Figure 0007263018000009
Figure 0007263018000010
Returning to the flowchart of FIG.
In S<b>806 , the NR processing execution unit 706 executes NR processing on the RGB input signals from the input signal acquisition unit 701 based on the NR processing intensity determined by the NR intensity determination unit 705 as described above. For example, if the NR processing implemented in the NR processing execution unit 706 is NR processing using an epsilon filter, the NR processing execution unit 706 performs the NR processing represented by the calculations of equations (9) and (10). will be
Figure 0007263018000009
Figure 0007263018000010

ここで、NR強度係数が大きな値で入力された場合、例えば式(9)のs1,s2の値を大きくすることや、式(10)の閾値εが大きくする設定が行われて、NR処理の効果を強くするような処理が実行される。式の記載は省略するが、NR処理実行部706は、式(9)のR成分をそれぞれG成分又はB成分に入れ替えた式により、G成分とB成分についてのNR処理についても実行する。なお、NR処理の実装例は、式(9)、式(10)の演算式による実装には限定されない。例えば、NR処理実行部706には、バイラテラル空間NRフィルタや、エッジ情報を参照したNRフィルタ、孤立点の除去を行うフィルタ処理、また時間方向のランダムノイズを低減する巡回NR処理フィルタが用いられてもよい。また、これらのフィルタの少なくとも2つの処理を組み合わせたものが用いられてもよい。 Here, when the NR intensity coefficient is input with a large value, for example, the values of s1 and s2 in equation (9) are increased, and the threshold ε in equation (10) is set to be increased, and NR processing is performed. A process that strengthens the effect of is executed. Although description of the formula is omitted, the NR processing execution unit 706 also executes NR processing for the G component and the B component by using the formula (9) in which the R component is replaced with the G component or the B component. Note that the implementation example of the NR processing is not limited to the implementation using the arithmetic expressions of Expressions (9) and (10). For example, the NR processing execution unit 706 uses a bilateral spatial NR filter, an NR filter that refers to edge information, a filtering process that removes isolated points, and a cyclic NR processing filter that reduces random noise in the time direction. may A combination of processing of at least two of these filters may also be used.

次にステップS807において、出力信号保持部707は、NR処理実行部706にてNR処理が実行された後のRGB出力信号を保持する。
次にステップS808において、NR処理部303は、入力された現在のフレームの全ての画素についてS801~807の処理を行ったか否かを判定する。そして、S808において未処理の画素があると判定した場合、NR処理部303の処理はS801に戻り、その未処理の画素についてS801~807の処理が行われる。一方、S808において入力された現在のフレームの全ての画素についてS801~807の処理が行われたと判定した場合、NR処理部303は、そのフレームについての図8のフローチャートを終了する。その後、NR処理部303では、次に入力されるフレームについての図8のフローチャートの処理を開始する。
Next, in step S<b>807 , the output signal holding unit 707 holds the RGB output signals after the NR processing is executed by the NR processing execution unit 706 .
Next, in step S808, the NR processing unit 303 determines whether or not the processing of steps S801 to S807 has been performed for all pixels of the input current frame. Then, if it is determined in S808 that there is an unprocessed pixel, the processing of the NR processing unit 303 returns to S801, and the processing of S801 to S807 is performed on the unprocessed pixel. On the other hand, if it is determined in S808 that the processing of S801 to S807 has been performed for all pixels of the current frame input, the NR processing unit 303 ends the flowchart of FIG. 8 for that frame. After that, the NR processing unit 303 starts the processing of the flow chart of FIG. 8 for the next input frame.

以上、説明したように、本実施形態においては、RGB入力信号から得られるノイズレベルだけでなく、RGBの各成分の平均値およびNR処理の実行前後の色彩変化を基に、NR処理強度を決定してNR処理を行うようにしている。これにより、本実実施形態によれば、低輝度部や温度上昇等により発生する色被りの現象を軽減しつつ、ノイズを好適に低減することが可能になる。すなわち、本実施形態によれば、例えば監視カメラにおいて、照度および温度変化等の撮影環境の変化等によって生じる色被りを効果的に抑制すると同時に、色再現性の高いノイズ低減処理が可能になる。さらに本実施形態の画像処理場合、照度や温度変化等の撮影環境の変化等で生ずる色被りだけでなく、例えば監視カメラ内部の各構成の経年劣化等、その他様々な要因により生ずる色被り等についても抑制可能となり、ノイズを好適に低減することが可能となる。 As described above, in the present embodiment, the NR processing intensity is determined not only based on the noise level obtained from the RGB input signal, but also based on the average value of each component of RGB and the color change before and after the NR processing. NR processing is performed. As a result, according to this embodiment, it is possible to suitably reduce noise while reducing the phenomenon of color cast that occurs due to low-luminance areas, temperature rise, and the like. That is, according to the present embodiment, for example, in a surveillance camera, noise reduction processing with high color reproducibility can be performed while effectively suppressing color cast caused by changes in the shooting environment such as changes in illuminance and temperature. Furthermore, in the image processing of this embodiment, not only color cast caused by changes in the shooting environment such as changes in illuminance and temperature, but also color cast caused by various factors such as deterioration of each component inside the surveillance camera over time. can be suppressed, and noise can be preferably reduced.

なお、本実施形態においては、色彩値算出部704は、NR処理の対象とするフレームの画像信号と前のフレームのNR処理実行後の画像信号の色彩値を算出して、NR強度決定部705に送ったが、これに限られるものではない。
色彩値算出部704が、同一フレームにおけるNR処理実行前とNR処理実行後の画像信号の色彩値を算出し、NR強度決定部705の色彩値変化量算出部901が、これらの色彩値の変化量を算出する構成としてもよい。具体的には、図11に示すように、NR処理部303は、入力信号取得部1101、ノイズ量算出部1102、平均値算出部1103、色彩値算出部1106、NR強度決定部1107、NR処理実行部1108に加えて、仮NR強度決定部1104と仮NR処理実行部1105から構成される。
Note that in this embodiment, the color value calculation unit 704 calculates the color values of the image signal of the frame to be subjected to NR processing and the image signal of the previous frame after NR processing, and the NR intensity determination unit 705 sent to, but not limited to.
A color value calculation unit 704 calculates color values of image signals before and after NR processing in the same frame. It is good also as a structure which calculates an amount. Specifically, as shown in FIG. 11, the NR processing unit 303 includes an input signal acquisition unit 1101, a noise amount calculation unit 1102, an average value calculation unit 1103, a color value calculation unit 1106, an NR intensity determination unit 1107, and an NR processing unit. In addition to the execution unit 1108 , it is composed of a temporary NR intensity determination unit 1104 and a temporary NR processing execution unit 1105 .

仮NR強度決定部1104は、ノイズ量算出部1102にて算出されたノイズレベルと、平均値算出部1103にて算出された成分の平均値とに基づいて、仮のNR処理の強度係数NR'STを決定する。すなわち、式(8)において、色彩値の変化量に関する項を除外して、仮のNR処理の強度係数NR'STを決定する。仮NR処理実行部1105は、この仮のNR処理強度に基づいてNR処理を実行し、NR処理実行後の画像信号を色彩値算出部1106に出力する。そして、色彩値算出部1106は、仮NR処理実行部1105から算出されたNR処理実行後の画像信号と、同一フレームのNR処理実行前の画像信号の色彩値を算出し、その後は図8のS805以降と同様の処理を実行する。 Temporary NR strength determination section 1104 determines strength coefficient NR' of provisional NR processing based on the noise level calculated by noise amount calculation section 1102 and the average value of the components calculated by average value calculation section 1103. Determine ST. That is, in Equation (8), the term relating to the amount of change in color value is excluded to determine the intensity coefficient NR'ST of the provisional NR processing. The provisional NR processing execution unit 1105 executes NR processing based on this provisional NR processing intensity, and outputs the image signal after the execution of the NR processing to the color value calculation unit 1106 . Then, the color value calculation unit 1106 calculates the color values of the image signal after the NR processing, which is calculated by the provisional NR processing execution unit 1105, and the image signal before the NR processing of the same frame. The same processing as after S805 is executed.

また、その他の構成として、同一フレームにおける色彩値の変化量に応じて、NR処理実行前後の画像信号を合成する構成としてもよい。具体的には、図12に示すように、入力信号取得部1201、ノイズ量算出部1202、平均値算出部1203、NR強度決定部1204、NR処理実行部1205、色彩値算出部1206に加えて、合成比率算出部1207と、合成処理部1208とから構成される。合成比率算出部1207は、色彩値算出部1206にて算出されたNR処理実行前後の色彩値および、ノイズレベル、平均値に基づいて、合成比率を算出する。より具体的には、式(8)と同様の形で、式(11)のようにして合成比率を算出する。

Figure 0007263018000011
As another configuration, it is also possible to combine image signals before and after NR processing according to the amount of change in color values in the same frame. Specifically, as shown in FIG. 12, in addition to an input signal acquisition unit 1201, a noise amount calculation unit 1202, an average value calculation unit 1203, an NR intensity determination unit 1204, an NR processing execution unit 1205, and a color value calculation unit 1206, , a synthesis ratio calculation unit 1207 and a synthesis processing unit 1208 . A synthesis ratio calculation unit 1207 calculates a synthesis ratio based on the color values before and after the NR processing calculated by the color value calculation unit 1206, the noise level, and the average value. More specifically, the combination ratio is calculated as in Equation (11) in the same manner as Equation (8).
Figure 0007263018000011

なお式(11)は、R成分について合成比率を算出する式であり、式の記載は省略するが、G成分とB成分についての合成比率についても算出する。ここで、式(11)のBlendMAXは、合成比率Blend(v,h)の上限と下限との間のレンジを定めるパラメータであり、その他のパラメータは式(8)と同様である。本実施形態では、BlendMAXのレンジを0.0-1.0までの範囲として定義するが、これに限るものではない。 Formula (11) is a formula for calculating the composition ratio for the R component, and although description of the equation is omitted, the composition ratio for the G component and the B component is also calculated. Here, Blend MAX in Equation (11) is a parameter that defines the range between the upper limit and the lower limit of the synthesis ratio Blend(v, h), and other parameters are the same as in Equation (8). In this embodiment, the range of Blend MAX is defined as a range from 0.0 to 1.0, but it is not limited to this.

そして、合成処理部1208は、合成比率算出部1207で算出された合成比率に基づき、式(12)のようにして、NR処理前の信号RIN(v,h)とNR処理後の信号R' OUT(v,h)を合成し、最終的な出力信号ROUT(v,h)を算出する。

Figure 0007263018000012
Based on the synthesis ratio calculated by the synthesis ratio calculation unit 1207, the synthesis processing unit 1208 calculates the signal R IN (v, h) before NR processing and the signal R ' Synthesize OUT (v, h) to calculate the final output signal R OUT (v, h).
Figure 0007263018000012

なお式(12)は、R成分について最終的な出力信号を算出する式であり、式の記載は省略するが、G成分とB成分についても算出する。ここで、式(11)の合成比率は、入力信号のRGB成分の平均値および、ノイズレベルに加えて、NR処理実行前後の彩度値の変化も考慮して算出される。したがって、式(12)で算出される最終的な出力信号は、色被りの現象を抑制とノイズ低減の効果が両立された合成信号が得られる。
前述の図11、図12のように構成することで、同一フレームの画像信号のNR処理実行前後の色彩値の変化量を基に、NR処理の強度および効果を決定してNR処理を行うことが可能になる。
Formula (12) is a formula for calculating the final output signal for the R component, and although description of the formula is omitted, the G component and the B component are also calculated. Here, the synthesis ratio of equation (11) is calculated by taking into consideration the average value of the RGB components of the input signal, the noise level, and also the change in the saturation value before and after the NR processing. Therefore, the final output signal calculated by the equation (12) is a combined signal that achieves both the effect of suppressing the phenomenon of color cast and the effect of noise reduction.
By configuring as shown in FIGS. 11 and 12 described above, the strength and effect of NR processing are determined based on the amount of change in color value before and after execution of NR processing of the image signal of the same frame, and NR processing is performed. becomes possible.

<第2実施形態>
以下、第2実施形態について説明する。
第2実施形態の撮像システム、監視カメラ101の内部構成は、概ね前述の第1実施形態の構成と同様であるため、それらの図示と説明は省略する。
図11は、第2実施形態におけるNR処理部303の内部構成例を示すブロック図である。第2実施形態のNR処理部303は、入力信号取得部1301、平均値算出部1302、色彩値算出部1303、NR強度決定部1304、NR処理実行部1305、出力信号保持部1306に加え、補正値算出部1307及び補正処理部1308を有している。入力信号取得部1301は図7の入力信号取得部701と同様のものである。以下、平均値算出部1302は平均値算出部703と、色彩値算出部1303は色彩値算出部704と、NR処理実行部1305はNR処理実行部706と、出力信号保持部1306は出力信号保持部707と同様のものであるため、それらの詳細説明は省略する。
<Second embodiment>
A second embodiment will be described below.
The internal configurations of the imaging system and surveillance camera 101 of the second embodiment are generally the same as those of the first embodiment described above, so illustration and description thereof will be omitted.
FIG. 11 is a block diagram showing an example internal configuration of the NR processing unit 303 according to the second embodiment. The NR processing unit 303 of the second embodiment includes an input signal acquisition unit 1301, an average value calculation unit 1302, a color value calculation unit 1303, an NR intensity determination unit 1304, an NR processing execution unit 1305, an output signal storage unit 1306, and a correction It has a value calculator 1307 and a correction processor 1308 . The input signal acquisition section 1301 is similar to the input signal acquisition section 701 in FIG. Hereinafter, the average value calculation unit 1302 is the average value calculation unit 703, the color value calculation unit 1303 is the color value calculation unit 704, the NR processing execution unit 1305 is the NR processing execution unit 706, and the output signal holding unit 1306 is the output signal holding unit. Since it is the same as the part 707, detailed description thereof will be omitted.

ここで、前述した第1実施形態の場合、NR処理部303のNR処理実行部706では、図8のS806のように、RGB入力信号に対してNR処理を実行している。これに対し、第2実施形態のNR処理部303では、平均値算出部1302で算出される平均値と色彩値算出部1303で算出される色彩値とに基づいてRGB入力信号を補正し、その補正後のRGB入力信号に対してNR処理を実行する。 Here, in the case of the first embodiment described above, the NR processing execution unit 706 of the NR processing unit 303 executes NR processing on the RGB input signal as in S806 of FIG. On the other hand, the NR processing unit 303 of the second embodiment corrects the RGB input signal based on the average value calculated by the average value calculation unit 1302 and the color value calculated by the color value calculation unit 1303. NR processing is performed on the corrected RGB input signals.

また第1実施形態のNR強度決定部705では、図8のS805のように、RGB入力信号のノイズレベル、平均値、色彩値に基づいてNR強度を決定している。これに対し、第2実施形態のNR強度決定部1304では、平均値算出部1302による平均値と色彩値算出部1303による色彩値とに基づいて算出した補正値に応じたNR処理の強度を決定する。色彩値算出部1303により算出される色彩値は、第1実施形態で説明したように、RGB入力信号の色彩値a* IN(v,h),b* IN(v,h)と、NR処理後のRGB出力信号の色彩値a* OUT(v,h),b* OUT(v,h)とである。 Also, the NR intensity determination unit 705 of the first embodiment determines the NR intensity based on the noise level, average value, and color value of the RGB input signal, as in S805 of FIG. On the other hand, the NR intensity determination unit 1304 of the second embodiment determines the intensity of the NR processing according to the correction value calculated based on the average value calculated by the average value calculation unit 1302 and the color value calculated by the color value calculation unit 1303. do. As described in the first embodiment, the color values calculated by the color value calculator 1303 are the color values a * IN(v,h) and b * IN(v,h) of the RGB input signal and the NR processing. Color values a * OUT(v,h) and b * OUT(v,h) of subsequent RGB output signals.

図14は、第2実施形態の図13に示したNR処理部303の各ブロックにて行われる処理の流れを示すフローチャートである。なお、図12と前述の図8において、S1401はS801と同じ処理であり、以下、S1402はS803と、S1403はS804と、S1408はS807と、S1409はS808と同じ処理であるので、それらの説明は省略する。以下、図14のフローチャートにおいて、図8とは異なる処理について説明する。 FIG. 14 is a flow chart showing the flow of processing performed in each block of the NR processing unit 303 shown in FIG. 13 of the second embodiment. 12 and FIG. 8, S1401 is the same process as S801, and hereinafter, S1402 is the same process as S803, S1403 is the same process as S804, S1408 is the same process as S807, and S1409 is the same process as S808. are omitted. Processing different from that in FIG. 8 will be described below with reference to the flowchart of FIG. 14 .

S1404において、補正値算出部1307は、平均値算出部1302で前述同様に算出された平均値と、色彩値算出部1303で前述同様に算出された色彩値とに基づいて、補正値を生成する。例えば補正値算出部1307は、色彩値算出部704からのRGB入力信号の色彩値a* IN(v,h),b* IN(v,h)及びRGB出力信号の色彩値a* OUT(v,h),b* OUT(v,h)を用い、式(3)により変化量Δa**(v,h)を算出する。この変化量Δa**(v,h)は、第1実施形態で説明したように、NR処理の実行前後の色彩変化を表した値である。また、補正値算出部1307は、前述した式(4)により平均値差分ΔAve(v,h)を算出する。 In S1404, the correction value calculation unit 1307 generates a correction value based on the average value calculated in the same manner as described above by the average value calculation unit 1302 and the color value calculated in the same manner as described above by the color value calculation unit 1303. . For example, the correction value calculation unit 1307 calculates the color values a * IN(v,h) and b * IN(v,h) of the RGB input signals from the color value calculation unit 704 and the color values a * OUT(v) of the RGB output signals. ,h) and b * OUT(v,h) are used to calculate the amount of change .DELTA.a * b * (v,h) according to the equation (3). This amount of change Δa * b * (v, h) is a value representing the color change before and after execution of the NR processing, as described in the first embodiment. Further, the correction value calculation unit 1307 calculates the average value difference ΔAve(v, h) using the above-described formula (4).

そして、補正値算出部1307は、それら色彩値の変化量Δa**(v,h)と平均値差分ΔAve(v,h)とを基に補正値を決定する。具体的には、補正値算出部1307では、平均値差分が小さく且つ色彩変化量の値が大きくなるほど、補正値を大きく設定する。またこのとき補正値は、RGBの各成分の平均値が等しい値に近づくような値に設定する。ここで、平均値差分の差が小さく且つ色彩変化量が大きい領域は、本来であれば無彩色領域であると考えられるが、NR処理により色被りが発生する可能性が高い領域である。したがって、補正値算出部1307は、S1404の処理により。そのような領域について、RGBの各成分の平均値に対して無彩色に近づくような補正値を算出する。 Then, the correction value calculation unit 1307 determines a correction value based on the color value change amount Δa * b * (v, h) and the average value difference ΔAve(v, h). Specifically, the correction value calculation unit 1307 sets a larger correction value as the average difference is smaller and the color change amount is larger. At this time, the correction value is set to a value such that the average values of the respective RGB components approach equal values. Here, an area with a small difference in mean value difference and a large amount of color change is originally considered an achromatic area, but it is an area that is highly likely to cause color cast due to NR processing. Therefore, the correction value calculation unit 1307 performs the processing of S1404. For such an area, a correction value is calculated that approaches an achromatic color with respect to the average value of each component of RGB.

次にS1405において、補正処理部1308は、RGB入力信号RIN(v,h),GIN(v,h),BIN(v,h)に対し、補正値算出部1307により算出された補正値に応じた補正処理を行う。そして、その補正処理後のRGB入力信号が、NR処理実行部1305に送られる。 Next, in S1405, the correction processing unit 1308 applies the correction calculated by the correction value calculation unit 1307 to the RGB input signals R IN (v, h), G IN (v, h), and B IN (v, h). Perform correction processing according to the value. Then, the corrected RGB input signal is sent to the NR processing execution unit 1305 .

またS1406において、NR強度決定部1304は、補正値算出部1307により算出された補正値に応じてNR処理の強度を決定する。NR強度決定部1304における処理は、概ね前述の第1実施形態と同様の処理であるが、第1実施形態のようなノイズレベルは用いられず、補正値に応じてNR強度係数を決定する処理となされている。例えば、補正値が大きい場合、RGBの各成分にゲインがかけられてランダムノイズが増幅されていることが想定されるので、NR強度決定部1304は、補正値算出部1307で算出された補正値が大きくなるほどNR処理の強度を大きな値に設定する。 Also, in S<b>1406 , the NR intensity determination unit 1304 determines the intensity of NR processing according to the correction value calculated by the correction value calculation unit 1307 . The processing in the NR intensity determination unit 1304 is generally the same as the processing in the first embodiment described above, but the noise level as in the first embodiment is not used, and the NR intensity coefficient is determined according to the correction value. is made. For example, when the correction value is large, it is assumed that gain is applied to each component of RGB to amplify random noise. is set to a larger value as the value of NR increases.

次にS1407において、NR処理実行部1305は、S1405で補正された後のRGB入力信号に対し、S1406,S1405で決定されたNR強度に応じたNR処理を実行する。 Next, in S1407, the NR processing execution unit 1305 executes NR processing according to the NR intensity determined in S1406 and S1405 on the RGB input signal corrected in S1405.

以上説明したように、第2実施形態においては、RGB入力信号から得られるRGBの各成分の平均値とNR処理の実行前後の色彩変化とに基づく補正値により、RGB入力信号を補正し、また、その補正値に応じてNR強度を決定する。そして、第2実施形態では、補正値による補正後のRGB入力信号に対して、補正値に応じて決定したNR強度に応じたNR処理を実行する。これにより、第2実施形態によれば、無彩色領域に発生する色被りの現象を軽減しつつ、ノイズを好適に低減することが可能になる。 As described above, in the second embodiment, the RGB input signal is corrected using a correction value based on the average value of each RGB component obtained from the RGB input signal and the color change before and after execution of the NR processing, and , the NR intensity is determined according to the correction value. Then, in the second embodiment, NR processing corresponding to the NR intensity determined according to the correction value is performed on the RGB input signal corrected by the correction value. Thus, according to the second embodiment, it is possible to preferably reduce noise while reducing the phenomenon of color cast that occurs in an achromatic region.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical spirit or main features.

101:監視カメラ、102:クライアント装置、303:NR処理部、701:入力信号取得部、702:ノイズレベル算出部、703:平均値算出部、704:色彩値算出部、705:NR強度決定部、706:NR処理実行部、707:出力信号保持部 101: surveillance camera, 102: client device, 303: NR processing unit, 701: input signal acquisition unit, 702: noise level calculation unit, 703: average value calculation unit, 704: color value calculation unit, 705: NR intensity determination unit , 706: NR processing execution unit, 707: output signal holding unit

Claims (17)

画像信号から、色彩値を算出する色彩値算出手段と、
前記画像信号の平均値を算出する平均値算出手段と、
前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する決定手段と、
前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う処理手段と、
を有することを特徴とする画像処理装置。
a color value calculation means for calculating a color value from an image signal;
average value calculation means for calculating an average value of the image signal;
determining means for determining an intensity coefficient indicating intensity of noise reduction processing according to the evaluation value including the average value and the color value;
a processing means for performing the noise reduction processing according to the intensity coefficient on the image signal;
An image processing device comprising:
前記平均値算出手段は、前記画像信号に含まれる複数の色成分ごとに平均値を算出することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said average value calculating means calculates an average value for each of a plurality of color components included in said image signal. 前記色彩値算出手段は、前記画像信号のノイズ低減処理が実行される前の信号の前記色彩値と、前記ノイズ低減処理が実行された後の信号の前記色彩値とを算出することを特徴とする請求項2に記載の画像処理装置。 The color value calculation means calculates the color value of the signal before noise reduction processing of the image signal is executed and the color value of the signal after the noise reduction processing is executed. 3. The image processing apparatus according to claim 2. 前記決定手段は、前記ノイズ低減処理が実行される前と後の前記色彩値の変化量を算出し、前記色成分ごとの前記平均値の差分値を算出し、前記平均値の差分値と前記色彩値の変化量とに基づいて、前記強度係数を算出することを特徴とする請求項3に記載の画像処理装置。 The determining means calculates the amount of change in the color values before and after the noise reduction processing is executed, calculates the difference value between the average values for each of the color components, and calculates the difference value between the average values and the 4. The image processing apparatus according to claim 3, wherein the intensity coefficient is calculated based on the amount of change in color value. 前記決定手段は、前記平均値の差分値と前記色彩値の変化量のそれぞれに対して、少なくとも二つの設定値との比較に基づくクリップ処理を行い、前記クリップ処理が行われた後の、前記平均値の差分値と前記色彩値の変化量とに基づいて、前記強度係数を算出することを特徴とする請求項4に記載の画像処理装置。 The determination means performs clip processing based on comparison with at least two set values for each of the difference value of the average value and the amount of change in the color value, and after the clip processing is performed, the 5. The image processing apparatus according to claim 4, wherein the intensity coefficient is calculated based on the difference value of the average values and the amount of change in the color value. 前記決定手段は、前記平均値の差分値が大きいほど前記強度係数を大きく設定することを特徴とする請求項4または5に記載の画像処理装置。 6. The image processing apparatus according to claim 4, wherein the determining means sets the intensity coefficient to be larger as the difference between the average values is larger. 前記決定手段は、前記色彩値の変化量が小さいほど前記強度係数を大きく設定することを特徴とする請求項4から6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 4 to 6, wherein the determining means sets the intensity coefficient larger as the change amount of the color value is smaller. 前記決定手段は、前記平均値の差分値と前記色彩の変化量との割合に応じて前記強度係数を算出することを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein said determining means calculates said intensity coefficient according to a ratio between said difference value of said average value and said amount of change in said color value . 前記画像信号のノイズレベルを算出するノイズレベル算出手段を有し、前記評価値は、前記ノイズレベルを含むことを特徴とする請求項2から8のいずれか1項に記載の画像処理装置。 9. The image processing apparatus according to claim 2, further comprising noise level calculation means for calculating a noise level of said image signal, wherein said evaluation value includes said noise level. 前記決定手段は、前記ノイズ低減処理が実行される前と後の前記色彩値の変化量を算出し、前記色成分ごとの前記平均値の差分値を算出し、前記ノイズレベルと前記平均値の差分値と前記色彩値の変化量とに基づいて前記強度係数を算出することを特徴とする請求項9に記載の画像処理装置。 The determining means calculates the amount of change in the color value before and after the noise reduction processing is executed, calculates the difference value between the average values for each of the color components, and calculates the difference between the noise level and the average value. 10. The image processing apparatus according to claim 9, wherein the intensity coefficient is calculated based on the difference value and the change amount of the color value. 前記決定手段は、ノイズレベルの値が大きいほど前記強度係数を大きく設定することを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein said determining means sets said intensity coefficient to be larger as the value of noise level increases. 前記決定手段は、前記ノイズレベルと前記平均値の差分値と前記色彩の変化量との割合に応じて、前記強度係数を算出することを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein said determining means calculates said intensity coefficient in accordance with a ratio of a difference value between said noise level and said average value and an amount of change in said color value . 前記平均値と前記色彩値に基づいて前記画像信号を補正する補正手段とを有し、
前記処理手段は、前記補正手段によって補正された画像信号に対して、前記ノイズ低減処理を行うことを特徴とする請求項2に記載の画像処理装置。
correction means for correcting the image signal based on the average value and the color value;
3. The image processing apparatus according to claim 2, wherein said processing means performs said noise reduction processing on the image signal corrected by said correction means.
前記決定手段は、前記色成分ごとの前記平均値の差分値を算出し、前記差分値が小さいほど前記強度係数を大きく設定することを特徴とする請求項13に記載の画像処理装置。 14. The image processing apparatus according to claim 13, wherein said determining means calculates a difference value between said average values for each of said color components, and sets said intensity coefficient larger as said difference value decreases. 前記決定手段は、前記ノイズ低減処理が実行される前の信号の前記色彩値と前記ノイズ低減処理が実行された後の信号の前記色彩値との変化量を算出し、前記変化量が大きいほど前記強度係数を大きく設定することを特徴とする請求項13または14に記載の画像処理装置。 The determining means calculates a change amount between the color value of the signal before the noise reduction processing is executed and the color value of the signal after the noise reduction processing is executed, and the larger the change amount, the 15. The image processing apparatus according to claim 13, wherein the intensity coefficient is set large. 画像処理装置が実行する画像処理方法であって、
画像信号から、色彩値を算出する工程と、
前記画像信号の平均値を算出する工程と、
前記平均値と前記色彩値を含む評価値に応じて、ノイズ低減処理の強度を示す強度係数を決定する工程と、
前記画像信号に対して、前記強度係数に応じた前記ノイズ低減処理を行う工程と、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing device,
a step of calculating a color value from the image signal;
calculating an average value of the image signal;
determining an intensity coefficient indicating the intensity of noise reduction processing according to the evaluation value including the average value and the color value;
performing the noise reduction process on the image signal according to the intensity coefficient;
An image processing method characterized by comprising:
コンピュータを、請求項1から15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 15.
JP2019004360A 2018-02-14 2019-01-15 Image processing device, image processing method and program Active JP7263018B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19156056.4A EP3528202B1 (en) 2018-02-14 2019-02-07 Image processing apparatus, image processing method, and program
US16/275,019 US11100610B2 (en) 2018-02-14 2019-02-13 Image processing apparatus, image processing method, and storage medium
CN201910113523.XA CN110166716B (en) 2018-02-14 2019-02-14 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018024128 2018-02-14
JP2018024128 2018-02-14

Publications (2)

Publication Number Publication Date
JP2019140674A JP2019140674A (en) 2019-08-22
JP7263018B2 true JP7263018B2 (en) 2023-04-24

Family

ID=67694518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004360A Active JP7263018B2 (en) 2018-02-14 2019-01-15 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7263018B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175718A (en) 2003-12-09 2005-06-30 Olympus Corp Imaging system and image processing program
JP2006211610A (en) 2005-01-31 2006-08-10 Olympus Corp Imaging system
JP2006309524A (en) 2005-04-28 2006-11-09 Olympus Corp Image processor, image processing method, electronic camera, and scanner
JP2011160168A (en) 2010-02-01 2011-08-18 Hitachi Consumer Electronics Co Ltd Image processing apparatus
JP2014165891A (en) 2013-02-28 2014-09-08 Hitachi Ltd Imaging apparatus and image signal processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175718A (en) 2003-12-09 2005-06-30 Olympus Corp Imaging system and image processing program
JP2006211610A (en) 2005-01-31 2006-08-10 Olympus Corp Imaging system
JP2006309524A (en) 2005-04-28 2006-11-09 Olympus Corp Image processor, image processing method, electronic camera, and scanner
JP2011160168A (en) 2010-02-01 2011-08-18 Hitachi Consumer Electronics Co Ltd Image processing apparatus
JP2014165891A (en) 2013-02-28 2014-09-08 Hitachi Ltd Imaging apparatus and image signal processor

Also Published As

Publication number Publication date
JP2019140674A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
KR101263888B1 (en) Image processing apparatus and image processing method as well as computer program
US9407889B2 (en) Image processing apparatus and image processing method for white balance control
US8614751B2 (en) Image processing apparatus and image processing method
CN105960658B (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory storage medium that can be processed by computer
US9589339B2 (en) Image processing apparatus and control method therefor
US20130278793A1 (en) Image processing apparatus, image processing method, and storage medium
US11838649B2 (en) Image capturing device and control method thereof and medium
US10621703B2 (en) Image processing apparatus, image processing method, and program
CN109672810B (en) Image processing apparatus, image processing method, and storage medium
US9071803B2 (en) Image processing apparatus, image pickup apparatus, image processing method and non-transitory computer-readable storage medium storing image processing program
JP7263018B2 (en) Image processing device, image processing method and program
CN111770321B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN110166716B (en) Image processing apparatus and image processing method
US11270421B2 (en) Image processing apparatus and image processing method that reduce image noise, and storage medium
US9013606B2 (en) Image processing apparatus and control method thereof
JP5307572B2 (en) Imaging system, video signal processing program, and imaging method
JP6849351B2 (en) Image processing equipment, image processing methods, and programs
JP2022186166A (en) Imaging apparatus, control method for the same, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R151 Written notification of patent or utility model registration

Ref document number: 7263018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151