JP4901625B2 - Noise reduction device and noise reduction method - Google Patents

Noise reduction device and noise reduction method Download PDF

Info

Publication number
JP4901625B2
JP4901625B2 JP2007190863A JP2007190863A JP4901625B2 JP 4901625 B2 JP4901625 B2 JP 4901625B2 JP 2007190863 A JP2007190863 A JP 2007190863A JP 2007190863 A JP2007190863 A JP 2007190863A JP 4901625 B2 JP4901625 B2 JP 4901625B2
Authority
JP
Japan
Prior art keywords
image
frame
noise reduction
frame image
spatial smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007190863A
Other languages
Japanese (ja)
Other versions
JP2009027608A (en
Inventor
克浩 西脇
博 長妻
康男 増井
忠公 中村
Original Assignee
株式会社エルモ社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エルモ社 filed Critical 株式会社エルモ社
Priority to JP2007190863A priority Critical patent/JP4901625B2/en
Publication of JP2009027608A publication Critical patent/JP2009027608A/en
Application granted granted Critical
Publication of JP4901625B2 publication Critical patent/JP4901625B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、動画像のノイズを低減する技術に関する。   The present invention relates to a technique for reducing noise in moving images.

動画像のノイズを低減する方法として、巡回型フィルタや非巡回型フィルタを用いて動画像を時間的に平滑化する方法や、フレーム毎に画像を空間的に平滑化する方法が用いられている。動画像に時間的平滑化処理を施すと、動画像中で動きがある部分については、残像が生じる。そのため、残像の発生を抑制するためには、フレーム毎に画像に空間的平滑化を施すことが好ましい。   As a method for reducing noise in moving images, a method of temporally smoothing a moving image using a recursive filter or a non-recursive filter, or a method of spatially smoothing an image for each frame is used. . When temporal smoothing processing is performed on a moving image, an afterimage occurs in a portion where there is motion in the moving image. Therefore, in order to suppress the occurrence of afterimages, it is preferable to apply spatial smoothing to the image for each frame.

特開平6−169920号公報JP-A-6-169920 特開平9−322020号公報JP-A-9-322020

しかしながら、通常、空間的平滑化を施した画像にはぼけが生じる。そのため、空間的平滑化によるノイズ低減処理を行った場合には、ぼけの発生により、ノイズ低減後の動画像の画質が低下するおそれがある。   However, blurring usually occurs in an image subjected to spatial smoothing. Therefore, when noise reduction processing by spatial smoothing is performed, the image quality of a moving image after noise reduction may be reduced due to the occurrence of blurring.

本発明は、上述した従来の課題を解決するためになされたものであり、動画像のノイズ低減処理において空間的な平滑化にともなう画質の低下を抑制する技術を提供することを目的とする。   The present invention has been made in order to solve the above-described conventional problems, and an object of the present invention is to provide a technique for suppressing a decrease in image quality due to spatial smoothing in a noise reduction process for moving images.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]
動画像のノイズを低減するノイズ低減装置であって、前記動画像中で動きのある動領域と、前記動領域以外の静領域と、を検出する動き検出部と、前記動画像を構成する入力フレーム画像に空間的平滑化処理を施して空間平滑フレーム画像を生成する空間平滑化処理部と、を備え、前記空間平滑化処理部は、前記入力フレーム画像を構成する画素毎に前記空間的平滑化処理の度合を設定可能に構成されており、前記静領域に属する画素における前記空間的平滑化処理の度合は、前記動領域に属する画素における前記空間的平滑化処理の度合よりも高くなるように設定されている、ノイズ低減装置。
[Application Example 1]
A noise reduction device for reducing noise of a moving image, wherein a motion detection unit detects a moving region having motion in the moving image and a static region other than the moving region, and an input constituting the moving image A spatial smoothing processing unit that performs a spatial smoothing process on the frame image to generate a spatial smoothed frame image, and the spatial smoothing processing unit performs the spatial smoothing for each pixel constituting the input frame image. The degree of the spatial smoothing process in the pixels belonging to the static area is higher than the degree of the spatial smoothing process in the pixels belonging to the moving area. Noise reduction device set to

この適用例によれば、入力フレーム画像に空間的平滑化処理を施す空間平滑化処理部は、入力フレーム画像を構成する画素毎に空間的平滑化処理の度合を設定可能に構成されている。そして、静領域画素における空間的平滑化処理の度合は、動領域画素における空間的平滑化処理の度合よりも高くなるように設定される。そのため、ノイズの影響が小さい動領域については平滑化処理によるぼけの影響をより抑制することができ、ノイズの影響が大きい静領域についてはノイズをより良好に低減することができる。そのため、ぼけによる画質の低下を抑制するともに、ノイズの影響を良好に低減できるので、動画像全体の画質をより良好なものにすることができる。   According to this application example, the spatial smoothing processing unit that performs spatial smoothing processing on the input frame image is configured to be able to set the degree of spatial smoothing processing for each pixel constituting the input frame image. Then, the degree of the spatial smoothing process in the static area pixel is set to be higher than the degree of the spatial smoothing process in the moving area pixel. For this reason, it is possible to further suppress the blur effect due to the smoothing process for the moving area where the influence of noise is small, and to further reduce the noise for the static area where the influence of noise is large. Therefore, it is possible to suppress the deterioration of the image quality due to the blur and to reduce the influence of noise satisfactorily, so that the quality of the entire moving image can be improved.

[適用例2]
適用例1記載のノイズ低減装置であって、前記空間平滑化処理部は、前記入力フレーム画像の空間平滑化処理を実行する空間平滑化フィルタと、前記空間平滑化フィルタを通過した平滑フレーム画像と、前記空間平滑化フィルタを通過しない非平滑フレーム画像と、を混合する混合処理部と、を備え、前記混合処理部は、画素毎に前記平滑フレーム画像と前記非平滑フレーム画像との混合比率を設定可能に構成されている、ノイズ低減装置。
[Application Example 2]
The noise reduction device according to Application Example 1, wherein the spatial smoothing processing unit includes a spatial smoothing filter that performs a spatial smoothing process on the input frame image, and a smooth frame image that has passed through the spatial smoothing filter. A non-smooth frame image that does not pass through the spatial smoothing filter, and a mixing processing unit that mixes the smoothing frame image and the non-smooth frame image for each pixel. A noise reduction device that can be set.

この適用例によれば、空間平滑化の度合は、空間平滑化フィルタを通過した平滑フレーム画像と、空間平滑化フィルタを通過しない非平滑フレーム画像と、の混合比率を設定することにより変更することができる。そのため、空間平滑化の度合の設定がより容易となる。   According to this application example, the degree of spatial smoothing is changed by setting a mixing ratio between a smooth frame image that has passed through the spatial smoothing filter and a non-smooth frame image that has not passed through the spatial smoothing filter. Can do. Therefore, the setting of the degree of spatial smoothing becomes easier.

なお、本発明は、種々の態様で実現することが可能である。例えば、ノイズ低減装置およびノイズ低減方法、そのノイズ低減装置および方法を適用したビデオカメラ、ビデオカメラの制御装置および制御方法、それらのノイズ低減装置および方法、ビデオカメラ、ビデオカメラ制御装置および制御方法、を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の態様で実現することができる。   Note that the present invention can be realized in various modes. For example, noise reduction device and noise reduction method, video camera to which the noise reduction device and method are applied, video camera control device and control method, noise reduction device and method thereof, video camera, video camera control device and control method, Can be realized in the form of a computer program for realizing the above, a recording medium storing the computer program, a data signal including the computer program and embodied in a carrier wave, and the like.

次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
B.第2実施例:
C.第3実施例:
D.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
B. Second embodiment:
C. Third embodiment:
D. Variations:

A.第1実施例:
図1は、本発明の一実施例としてのビデオカメラ10の概略構成を示す概略構成図である。ビデオカメラ10は、撮像レンズ100と、イメージセンサ200と、前処理部300と、ノイズ低減部400と、後処理部500と、ビデオ信号生成部600と、を備えている。
A. First embodiment:
FIG. 1 is a schematic configuration diagram showing a schematic configuration of a video camera 10 as an embodiment of the present invention. The video camera 10 includes an imaging lens 100, an image sensor 200, a pre-processing unit 300, a noise reduction unit 400, a post-processing unit 500, and a video signal generation unit 600.

撮像レンズ100は、被写体からの光をイメージセンサ200の撮像面202に集光することにより、撮像面202に被写体の像を形成する。なお、撮像レンズ100は、通常、複数の単レンズや絞り機構を備えているが、図1では、1枚の単レンズとして描いている。   The imaging lens 100 forms an image of the subject on the imaging surface 202 by condensing light from the subject on the imaging surface 202 of the image sensor 200. Note that the imaging lens 100 normally includes a plurality of single lenses and a diaphragm mechanism, but is illustrated as one single lens in FIG.

イメージセンサ200は、カラーフィルタ210と、撮像面202側に複数のセンサ素子が設けられた撮像素子220とを備えている。カラーフィルタ210には、撮像素子220に設けられた複数のセンサ素子に対応して、RGBの原色フィルタが複数形成されている。カラーフィルタ210が有するRGB各色の原色フィルタは、市松模様状(「Bayer配列」と呼ばれる)に配置されている。撮像面202上に形成された被写体の像は、原色フィルタによりRGBの3色の色光に分解される。そして、分解された色光が、撮像素子220に設けられたセンサ素子に入射する。   The image sensor 200 includes a color filter 210 and an image sensor 220 provided with a plurality of sensor elements on the imaging surface 202 side. In the color filter 210, a plurality of RGB primary color filters are formed corresponding to the plurality of sensor elements provided in the image sensor 220. The RGB primary color filters of the color filter 210 are arranged in a checkered pattern (referred to as a “Bayer array”). The image of the subject formed on the imaging surface 202 is decomposed into three color lights of RGB by the primary color filter. Then, the separated color light is incident on a sensor element provided in the image sensor 220.

撮像素子220の各センサ素子は、そのセンサ素子に入射した光量に応じて、電荷を生成し蓄積する。各センサ素子に蓄積された電荷量を表す電気信号(画像信号)は、図示しない増幅器により増幅される。増幅された画像信号は、A−D変換器(図示しない)によりデジタルデータに変換され、画像データBD1が生成される。ビデオカメラ10においては、1画面(フレーム)分の画像データBD1が周期的に生成される。   Each sensor element of the image sensor 220 generates and accumulates charges according to the amount of light incident on the sensor element. An electrical signal (image signal) representing the amount of charge accumulated in each sensor element is amplified by an amplifier (not shown). The amplified image signal is converted into digital data by an A-D converter (not shown) to generate image data BD1. In the video camera 10, image data BD1 for one screen (frame) is periodically generated.

上述のように、各センサ素子へは、Bayer配列のカラーフィルタ210により分解された色光が入射する。そのため、撮像素子220により生成される画像データBD1は、個々のセンサ素子に対応する画素が、RGBのいずれか1色のみの色成分値を有するデータ(Bayerデータ)となっている。なお、撮像素子220としては、例えば、増幅器とA−D変換器が組み込まれたCMOSイメージセンサや、増幅器とA−D変換器(併せて、「アナログフロントエンド」と呼ばれる)が取り付けられたCCDイメージセンサを使用することができる。   As described above, the color light separated by the Bayer array color filter 210 is incident on each sensor element. Therefore, the image data BD1 generated by the image sensor 220 is data (Bayer data) in which pixels corresponding to individual sensor elements have color component values of only one of RGB. As the image sensor 220, for example, a CMOS image sensor in which an amplifier and an A-D converter are incorporated, or a CCD to which an amplifier and an A-D converter (also referred to as “analog front end”) are attached. An image sensor can be used.

撮像素子220により生成された画像データBD1は、前処理部300に供給される。前処理部300は、撮像素子220から供給された画像データBD1にクランプ処理やホワイトバランス調整処理等の処理を施すことにより、画像データBD2を生成する。前処理部300における処理においては、RGBのそれぞれの色成分値に対して別個に処理が施される。そのため、前処理部300において生成される画像データBD2も、Bayerデータとなっている。   The image data BD1 generated by the image sensor 220 is supplied to the preprocessing unit 300. The pre-processing unit 300 generates image data BD2 by performing processing such as clamping processing and white balance adjustment processing on the image data BD1 supplied from the imaging element 220. In the processing in the preprocessing unit 300, processing is separately performed on each of the RGB color component values. Therefore, the image data BD2 generated by the preprocessing unit 300 is also Bayer data.

前処理部300により生成された画像データBD2は、ノイズ低減部400に供給される。ノイズ低減部400は、前処理部300から供給される画像データBD2にノイズ低減処理を施すことにより、画像データBD3を生成する。ノイズ低減部400においても、RGBのそれぞれの色成分値に対して別個にノイズ低減処理が施される。そのため、ノイズ低減部400により生成される画像データBD3も、Bayerデータとなっている。なお、ノイズ低減部400の具体的な構成および機能については、後述する。   The image data BD2 generated by the preprocessing unit 300 is supplied to the noise reduction unit 400. The noise reduction unit 400 generates image data BD3 by performing noise reduction processing on the image data BD2 supplied from the preprocessing unit 300. Also in the noise reduction unit 400, noise reduction processing is separately performed on each of the RGB color component values. Therefore, the image data BD3 generated by the noise reduction unit 400 is also Bayer data. A specific configuration and function of the noise reduction unit 400 will be described later.

ノイズ低減部400により生成された画像データBD3は、後処理部500に供給される。後処理部500は、補間処理を行うための補間処理部510を備えている。補間処理部510は、画像データBD3の各画素に欠落している色成分値を生成する。具体的には、画像データBD3の各画素毎に、その画素に欠落している色成分値を周囲の画素の色成分値から補間・生成する。これにより、補間処理が施された画像データは、各画素がRGBの3色の色成分値を有する画像データとなる。後処理部500は、補間処理が施された画像データに対して、色調整処理(コントラスト調整処理、色補正処理)等の処理を施して画像データIMGを生成する。なお、色調整処理の内容は、本発明に影響しないので、ここではその説明を省略する。   The image data BD3 generated by the noise reduction unit 400 is supplied to the post-processing unit 500. The post-processing unit 500 includes an interpolation processing unit 510 for performing interpolation processing. The interpolation processing unit 510 generates missing color component values for each pixel of the image data BD3. Specifically, for each pixel of the image data BD3, the color component value missing from that pixel is interpolated and generated from the color component values of surrounding pixels. Thereby, the image data subjected to the interpolation processing becomes image data in which each pixel has three color component values of RGB. The post-processing unit 500 performs processing such as color adjustment processing (contrast adjustment processing and color correction processing) on the image data on which the interpolation processing has been performed to generate image data IMG. Note that the content of the color adjustment processing does not affect the present invention, and therefore the description thereof is omitted here.

後処理部500により生成された画像データIMGは、ビデオ信号生成部600に供給される。ビデオ信号生成部600は、後処理部500から供給される画像データIMGから、モニタ装置が受け取り可能な所定の形式のビデオ信号VSGを生成する。生成されたビデオ信号VSGがビデオカメラ10に接続されたモニタ装置に供給されることにより、モニタ装置には被写体の画像が表示される。   The image data IMG generated by the post-processing unit 500 is supplied to the video signal generation unit 600. The video signal generation unit 600 generates a video signal VSG of a predetermined format that can be received by the monitor device from the image data IMG supplied from the post-processing unit 500. When the generated video signal VSG is supplied to a monitor device connected to the video camera 10, an image of the subject is displayed on the monitor device.

図2は、第1実施例におけるノイズ低減部400の機能的な構成を示すブロック図である。ノイズ低減部400は、フレーム蓄積部410と、画像混合部420と、空間平滑化フィルタ430と、を備えている。   FIG. 2 is a block diagram illustrating a functional configuration of the noise reduction unit 400 in the first embodiment. The noise reduction unit 400 includes a frame accumulation unit 410, an image mixing unit 420, and a spatial smoothing filter 430.

フレーム蓄積部410は、動き検出部412と、フレームメモリ414とを有している。フレームメモリ414は、画像データBD2の1フレーム分の画像(フレーム画像)をそれぞれ格納する2つの格納エリアを有している。ノイズ低減部400に入力されるフレーム画像F1は、フレーム毎に、フレームメモリ414の2つの格納エリアに交互に書き込まれる。そして、フレームメモリ414に格納された直前のフレーム画像F0は、2つの格納エリアのうちフレーム画像F1が書き込みが行われていない格納エリアから読み出される。   The frame storage unit 410 includes a motion detection unit 412 and a frame memory 414. The frame memory 414 has two storage areas each storing an image (frame image) for one frame of the image data BD2. The frame image F1 input to the noise reduction unit 400 is alternately written into two storage areas of the frame memory 414 for each frame. The immediately previous frame image F0 stored in the frame memory 414 is read from the storage area in which the frame image F1 is not written out of the two storage areas.

なお、フレームメモリ414にフレーム画像を格納する2つの格納エリアを設け、読み出しと書き込みとを互いに異なるエリアに対して交互に行うことにより、ノイズ低減部400が生成する画像データBD3の1秒あたりのフレーム数(フレームレート)を、ノイズ低減部400に供給される画像データBD2のフレームレートと異なるものとすることができる。フレームレートを変換する必要がない場合は、フレームメモリ414は、1つのフレーム画像を格納できればよい。   Note that two storage areas for storing frame images are provided in the frame memory 414, and reading and writing are alternately performed on different areas, so that the image data BD3 generated by the noise reduction unit 400 can be generated per second. The number of frames (frame rate) can be different from the frame rate of the image data BD2 supplied to the noise reduction unit 400. When it is not necessary to convert the frame rate, the frame memory 414 only needs to store one frame image.

動き検出部412は、画像データBD2の各画素について、被写体中で動きがある部分に相当する画像領域(動領域)の画素であるか、被写体中で動きがない部分に相当する画像領域(静領域)の画素であるかを判断する。そして、各画素が、動領域に属する画素(動領域画素)と、静領域に属する画素(静領域画素)とのいずれであるかの判断結果を表す動き検出結果MDを画像混合部420に供給する。   For each pixel of the image data BD2, the motion detection unit 412 is a pixel in an image region (moving region) corresponding to a portion where there is motion in the subject, or an image region (static) corresponding to a portion where there is no motion in the subject. It is determined whether the pixel is in the area. Then, a motion detection result MD representing a determination result as to whether each pixel is a pixel belonging to the moving region (moving region pixel) or a pixel belonging to the static region (static region pixel) is supplied to the image mixing unit 420. To do.

具体的には、動き検出部412は、判定対象となる画素(対象画素)について、フレームメモリ414に書き込まれるフレーム画像F1での色成分値(以下、「画素値」とも呼ぶ)と、フレームメモリ414から読み出されるフレーム画像F0での色成分値の差分Δを算出する。差分Δは、例えば、2つのフレーム画像F1,F0のそれぞれの対象画素の画素値p1,p0を用いて、以下の式(1)で算出することができる。   Specifically, the motion detection unit 412 determines the color component value (hereinafter also referred to as “pixel value”) in the frame image F1 written in the frame memory 414 for the pixel to be determined (target pixel) and the frame memory. A difference Δ between the color component values in the frame image F0 read from 414 is calculated. The difference Δ can be calculated by, for example, the following equation (1) using the pixel values p1 and p0 of the target pixels of the two frame images F1 and F0.

Δ=|p1−p0| …(1) Δ = | p1-p0 | (1)

ここで、式(1)の右辺は、フレーム画像F1の画素値p1から、フレーム画像F0の画素値p0を引いた差の絶対値を表している。   Here, the right side of Equation (1) represents the absolute value of the difference obtained by subtracting the pixel value p0 of the frame image F0 from the pixel value p1 of the frame image F1.

動領域画素の画素値は、通常、被写体中での動きに伴って時間とともに変動するので、2つのフレーム画像F1,F0間の画素値の差分Δは大きくなる。これに対し、静領域画素の画素値は、通常、時間的変動が小さいため、2つのフレーム画像F1,F0間の画素値の差分Δは小さくなる。そこで、動き検出部412は、上記の式(1)で算出した差分Δと予め設定された閾値Δcと比較し、差分Δが閾値Δcよりも大きい(Δ>Δc)場合、対象画素が動領域画素であると判断する。一方、差分Δが閾値Δc以下である(Δ≦Δc)場合、対象画素が静領域画素であると判断する。なお、閾値Δcは、動領域画素の画素値の変動幅と、静領域画素の画素値の変動幅と、を実験的に求め、得られた変動幅に基づいて決定することができる。例えば、画素値が8ビットの数値(0〜255)で表される場合には、閾値Δcは150に設定される。   Since the pixel value of the moving region pixel usually varies with time in accordance with the movement in the subject, the difference Δ between the pixel values between the two frame images F1 and F0 increases. On the other hand, since the pixel value of the static region pixel usually has a small temporal variation, the difference Δ between the pixel values between the two frame images F1 and F0 is small. Therefore, the motion detection unit 412 compares the difference Δ calculated by the above equation (1) with a preset threshold value Δc, and when the difference Δ is larger than the threshold value Δc (Δ> Δc), the target pixel is a moving region. Judged to be a pixel. On the other hand, when the difference Δ is equal to or less than the threshold value Δc (Δ ≦ Δc), it is determined that the target pixel is a static region pixel. Note that the threshold value Δc can be determined based on the obtained fluctuation width by experimentally obtaining the fluctuation width of the pixel value of the moving area pixel and the fluctuation width of the pixel value of the static area pixel. For example, when the pixel value is represented by an 8-bit numerical value (0 to 255), the threshold value Δc is set to 150.

フレームメモリ414から読み出されたフレーム画像F0は、直接、あるいは、空間平滑化フィルタ430を介して、画像混合部420に供給される。空間平滑化フィルタ430は、フレーム画像F0に空間平滑化処理を施して、フレーム画像F0’を生成する。フレーム画像F0の平滑化は、例えば、フレーム画像F0にガウシアンフィルタやメディアンフィルタ等の空間平滑化フィルタをかけることにより行うことができる。平滑化を施すことにより、空間周波数におけるフレーム画像F0の高周波成分が低減され、平滑化されたフレーム画像F0’の空間周波数成分は低周波成分が相対的に高くなる。そのため、空間平滑化フィルタ430は、「空間ローパスフィルタ(空間LPF)」とも呼ばれる。   The frame image F0 read from the frame memory 414 is supplied to the image mixing unit 420 directly or via the spatial smoothing filter 430. The spatial smoothing filter 430 performs a spatial smoothing process on the frame image F0 to generate a frame image F0 '. The smoothing of the frame image F0 can be performed, for example, by applying a spatial smoothing filter such as a Gaussian filter or a median filter to the frame image F0. By performing smoothing, the high frequency component of the frame image F0 at the spatial frequency is reduced, and the low frequency component of the spatial frequency component of the smoothed frame image F0 'is relatively high. Therefore, the spatial smoothing filter 430 is also called a “spatial low-pass filter (spatial LPF)”.

画像混合部420は、混合比率決定部422と、混合処理部424と、を備えている。混合比率決定部422は、動き検出部412から供給される動き検出結果MDに基づいて、混合処理部424において混合される2つの画像の混合比率A(0≦A≦1)を決定する。なお、動き検出結果MDに基づく混合比率Aの決定方法については、後述する。   The image mixing unit 420 includes a mixing ratio determination unit 422 and a mixing processing unit 424. The mixing ratio determining unit 422 determines the mixing ratio A (0 ≦ A ≦ 1) of the two images mixed in the mixing processing unit 424 based on the motion detection result MD supplied from the motion detecting unit 412. A method for determining the mixing ratio A based on the motion detection result MD will be described later.

混合処理部424は、フレームメモリ414から直接供給されるフレーム画像F0と、空間平滑化フィルタ430により平滑化されたフレーム画像F0’と、を混合比率決定部422で決定された混合比率Aに基づいて画素毎に混合する。具体的には、2つのフレーム画像F0,F0’の画素値p,p’から、出力する画像データBD3の画素値qを次の式(2)に基づいて算出する。   Based on the mixing ratio A determined by the mixing ratio determination section 422, the mixing processing section 424 uses the frame image F0 directly supplied from the frame memory 414 and the frame image F0 ′ smoothed by the spatial smoothing filter 430. To mix each pixel. Specifically, the pixel value q of the output image data BD3 is calculated from the pixel values p and p 'of the two frame images F0 and F0' based on the following equation (2).

q=A×p+(1−A)×p’ …(2) q = A * p + (1-A) * p '(2)

上記の式(2)から明らかなように、混合比率Aが0に近づくに従って、画像データBD3の画素値qのうち、平滑化されたフレーム画像F0’の画素値p’が占める割合が大きくなる。一方、混合比率Aが1に近づくに従って、画像データBD3の画素値qのうち、平滑化されていないフレーム画像F0の画素値pが占める割合が大きくなる。このように、混合比率Aを変化させることにより、出力される画像データBD3における平滑化の度合を変化させることができる。   As apparent from the above equation (2), as the mixing ratio A approaches 0, the proportion of the pixel value p ′ of the smoothed frame image F0 ′ in the pixel value q of the image data BD3 increases. . On the other hand, as the mixing ratio A approaches 1, the ratio of the pixel value p of the unsmoothed frame image F0 in the pixel value q of the image data BD3 increases. Thus, by changing the mixing ratio A, the degree of smoothing in the output image data BD3 can be changed.

混合比率決定部422は、動き検出部412から供給される動き検出結果MDに基づいて、動領域画素については平滑化の度合いを下げ、静領域画素については平滑化の度合を高めるように、混合比率Aを決定する。混合比率決定部422は、例えば、以下のように混合比率Aを決定する。
(a)動領域画素については、混合比率A=27/32(約0.84)
(b)静領域画素については、混合比率A=16/32(0.5)
Based on the motion detection result MD supplied from the motion detection unit 412, the mixing ratio determination unit 422 performs mixing so as to reduce the degree of smoothing for moving region pixels and increase the degree of smoothing for static region pixels. The ratio A is determined. For example, the mixing ratio determination unit 422 determines the mixing ratio A as follows.
(A) For moving area pixels, the mixing ratio A = 27/32 (about 0.84)
(B) For static area pixels, the mixing ratio A = 16/32 (0.5)

このように、混合比率決定部422は、動領域画素に対しては、混合比率Aを大きな値に設定する。一方、静領域画素に対しては、混合比率Aを小さい値に設定する。そのため、ノイズ低減部400が出力する画像データBD3のうち、動領域では空間平滑化の度合いが低くなり、静領域では空間平滑化の度合が高くなる。以上の説明から明らかなように、空間平滑化フィルタ430と画像混合部420とにより構成される空間平滑化処理部は、画素毎に空間平滑化の度合を設定することができる。   Thus, the mixture ratio determination unit 422 sets the mixture ratio A to a large value for the moving region pixels. On the other hand, the mixing ratio A is set to a small value for the static region pixels. Therefore, in the image data BD3 output from the noise reduction unit 400, the degree of spatial smoothing is low in the moving area, and the degree of spatial smoothing is high in the static area. As is clear from the above description, the spatial smoothing processing unit configured by the spatial smoothing filter 430 and the image mixing unit 420 can set the degree of spatial smoothing for each pixel.

一般に、空間平滑化を行うことにより、被写体の画像にはぼけが生じる。そのため、画質に対するノイズの影響が少ない場合には、空間平滑化の度合を少なくすることが好ましい。通常、被写体中で動きがある部分の画像は、ノイズが目立ちにくい。そのため、動領域に対して空間平滑化の度合を低くすることにより、ぼけによる動領域の画質が低下することを抑制することができる。これに対し、被写体中で動きのない部分の画像は、ノイズが目立ちやすい。そのため、静領域に対して空間平滑化の度合いを高くすることにより、ノイズによる静領域の画質の低下を抑制することができる。   Generally, blurring occurs in an image of a subject by performing spatial smoothing. Therefore, when the influence of noise on the image quality is small, it is preferable to reduce the degree of spatial smoothing. Usually, noise is not noticeable in an image of a moving part in a subject. For this reason, by reducing the degree of spatial smoothing with respect to the moving area, it is possible to suppress deterioration in the image quality of the moving area due to blurring. On the other hand, noise is conspicuous in an image of a portion that does not move in the subject. Therefore, by increasing the degree of spatial smoothing with respect to the static area, it is possible to suppress the deterioration of the image quality of the static area due to noise.

このように、第1実施例によれば、ノイズが目立ちにくい動領域に対しては空間平滑化の度合を低くして、動領域の画像のぼけが抑制される。一方、ノイズが目立ちやすい静領域に対しては空間平滑化の度合いを高くすることにより、静領域のノイズをより低減する。これにより、画像全体に対するノイズの影響を低減するとともに、動きがある部分のぼけによる画質の低下を抑制することができる。   As described above, according to the first embodiment, the degree of spatial smoothing is reduced for a moving area where noise is not conspicuous, and blurring of the image of the moving area is suppressed. On the other hand, the noise in the static region is further reduced by increasing the degree of spatial smoothing for the static region where noise is conspicuous. As a result, it is possible to reduce the influence of noise on the entire image and to suppress the deterioration of the image quality due to the blurring of the moving part.

なお、第1実施例では、画素毎に空間平滑化の度合を設定するため、画素毎に2つのフレーム画像F0,F0’の混合比率Aを決定しているが、空間平滑化の度合の設定は他の方法により行うこともできる。例えば、動き検出部412からの動き検出結果MDに基づいて、空間平滑化フィルタ430における平滑化パラメータを画素毎に設定することも可能である。この場合、画像混合部420を省略することもできる。但し、空間平滑化フィルタ430の構成がより簡単になる点で、第1実施例のように、空間平滑化が施されていない非平滑フレーム画像F0と、空間平滑化が施された平滑フレーム画像F0’と、の混合比率Aを設定することにより空間平滑化の度合を設定するのが好ましい。   In the first embodiment, in order to set the degree of spatial smoothing for each pixel, the mixing ratio A of the two frame images F0 and F0 ′ is determined for each pixel. However, the degree of spatial smoothing is set. Can also be done by other methods. For example, the smoothing parameter in the spatial smoothing filter 430 can be set for each pixel based on the motion detection result MD from the motion detection unit 412. In this case, the image mixing unit 420 can be omitted. However, since the configuration of the spatial smoothing filter 430 becomes simpler, as in the first embodiment, the non-smooth frame image F0 not subjected to spatial smoothing and the smooth frame image subjected to spatial smoothing. It is preferable to set the degree of spatial smoothing by setting the mixing ratio A with F0 ′.

B.第2実施例:
図3は、第2実施例におけるノイズ低減部400aの機能的な構成を示すブロック図である。第2実施例は、ノイズ低減部400aの構成が第1実施例のノイズ低減部400(図2)と異なっている点で、第1実施例と異なっている。他の点は、第1実施例と同じである。
B. Second embodiment:
FIG. 3 is a block diagram illustrating a functional configuration of the noise reduction unit 400a according to the second embodiment. The second embodiment is different from the first embodiment in that the configuration of the noise reduction section 400a is different from the noise reduction section 400 (FIG. 2) of the first embodiment. The other points are the same as in the first embodiment.

第2実施例のノイズ低減部400aは、画像重畳部440と、フレーム蓄積部410aと、を備えている。フレーム蓄積部410aは、フレームメモリ414が重畳フレームメモリ416に置き換えられている点で、第1実施例のフレーム蓄積部410(図2)と異なっている。他の点は、第1実施例のフレーム蓄積部410と同じである。   The noise reduction unit 400a according to the second embodiment includes an image superimposing unit 440 and a frame storage unit 410a. The frame storage unit 410a is different from the frame storage unit 410 (FIG. 2) of the first embodiment in that the frame memory 414 is replaced with a superimposed frame memory 416. The other points are the same as the frame storage unit 410 of the first embodiment.

重畳フレームメモリ416は、書き込まれるフレーム画像が画像重畳部440から供給されるフレーム画像G1に変更されている点と、書き込まれるフレーム画像の変更に伴って読み出される直前のフレーム画像G0に変更されている点とで、第1実施例のフレームメモリ414(図2)と異なっている。ただし、重畳フレームメモリ416の構成および動作は、第1実施例のフレームメモリ414と同じであるので、ここではその説明を省略する。   The superimposed frame memory 416 is changed to the point that the frame image to be written is changed to the frame image G1 supplied from the image superimposing unit 440 and the frame image G0 immediately before being read in accordance with the change of the written frame image. This is different from the frame memory 414 (FIG. 2) of the first embodiment. However, since the configuration and operation of the superimposed frame memory 416 are the same as those of the frame memory 414 of the first embodiment, description thereof is omitted here.

画像重畳部440は、重畳比率決定部442と重畳処理部444とを備えている。重畳比率決定部442は、動き検出部412から供給される動き検出結果MDに基づいて、重畳処理部444における処理に使用される重畳比率B(0≦B≦1)を決定する。なお、動き検出結果MDに基づく重畳比率Bの決定方法については、後述する。   The image superimposing unit 440 includes a superimposition ratio determining unit 442 and a superimposition processing unit 444. The superposition ratio determination unit 442 determines a superposition ratio B (0 ≦ B ≦ 1) used for processing in the superposition processing unit 444 based on the motion detection result MD supplied from the motion detection unit 412. A method for determining the superposition ratio B based on the motion detection result MD will be described later.

重畳処理部444は、ノイズ低減部400aに供給されたフレーム画像F1と、重畳フレームメモリ416から読み出されたフレーム画像G0と、を重畳比率決定部442により決定された重畳比率Bに基づいて画素毎に混合して、フレーム画像G1を生成する。具体的には、2つのフレーム画像F1,G0の画素値p,rから、フレーム画像G1の画素値sを次の式(3)に基づいて算出する。   The superimposition processing unit 444 performs pixel processing on the frame image F1 supplied to the noise reduction unit 400a and the frame image G0 read from the superimposition frame memory 416 based on the superposition ratio B determined by the superposition ratio determination unit 442. Each frame is mixed to generate a frame image G1. Specifically, the pixel value s of the frame image G1 is calculated based on the following formula (3) from the pixel values p and r of the two frame images F1 and G0.

s=(1−B)×p+B×r …(3) s = (1−B) × p + B × r (3)

生成されたフレーム画像G1は、重畳フレームメモリ416に供給され、重畳フレームメモリ416に書き込まれる。そして、重畳フレームメモリ416に格納された直前のフレーム画像G0が読み出され、画像重畳部440においてフレーム画像F1と混合される。   The generated frame image G1 is supplied to the superimposed frame memory 416 and written to the superimposed frame memory 416. Then, the immediately preceding frame image G0 stored in the superimposed frame memory 416 is read and mixed with the frame image F1 in the image superimposing unit 440.

図4(a)および図4(b)は、重畳フレームメモリ416に格納されるフレーム画像G0の画素値に対して、ノイズ低減部400aに順次入力されるフレーム画像F1の画素値が反映される割合(フレーム比率)の時間的変化を示す説明図である。図4(a)は、重畳比率Bが16/32(=0.5)の場合におけるフレーム比率の時間変化を示しており、図4(b)は、重畳比率Bが5/32(≒0.16)の場合におけるフレーム比率の時間変化を示している。   4A and 4B, the pixel value of the frame image F1 sequentially input to the noise reduction unit 400a is reflected on the pixel value of the frame image G0 stored in the superimposed frame memory 416. It is explanatory drawing which shows the time change of a ratio (frame ratio). FIG. 4A shows the temporal change of the frame ratio when the superposition ratio B is 16/32 (= 0.5), and FIG. 4B shows the superposition ratio B of 5/32 (≈0). .16) shows the temporal change of the frame ratio.

ビデオカメラ10の起動直後(第1フレーム)では、ノイズ低減部400aに入力されたフレーム画像(#1)がそのまま重畳フレームメモリ416に格納される。そして、次の第2フレームにおいて、第1フレームで入力されたフレーム画像(#1)と第2フレームで入力されたフレーム画像(#2)とが、重畳比率Bに従って混合され、混合された画像が重畳フレームメモリ416に格納される。そのため、図4(a)の例では、2つのフレーム画像(#1,#2)のフレーム比率はいずれも50%となる。一方、図4(b)の例では、第2フレームで入力されたフレーム画像(#2)のフレーム比率が約84%、第1フレームで入力されたフレーム画像のフレーム比率が約16%となり、フレーム画像(#1)の影響が図4(a)の場合と比べて低くなる。   Immediately after the video camera 10 is started (first frame), the frame image (# 1) input to the noise reduction unit 400a is stored in the superimposed frame memory 416 as it is. Then, in the next second frame, the frame image (# 1) input in the first frame and the frame image (# 2) input in the second frame are mixed according to the superposition ratio B, and the mixed image Is stored in the superimposed frame memory 416. Therefore, in the example of FIG. 4A, the frame ratios of the two frame images (# 1, # 2) are both 50%. On the other hand, in the example of FIG. 4B, the frame ratio of the frame image (# 2) input in the second frame is about 84%, the frame ratio of the frame image input in the first frame is about 16%, The influence of the frame image (# 1) is lower than that in the case of FIG.

同様に、次の第3フレームにおいて、図4(a)の例では、2つのフレーム画像(#1,#2)のフレーム比率はいずれも25%となり、第3フレームで入力されたフレーム画像(#3)のフレーム比率が50%となる。これに対して、図4(b)の例では、第1フレームで入力されたフレーム画像(#1)のフレーム比率は約2%にまで低下する。   Similarly, in the next third frame, in the example of FIG. 4A, the frame ratios of the two frame images (# 1, # 2) are both 25%, and the frame image input in the third frame ( The frame ratio of # 3) is 50%. On the other hand, in the example of FIG. 4B, the frame ratio of the frame image (# 1) input in the first frame is reduced to about 2%.

このように、重畳比率Bがより高い図4(a)の例では、先のフレーム画像の画素値がより長い期間反映される。そのため、重畳フレームメモリ416(図3)に格納されたフレーム画像G0は、より長い時間にわたって平均化されるので、ノイズ低減部400aから出力されるフレーム画像G0のノイズの低減の度合いが高くなる。その一方、動領域画素においては、先のフレーム画像の画素値がより長い期間反映されるため、ノイズ低減部400aから出力されるフレーム画像G0の動領域には残像が発生する。これに対し、重畳比率Bがより低い図4(b)の例では、先のフレーム画像の画素値が反映される期間が短くなることにより、フレーム画像G0のノイズの低減度合いが低くなる一方、フレーム画像G0に残像が発生することを抑制することができる。   Thus, in the example of FIG. 4A in which the superposition ratio B is higher, the pixel value of the previous frame image is reflected for a longer period. Therefore, since the frame image G0 stored in the superimposed frame memory 416 (FIG. 3) is averaged over a longer time, the degree of noise reduction of the frame image G0 output from the noise reduction unit 400a increases. On the other hand, in the moving region pixels, since the pixel value of the previous frame image is reflected for a longer period, an afterimage is generated in the moving region of the frame image G0 output from the noise reduction unit 400a. On the other hand, in the example of FIG. 4B in which the superposition ratio B is lower, the period in which the pixel value of the previous frame image is reflected is shortened, so that the degree of noise reduction of the frame image G0 is reduced. It is possible to suppress the occurrence of an afterimage in the frame image G0.

図4(a)および図4(b)から解るように、ノイズ低減部400a(図3)に入力されたフレーム画像F1と、重畳フレームメモリ416に格納された前のフレーム画像G0と、を混合して重畳フレーム画像G1を生成し、生成されたフレーム画像G1を重畳フレームメモリ416に格納する処理によれば、画素値は時間的に平滑化される。このように、時間的平滑化を行うフィルタは、「巡回型フィルタ」あるいは「IIRフィルタ」とも呼ばれる。従って、重畳処理部444と重畳フレームメモリ416とは、併せて巡回型フィルタを構成しているといえる。また、重畳比率Bは、巡回型フィルタにおける時間的平滑化の度合を指定するパラメータともいうことができる。   4A and 4B, the frame image F1 input to the noise reduction unit 400a (FIG. 3) and the previous frame image G0 stored in the superimposed frame memory 416 are mixed. Thus, according to the process of generating the superimposed frame image G1 and storing the generated frame image G1 in the superimposed frame memory 416, the pixel values are temporally smoothed. Thus, a filter that performs temporal smoothing is also called a “cyclic filter” or an “IIR filter”. Therefore, it can be said that the superimposition processing unit 444 and the superimposition frame memory 416 together constitute a recursive filter. The superimposition ratio B can also be referred to as a parameter that specifies the degree of temporal smoothing in the recursive filter.

重畳比率決定部442は、動き検出部412から供給される動き検出結果MDに基づいて、動領域については残像の発生を抑制し、残像が発生しない静領域についてはノイズをより低減するように重畳比率Bを決定する。重畳比率決定部は、例えば、以下のように重畳比率Bを決定する。
(a)動領域画素については、B=5/32(約0.16)
(b)静領域画素については、B=16/32(0.5)
Based on the motion detection result MD supplied from the motion detection unit 412, the superimposition ratio determination unit 442 performs superimposition so as to suppress the occurrence of afterimages for moving regions and to reduce noise for static regions where no afterimages occur. The ratio B is determined. For example, the superimposition ratio determination unit determines the superimposition ratio B as follows.
(A) For moving area pixels, B = 5/32 (about 0.16)
(B) For static region pixels, B = 16/32 (0.5)

このように、重畳比率決定部442は、動領域画素に対しては、重畳比率Bを小さな値に設定する。一方、静領域画素に対しては、重畳比率Bを大きい値に設定する。そのため、ノイズ低減部400aが出力する画像データBD3のうち、動領域では残像の発生が抑制されるとともに、静領域ではノイズが良好に低減される。   As described above, the superimposition ratio determining unit 442 sets the superimposition ratio B to a small value for the moving region pixels. On the other hand, the superposition ratio B is set to a large value for the static region pixels. Therefore, in the image data BD3 output from the noise reduction unit 400a, the occurrence of afterimages is suppressed in the moving area, and the noise is satisfactorily reduced in the static area.

なお、第2実施例は、フレーム画像の時間平滑化によりノイズを低減しているため、空間平滑化処理によるぼけの発生を抑制できる点で、第1実施例よりも好ましい。一方、第1実施例は、フレーム画像の時間平滑化による残像の発生を抑制できる点で第2実施例よりも好ましい。   Note that the second embodiment is more preferable than the first embodiment in that noise is reduced by temporal smoothing of the frame image, and blurring due to the spatial smoothing process can be suppressed. On the other hand, the first embodiment is more preferable than the second embodiment in that the generation of afterimages due to temporal smoothing of the frame image can be suppressed.

C.第3実施例:
図5は、第3実施例におけるノイズ低減部400bの機能的な構成を示すブロック図である。第3実施例は、ノイズ低減部400bの構成が第2実施例のノイズ低減部400a(図3)と異なっている点で、第2実施例と異なっている。他の点は、第2実施例と同じである。
C. Third embodiment:
FIG. 5 is a block diagram illustrating a functional configuration of the noise reduction unit 400b according to the third embodiment. The third embodiment is different from the second embodiment in that the configuration of the noise reduction section 400b is different from the noise reduction section 400a (FIG. 3) of the second embodiment. The other points are the same as in the second embodiment.

第3実施例のノイズ低減部400bは、タイミング調整部450と空間平滑化フィルタ430と画像混合部420bとが付加されている点と、フレーム蓄積部410bに非重畳フレームメモリ418が付加されている点とで、図3に示す第2実施例のノイズ低減部400aと異なっている。他の点は、第2実施例のノイズ低減部400aと同じである。   In the noise reduction unit 400b of the third embodiment, a timing adjustment unit 450, a spatial smoothing filter 430, and an image mixing unit 420b are added, and a non-overlapping frame memory 418 is added to the frame storage unit 410b. This is different from the noise reduction unit 400a of the second embodiment shown in FIG. The other points are the same as the noise reduction unit 400a of the second embodiment.

空間平滑化フィルタ430および画像混合部420bの混合処理部424は、それぞれ、第1実施例のノイズ低減部400に設けられた、空間平滑化フィルタ430および混合処理部424と同じである。画像混合部420bの混合比率決定部422bは、混合比率Aの決定方法(後述する)が異なっている点で、第1実施例の混合比率決定部422と異なっている。   The spatial smoothing filter 430 and the mixing processing unit 424 of the image mixing unit 420b are respectively the same as the spatial smoothing filter 430 and the mixing processing unit 424 provided in the noise reduction unit 400 of the first embodiment. The mixing ratio determining unit 422b of the image mixing unit 420b is different from the mixing ratio determining unit 422 of the first embodiment in that the method of determining the mixing ratio A (described later) is different.

第3実施例のノイズ低減部400bでは、入力されるフレーム画像F1は、画像重畳部440とタイミング調整部450との双方に供給される。画像重畳部440に供給されたフレーム画像F1は、第2実施例と同様に時間平滑化が施されることによりノイズが低減される。そして、重畳フレームメモリ416から出力されるフレーム画像G0は、混合処理部424に直接供給される。   In the noise reduction unit 400b of the third embodiment, the input frame image F1 is supplied to both the image superimposition unit 440 and the timing adjustment unit 450. The frame image F1 supplied to the image superimposing unit 440 is subjected to time smoothing as in the second embodiment, thereby reducing noise. The frame image G0 output from the superimposed frame memory 416 is directly supplied to the mixing processing unit 424.

一方、タイミング調整部450は、フレーム画像F1に、重畳処理部444による2つのフレーム画像F1,G0の混合処理に要する処理時間分の遅延をかけ、遅延されたフレーム画像F1’を生成する。遅延フレーム画像F1’は、非重畳フレームメモリ418に格納される。非重畳フレームメモリ418に格納された前フレーム画像F0は、重畳フレームメモリ416がフレーム画像G0を出力するタイミングに同期して、空間平滑化フィルタ430に供給される。空間平滑化フィルタ430により空間的に平滑化されたフレーム画像F0’は、混合処理部424に供給される。   On the other hand, the timing adjustment unit 450 delays the frame image F1 by a processing time required for the mixing processing of the two frame images F1 and G0 by the superimposition processing unit 444, and generates a delayed frame image F1 '. The delayed frame image F <b> 1 ′ is stored in the non-superimposed frame memory 418. The previous frame image F0 stored in the non-superimposed frame memory 418 is supplied to the spatial smoothing filter 430 in synchronization with the timing at which the superimposed frame memory 416 outputs the frame image G0. The frame image F 0 ′ spatially smoothed by the spatial smoothing filter 430 is supplied to the mixing processing unit 424.

混合処理部424は、重畳フレームメモリ416から供給される時間的に平滑化されたフレーム画像G0と、空間平滑化フィルタにより空間的に平滑化されたフレーム画像F0’とを混合する。   The mixing processing unit 424 mixes the temporally smoothed frame image G0 supplied from the superimposed frame memory 416 and the frame image F0 'spatially smoothed by the spatial smoothing filter.

混合比率決定部422bは、重畳比率Bが低い動領域画素については、空間的に平滑化されたフレーム画像F0’の画素値を、時間的に平滑化されたフレーム画像G0の画素値よりも高い割合で反映するように混合比率Aを決定する。一方、重畳比率が低い静領域画素については、時間的に平滑化されたフレーム画像G0の画素値を、空間的に平滑化されたフレーム画像F0’の画素値よりも高い割合で反映するように混合比率Aを決定する。混合比率決定部422bは、具体的には、以下のように混合比率Aを決定する。
(a)動領域画素については、混合比率A=16/32(0.5)
(b)静領域画素については、混合比率A=27/32(約0.84)
The mixing ratio determining unit 422b, for a moving region pixel having a low superposition ratio B, has a higher pixel value of the spatially smoothed frame image F0 ′ than a pixel value of the temporally smoothed frame image G0. The mixing ratio A is determined so as to reflect the ratio. On the other hand, for the static region pixels having a low superposition ratio, the pixel value of the temporally smoothed frame image G0 is reflected at a higher ratio than the pixel value of the spatially smoothed frame image F0 ′. The mixing ratio A is determined. Specifically, the mixing ratio determination unit 422b determines the mixing ratio A as follows.
(A) For moving area pixels, the mixing ratio A = 16/32 (0.5)
(B) For static area pixels, the mixing ratio A = 27/32 (about 0.84)

このように、動領域画素に対して、重畳比率Bがより小さな値に設定されることにより、ノイズ低減部400bが出力する画像データBD3の動領域では残像の発生が抑制される。また、動領域画素に対して、混合比率Aがより小さな値に設定されることにより、空間的に平滑化されたフレーム画像F0’の画素値がより強く反映されるので、動領域画素のノイズが空間平滑化により低減される。   As described above, by setting the superposition ratio B to a smaller value for the moving area pixels, the occurrence of afterimages is suppressed in the moving area of the image data BD3 output by the noise reduction unit 400b. Moreover, since the pixel value of the spatially smoothed frame image F0 ′ is more strongly reflected by setting the mixing ratio A to a smaller value for the moving region pixels, the noise of the moving region pixels Is reduced by spatial smoothing.

一方、静領域画素に対しては、混合比率Aがより大きな値に設定されることにより、ノイズ低減部400bが出力する画像データBD3の静領域では、時間的に平滑化されたフレーム画像G0の画素値がより強く反映される。そのため、静領域においては、空間平滑化の度合いが低減するので、静領域の画像のぼけが抑制される。そして、静領域画素に対して、重畳比率Bがより大きな値に設定されることにより、残像の問題が少ない静領域のノイズは時間的平滑化により良好に低減される。   On the other hand, for the static region pixels, the mixing ratio A is set to a larger value, so that the temporally smoothed frame image G0 is displayed in the static region of the image data BD3 output by the noise reduction unit 400b. Pixel values are reflected more strongly. Therefore, since the degree of spatial smoothing is reduced in the static area, blurring of the image in the static area is suppressed. Then, by setting the superposition ratio B to a larger value with respect to the static region pixels, noise in the static region with less afterimage problems can be satisfactorily reduced by temporal smoothing.

このように、第3実施例によれば、動領域画素に対して混合比率Aと重畳比率Bとをいずれもより小さな値に設定することにより、残像の発生を抑制するとともにノイズが良好に低減される。一方、静領域画素に対して、混合比率Aと重畳比率Bとをいずれもより大きな値に設定する、空間平滑化に伴うぼけの発生を抑制することができる。そのため、第3実施例によれば、残像の発生を抑制するとともに、画像全体のノイズを低減することができる。   As described above, according to the third embodiment, by setting both the mixing ratio A and the superposition ratio B to smaller values for the moving region pixels, it is possible to suppress the occurrence of afterimages and reduce the noise satisfactorily. Is done. On the other hand, it is possible to suppress the occurrence of blur due to spatial smoothing, in which both the mixing ratio A and the superposition ratio B are set to larger values for the static region pixels. Therefore, according to the third embodiment, it is possible to suppress the generation of afterimages and reduce the noise of the entire image.

なお、第3実施例では、重畳比率決定部442が、動き検出部412から供給される動き検出結果MDに基づいて重畳比率Bを決定しているが、重畳比率決定部442を省略することも可能である。このようにしても、混合処理部424における混合比率Aをより小さい値に設定して、空間平滑化されたフレーム画像F0’の画素値をより強く反映させることにより、残像の発生を抑制することができる。但し、重畳比率Bを低減することによりより残像の発生をより良好に抑制することができる点で、重畳比率Bを動き検出結果MDに基づいて決定するのがより好ましい。   In the third embodiment, the superimposition ratio determination unit 442 determines the superposition ratio B based on the motion detection result MD supplied from the motion detection unit 412, but the superposition ratio determination unit 442 may be omitted. Is possible. Even in this case, by setting the mixing ratio A in the mixing processing unit 424 to a smaller value and more strongly reflecting the pixel value of the spatially smoothed frame image F0 ′, the occurrence of afterimages can be suppressed. Can do. However, it is more preferable to determine the superimposition ratio B based on the motion detection result MD in that the generation of afterimages can be more effectively suppressed by reducing the superposition ratio B.

第3実施例は、ノイズ低減部400bにおいて、静領域と動領域とのいずれの領域におけるノイズも低減することで、画像全体のノイズが低減できるる点で、第1および第2実施例よりも好ましい。一方、第1および第2実施例は、ノイズ低減部400(図2),400a(図3)の構成がより簡単となる点で、第3実施例よりも好ましい。   The third embodiment is less than the first and second embodiments in that the noise reduction unit 400b can reduce the noise of the entire image by reducing the noise in either the static region or the moving region. preferable. On the other hand, the first and second embodiments are preferable to the third embodiment in that the configuration of the noise reduction units 400 (FIG. 2) and 400a (FIG. 3) is simpler.

D.変形例:
なお、この発明は上記実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
D. Variations:
In addition, this invention is not restricted to the said Example and embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

D1.変形例1:
上記各実施例では、ノイズ低減部400(図1)は、補間処理部510を有する後処理部500の前に配置され、ノイズ低減処理は補間処理前のBayerデータに対して施されるが、ノイズ低減処理を補間処理後のデータに対して施すものとしてもよい。但し、RGBのいずれか1色の色成分値毎にノイズ低減処理を施すことによりノイズ低減処理に要する演算処理量を低減することができる点で、ノイズ低減処理をBayerデータに対して施すことがより好ましい。
D1. Modification 1:
In each of the above embodiments, the noise reduction unit 400 (FIG. 1) is arranged before the post-processing unit 500 having the interpolation processing unit 510, and the noise reduction processing is performed on the Bayer data before the interpolation processing. Noise reduction processing may be performed on the data after interpolation processing. However, the noise reduction processing can be performed on the Bayer data in that the amount of calculation processing required for the noise reduction processing can be reduced by performing the noise reduction processing for each color component value of any one of RGB. More preferred.

D2.変形例2:
上記第2ないし第3実施例では、時間的な平滑化処理は巡回型フィルタによって行われているが、一般に、複数のフレーム画像を用いて時間的に平滑化されたフレーム画像が生成可能であれば、任意の時間的平滑化処理方法を用いることができる。時間的な平滑化処理は、例えば、非巡回型フィルタを用いて行うことも可能である。但し、フレーム画像を格納するフレームメモリの容量をより低減することができる点で、巡回型フィルタを用いて時間的平滑化処理を行うのが好ましい。
D2. Modification 2:
In the second to third embodiments, the temporal smoothing process is performed by a recursive filter. In general, a temporally smoothed frame image can be generated using a plurality of frame images. For example, an arbitrary temporal smoothing method can be used. The temporal smoothing process can also be performed using, for example, an acyclic filter. However, it is preferable to perform the temporal smoothing process using a cyclic filter in that the capacity of the frame memory for storing the frame image can be further reduced.

D3.変形例3:
上記各実施例では、動き検出部は、フレームメモリに格納されたフレーム画像の画素値と、フレームメモリに入力されるフレーム画像の画素値との差分に基づいて、各画素が動領域と静領域とのいずれに属するかを決定しているが、他の方法により各画素が動領域と静領域とのいずれに属するかを決定することも可能である。例えば、フレーム画像を複数のブロックに分割し、ブロック毎にその変化を検出することも可能である。また、複数のフレーム画像から移動体の位置と動きベクトルを検出し、移動体の位置と動きベクトルとに基づいて各画素が動領域と静領域とのいずれに属するかを決定することも可能である。
D3. Modification 3:
In each of the above embodiments, the motion detection unit is configured so that each pixel is a moving region and a static region based on the difference between the pixel value of the frame image stored in the frame memory and the pixel value of the frame image input to the frame memory. However, it is also possible to determine whether each pixel belongs to a moving area or a static area by another method. For example, it is possible to divide a frame image into a plurality of blocks and detect the change for each block. It is also possible to detect the position and motion vector of a moving object from a plurality of frame images and determine whether each pixel belongs to a moving area or a static area based on the position and motion vector of the moving object. is there.

D4.変形例4:
上記各実施例では、本発明をビデオカメラに適用しているが、本発明は動画像の入出力を行う装置であれば任意の装置に適用することができる。本発明は、例えば、ビデオレコーダやビデオディスク等の動画記録装置および動画再生装置、テレビやプロジェクタ等の動画表示装置に適用することも可能である。
D4. Modification 4:
In each of the above embodiments, the present invention is applied to a video camera. However, the present invention can be applied to any apparatus as long as it is an apparatus that inputs and outputs moving images. The present invention can also be applied to, for example, a moving picture recording apparatus and a moving picture reproducing apparatus such as a video recorder and a video disc, and a moving picture display apparatus such as a television and a projector.

本発明の一実施例としてのビデオカメラ10の概略構成を示す概略構成図。1 is a schematic configuration diagram showing a schematic configuration of a video camera 10 as one embodiment of the present invention. 第1実施例におけるノイズ低減部400の機能的な構成を示すブロック図。The block diagram which shows the functional structure of the noise reduction part 400 in 1st Example. 第2実施例におけるノイズ低減部400aの機能的な構成を示すブロック図。The block diagram which shows the functional structure of the noise reduction part 400a in 2nd Example. フレーム比率の時間的変化を示す説明図。Explanatory drawing which shows the time change of a frame ratio. 第3実施例におけるノイズ低減部400bの機能的な構成を示すブロック図。The block diagram which shows the functional structure of the noise reduction part 400b in 3rd Example.

符号の説明Explanation of symbols

10…ビデオカメラ
100…撮像レンズ
200…イメージセンサ
202…撮像面
210…カラーフィルタ
220…撮像素子
300…前処理部
400,400a,400b…ノイズ低減部
410,410a,410b…フレーム蓄積部
412…動き検出部
414…フレームメモリ
416…重畳フレームメモリ
418…非重畳フレームメモリ
420,420b…画像混合部
422,422b…混合比率決定部
424…混合処理部
430…空間平滑化フィルタ
440…画像重畳部
442…重畳比率決定部
444…重畳処理部
450…タイミング調整部
500…後処理部
510…補間処理部
600…ビデオ信号生成部
DESCRIPTION OF SYMBOLS 10 ... Video camera 100 ... Imaging lens 200 ... Image sensor 202 ... Imaging surface 210 ... Color filter 220 ... Imaging element 300 ... Pre-processing part 400, 400a, 400b ... Noise reduction part 410, 410a, 410b ... Frame storage part 412 ... Motion Detection unit 414 ... Frame memory 416 ... Superimposition frame memory 418 ... Non-superimposition frame memory 420, 420b ... Image mixing unit 422, 422b ... Mixing ratio determination unit 424 ... Mixing processing unit 430 ... Spatial smoothing filter 440 ... Image superposition unit 442 ... Superimposition ratio determination unit 444 ... Superimposition processing unit 450 ... Timing adjustment unit 500 ... Post-processing unit 510 ... Interpolation processing unit 600 ... Video signal generation unit

Claims (3)

動画像のノイズを低減するノイズ低減装置であって、
前記動画像中で動きのある動領域と、前記動領域以外の静領域と、を検出する動き検出部と、
前記動画像を構成する入力フレーム画像に空間的平滑化処理を施して空間平滑フレーム画像を生成する空間平滑化処理部と、
を備え、
前記空間平滑化処理部は、前記入力フレーム画像を構成する画素毎に前記空間的平滑化処理の度合を設定可能に構成されており、
前記静領域に属する画素における前記空間的平滑化処理の度合は、前記動領域に属する画素における前記空間的平滑化処理の度合よりも高くなるように設定されている、
ノイズ低減装置。
A noise reduction device that reduces noise in a moving image,
A motion detection unit that detects a moving region having movement in the moving image and a static region other than the moving region;
A spatial smoothing processing unit that generates a spatially smoothed frame image by applying a spatial smoothing process to an input frame image constituting the moving image;
With
The spatial smoothing processing unit is configured to be able to set the degree of the spatial smoothing process for each pixel constituting the input frame image,
The degree of the spatial smoothing process in the pixels belonging to the static area is set to be higher than the degree of the spatial smoothing process in the pixels belonging to the moving area.
Noise reduction device.
請求項1記載のノイズ低減装置であって、
前記空間平滑化処理部は、
前記入力フレーム画像の空間平滑化処理を実行する空間平滑化フィルタと、
前記空間平滑化フィルタを通過した平滑フレーム画像と、前記空間平滑化フィルタを通過しない非平滑フレーム画像と、を混合する混合処理部と、
を備え、
前記混合処理部は、画素毎に前記平滑フレーム画像と前記非平滑フレーム画像との混合比率を設定可能に構成されている、
ノイズ低減装置。
The noise reduction device according to claim 1,
The spatial smoothing processing unit
A spatial smoothing filter that performs a spatial smoothing process on the input frame image;
A mixing processing unit that mixes a smooth frame image that has passed through the spatial smoothing filter and a non-smooth frame image that has not passed through the spatial smoothing filter;
With
The mixing processing unit is configured to be able to set a mixing ratio of the smooth frame image and the non-smooth frame image for each pixel.
Noise reduction device.
動画像のノイズを低減するノイズ低減方法であって、
(a)前記動画像中で動きのある動領域と、前記動領域以外の静領域と、を検出する工程と、
(b)前記入力フレーム画像を構成する画素毎に設定された空間的平滑化処理の度合に応じて、前記入力フレーム画像に空間的平滑化処理を施して空間平滑フレーム画像を生成する工程と、
(c)前記静領域に属する画素における前記空間的平滑化処理の度合を、前記動領域に属する画素における前記空間的平滑化処理の度合よりも高くなるように設定する工程と、
を備える、
ノイズ低減方法。
A noise reduction method for reducing noise in a moving image,
(A) detecting a moving area having movement in the moving image and a static area other than the moving area;
(B) generating a spatially smoothed frame image by applying a spatial smoothing process to the input frame image according to the degree of the spatial smoothing process set for each pixel constituting the input frame image;
(C) setting the degree of the spatial smoothing process in the pixels belonging to the static area to be higher than the degree of the spatial smoothing process in the pixels belonging to the moving area;
Comprising
Noise reduction method.
JP2007190863A 2007-07-23 2007-07-23 Noise reduction device and noise reduction method Expired - Fee Related JP4901625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007190863A JP4901625B2 (en) 2007-07-23 2007-07-23 Noise reduction device and noise reduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007190863A JP4901625B2 (en) 2007-07-23 2007-07-23 Noise reduction device and noise reduction method

Publications (2)

Publication Number Publication Date
JP2009027608A JP2009027608A (en) 2009-02-05
JP4901625B2 true JP4901625B2 (en) 2012-03-21

Family

ID=40398959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007190863A Expired - Fee Related JP4901625B2 (en) 2007-07-23 2007-07-23 Noise reduction device and noise reduction method

Country Status (1)

Country Link
JP (1) JP4901625B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821444B2 (en) * 2011-09-09 2015-11-24 大日本印刷株式会社 Cell image analysis apparatus, cell image analysis method, and cell image analysis program
JP5178898B1 (en) 2011-10-21 2013-04-10 株式会社東芝 Image signal correction device, imaging device, endoscope device
JP6921725B2 (en) * 2017-12-04 2021-08-18 株式会社Screenホールディングス Judgment method and substrate processing equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319129A (en) * 1993-05-07 1994-11-15 Mitsubishi Electric Corp Time space picture filter
JPH07236074A (en) * 1993-09-21 1995-09-05 Mitsubishi Electric Corp Picture noise elimination device
JP3611773B2 (en) * 2000-06-22 2005-01-19 松下電器産業株式会社 Noise reduction apparatus, noise reduction method, and medium recording noise reduction program

Also Published As

Publication number Publication date
JP2009027608A (en) 2009-02-05

Similar Documents

Publication Publication Date Title
JP2009027604A (en) Noise reducer, and noise reducing method
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
US9544505B2 (en) Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof
JP3745067B2 (en) Imaging apparatus and control method thereof
US8525904B2 (en) Image processing device, image processing method, and capturing device
JP4806476B2 (en) Image processing apparatus, image generation system, method, and program
KR101109532B1 (en) Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program
JP2018207413A (en) Imaging apparatus
JP5430379B2 (en) Imaging apparatus, control method thereof, and program
KR100956228B1 (en) Image processing apparatus having function of correctting distortion of image
US8699827B2 (en) Imaging apparatus, signal processing method, and program
JP4901625B2 (en) Noise reduction device and noise reduction method
JP4739998B2 (en) Imaging device
JP2007274504A (en) Digital camera
JP5649927B2 (en) Image processing apparatus, image processing method, and image processing program
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
US11722788B2 (en) Image processing apparatus and method, and image capturing apparatus
JP2956527B2 (en) Video device with image memory function
JP4246244B2 (en) Imaging device
JP5055571B2 (en) Image processing apparatus, electronic camera, and image processing program
JP4478981B2 (en) Color noise reduction method and color imaging apparatus
JP4942596B2 (en) Image processing apparatus, imaging apparatus, and display apparatus
JP2013074335A (en) Image processing apparatus and method, and imaging apparatus
JP4102169B2 (en) Image processing apparatus and image processing method
JP2024049798A (en) Image processing device, image processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111227

R150 Certificate of patent or registration of utility model

Ref document number: 4901625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees