JP2008252767A - Noise reducer, noise reducing method and electronic apparatus - Google Patents

Noise reducer, noise reducing method and electronic apparatus Download PDF

Info

Publication number
JP2008252767A
JP2008252767A JP2007094481A JP2007094481A JP2008252767A JP 2008252767 A JP2008252767 A JP 2008252767A JP 2007094481 A JP2007094481 A JP 2007094481A JP 2007094481 A JP2007094481 A JP 2007094481A JP 2008252767 A JP2008252767 A JP 2008252767A
Authority
JP
Japan
Prior art keywords
color
signal
noise reduction
filter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007094481A
Other languages
Japanese (ja)
Inventor
Satoru Takeuchi
悟 竹内
Kengo Masaoka
賢悟 正岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007094481A priority Critical patent/JP2008252767A/en
Publication of JP2008252767A publication Critical patent/JP2008252767A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a noise reducer which decreases a data amount, simplifies a processing, and can obtain a sufficient noise reduction effect in a pixel having a large motion amount also. <P>SOLUTION: The noise reducer 30 has: a first filter and a color separator 37 which act a spacial lowpass filter in a predetermined band upon an RAW image signal after a three-dimensional noise reduction and color-separation at the same time, and obtain a first after filter signal of each color; a second filter and a color separator 38 which act a spacial lowpass filter in a higher band than the first filter and the color separator 37 upon the RAW image signal after the three-dimensional noise reduction and color-separating at the same time, and obtain a second after filter signal of each color; and a weighting adder 40 which weighting-adds the first after filter signal of each color and the second after filter signal of each color for each color according to a weight coefficient calculated in response to the motion amount in a time base direction of each pixel to obtain an output signal of each color. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複数のフレームによって構成される動画像のノイズを低減するノイズ低減装置及びノイズ低減方法に関するもので、特に、データ量を低減し、処理を簡素化したノイズ低減装置及びノイズ低減方法に関する。また、本発明は、このノイズ低減装置を備えた電子機器に関する。   The present invention relates to a noise reduction device and a noise reduction method for reducing noise of a moving image composed of a plurality of frames, and more particularly to a noise reduction device and a noise reduction method that reduce the amount of data and simplify processing. . The present invention also relates to an electronic apparatus provided with the noise reduction device.

近年、各種デジタル技術の発展に伴い、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子によってデジタル画像を撮影するデジタルカメラやデジタルビデオなどといった撮像装置や、デジタル画像を表示する液晶ディスプレイやプラズマテレビなどといった表示装置が広く普及しつつある。そして、このような撮像装置や表示装置における、複数のフレームによって構成される動画像のノイズを低減するための、各種のノイズ低減技術が提案されている。   In recent years, with the development of various digital technologies, imaging devices such as digital cameras and digital videos that take digital images with solid-state imaging devices such as CCD (Charge Coupled Device) and CMOS (Complimentary Metal Oxide Semiconductor) sensors, and digital images Display devices such as liquid crystal displays and plasma televisions for displaying are becoming widespread. Various noise reduction techniques for reducing noise of moving images composed of a plurality of frames in such an imaging apparatus and display apparatus have been proposed.

このノイズ低減技術の代表的なものとしては、空間的なローパスフィルタ(LPF)を作用させることによってノイズを低減しようとする2次元ノイズ低減処理、及び、時間的に連続する2つのフレームの信号を加算することによって時間的なローパスフィルタ(LPF)を作用させ、ノイズを低減しようとする3次元ノイズ低減処理が挙げられる。   Typical examples of this noise reduction technique include a two-dimensional noise reduction process for reducing noise by applying a spatial low-pass filter (LPF), and signals of two frames that are temporally continuous. There is a three-dimensional noise reduction process in which a temporal low-pass filter (LPF) is acted on by adding to reduce noise.

また、この3次元ノイズ低減処理を利用したノイズ低減方法として、特許文献1には、撮像素子で生成されたRAW画像データに対して、画素補間による色分離前に3次元ノイズ低減処理を行うことで、データ量を低減し、処理を簡素化したノイズ低減方法が記載されている。なお、特許文献1のノイズ低減方法においては、時間的に連続する2つのフレームの差分によって算出された動き量が小さい画素には3次元ノイズ低減処理の影響が大きくなり、動き量が大きい画素には3次元ノイズ低減処理の影響が小さくなるような重み付けがなされる。
特開2005−175864号公報
As a noise reduction method using this three-dimensional noise reduction processing, Patent Document 1 discloses that three-dimensional noise reduction processing is performed on RAW image data generated by an image sensor before color separation by pixel interpolation. Thus, a noise reduction method is described in which the amount of data is reduced and the processing is simplified. Note that in the noise reduction method of Patent Document 1, the influence of the three-dimensional noise reduction process is large on a pixel with a small motion amount calculated by the difference between two temporally continuous frames, and the pixel with a large motion amount is used. Are weighted so as to reduce the influence of the three-dimensional noise reduction process.
JP 2005-175864 A

しかしながら、特許文献1のノイズ低減方法においては、データ量の低減及び処理の簡素化は達成されるものの、ノイズ低減のための処理としては3次元ノイズ低減処理を行っているのみであり、動き量の大きい画素については3次元ノイズ低減処理の影響が小さくなるような重み付けがなされることから、動き量の大きい画素についてはノイズ低減効果が殆ど得られないという問題がある。この問題を解決するためには、画素補間による色分離後に2次元ノイズ低減処理を行えばよいが、この場合には、2次元ノイズ低減処理を行うために、色ごとの信号値を複数ライン分記憶するメモリが必要となり、装置の大型化が問題となる。   However, in the noise reduction method of Patent Document 1, although reduction of data amount and simplification of processing are achieved, only three-dimensional noise reduction processing is performed as processing for noise reduction. Since pixels having a large amount of weight are weighted so as to reduce the influence of the three-dimensional noise reduction process, there is a problem that a noise reduction effect is hardly obtained for pixels having a large amount of motion. In order to solve this problem, two-dimensional noise reduction processing may be performed after color separation by pixel interpolation. In this case, in order to perform two-dimensional noise reduction processing, signal values for each color are divided into a plurality of lines. A memory for storage is required, and the increase in size of the apparatus becomes a problem.

上記の問題を鑑みて、本発明においては、データ量を低減し、処理を簡素化したノイズ低減装置及びノイズ低減方法であって、動き量の大きい画素についても十分なノイズ低減効果が得られるノイズ低減装置及びノイズ低減方法を提供することを目的とする。また、本発明は、このノイズ低減装置を備えた電子機器を提供することを目的とする。   In view of the above problems, the present invention provides a noise reduction apparatus and noise reduction method that reduces the amount of data and simplifies processing, and is a noise that provides a sufficient noise reduction effect even for pixels with a large amount of motion. An object is to provide a reduction device and a noise reduction method. Moreover, an object of this invention is to provide the electronic device provided with this noise reduction apparatus.

本発明においては、ノイズ低減装置は、外部より入力されたRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理部を有するノイズ低減装置であって、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、ノイズ低減処理及び色分離を同時に行い、各色のフィルタ後信号を得る複数のノイズ低減処理及び色分離部と、複数の前記ノイズ低減処理及び色分離部より入力された各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合部と、を有することを特徴とする。   In the present invention, the noise reduction device is a noise reduction device including a three-dimensional noise reduction processing unit that performs a three-dimensional noise reduction process on a RAW image signal input from the outside and obtains a three-dimensional noise-reduced signal. A plurality of noise reduction processing and color separation units that simultaneously perform noise reduction processing and color separation on the three-dimensional noise reduction signal input from the three-dimensional noise reduction processing unit to obtain a filtered signal of each color. And a mixing unit that mixes the post-filter signals of each color input from a plurality of the noise reduction processing and color separation units and obtains an output signal of each color.

本発明においては、ノイズ低減装置は、外部より入力されたRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理部を有するノイズ低減装置であって、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、ローパスフィルタを作用させると同時に色分離を行い、各色のフィルタ後信号を得る複数のフィルタ及び色分離部と、複数の前記フィルタ及び色分離部より入力された各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合部と、を有することを特徴とする。   In the present invention, the noise reduction device is a noise reduction device including a three-dimensional noise reduction processing unit that performs a three-dimensional noise reduction process on a RAW image signal input from the outside and obtains a three-dimensional noise-reduced signal. A plurality of filters and a color separation unit that perform a color separation on the three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit and simultaneously perform color separation to obtain a filtered signal of each color. And a mixing unit that mixes the post-filter signals of each color input from the plurality of filters and color separation units to obtain an output signal of each color.

また、本発明においては、上記構成のノイズ低減装置において、複数の前記フィルタ及び色分離部は、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、所定の帯域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第1フィルタ後信号を得る第1のフィルタ及び色分離部と、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、前記所定の帯域よりも高域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第2フィルタ後信号を得る第2のフィルタ及び色分離部と、によって構成され、前記混合部は、前記第1のフィルタ及び色分離部より入力された各色の前記第1フィルタ後信号と、前記第2のフィルタ及び色分離部より入力された各色の前記第2フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るものであって、外部より入力された前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出部と、前記動き検出部より入力された各画素の時間軸方向の前記動き量に応じて前記所定の重み係数を算出する重み係数検出部と、を有することが望ましい。   According to the present invention, in the noise reduction device configured as described above, the plurality of filters and color separation units have a predetermined band with respect to the three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit. The first filter and the color separation unit for performing color separation at the same time as the spatial low-pass filter and obtaining the first post-filter signal of each color, and the three-dimensional noise input from the three-dimensional noise reduction processing unit A second filter and a color separation unit that perform a color separation at the same time as applying a spatial low-pass filter higher than the predetermined band to the post-reduction signal, and obtain a second post-filter signal of each color; The mixing unit is configured to receive the first post-filter signal of each color input from the first filter and the color separation unit, and input from the second filter and the color separation unit. The second post-filter signal for each color is weighted and added by a predetermined weighting factor for each color to obtain the output signal for each color, and the RAW image signal input from the outside and one frame before A motion detection unit that obtains a motion amount in the time axis direction of each pixel by calculating a difference value from the signal after the three-dimensional noise reduction, and the motion in the time axis direction of each pixel input from the motion detection unit It is desirable to have a weight coefficient detection unit that calculates the predetermined weight coefficient according to the amount.

また、本発明においては、上記構成のノイズ低減装置において、複数の前記フィルタ及び色分離部は、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、空間的なローパスフィルタを作用させると同時に色分離を行い、各色の空間フィルタ後信号を得る空間フィルタ及び色分離部と、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、水平方向のローパスフィルタを作用させると同時に色分離を行い、各色の水平フィルタ後信号を得る水平フィルタ及び色分離部と、前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、垂直方向のローパスフィルタを作用させると同時に色分離を行い、各色の垂直フィルタ後信号を得る垂直フィルタ及び色分離部と、によって構成され、前記混合部は、前記空間フィルタ及び色分離部より入力された各色の前記空間フィルタ後信号と、前記水平フィルタ及び色分離部より入力された各色の前記水平フィルタ後信号と、前記垂直フィルタ及び色分離部より入力された各色の前記垂直フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るものであって、外部より入力された前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出部と、前記動き検出部より入力された各画素の時間軸方向の前記動き量の水平方向相関値及び垂直方向相関値を算出する相関方向検出部と、前記動き検出部より入力された各画素の時間軸方向の前記動き量と、前記相関方向検出部より入力された各画素の時間軸方向の前記動き量の前記水平方向相関値及び前記垂直方向相関値とに応じて前記所定の重み係数を算出する重み係数検出部と、を有することが望ましい。   According to the present invention, in the noise reduction device having the above-described configuration, the plurality of filters and color separation units are spatially applied to the post-three-dimensional noise reduction signal input from the three-dimensional noise reduction processing unit. At the same time as performing the low-pass filter, color separation is performed, and the spatial filter and color separation unit for obtaining the spatial filtered signal of each color, and the three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit, A horizontal low-pass filter is applied simultaneously and color separation is performed, and a horizontal filter and color separation unit for obtaining a horizontal filtered signal for each color, and the three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit On the other hand, the vertical filter and the color separation that obtains the signal after the vertical filter of each color by performing the color separation at the same time as applying the low-pass filter in the vertical direction. And the mixing unit includes the spatial filter post-signal for each color input from the spatial filter and the color separation unit, and the horizontal filter post-signal for each color input from the horizontal filter and the color separation unit. The post-vertical filter signal of each color input from the vertical filter and color separation unit is weighted and added by a predetermined weighting factor for each color to obtain the output signal of each color, which is input from the outside. A motion detection unit that obtains a motion amount in the time axis direction of each pixel by calculating a difference value between the RAW image signal and the three-dimensional noise-reduced signal one frame before, and is input from the motion detection unit. A correlation direction detection unit for calculating a horizontal direction correlation value and a vertical direction correlation value of the motion amount in the time axis direction of each pixel, and a time axis of each pixel input from the motion detection unit The predetermined weighting factor is calculated according to the amount of motion in the direction and the horizontal direction correlation value and the vertical direction correlation value of the amount of motion in the time axis direction of each pixel input from the correlation direction detection unit. And a weighting coefficient detection unit.

また、本発明においては、上記構成のノイズ低減装置において、前記所定の重み係数は、色ごとに異なることとしてもよい。   In the present invention, the predetermined weighting factor may be different for each color in the noise reduction device configured as described above.

本発明においては、ノイズ低減方法は、動画を構成するRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理ステップを有するノイズ低減方法であって、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、ノイズ低減処理及び色分離を同時に行い、各色のフィルタ後信号を得る複数のノイズ低減処理及び色分離ステップと、複数の前記ノイズ低減処理及び色分離ステップで得られた各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合ステップと、を有することを特徴とする。   In the present invention, the noise reduction method is a noise reduction method including a three-dimensional noise reduction processing step of performing a three-dimensional noise reduction process on a RAW image signal constituting a moving image to obtain a three-dimensional noise-reduced signal. A plurality of noise reduction processing and color separation steps for simultaneously performing noise reduction processing and color separation on the three-dimensional noise reduction signal obtained in the three-dimensional noise reduction processing step to obtain a filtered signal of each color; A mixing step of mixing the post-filter signals of each color obtained in a plurality of the noise reduction processing and color separation steps to obtain an output signal of each color.

本発明においては、ノイズ低減方法は、動画を構成するRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減ステップを有するノイズ低減方法であって、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、ローパスフィルタを作用させると同時に色分離を行い、各色のフィルタ後信号を得る複数のフィルタ及び色分離ステップと、複数の前記フィルタ及び色分離部ステップで得られた各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合ステップと、を有することを特徴とする。   In the present invention, the noise reduction method is a noise reduction method including a three-dimensional noise reduction step of performing a three-dimensional noise reduction process on a RAW image signal constituting a moving image to obtain a three-dimensional noise-reduced signal, A plurality of filters and a color separation step for performing a color separation on the three-dimensional noise-reduced signal obtained in the three-dimensional noise reduction processing step simultaneously with applying a low-pass filter to obtain a filtered signal of each color; And a mixing step of mixing the post-filter signals of the respective colors obtained in the plurality of filters and color separation unit steps to obtain output signals of the respective colors.

また、本発明においては、上記構成のノイズ低減方法において、複数の前記フィルタ及び色分離ステップは、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、所定の帯域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第1フィルタ後信号を得る第1のフィルタ及び色分離ステップと、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、前記所定の帯域よりも高域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第2フィルタ後信号を得る第2のフィルタ及び色分離ステップと、によって構成され、前記混合ステップは、前記第1のフィルタ及び色分離ステップで得られた各色の前記第1フィルタ後信号と、前記第2のフィルタ及び色分離ステップで得られた各色の前記第2フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るステップであって、動画を構成する前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出ステップと、前記動き検出ステップで得られた各画素の時間軸方向の前記動き量に応じて前記所定の重み係数を算出する重み係数検出ステップと、を有することが望ましい。   According to the present invention, in the noise reduction method configured as described above, the plurality of filters and color separation steps have a predetermined bandwidth with respect to the three-dimensional noise reduced signal obtained in the three-dimensional noise reduction processing step. The three-dimensional noise obtained in the first filter and the color separation step for performing color separation at the same time as the spatial low-pass filter and obtaining the first filtered signal of each color, and the three-dimensional noise reduction processing step A second filter and a color separation step for applying a spatial low pass filter higher than the predetermined band to the post-reduction signal and simultaneously performing color separation to obtain a second post-filter signal for each color; The mixing step includes the first post-filter signal of each color obtained in the first filter and color separation step, and the second filter. The step of obtaining the output signal of each color by weighting and adding the second post-filter signal of each color obtained in the filter and color separation step by a predetermined weighting factor for each color, the RAW constituting the moving image A motion detection step of obtaining a motion amount in the time axis direction of each pixel by calculating a difference value between the image signal and the three-dimensional noise-reduced signal one frame before, and each pixel obtained in the motion detection step It is desirable to include a weighting coefficient detection step of calculating the predetermined weighting coefficient according to the amount of motion in the time axis direction.

また、本発明においては、上記構成のノイズ低減方法において、複数の前記フィルタ及び色分離ステップは、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、空間的なローパスフィルタを作用させると同時に色分離を行い、各色の空間フィルタ後信号を得る空間フィルタ及び色分離ステップと、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、水平方向のローパスフィルタを作用させると同時に色分離を行い、各色の水平フィルタ後信号を得る水平フィルタ及び色分離ステップと、前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、垂直方向のローパスフィルタを作用させると同時に色分離を行い、各色の垂直フィルタ後信号を得る垂直フィルタ及び色分離ステップと、によって構成され、前記混合ステップは、前記空間フィルタ及び色分離ステップで得られた各色の前記空間フィルタ後信号と、前記水平フィルタ及び色分離ステップで得られた各色の前記水平フィルタ後信号と、前記垂直フィルタ及び色分離ステップで得られた各色の前記垂直フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るステップであって、動画を構成する前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出ステップと、前記動き検出ステップで得られた各画素の時間軸方向の前記動き量の水平方向相関値及び垂直方向相関値を算出する相関方向検出ステップと、前記動き検出ステップで得られた各画素の時間軸方向の前記動き量と、前記相関方向検出ステップで得られた各画素の時間軸方向の前記動き量の前記水平方向相関値及び前記垂直方向相関値とに応じて前記所定の重み係数を算出する重み係数検出ステップと、を有することが望ましい。   According to the present invention, in the noise reduction method having the above-described configuration, the plurality of filters and color separation steps are spatially compared to the three-dimensional noise-reduced signal obtained in the three-dimensional noise reduction processing step. At the same time as applying the low-pass filter, color separation is performed, and a spatial filter and a color separation step for obtaining a spatial filtered signal for each color, and the three-dimensional noise-reduced signal obtained in the three-dimensional noise reduction processing step, A horizontal low-pass filter is simultaneously applied to perform color separation, and a horizontal filter and a color separation step for obtaining a horizontal filtered signal for each color; and the three-dimensional noise-reduced signal obtained in the three-dimensional noise reduction processing step. On the other hand, a vertical low-pass filter is applied and color separation is performed at the same time to obtain a vertical filtered signal for each color. A vertical filter and a color separation step, and the mixing step includes a signal after the spatial filter obtained by the spatial filter and the color separation step and a color filter obtained by the horizontal filter and the color separation step. The step of obtaining the output signal of each color by weighting and adding the post-horizontal filter signal and the post-vertical filter signal of each color obtained in the vertical filter and color separation step with a predetermined weighting factor for each color. A motion detection step of obtaining a motion amount in the time axis direction of each pixel by calculating a difference value between the RAW image signal constituting the moving image and the three-dimensional noise-reduced signal one frame before; Correlation direction detection for calculating a horizontal direction correlation value and a vertical direction correlation value of the amount of motion in the time axis direction of each pixel obtained in the detection step. Step, the amount of motion in the time axis direction of each pixel obtained in the motion detection step, the horizontal direction correlation value of the amount of motion in the time axis direction of each pixel obtained in the correlation direction detection step, and It is desirable to have a weighting factor detection step of calculating the predetermined weighting factor according to the vertical direction correlation value.

また、本発明においては、上記構成のノイズ低減方法において、前記所定の重み係数は、色ごとに異なることとしてもよい。   In the present invention, the predetermined weighting factor may be different for each color in the noise reduction method configured as described above.

本発明においては、電子機器は、動画を構成するRAW画像信号が外部入力又は撮像によって与えられるとともに、該動画のノイズを低減するノイズ低減装置を備えた電子機器であって、前記ノイズ低減装置は、上記構成のノイズ低減装置であることを特徴とする。   In the present invention, the electronic device is an electronic device that is provided with a RAW image signal that constitutes a moving image by external input or imaging, and includes a noise reduction device that reduces noise of the moving image. The noise reduction device having the above configuration is characterized in that

本発明のノイズ低減装置及びノイズ低減方法によると、3次元ノイズ低減後信号に対して、ローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の複数のフィルタ後信号を、所定の重み係数によって色ごとに重み付け加算することによって出力信号を得るので、データ量を低減し、処理を簡素化したノイズ低減装置及びノイズ低減方法であって、更に、3次元ノイズ低減処理によるノイズ低減効果が十分に得られない動き量の大きい画素についても、十分なノイズ低減効果を得ることができる。   According to the noise reduction device and the noise reduction method of the present invention, a plurality of post-filter signals for each color obtained by applying a low-pass filter to the three-dimensional noise-reduced signal and performing color separation at the same time Since an output signal is obtained by weighted addition for each color by a weighting coefficient, a noise reduction device and a noise reduction method that reduce the amount of data and simplify processing, and further, a noise reduction effect by three-dimensional noise reduction processing A sufficient noise reduction effect can be obtained even for a pixel with a large amount of motion that cannot be sufficiently obtained.

また、本発明のノイズ低減装置及びノイズ低減方法によると、3次元ノイズ低減後信号に対して所定の帯域の空間的なローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の第1フィルタ後信号と、3次元ノイズ低減後信号に対して所定の帯域よりも高域の空間的なローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の第2フィルタ後信号とを、各画素の時間軸方向の動き量に応じて算出された重み係数によって色ごとに重み付け加算することによって出力信号を得るので、例えば、動き量の小さい画素に対しては、高域の空間的なローパスフィルタの影響を強める一方、低域の空間的なローパスフィルタの影響を弱め、動き量の大きい画素に対しては、低域の空間的なローパスフィルタの影響を強める一方、高域の空間的なローパスフィルタの影響を弱めることとすれば、動き量に応じた適切なノイズ低減処理を行うことができることから、十分なノイズ低減効果を得ることができ、また画像ぼけを抑制することができる。   In addition, according to the noise reduction device and the noise reduction method of the present invention, a spatial low-pass filter of a predetermined band is applied to the three-dimensional noise-reduced signal, and color separation is performed at the same time. A first filtered signal and a second filtered signal of each color obtained by applying a spatial low-pass filter higher than a predetermined band to the signal after three-dimensional noise reduction and simultaneously performing color separation; Is obtained by weighted addition for each color using a weighting coefficient calculated according to the amount of motion in the time axis direction of each pixel. For example, for a pixel with a small amount of motion, a high-frequency space is obtained. The effect of the low-pass filter is strengthened, while the effect of the low-pass spatial low-pass filter is weakened. If the influence of the high-frequency spatial low-pass filter is weakened, it is possible to perform appropriate noise reduction processing according to the amount of motion, so that a sufficient noise reduction effect can be obtained. In addition, image blur can be suppressed.

また、本発明のノイズ低減装置及びノイズ低減方法によると、3次元ノイズ低減後信号に対して空間的なローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の空間フィルタ後信号と、3次元ノイズ低減後信号に対して水平方向のローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の水平フィルタ後信号と、3次元ノイズ低減後信号に対して垂直方向のローパスフィルタを作用させると同時に色分離を行うことによって得られた各色の垂直フィルタ後信号とを、各画素の時間軸方向の動き量と、各画素の時間軸方向の動き量の水平方向相関値及び垂直方向相関値とに応じて算出された重み係数によって色ごとに重み付け加算することによって出力信号を得るので、例えば、動き量が大きく、動き量の水平方向相関値が大きい画素に対しては、水平方向のローパスフィルタの影響を強める一方、空間的なローパスフィルタ及び垂直方向のローパスフィルタの影響を弱め、動き量が大きく、動き量の垂直方向相関値が大きい画素に対しては、垂直方向のローパスフィルタの影響を強める一方、空間的なローパスフィルタ及び水平方向のローパスフィルタの影響を弱め、動き量が小さい画素に対しては、空間的なローパスフィルタの影響を強める一方、水平方向のローパスフィルタ及び垂直方向のローパスフィルタの影響を弱めることとすれば、各画素の時間軸方向の動き量と、各画素の時間軸方向の動き量の水平方向及び垂直方向の相関の強さに応じた適切なノイズ低減処理を行うことができることから、十分なノイズ低減効果を得ることができ、また画像ぼけを抑制することができる。   In addition, according to the noise reduction device and the noise reduction method of the present invention, a spatial low-pass filter is applied to the three-dimensional noise-reduced signal, and color-separated signals obtained by performing color separation at the same time, A low-pass filter in the horizontal direction obtained by applying a horizontal low-pass filter to the three-dimensional noise-reduced signal and simultaneously performing color separation, and a low-pass in the vertical direction with respect to the three-dimensional noise-reduced signal A vertical filtered signal of each color obtained by performing color separation at the same time as applying a filter, a motion amount in the time axis direction of each pixel, a horizontal correlation value of a motion amount in the time axis direction of each pixel, and Since an output signal is obtained by weighted addition for each color using a weighting coefficient calculated according to the vertical correlation value, for example, the amount of motion is large. For pixels with a large horizontal correlation value of motion amount, the effect of the horizontal low-pass filter is strengthened, while the effect of the spatial low-pass filter and the vertical low-pass filter is weakened to increase the motion amount and the motion amount. For pixels with a large vertical correlation value, the effect of the low-pass filter in the vertical direction is strengthened, while the effect of the spatial low-pass filter and the low-pass filter in the horizontal direction is weakened. If the influence of the spatial low-pass filter is strengthened while the influence of the horizontal low-pass filter and the vertical low-pass filter is weakened, the amount of movement of each pixel in the time axis direction and the movement of each pixel in the time axis direction are reduced. Because it is possible to perform appropriate noise reduction processing according to the strength of the horizontal and vertical correlation of the amount, sufficient noise reduction effect Rukoto can, also it is possible to suppress an image blur.

また、本発明のノイズ低減装置及びノイズ低減方法によると、所定の重み係数は色ごとに異なるので、例えば、色Gの第1フィルタ後信号の重みを、色R及び色Bの第1フィルタ後信号の重みと比較して小さくすれば、輝度信号への寄与度が高い色Gのぼけを抑制することができる。   In addition, according to the noise reduction device and the noise reduction method of the present invention, the predetermined weighting coefficient is different for each color. For example, the weight of the first filtered signal of the color G is changed to the weight of the first filtered signal of the color R and B. If it is made smaller than the signal weight, the blurring of the color G, which has a high contribution to the luminance signal, can be suppressed.

本発明の実施の形態について、図面を参照して説明する。なお、以下では、本発明におけるノイズ低減方法を行うノイズ低減装置(以下では、「画像処理部」に含まれる)を備えたデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて説明する。また、後述するが、同様のノイズ低減装置を備えるものであれば、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置であっても構わない。   Embodiments of the present invention will be described with reference to the drawings. In the following description, an imaging apparatus such as a digital camera or digital video provided with a noise reduction apparatus (hereinafter, included in the “image processing unit”) that performs the noise reduction method of the present invention will be described as an example. As will be described later, a display device that performs digital processing of an image, such as a liquid crystal display or a plasma television, may be used as long as it has a similar noise reduction device.

(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus.

図1の撮像装置は、被写体から入射される光を電気信号に変換するCCDまたはCMOSセンサなどの固体撮像素子(イメージセンサ)1と;イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog FrontEnd)2と;外部から入力された音声を電気信号に変換するマイク3と;AFE2からのデジタル信号となる画像信号に対して色分離処理及びノイズ低減処理を含む各種画像処理を施す画像処理部4と;マイク3からのアナログ信号である音声信号をデジタル信号に変換する音声処理部5と;画像処理部4からの画像信号と音声処理部5からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部6と;圧縮処理部6で圧縮符号化された圧縮符号化信号を外部メモリ20に記録するドライバ部7と;ドライバ部7で外部メモリ20から読み出した圧縮符号化信号を伸長して復号する伸長処理部8と;伸長処理部8で復号されて得られた画像信号による画像の表示を行うディスプレイ9と;伸長処理部8からの音声信号をアナログ信号に変換する音声出力回路部10と;音声出力回路部10からの音声信号に基づいて音声を再生出力するスピーカ11と;各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するTG(Timing Generator)12と;撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)13と;各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ14と;ユーザからの指示が入力される操作部15と;メモリ14と各ブロックとの間でデータのやりとりを行うためのバス回線16と;CPU13と各ブロックとの間でデータのやりとりを行うためのバス回線17と;を備える。   The imaging apparatus of FIG. 1 is a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts light incident from an object into an electrical signal; and an image signal that is an analog signal output from the image sensor 1 is digitally converted. AFE (Analog FrontEnd) 2 for converting to a signal; a microphone 3 for converting sound input from the outside into an electric signal; various types including color separation processing and noise reduction processing for an image signal to be a digital signal from the AFE 2 An image processing unit 4 that performs image processing; an audio processing unit 5 that converts an audio signal that is an analog signal from the microphone 3 into a digital signal; an image signal from the image processing unit 4 and an audio signal from the audio processing unit 5 A compression processing unit 6 that performs compression coding processing such as MPEG (Moving Picture Experts Group) compression method; and a compression code that is compression-coded by the compression processing unit 6 A driver unit 7 that records the encoded signal in the external memory 20; a decompression processing unit 8 that decompresses and decodes the compressed encoded signal read from the external memory 20 by the driver unit 7; A display 9 for displaying an image based on the image signal; an audio output circuit unit 10 for converting the audio signal from the decompression processing unit 8 into an analog signal; and reproducing and outputting audio based on the audio signal from the audio output circuit unit 10 A speaker 11 that performs; a TG (Timing Generator) 12 that outputs a timing control signal for matching the operation timing of each block; a CPU (Central Processing Unit) 13 that controls the drive operation of the entire imaging apparatus; A memory 14 for storing each program for storing and temporarily storing data when the program is executed; and an operation unit 1 to which an instruction from a user is input When; comprises; a memory 14 and a bus line 16 for exchanging data with each block; CPU 13 and the bus line 17 for exchanging data with each block.

このような構成の撮像装置において、イメージセンサ1は、透過率の異なる複数種類の色フィルタが各画素の表面に設置された固体撮像素子、即ち、単板式色フィルタを備えた固体撮像素子である。この色フィルタは、隣接する画素毎に異なる種類の色フィルタが設置される。したがって、イメージセンサ1から出力される映像信号は、各画素が単色の色情報しか持たない、いわゆるRAW画像信号となる。このようなイメージセンサ1に設置される単板式色フィルタとして、例えば、図2のようなR(Red)フィルタとG(Green)フィルタとB(Blue)フィルタとからなるベイヤーフィルタが構成される。この図2のベイヤーフィルタは、GフィルタとRフィルタとが水平方向に交互に並ぶラインと、BフィルタとGフィルタとが水平方向に交互に並ぶラインとを、垂直方向に交互に並ぶようにして備える。即ち、GフィルタとBフィルタとが垂直方向に交互に並ぶラインと、RフィルタとGフィルタとが垂直方向に交互に並ぶラインとが、水平方向に交互に並ぶ。このようなベイヤーフィルタを備えたイメージセンサ1において、RGBフィルタそれぞれを備えた画素よりRGB信号それぞれとなる映像信号が出力される。   In the imaging device having such a configuration, the image sensor 1 is a solid-state imaging device in which a plurality of types of color filters having different transmittances are installed on the surface of each pixel, that is, a solid-state imaging device including a single-plate color filter. . This color filter is provided with a different type of color filter for each adjacent pixel. Therefore, the video signal output from the image sensor 1 is a so-called RAW image signal in which each pixel has only single color information. As a single-plate color filter installed in such an image sensor 1, for example, a Bayer filter including an R (Red) filter, a G (Green) filter, and a B (Blue) filter as illustrated in FIG. 2 is configured. The Bayer filter of FIG. 2 is configured such that lines in which G filters and R filters are alternately arranged in a horizontal direction and lines in which B filters and G filters are alternately arranged in a horizontal direction are alternately arranged in a vertical direction. Prepare. That is, lines in which G filters and B filters are alternately arranged in the vertical direction and lines in which R filters and G filters are alternately arranged in the vertical direction are alternately arranged in the horizontal direction. In the image sensor 1 having such a Bayer filter, video signals that are RGB signals are output from pixels having RGB filters.

そして、この撮像装置において、撮像動作を行うことが操作部15によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE2に出力される。このとき、イメージセンサ1では、TG12からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE2において、アナログ信号である画像信号がデジタル信号に変換されて、画像処理部4に入力されると、ノイズ低減処理や色分離処理などの各種画像処理が施される。なお、画像処理部4の詳細については後述する。   In this imaging apparatus, when the operation unit 15 instructs to perform an imaging operation, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is output to the AFE 2. At this time, the image sensor 1 receives the timing control signal from the TG 12 to perform horizontal scanning and vertical scanning, and output an image signal serving as data for each pixel. In the AFE 2, when an image signal that is an analog signal is converted into a digital signal and input to the image processing unit 4, various image processing such as noise reduction processing and color separation processing is performed. Details of the image processing unit 4 will be described later.

そして、画像処理部4で画像処理が施された画像信号が圧縮処理部6に与えられる。このとき、マイク3に音声入力されることで得られたアナログ信号である音声信号が、音声処理部5でデジタル信号に変換されて、圧縮処理部6に与えられる。これにより、圧縮処理部6では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部7に与えて、外部メモリ20に記録させる。また、このとき、外部メモリ20に記録された圧縮信号がドライバ部7によって読み出されて伸長処理部8に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ9に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。   Then, the image signal subjected to the image processing by the image processing unit 4 is given to the compression processing unit 6. At this time, an audio signal which is an analog signal obtained by inputting the sound into the microphone 3 is converted into a digital signal by the audio processing unit 5 and given to the compression processing unit 6. As a result, the compression processing unit 6 compresses and encodes the image signal and the audio signal, which are digital signals, based on the MPEG compression encoding method, gives the image signal and the audio signal to the driver unit 7, and records them in the external memory 20. At this time, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and applied to the expansion processing unit 8 to be subjected to expansion processing to obtain an image signal. This image signal is given to the display 9 and a subject image currently being photographed through the image sensor 1 is displayed.

なお、上述では、動画撮影時の動作について説明したが、静止画像撮影が指示された場合においても、マイク3による音声信号の取得がなく、画像信号のみの圧縮信号が外部メモリ20に記録されるだけとなるが、その基本動作については動画撮影時の動作と同様である。また、この静止画像撮影の場合、操作部15によって撮影された静止画像に対する圧縮信号が外部メモリ20に記録されるだけでなく、イメージセンサ1によって撮影されている現時点の画像に対する圧縮信号が外部メモリ20に一時的に記録される。これにより、現在撮影されている画像に対する圧縮信号が伸長処理部8で伸長されることで、イメージセンサ1によって撮影されている現時点の画像がディスプレイ9に表示され、ユーザが確認することができる。   In the above description, the operation at the time of moving image shooting has been described. However, even when a still image shooting is instructed, an audio signal is not acquired by the microphone 3 and a compressed signal of only an image signal is recorded in the external memory 20. However, the basic operation is the same as that during moving image shooting. In the case of this still image shooting, not only the compressed signal for the still image shot by the operation unit 15 is recorded in the external memory 20, but also the compressed signal for the current image shot by the image sensor 1 is stored in the external memory. 20 is temporarily recorded. As a result, the compression signal for the currently photographed image is decompressed by the decompression processing unit 8 so that the current image photographed by the image sensor 1 is displayed on the display 9 and can be confirmed by the user.

このように撮像動作を行うとき、TG12によって、AFE2、映像処理部4、音声処理部5、圧縮処理部6、及び伸長処理部8に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。また、静止画像撮影のときは、操作部15によるシャッタ動作に基づいて、TG12より、イメージセンサ1、AFE2、映像処理部4、及び、圧縮処理部6それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させる。   When performing the imaging operation in this way, the TG 12 gives a timing control signal to the AFE 2, the video processing unit 4, the audio processing unit 5, the compression processing unit 6, and the expansion processing unit 8, and one frame by the image sensor 1. An operation synchronized with each imaging operation is performed. At the time of still image shooting, a timing control signal is given from the TG 12 to the image sensor 1, the AFE 2, the video processing unit 4, and the compression processing unit 6 based on the shutter operation by the operation unit 15. The operation timing of each unit is synchronized.

また、外部メモリ20に記録された動画または画像を再生することが、操作部15を通じて指示されると、外部メモリ20に記録された圧縮信号は、ドライバ部7によって読み出されて伸長処理部8に与えられる。そして、伸長処理部8において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ9に与えられて画像が再生されるとともに、音声信号が音声出力回路部10を介してスピーカ11に与えられて音声が再生される。これにより、外部メモリ20に記録された圧縮信号に基づく動画が音声とともに再生される。また、圧縮信号が画像信号のみより成るときは、ディスプレイ9に画像のみが再生されることとなる。   When an instruction to reproduce a moving image or image recorded in the external memory 20 is given through the operation unit 15, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and is decompressed by the decompression processing unit 8. Given to. Then, the decompression processing unit 8 decompresses and decodes the image signal and the audio signal based on the MPEG compression encoding method. Then, the image signal is given to the display 9 to reproduce the image, and the audio signal is given to the speaker 11 via the audio output circuit unit 10 to reproduce the audio. Thereby, the moving image based on the compressed signal recorded in the external memory 20 is reproduced together with the sound. Further, when the compressed signal consists only of the image signal, only the image is reproduced on the display 9.

(ノイズ低減装置の第1の実施形態)
次に、画像処理部4に含まれるノイズ低減装置の第1の実施形態について説明する。図3は、本発明の第1の実施形態に係るノイズ低減装置30の概略の構成を示すブロック図である。ノイズ低減装置30は、外部及びフレームメモリ34より信号が入力され、乗算器35に信号を出力するノイズ検出部31と;外部及びフレームメモリ34より信号が入力され、帰還係数検出部33及び重み係数検出部39に信号を出力する動き検出部32と;動き検出部32より信号が入力され、乗算器35に信号を出力する帰還係数検出部33と;減算器36より信号が入力され、ノイズ検出部31及び動き検出部32に信号を出力するフレームメモリ34と;ノイズ検出部31及び帰還係数検出部33より信号が入力され、減算器36に信号を出力する乗算器35と;外部及び乗算器35より信号が入力され、フレームメモリ34、第1のフィルタ及び色分離部37、及び第2のフィルタ及び色分離部38に信号を出力する減算器36と;減算器36より信号が入力され、重み付け加算部40に信号を出力する第1のフィルタ及び色分離部37と;減算器36より信号が入力され、重み付け加算部40に信号を出力する第2のフィルタ及び色分離部38と;動き検出部32より信号が入力され、重み付け加算部40に信号を出力する重み係数検出部39と;第1のフィルタ及び色分離部37、第2のフィルタ及び色分離部38、及び重み係数検出部39より信号が入力され、後段に信号を出力する重み付け加算部40と;を有している。なお、以下では、現フレームの信号は外部から入力されることとするが、この外部とは、図1の撮像装置のAFE2、あるいは画像処理部4のノイズ低減装置30の前段階の画像処理を行う部分のことを指すものである。
(First Embodiment of Noise Reduction Device)
Next, a first embodiment of the noise reduction device included in the image processing unit 4 will be described. FIG. 3 is a block diagram showing a schematic configuration of the noise reduction apparatus 30 according to the first embodiment of the present invention. The noise reduction device 30 includes a noise detection unit 31 that receives a signal from the external and frame memory 34 and outputs a signal to the multiplier 35; a signal that is input from the external and frame memory 34, and a feedback coefficient detection unit 33 and a weighting factor A motion detection unit 32 that outputs a signal to the detection unit 39; a feedback coefficient detection unit 33 that outputs a signal to the multiplier 35; and a signal that is input from the subtractor 36; A frame memory 34 that outputs signals to the unit 31 and the motion detection unit 32; a multiplier 35 that receives signals from the noise detection unit 31 and the feedback coefficient detection unit 33 and outputs a signal to the subtractor 36; A signal is input from 35, and a subtractor 36 that outputs signals to the frame memory 34, the first filter and color separation unit 37, and the second filter and color separation unit 38. A first filter and color separation unit 37 that receives a signal from the subtractor 36 and outputs a signal to the weighted addition unit 40; a second filter that receives a signal from the subtractor 36 and outputs a signal to the weighted addition unit 40; And a weight coefficient detection unit 39 that receives a signal from the motion detection unit 32 and outputs a signal to the weighting addition unit 40; a first filter and color separation unit 37, a second filter, A weighting addition unit 40 that receives signals from the color separation unit 38 and the weighting coefficient detection unit 39 and outputs the signals to the subsequent stage. In the following description, the signal of the current frame is input from the outside, but this external means the image processing in the previous stage of the AFE 2 of the imaging device of FIG. 1 or the noise reduction device 30 of the image processing unit 4. It refers to the part to be performed.

ここで、ノイズ低減装置30の動作の概略について説明する。まず、外部からの現フレームの信号(ベイヤーデータ)が、ノイズ検出部31、動き検出部32、及び減算器36に入力される。また、フレームメモリ34からの現フレームの1フレーム前の信号が、ノイズ検出部31及び動き検出部32に入力される。すると、ノイズ低減処理部31は、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素のノイズ検出値を算出し、これを乗算器35に出力する。   Here, an outline of the operation of the noise reduction device 30 will be described. First, an external current frame signal (Bayer data) is input to the noise detector 31, the motion detector 32, and the subtractor 36. Further, a signal one frame before the current frame from the frame memory 34 is input to the noise detection unit 31 and the motion detection unit 32. Then, the noise reduction processing unit 31 calculates a noise detection value of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34, and supplies this to the multiplier 35. Output.

そして、次に、動き検出部32が、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素の動き量を算出し、これを帰還係数検出部33及び重み係数検出部39に出力する。すると、帰還係数検出部33が、動き検出部32より入力された各画素の動き量から各画素の帰還係数kを算出し、これを乗算器35に出力する。   Next, the motion detection unit 32 calculates the motion amount of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34, and this is used to detect the feedback coefficient. To the unit 33 and the weighting coefficient detection unit 39. Then, the feedback coefficient detection unit 33 calculates the feedback coefficient k of each pixel from the motion amount of each pixel input from the motion detection unit 32, and outputs this to the multiplier 35.

そして、次に、乗算器35が、ノイズ検出部31より入力された各画素のノイズ検出値と、帰還係数検出部33より入力された各画素の帰還係数kとを乗算し、得られた各画素の減算ノイズ値を減算器36へ出力する。すると、減算器36が、外部より入力された現フレームの信号から、乗算器35より入力された各画素の減算ノイズ値を減算し、得られた3次元ノイズ低減後信号をフレームメモリ34、第1のフィルタ及び色分離部37、及び第2のフィルタ及び色分離部38に出力する。   Then, the multiplier 35 multiplies the noise detection value of each pixel input from the noise detection unit 31 by the feedback coefficient k of each pixel input from the feedback coefficient detection unit 33, and obtains each obtained The subtraction noise value of the pixel is output to the subtracter 36. Then, the subtractor 36 subtracts the subtraction noise value of each pixel input from the multiplier 35 from the signal of the current frame input from the outside, and the obtained three-dimensional noise-reduced signal is stored in the frame memory 34, the second signal. The data is output to the first filter and color separation unit 37 and the second filter and color separation unit 38.

そして、次に、第1のフィルタ及び色分離部37が、減算器36より入力された3次元ノイズ低減後信号に対して空間的な(2次元の)ローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)を重み付け加算部40に出力する。また、第2のフィルタ及び色分離部38が、減算器36より入力された3次元ノイズ低減後信号に対して、第1のフィルタ及び色分離部37よりも高域の空間的な(2次元の)ローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)を重み付け加算部40に出力する。また、重み係数検出部39が、動き検出部32より入力された各画素の動き量から各画素の重み係数αを算出し、これを重み付け加算部40に出力する。   Next, the first filter and color separation unit 37 applies a spatial (two-dimensional) low-pass filter (LPF) to the three-dimensional noise-reduced signal input from the subtractor 36 at the same time. Color separation is performed, and the obtained first filtered signals L1 (R), L1 (G), and L1 (B) of the respective colors R, G, and B are output to the weighted addition unit 40. In addition, the second filter and color separation unit 38 is higher in spatial (two-dimensional) than the first filter and color separation unit 37 with respect to the three-dimensional noise-reduced signal input from the subtractor 36. Color separation is performed at the same time as the low pass filter (LPF) is operated, and the obtained second filtered signals L2 (R), L2 (G), L2 (B) of the respective colors R, G, B are weighted and added. Output to 40. In addition, the weight coefficient detection unit 39 calculates the weight coefficient α of each pixel from the motion amount of each pixel input from the motion detection unit 32, and outputs this to the weight addition unit 40.

そして、次に、重み付け加算部40が、第1のフィルタ及び色分離部37より入力されたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)と、第2のフィルタ及び色分離部38より入力されたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)とを、重み係数検出部39より入力された各画素の重み係数αによって色ごとに重み付け加算し(つまり、O(R)=L1(R)×α+L2(R)×(1−α)、O(G)=L1(G)×α+L2(G)×(1−α)、O(B)=L1(B)×α+L2(B)×(1−α)である)、得られたR、G、B各色の出力信号O(R)、O(G)、O(B)を後段に出力する。   Next, the weighted addition unit 40 receives the first filtered signals L1 (R), L1 (G), and L1 (B) of the R, G, and B colors input from the first filter and color separation unit 37. And the second filtered signals L2 (R), L2 (G), and L2 (B) of the R, G, and B colors input from the second filter and color separation unit 38 from the weight coefficient detection unit 39 Weighted addition is performed for each color by the weighting factor α of each input pixel (that is, O (R) = L1 (R) × α + L2 (R) × (1−α), O (G) = L1 (G) × α + L2 (G) × (1−α), O (B) = L1 (B) × α + L2 (B) × (1−α)), and the obtained output signal O (R for each color of R, G, B ), O (G), and O (B) are output to the subsequent stage.

次に、ノイズ検出部31の詳細について説明する。ノイズ検出部31は、外部より入力された現フレームの信号から、フレームメモリ34より入力された1フレーム前の信号を減算することによって得られた各画素の差分信号値xに対してノイズ検出値f(x)を算出し、これを乗算器35に出力する。ここで、関数f(x)としては、例えば、以下の数1式及び図4に示されるようなものが用いられる。

Figure 2008252767
Next, details of the noise detection unit 31 will be described. The noise detector 31 detects a noise detection value for the difference signal value x of each pixel obtained by subtracting the signal of the previous frame input from the frame memory 34 from the signal of the current frame input from the outside. f (x) is calculated and output to the multiplier 35. Here, as the function f (x), for example, the following equation 1 and those shown in FIG. 4 are used.
Figure 2008252767

数1式及び図4に示される関数f(x)は、各画素の差分信号値xの絶対値が閾値thを超える場合にはノイズ検出値f(x)を抑えるものであり、これによって動き部分を誤ってノイズと検出してしまう誤動作を防止できる。   4 and the function f (x) shown in FIG. 4 suppress the noise detection value f (x) when the absolute value of the difference signal value x of each pixel exceeds the threshold th, and the motion f A malfunction that erroneously detects a part as noise can be prevented.

次に、動き検出部32の詳細について説明する。図5は、動き検出部32の概略の構成を示すブロック図である。動き検出部32は、外部及びフレームメモリ34より信号が入力され、絶対値化部322に信号を出力する減算器321と;減算器321より信号が入力され、フィルタ部323に信号を出力する絶対値化部322と;絶対値化部322より信号が入力され、帰還係数検出部33に信号を出力するフィルタ部323と;を有している。   Next, details of the motion detection unit 32 will be described. FIG. 5 is a block diagram illustrating a schematic configuration of the motion detection unit 32. The motion detection unit 32 receives a signal from the outside and the frame memory 34 and outputs a signal to the absolute value conversion unit 322; and a signal that is input from the subtraction unit 321 and outputs a signal to the filter unit 323 And a filter unit 323 that receives a signal from the absolute value unit 322 and outputs the signal to the feedback coefficient detection unit 33.

ここで、動き検出部32の動作の概略について説明する。まず、外部からの現フレームの信号と、フレームメモリ34からの1フレーム前の信号とが減算器321に入力される。すると、減算器321は、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号との差分を計算し、得られた差分信号を絶対値化部322に出力する。   Here, an outline of the operation of the motion detection unit 32 will be described. First, the signal of the current frame from the outside and the signal of the previous frame from the frame memory 34 are input to the subtractor 321. Then, the subtractor 321 calculates the difference between the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34, and outputs the obtained difference signal to the absolute value conversion unit 322. To do.

そして、次に、絶対値化部322は、入力された差分信号を絶対値化し、得られた絶対値化信号をフィルタ部323に出力する。すると、フィルタ部323は、入力された絶対値化信号に対してローパスフィルタをかけることによって得られた各画素の動き量を帰還係数検出部33に出力する。ここで、フィルタ部323によってローパスフィルタをかけることによって、ノイズ信号と動きを示す信号との分離精度が高められる。   Next, the absolute value converting unit 322 converts the input difference signal into an absolute value, and outputs the obtained absolute value signal to the filter unit 323. Then, the filter unit 323 outputs the motion amount of each pixel obtained by applying a low pass filter to the input absolute value signal to the feedback coefficient detection unit 33. Here, by applying a low-pass filter by the filter unit 323, the separation accuracy between the noise signal and the signal indicating motion is increased.

次に、帰還係数検出部33の詳細について説明する。帰還係数検出部33は、動き検出部32より入力された各画素の動き量yに対して各画素の帰還係数k=g(y)を算出し、これを乗算器35に出力する。ここで、関数g(y)としては、例えば、以下の数2式及び図6に示されるようなものが用いられる。

Figure 2008252767
Next, details of the feedback coefficient detection unit 33 will be described. The feedback coefficient detection unit 33 calculates the feedback coefficient k = g (y) of each pixel with respect to the motion amount y of each pixel input from the motion detection unit 32, and outputs this to the multiplier 35. Here, as the function g (y), for example, the following equation 2 and those shown in FIG. 6 are used.
Figure 2008252767

数2式及び図6に示される関数g(y)は、動き量yの増加に伴って一次関数的に帰還係数kが1から減少し、動き量yが閾値thA以上となると、帰還係数kが0となるものであり、これによって、動き量yの小さい画素に対するノイズ検出部31によるノイズ低減効果、つまり、3次元ノイズ低減処理の効果を大きくし、動き量yの大きい画素に対するノイズ検出部31によるノイズ低減効果、つまり、3次元ノイズ低減処理の効果を小さくしている。なお、この閾値thAは、入力信号レベル及びノイズレベルに応じて決定することが望ましい。   Equation 2 and the function g (y) shown in FIG. 6 indicate that the feedback coefficient k decreases from 1 as a linear function as the amount of motion y increases, and when the amount of motion y exceeds the threshold thA, the feedback coefficient k As a result, the noise reduction effect by the noise detection unit 31 for pixels with a small amount of motion y, that is, the effect of three-dimensional noise reduction processing is increased, and the noise detection unit for pixels with a large amount of motion y 31 reduces the noise reduction effect, that is, the effect of the three-dimensional noise reduction processing. The threshold thA is desirably determined according to the input signal level and the noise level.

次に、第1のフィルタ及び色分離部37の詳細について説明する。なお、以下では注目画素の座標を(0、0)、その信号値をS(0、0)とし、注目画素から右にx画素、上にy画素の位置にある画素の座標を(x、y)、その信号値をS(x、y)と表すこととする。つまり、注目画素から右に2画素、上に2画素の位置にある画素の座標を(2、2)、その信号値をS(2、2)と表し、注目画素から左に2画素、下に2画素の位置にある画素の座標を(−2、−2)、その信号値をS(−2、−2)と表すこととする。   Next, details of the first filter and color separation unit 37 will be described. In the following description, the coordinates of the pixel of interest are (0, 0), the signal value is S (0, 0), and the coordinates of the pixel at the position of the x pixel to the right and the y pixel above the pixel of interest are (x, y), the signal value is represented as S (x, y). That is, the coordinates of the pixel located two pixels to the right and two pixels above the target pixel are represented by (2, 2), and the signal value thereof is represented by S (2, 2). The coordinates of the pixel at the position of 2 pixels are represented as (−2, −2), and the signal value thereof is represented as S (−2, −2).

第1のフィルタ及び色分離部37は、減算器36より入力された3次元ノイズ低減後信号(ベイヤーデータ)に対して空間的なローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)を重み付け加算部40に出力するものである。   The first filter and color separation unit 37 applies a spatial low-pass filter (LPF) to the three-dimensional noise-reduced signal (Bayer data) input from the subtractor 36 and simultaneously performs color separation to obtain an obtained signal. The first filtered signals L1 (R), L1 (G), and L1 (B) of the R, G, and B colors are output to the weighted addition unit 40.

具体的には、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、図7(a)に示されるフィルタを用いて色Gの信号値を取得し、図7(b)に示されるフィルタを用いて色Bの信号値を取得し、色Rについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Specifically, for the pixel of interest for which the signal value of color R is obtained in the Bayer data, the signal value of color G is acquired using the filter shown in FIG. 7A, and FIG. The signal value of color B is acquired using the filter shown, and the signal value obtained in the Bayer data is used as it is for color R.

つまり、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、L1(G)=1/16×S(−1、2)+1/16×S(1、2)+1/16×S(−2、1)+1/8×S(0、1)+1/16×S(2、1)+1/8×S(−1、0)+1/8×S(1、0)+1/16×S(−2、−1)+1/8×S(0、−1)+1/16×S(2、−1)+1/16×S(−1、−2)+1/16×S(1、−2)によって色Gの信号値が取得される。   That is, for the pixel of interest for which the color R signal value is obtained in the Bayer data, L1 (G) = 1/16 × S (−1,2) + 1/16 × S (1,2) + 1/16 × S (-2,1) + 1/8 × S (0,1) + 1/16 × S (2,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1 / 16 × S (−2, −1) + 1/8 × S (0, −1) + 1/16 × S (2, −1) + 1/16 × S (−1, −2) + 1/16 × S ( The signal value of the color G is acquired by 1 and -2.

また、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、L1(B)=1/16×S(−3、3)+1/16×S(−1、3)+1/16×S(1、3)+1/16×S(3、3)+1/16×S(−3、1)+1/16×S(−1、1)+1/16×S(1、1)+1/16×S(3、1)+1/16×S(−3、−1)+1/16×S(−1、−1)+1/16×S(1、−1)+1/16×S(3、−1)+1/16×S(−3、−3)+1/16×S(−1、−3)+1/16×S(1、−3)+1/16×S(3、−3)によって色Bの信号値が取得される。   Further, for a target pixel for which a signal value of color R is obtained in Bayer data, L1 (B) = 1/16 × S (−3,3) + 1/16 × S (−1,3) +1/16 × S (1,3) + 1/16 × S (3,3) + 1/16 × S (−3,1) + 1/16 × S (−1,1) + 1/16 × S (1,1) +1 / 16 × S (3,1) + 1/16 × S (−3, −1) + 1/16 × S (−1, −1) + 1/16 × S (1, −1) + 1/16 × S ( 3, −1) + 1/16 × S (−3, −3) + 1/16 × S (−1, −3) + 1/16 × S (1, −3) + 1/16 × S (3, −3 ), The signal value of color B is acquired.

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、図8(a)に示されるフィルタを用いて色Rの信号値を取得し、図8(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color R signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 8B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、L1(R)=1/8×S(−1、2)+1/8×S(1、2)+1/8×S(−3、0)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(3、0)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Rの信号値が取得される。   That is, among the target pixels for which the color G signal value is obtained in the Bayer data, L1 (R) = 1 for the pixels in which the left and right pixels have the color R signal value in the Bayer data / 8 × S (−1,2) + 1/8 × S (1,2) + 1/8 × S (−3,0) + 1/8 × S (−1,0) + 1/8 × S (1, 0) + 1/8 × S (3,0) + 1/8 × S (−1, −2) + 1/8 × S (1, −2) is obtained as the signal value of color R.

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、L1(B)=1/8×S(0、3)+1/8×S(−2、1)+1/8×S(0、1)+1/8×S(2、1)+1/8×S(−2、−1)+1/8×S(0、−1)+1/8×S(2、−1)+1/8×S(0、−3)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, L1 (B) = 1 for pixels in which the left and right pixels are for which the color R signal value is obtained in the Bayer data / 8 × S (0,3) + 1/8 × S (−2,1) + 1/8 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−2, − 1) The signal value of color B is acquired by + 1/8 × S (0, −1) + 1/8 × S (2, −1) + 1/8 × S (0, -3).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、図9(a)に示されるフィルタを用いて色Rの信号値を取得し、図9(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color B signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 9B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、L1(R)=1/8×S(0、3)+1/8×S(−2、1)+1/8×S(0、1)+1/8×S(2、1)+1/8×S(−2、−1)+1/8×S(0、−1)+1/8×S(2、−1)+1/8×S(0、−3)によって色Rの信号値が取得される。   That is, among the target pixels for which the color G signal value is obtained in the Bayer data, L1 (R) = 1 for the pixels in which the left and right pixels have the color B signal value in the Bayer data / 8 × S (0,3) + 1/8 × S (−2,1) + 1/8 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−2, − 1) The signal value of the color R is acquired by + 1/8 × S (0, −1) + 1/8 × S (2, −1) + 1/8 × S (0, -3).

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、L1(B)=1/8×S(−1、2)+1/8×S(1、2)+1/8×S(−3、0)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(3、0)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Bの信号値が取得される。   That is, among the target pixels whose color G signal value is obtained in the Bayer data, L1 (B) = 1 for pixels in which the left and right pixels are pixels whose color B signal value is obtained in the Bayer data / 8 × S (−1,2) + 1/8 × S (1,2) + 1/8 × S (−3,0) + 1/8 × S (−1,0) + 1/8 × S (1, 0) + 1/8 × S (3,0) + 1/8 × S (−1, −2) + 1/8 × S (1, −2) is obtained as the signal value of color B.

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、図10(a)に示されるフィルタを用いて色Rの信号値を取得し、図10(b)に示されるフィルタを用いて色Gの信号値を取得し、色Bについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   For the target pixel for which the color B signal value is obtained in the Bayer data, the color R signal value is obtained using the filter shown in FIG. 10A, and the filter shown in FIG. Is used to acquire the signal value of the color G, and for the color B, the signal value obtained in the Bayer data is used as it is.

つまり、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、L1(R)=1/16×S(−3、3)+1/16×S(−1、3)+1/16×S(1、3)+1/16×S(3、3)+1/16×S(−3、1)+1/16×S(−1、1)+1/16×S(1、1)+1/16×S(3、1)+1/16×S(−3、−1)+1/16×S(−1、−1)+1/16×S(1、−1)+1/16×S(3、−1)+1/16×S(−3、−3)+1/16×S(−1、−3)+1/16×S(1、−3)+1/16×S(3、−3)によって色Rの信号値が取得される。   That is, for a target pixel for which a color B signal value is obtained in Bayer data, L1 (R) = 1/16 × S (−3,3) + 1/16 × S (−1,3) +1/16 × S (1,3) + 1/16 × S (3,3) + 1/16 × S (−3,1) + 1/16 × S (−1,1) + 1/16 × S (1,1) +1 / 16 × S (3,1) + 1/16 × S (−3, −1) + 1/16 × S (−1, −1) + 1/16 × S (1, −1) + 1/16 × S ( 3, −1) + 1/16 × S (−3, −3) + 1/16 × S (−1, −3) + 1/16 × S (1, −3) + 1/16 × S (3, −3 ), The signal value of the color R is acquired.

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、L1(G)=1/16×S(−1、2)+1/16×S(1、2)+1/16×S(−2、1)+1/8×S(0、1)+1/16×S(2、1)+1/8×S(−1、0)+1/8×S(1、0)+1/16×S(−2、−1)+1/8×S(0、−1)+1/16×S(2、−1)+1/16×S(−1、−2)+1/16×S(1、−2)によって色Gの信号値が取得される。   Further, for a target pixel for which a color B signal value is obtained in Bayer data, L1 (G) = 1/16 × S (−1,2) + 1/16 × S (1,2) + 1/16 × S (-2,1) + 1/8 × S (0,1) + 1/16 × S (2,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1 / 16 × S (−2, −1) + 1/8 × S (0, −1) + 1/16 × S (2, −1) + 1/16 × S (−1, −2) + 1/16 × S ( The signal value of the color G is acquired by 1 and -2.

次に、第2のフィルタ及び色分離部38の詳細について説明する。第2のフィルタ及び色分離部38は、減算器36より入力された3次元ノイズ低減後信号(ベイヤーデータ)に対して、第1のフィルタ及び色分離部37よりも高域の空間的なローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)を重み付け加算部40に出力するものである。   Next, details of the second filter and color separation unit 38 will be described. The second filter and color separation unit 38 is a spatial low-pass that is higher than the first filter and color separation unit 37 for the three-dimensional noise-reduced signal (Bayer data) input from the subtractor 36. At the same time as the filter (LPF) is operated, color separation is performed, and the obtained second filtered signals L2 (R), L2 (G), and L2 (B) of the respective colors R, G, and B are output to the weighted addition unit 40 To do.

具体的には、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、図11(a)に示されるフィルタを用いて色Gの信号値を取得し、図11(b)に示されるフィルタを用いて色Bの信号値を取得し、色Rについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Specifically, for the pixel of interest for which the color R signal value is obtained in the Bayer data, the color G signal value is obtained using the filter shown in FIG. 11A, and FIG. The signal value of color B is acquired using the filter shown, and the signal value obtained in the Bayer data is used as it is for color R.

つまり、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、L2(G)=1/4×S(0、1)+1/4×S(−1、0)+1/4×S(1、0)+1/4×S(0、−1)によって色Gの信号値が取得される。   That is, for the pixel of interest for which the color R signal value is obtained in the Bayer data, L2 (G) = 1/4 × S (0,1) + 1/4 × S (−1,0) + 1/4 × The signal value of the color G is acquired by S (1, 0) + 1/4 × S (0, −1).

また、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、L2(B)=1/4×S(−1、1)+1/4×S(1、1)+1/4×S(−1、−1)+1/4×S(1、−1)によって色Bの信号値が取得される。   In addition, for a pixel of interest for which a color R signal value is obtained in Bayer data, L2 (B) = 1/4 × S (−1,1) + 1/4 × S (1,1) + 1/4 × The signal value of the color B is acquired by S (−1, −1) + 1/4 × S (1, −1).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、図12(a)に示されるフィルタを用いて色Rの信号値を取得し、図12(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Of the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are those for which the color R signal value is obtained in the Bayer data, as shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 12B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、L2(R)=1/2×S(−1、0)+1/2×S(1、0)によって色Rの信号値が取得される。   That is, among pixels of interest for which a color G signal value is obtained in Bayer data, L2 (R) = 1 for pixels in which the left and right pixels are pixels for which a color R signal value is obtained in Bayer data The signal value of the color R is acquired by / 2 × S (−1, 0) + 1/2 × S (1, 0).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、L2(B)=1/2×S(0、1)+1/2×S(0、−1)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, L2 (B) = 1 for pixels in which the left and right pixels are pixels for which the color R signal value is obtained in the Bayer data The signal value of the color B is acquired by / 2 × S (0, 1) + 1/2 × S (0, −1).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、図13(a)に示されるフィルタを用いて色Rの信号値を取得し、図13(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color B signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 13B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、L2(R)=1/2×S(0、1)+1/2×S(0、−1)によって色Rの信号値が取得される。   That is, among the target pixels for which the color G signal value is obtained in the Bayer data, L2 (R) = 1 for the pixels in which the left and right pixels are obtained for the color B signal value in the Bayer data The signal value of the color R is acquired by / 2 × S (0, 1) + 1/2 × S (0, −1).

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、L2(B)=1/2×S(−1、0)+1/2×S(1、0)によって色Bの信号値が取得される。   That is, among the target pixels whose color G signal value is obtained in the Bayer data, L2 (B) = 1 for pixels where the left and right pixels are pixels whose color B signal value is obtained in the Bayer data The signal value of the color B is acquired by / 2 × S (−1, 0) + 1/2 × S (1, 0).

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、図14(a)に示されるフィルタを用いて色Rの信号値を取得し、図14(b)に示されるフィルタを用いて色Gの信号値を取得し、色Bについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   For the target pixel from which the signal value of color B is obtained in the Bayer data, the signal value of color R is acquired using the filter shown in FIG. 14A, and the filter shown in FIG. Is used to acquire the signal value of the color G, and for the color B, the signal value obtained in the Bayer data is used as it is.

つまり、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、L2(R)=1/4×S(−1、1)+1/4×S(1、1)+1/4×S(−1、−1)+1/4×S(1、−1)によって色Rの信号値が取得される。   That is, for the pixel of interest for which the color B signal value is obtained in the Bayer data, L2 (R) = 1/4 × S (−1,1) + 1/4 × S (1,1) + 1/4 × The signal value of the color R is acquired by S (−1, −1) + 1/4 × S (1, −1).

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、L2(G)=1/4×S(0、1)+1/4×S(−1、0)+1/4×S(1、0)+1/4×S(0、−1)によって色Gの信号値が取得される。   In addition, regarding a target pixel for which a color B signal value is obtained in Bayer data, L2 (G) = 1/4 × S (0,1) + 1/4 × S (−1,0) + 1/4 × The signal value of the color G is acquired by S (1, 0) + 1/4 × S (0, −1).

ここで、第2のフィルタ及び色分離部38の回路構成について説明する。図15は、第2のフィルタ及び色分離部38の回路構成を示すブロック図である。なお、以下では、x及びyは、−1、0、1の各値を取るものとする。   Here, the circuit configuration of the second filter and color separation unit 38 will be described. FIG. 15 is a block diagram illustrating a circuit configuration of the second filter and color separation unit 38. In the following, it is assumed that x and y take values of −1, 0, and 1, respectively.

第2のフィルタ及び色分離部38は、フィルタ係数a(x、y)を生成し、これを乗算器M(x、y)に出力する係数選択部Aと;S(x、y)を記憶し、これを乗算器M(x、y)に出力するメモリm(x、y)と;a(x、y)×S(x、y)を算出し、これを加算器Pに出力する乗算器M(x、y)と;a(x、y)×S(x、y)を全て加算し、これを重み付け加算部40に出力する加算機Pと;を有している。   The second filter and color separation unit 38 generates a filter coefficient a (x, y) and outputs this to the multiplier M (x, y), and stores S (x, y). Then, a memory m (x, y) that outputs this to the multiplier M (x, y) and a (x, y) × S (x, y) are calculated, and this is output to the adder P And an adder P that adds all of a (x, y) × S (x, y) and outputs the result to the weighted addition unit 40.

次に、第2のフィルタ及び色分離部38の動作の概略について説明する。まず、係数選択部Aが、注目画素の水平アドレス及び垂直アドレスから、注目画素がベイヤーデータにおいて色Rの信号値が得られている画素であるか、注目画素がベイヤーデータにおいて色Gの信号値が得られている画素であるか、あるいは、注目画素がベイヤーデータにおいて色Bの信号値が得られている画素であるかを判定する。また、注目画素がベイヤーデータにおいて色Gの信号値が得られている画素である場合には、注目画素の左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるか、あるいは、注目画素の左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるかの判定も行う。   Next, an outline of the operation of the second filter and color separation unit 38 will be described. First, the coefficient selection unit A determines whether the pixel of interest is a pixel from which the color R signal value is obtained in the Bayer data from the horizontal address and the vertical address of the pixel of interest, or whether the pixel of interest is the signal value of the color G in the Bayer data. Or whether the pixel of interest is a pixel from which a signal value of color B is obtained in the Bayer data. When the pixel of interest is a pixel for which the signal value of color G is obtained in the Bayer data, whether the pixels on the left and right of the pixel of interest are pixels for which the signal value of color R is obtained in the Bayer data, Alternatively, it is also determined whether the left and right pixels of the target pixel are pixels for which a color B signal value is obtained in the Bayer data.

そして、次に、係数選択部Aは、注目画素の判定結果に応じて、まず、色Rの信号値を取得するためのフィルタ係数a(x、y)を生成し、これを乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。そして、次に、各乗算器M(x、y)が、a(x、y)×S(x、y)を算出し、これを加算器Pに出力する。すると、加算機Pが、各乗算器M(x、y)から入力されたa(x、y)×S(x、y)を全て加算し、得られた色Rの信号値を重み付け加算部40に出力する。   Next, the coefficient selection unit A first generates a filter coefficient a (x, y) for acquiring the signal value of the color R according to the determination result of the target pixel, and uses this to generate the multiplier M ( output to x, y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y). Then, each multiplier M (x, y) calculates a (x, y) × S (x, y) and outputs this to the adder P. Then, the adder P adds all a (x, y) × S (x, y) input from each multiplier M (x, y), and weights the signal value of the obtained color R. Output to 40.

そして、次に、係数選択部Aは、注目画素の判定結果に応じて、色Gの信号値を取得するためのフィルタ係数a(x、y)を生成し、これを乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。そして、次に、各乗算器M(x、y)が、a(x、y)×S(x、y)を算出し、これを加算器Pに出力する。すると、加算機Pが、各乗算器M(x、y)から入力されたa(x、y)×S(x、y)を全て加算し、得られた色Gの信号値を重み付け加算部40に出力する。   Next, the coefficient selection unit A generates a filter coefficient a (x, y) for acquiring the signal value of the color G according to the determination result of the target pixel, and this is used as a multiplier M (x, output to y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y). Then, each multiplier M (x, y) calculates a (x, y) × S (x, y) and outputs this to the adder P. Then, the adder P adds all a (x, y) × S (x, y) input from each multiplier M (x, y), and weights the signal value of the obtained color G. Output to 40.

そして、次に、係数選択部Aは、注目画素の判定結果に応じて、色Bの信号値を取得するためのフィルタ係数a(x、y)を生成し、これを乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。そして、次に、各乗算器M(x、y)が、a(x、y)×S(x、y)を算出し、これを加算器Pに出力する。すると、加算機Pが、各乗算器M(x、y)から入力されたa(x、y)×S(x、y)を全て加算し、得られた色Bの信号値を重み付け加算部40に出力する。   Next, the coefficient selection unit A generates a filter coefficient a (x, y) for obtaining the signal value of the color B according to the determination result of the target pixel, and this is used as the multiplier M (x, output to y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y). Then, each multiplier M (x, y) calculates a (x, y) × S (x, y) and outputs this to the adder P. Then, the adder P adds all a (x, y) × S (x, y) input from each multiplier M (x, y), and weights the obtained signal value of the color B. Output to 40.

次に、第2のフィルタ及び色分離部38の動作について、注目画素がベイヤーデータにおいて色Rの信号値が得られている画素である場合を例として具体的に説明する。この場合、係数選択部Aが、まず、色Rの信号値を取得するためのフィルタ係数として、a(−1、1)=0、a(0、1)=0、a(1、1)=0、a(−1、0)=0、a(0、0)=1、a(1、0)=0、a(−1、−1)=0、a(0、−1)=0、a(1、−1)=0を生成し、これらを対応する乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。   Next, the operation of the second filter and color separation unit 38 will be specifically described by taking as an example the case where the pixel of interest is a pixel from which the signal value of color R is obtained in the Bayer data. In this case, the coefficient selection unit A first sets a (−1, 1) = 0, a (0, 1) = 0, a (1, 1) as filter coefficients for acquiring the signal value of the color R. = 0, a (-1, 0) = 0, a (0, 0) = 1, a (1, 0) = 0, a (-1, -1) = 0, a (0, -1) = 0, a (1, −1) = 0 are generated, and these are output to the corresponding multiplier M (x, y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y).

すると、各乗算器M(x、y)及び加算器Pによって、L2(R)=0×S(−1、1)+0×S(0、1)+0×S(1、1)+0×S(−1、0)+1×S(0、0)+0×S(1、0)+0×S(−1、−1)+0×S(0、−1)+0×S(1、−1)=S(0、0)が算出され、重み付け加算部40に出力される。   Then, L2 (R) = 0 × S (−1,1) + 0 × S (0,1) + 0 × S (1,1) + 0 × S is obtained by each multiplier M (x, y) and adder P. (-1, 0) + 1 * S (0,0) + 0 * S (1,0) + 0 * S (-1, -1) + 0 * S (0, -1) + 0 * S (1, -1) = S (0, 0) is calculated and output to the weighted addition unit 40.

そして、次に、係数選択部Aは、色Gの信号値を取得するためのフィルタ係数として、a(−1、1)=0、a(0、1)=1/4、a(1、1)=0、a(−1、0)=1/4、a(0、0)=0、a(1、0)=1/4、a(−1、−1)=0、a(0、−1)=1/4、a(1、−1)=0を生成し(図11(a)参照)、これらを対応する乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。   Next, the coefficient selection unit A uses a (-1, 1) = 0, a (0, 1) = 1/4, a (1, 1) = 0, a (-1,0) = 1/4, a (0,0) = 0, a (1,0) = 1/4, a (-1, -1) = 0, a ( 0, −1) = 1/4 and a (1, −1) = 0 are generated (see FIG. 11A), and these are output to the corresponding multiplier M (x, y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y).

すると、各乗算器M(x、y)及び加算器Pによって、L2(G)=0×S(−1、1)+1/4×S(0、1)+0×S(1、1)+1/4×S(−1、0)+0×S(0、0)+1/4×S(1、0)+0×S(−1、−1)+1/4×S(0、−1)+0×S(1、−1)=1/4×S(0、1)+1/4×S(−1、0)+1/4×S(1、0)+1/4×S(0、−1)が算出され、重み付け加算部40に出力される。   Then, L2 (G) = 0 × S (−1,1) + 1/4 × S (0,1) + 0 × S (1,1) +1 is obtained by each multiplier M (x, y) and adder P. / 4 * S (-1,0) + 0 * S (0,0) + 1/4 * S (1,0) + 0 * S (-1, -1) + 1/4 * S (0, -1) +0 X S (1, -1) = 1/4 x S (0, 1) + 1/4 x S (-1, 0) + 1/4 x S (1, 0) + 1/4 x S (0, -1 ) Is calculated and output to the weighted addition unit 40.

そして、次に、係数選択部Aは、色Bの信号値を取得するためのフィルタ係数として、a(−1、1)=1/4、a(0、1)=0、a(1、1)=1/4、a(−1、0)=0、a(0、0)=0、a(1、0)=0、a(−1、−1)=1/4、a(0、−1)=0、a(1、−1)=1/4を生成し(図11(b)参照)、これらを対応する乗算器M(x、y)に出力する。また、各メモリm(x、y)がS(x、y)を乗算器M(x、y)に出力する。   Next, the coefficient selecting unit A uses a (−1, 1) = 1/4, a (0, 1) = 0, a (1, 1) = 1/4, a (-1, 0) = 0, a (0, 0) = 0, a (1, 0) = 0, a (-1, -1) = 1/4, a ( 0, −1) = 0 and a (1, −1) = 1/4 are generated (see FIG. 11B), and these are output to the corresponding multiplier M (x, y). Each memory m (x, y) outputs S (x, y) to the multiplier M (x, y).

すると、各乗算器M(x、y)及び加算器Pによって、L2(B)=1/4×S(−1、1)+0×S(0、1)+1/4×S(1、1)+0×S(−1、0)+0×S(0、0)+0×S(1、0)+1/4×S(−1、−1)+0×S(0、−1)+1/4×S(1、−1)=1/4×S(−1、1)+1/4×S(1、1)+1/4×S(−1、−1)+1/4×S(1、−1)が算出され、重み付け加算部40に出力される。   Then, L2 (B) = 1/4 × S (−1,1) + 0 × S (0,1) + 1/4 × S (1,1, 1) by each multiplier M (x, y) and adder P. ) + 0 × S (−1,0) + 0 × S (0,0) + 0 × S (1,0) + 1/4 × S (−1, −1) + 0 × S (0, −1) +1/4 × S (1, −1) = 1/4 × S (−1,1) + 1/4 × S (1,1) + 1/4 × S (−1, −1) + 1/4 × S (1, -1) is calculated and output to the weighted addition unit 40.

また、注目画素がベイヤーデータにおいて色Gの信号値が得られている画素であって、注目画素の左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素である場合には、係数選択部Aが、色Rの信号値を取得するためのフィルタ係数として、図12(a)に示されるフィルタ係数を生成し、色Gの信号値を取得するためのフィルタ係数として、a(−1、1)=0、a(0、1)=0、a(1、1)=0、a(−1、0)=0、a(0、0)=1、a(1、0)=0、a(−1、−1)=0、a(0、−1)=0、a(1、−1)=0を生成し、色Bの信号値を取得するためのフィルタ係数として、図12(b)に示されるフィルタ係数を生成する点を除いては、注目画素がベイヤーデータにおいて色Rの信号値が得られている画素である場合と同様である。   Further, when the pixel of interest is a pixel from which the signal value of color G is obtained in the Bayer data, and the left and right pixels of the pixel of interest are pixels from which the signal value of color R is obtained in the Bayer data, The coefficient selection unit A generates a filter coefficient shown in FIG. 12A as a filter coefficient for acquiring the signal value of the color R, and a ( −1, 1) = 0, a (0, 1) = 0, a (1, 1) = 0, a (−1, 0) = 0, a (0, 0) = 1, a (1, 0 ) = 0, a (-1, -1) = 0, a (0, -1) = 0, a (1, -1) = 0, and filter coefficients for obtaining the color B signal value As shown in FIG. 12, except that the filter coefficient shown in FIG. 12B is generated, the signal value of the color R is obtained in the Bayer data for the target pixel. Is the same as in the pixel that.

また、注目画素がベイヤーデータにおいて色Gの信号値が得られている画素であって、注目画素の左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素である場合には、係数選択部Aが、色Rの信号値を取得するためのフィルタ係数として、図13(a)に示されるフィルタ係数を生成し、色Gの信号値を取得するためのフィルタ係数として、a(−1、1)=0、a(0、1)=0、a(1、1)=0、a(−1、0)=0、a(0、0)=1、a(1、0)=0、a(−1、−1)=0、a(0、−1)=0、a(1、−1)=0を生成し、色Bの信号値を取得するためのフィルタ係数として、図13(b)に示されるフィルタ係数を生成する点を除いては、注目画素がベイヤーデータにおいて色Rの信号値が得られている画素である場合と同様である。   Further, when the pixel of interest is a pixel from which the signal value of color G is obtained in the Bayer data, and the left and right pixels of the pixel of interest are pixels from which the signal value of color B is obtained in the Bayer data, The coefficient selection unit A generates a filter coefficient shown in FIG. 13A as a filter coefficient for acquiring the color R signal value, and a ( −1, 1) = 0, a (0, 1) = 0, a (1, 1) = 0, a (−1, 0) = 0, a (0, 0) = 1, a (1, 0 ) = 0, a (-1, -1) = 0, a (0, -1) = 0, a (1, -1) = 0, and filter coefficients for obtaining the color B signal value As a result, except that the filter coefficient shown in FIG. 13B is generated, the signal value of the color R is obtained in the Bayer data for the target pixel. Is the same as in the pixel that.

また、注目画素がベイヤーデータにおいて色Bの信号値が得られている画素である場合には、係数選択部Aが、色Rの信号値を取得するためのフィルタ係数として、図14(a)に示されるフィルタ係数を生成し、色Gの信号値を取得するためのフィルタ係数として、図14(b)に示されるフィルタ係数を生成し、色Bの信号値を取得するためのフィルタ係数として、a(−1、1)=0、a(0、1)=0、a(1、1)=0、a(−1、0)=0、a(0、0)=1、a(1、0)=0、a(−1、−1)=0、a(0、−1)=0、a(1、−1)=0を生成する点を除いては、注目画素がベイヤーデータにおいて色Rの信号値が得られている画素である場合と同様である。   When the pixel of interest is a pixel from which the signal value of color B is obtained in the Bayer data, the coefficient selection unit A uses a filter coefficient for acquiring the signal value of color R as shown in FIG. The filter coefficient shown in FIG. 14B is generated as the filter coefficient for acquiring the color G signal value, and the filter coefficient shown in FIG. 14B is generated as the filter coefficient for acquiring the color B signal value. , A (-1, 1) = 0, a (0, 1) = 0, a (1, 1) = 0, a (-1, 0) = 0, a (0, 0) = 1, a ( 1, 0) = 0, a (-1, -1) = 0, a (0, -1) = 0, a (1, -1) = 0, except that the pixel of interest is a Bayer This is the same as the case where the pixel has a signal value of color R in the data.

なお、以上の説明においては、色R、色G、色Bの信号値を、1組の乗算器M(x、y)及び加算機Pを用いて直列的に取得するものとしたが、色R、色G、色B各々の信号値を、別々の乗算器M(x、y)及び加算機Pを用いて並列的に取得するものとしてもよい。この場合、メモリm(x、y)については、1組のメモリm(x、y)を共用する構成とすればよい。   In the above description, the signal values of color R, color G, and color B are acquired in series using a set of multipliers M (x, y) and adder P. The signal values of R, color G, and color B may be acquired in parallel using separate multipliers M (x, y) and adder P. In this case, the memory m (x, y) may be configured to share a set of memories m (x, y).

なお、ここでは、説明の簡略化のために、第2のフィルタ及び色分離部38の回路構成及びその動作について説明したが、第1のフィルタ及び色分離部38の回路構成及びその動作についても、x及びyが−3、−2、−1、0、1、2、3の各値を取るものである点が異なるのみであり、その他の点は同一である。   Here, for simplification of description, the circuit configuration and operation of the second filter and color separation unit 38 have been described, but the circuit configuration and operation of the first filter and color separation unit 38 are also described. , X and y differ only in that they take values of -3, -2, -1, 0, 1, 2, 3 and the other points are the same.

次に、重み係数検出部39の詳細について説明する。重み係数検出部39は、動き検出部32より入力された各画素の動き量yに対して各画素の重み係数α=h(y)を算出し、これを重み付け加算部40に出力する。ここで、関数h(y)としては、例えば、以下の数3式及び図16に示されるようなものが用いられる。

Figure 2008252767
Next, details of the weighting coefficient detection unit 39 will be described. The weighting coefficient detection unit 39 calculates the weighting coefficient α = h (y) of each pixel with respect to the motion amount y of each pixel input from the motion detection unit 32 and outputs this to the weighting addition unit 40. Here, as the function h (y), for example, the following equation 3 and those shown in FIG. 16 are used.
Figure 2008252767

数3式及び図16に示される関数h(y)は、動き量yの増加に伴って一次関数的に重み係数αが0から上昇し、動き量yが閾値tha以上となると、重み係数αが1となるものであり、これによって、動き量yの小さい画素に対しては、低域の空間的なローパスフィルタを作用させる第1のフィルタ及び色分離部37の影響を弱める一方、高域の空間的なローパスフィルタを作用させる第2のフィルタ及び色分離部38の影響を強め、動き量yの大きい画素に対しては、低域の空間的なローパスフィルタを作用させる第1のフィルタ及び色分離部37の影響を強める一方、高域の空間的なローパスフィルタを作用させる第2のフィルタ及び色分離部38の影響を弱めている。なお、この閾値thaは、例えば、数2式及び図6に示される関数g(y)の閾値thAと等しい値とすればよい。   Equation (3) and the function h (y) shown in FIG. 16 indicate that the weight coefficient α increases from 0 as a linear function as the amount of motion y increases, and when the amount of motion y exceeds the threshold tha, the weight coefficient α This reduces the influence of the first filter and the color separation unit 37 that causes a low-pass spatial low-pass filter to be applied to a pixel with a small amount of motion y. The second filter that operates the spatial low-pass filter and the color separation unit 38 are strengthened, and the first filter that applies the low-frequency spatial low-pass filter to the pixel having a large amount of motion y While the influence of the color separation unit 37 is strengthened, the influence of the second filter and the color separation unit 38 that cause a high-frequency spatial low-pass filter to act is weakened. The threshold value tha may be set to a value equal to the threshold value thA of the equation 2 and the function g (y) shown in FIG.

上記構成のノイズ低減装置30においては、第1のフィルタ及び色分離部37と、第2のフィルタ及び色分離部38とによって、空間的なローパスフィルタ(LPF)を作用させると同時に色分離している。したがって、3次元ノイズ低減処理によるノイズ低減効果が十分に得られない動き量の大きい画素に対しても、空間的なローパスフィルタ(LPF)を作用させることから、十分なノイズ低減を行うことができる。また、空間的なローパスフィルタ(LPF)を作用させることと、色分離とを同時に行うことから、色ごとに空間的なローパスフィルタ(LPF)を作用させる場合と比べてデータ量を低減し、処理を簡素化することができる。   In the noise reduction device 30 having the above-described configuration, the first filter and color separation unit 37 and the second filter and color separation unit 38 operate the spatial low-pass filter (LPF) and simultaneously perform color separation. Yes. Therefore, the spatial low-pass filter (LPF) is also applied to a pixel with a large amount of motion for which the noise reduction effect by the three-dimensional noise reduction processing cannot be sufficiently obtained, so that sufficient noise reduction can be performed. . In addition, since the spatial low-pass filter (LPF) is applied and color separation is performed simultaneously, the data amount is reduced compared to the case where the spatial low-pass filter (LPF) is applied for each color, and processing is performed. Can be simplified.

(ノイズ低減装置の第2の実施形態)
次に、画像処理部4に含まれるノイズ低減装置の第2の実施形態について説明する。図17は、本発明の第2の実施形態に係るノイズ低減装置50の概略の構成を示すブロック図である。なお、ノイズ低減装置50においては、第1の実施形態に係るノイズ低減装置30と同一の部分には同一の符号を付し、その詳細な説明は省略する。ノイズ低減装置50は、ノイズ低減装置30と異なる構成として、動き検出部32より入力された各画素の動き量から、色ごとに異なる各画素の重み係数α(R)、α(G)、α(B)を算出し、これを重み付け加算部52に出力する重み係数検出部51と;第1のフィルタ及び色分離部37より入力されたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)と、第2のフィルタ及び色分離部38より入力されたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)とを、重み係数検出部51より入力された、色ごとに異なる各画素の重み係数α(R)、α(G)、α(B)によって色ごとに重み付け加算し、得られたR、G、B各色の出力信号O(R)、O(G)、O(B)を後段に出力する(つまり、O(R)=L1(R)×α(R)+L2(R)×(1−α(R))、O(G)=L1(G)×α(G)+L2(G)×(1−α(G))、O(B)=L1(B)×α(B)+L2(B)×(1−α(B))である)重み付け加算部52と;を有している。
(Second Embodiment of Noise Reduction Device)
Next, a second embodiment of the noise reduction device included in the image processing unit 4 will be described. FIG. 17 is a block diagram showing a schematic configuration of a noise reduction device 50 according to the second embodiment of the present invention. In the noise reduction device 50, the same parts as those of the noise reduction device 30 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. The noise reduction device 50 has a configuration different from that of the noise reduction device 30, and the weighting coefficients α (R), α (G), α of each pixel, which are different for each color, from the amount of movement of each pixel input from the motion detection unit 32. (B) is calculated and is output to the weighted addition unit 52; the weighting coefficient detection unit 51; and the first filtered signal L1 (R1, G, B color input from the first filter and color separation unit 37) R), L1 (G), L1 (B) and the second post-filter signals L2 (R), L2 (G), L2 of the R, G, B colors inputted from the second filter and color separation unit 38 (B) is weighted and added for each color using the weighting factors α (R), α (G), and α (B) of each pixel that is input from the weighting factor detection unit 51 and that is different for each color. Output signals O (R), O (G), and O (B) for R, G, and B colors are output to the subsequent stage. O (R) = L1 (R) × α (R) + L2 (R) × (1−α (R)), O (G) = L1 (G) × α (G) + L2 (G) × ( 1- [alpha] (G)), O (B) = L1 (B) * [alpha] (B) + L2 (B) * (1- [alpha] (B))).

次に、重み係数検出部51の詳細について説明する。重み係数検出部51は、動き検出部32より入力された各画素の動き量yに対して、色ごとに閾値thaを変えた、数3式及び図16に示されるh(y)を算出することによって、色ごとに異なる重み係数α(R)、α(G)、α(B)を算出し、これを重み付け加算部52に出力する。   Next, details of the weighting coefficient detection unit 51 will be described. The weighting coefficient detection unit 51 calculates the equation (3) and h (y) shown in FIG. 16 by changing the threshold value tha for each color with respect to the motion amount y of each pixel input from the motion detection unit 32. Thus, different weighting factors α (R), α (G), and α (B) are calculated for each color, and are output to the weighted addition unit 52.

具体的には、色Rに対する閾値thaをthRとし、色Gに対する閾値thaをthGとし、色Bに対する閾値thaをthBとした場合には、thR=thB<thGとすることが望ましい。これによると、輝度信号への寄与度が高い色Gのぼけを抑制することができる。   Specifically, when the threshold value tha for the color R is thR, the threshold value tha for the color G is thG, and the threshold value tha for the color B is thB, it is desirable that thR = thB <thG. According to this, it is possible to suppress the blurring of the color G that has a high contribution to the luminance signal.

(ノイズ低減装置の第3の実施形態)
次に、画像処理部4に含まれるノイズ低減装置の第3の実施形態について説明する。図18は、本発明の第3の実施形態に係るノイズ低減装置60の概略の構成を示すブロック図である。なお、ノイズ低減装置60においては、第1の実施形態に係るノイズ低減装置30と同一の部分には同一の符号を付し、その詳細な説明は省略する。ノイズ低減装置60は、ノイズ低減装置30と異なる構成として、減算器36より信号が入力され、重み付け加算部66に信号を出力する水平フィルタ及び色分離部61と;減算器36より信号が入力され、重み付け加算部66に信号を出力する垂直フィルタ及び色分離部62と;動き検出部32より信号が入力され、第2の重み係数検出部65に信号を出力する相関方向検出部63と;動き検出部32より信号が入力され、第2の重み係数検出部65に信号を出力する第1の重み係数検出部64と;相関方向検出部63及び第1の重み係数検出部64より信号が入力され、重み付け加算部66に信号を出力する第2の重み係数検出部65と;第2のフィルタ及び色分離部38、水平フィルタ及び色分離部61、垂直フィルタ及び色分離部62、及び第2の重み係数検出部65より信号が入力され、後段に信号を出力する重み付け加算部66と;を有している。また、ノイズ低減装置60は、ノイズ低減装置30が有していた第1のフィルタ及び色分離部37を有していない。
(Third Embodiment of Noise Reduction Device)
Next, a third embodiment of the noise reduction device included in the image processing unit 4 will be described. FIG. 18 is a block diagram showing a schematic configuration of a noise reduction device 60 according to the third embodiment of the present invention. In addition, in the noise reduction apparatus 60, the same code | symbol is attached | subjected to the part same as the noise reduction apparatus 30 which concerns on 1st Embodiment, and the detailed description is abbreviate | omitted. The noise reduction device 60 has a configuration different from that of the noise reduction device 30. The signal is input from the subtractor 36, and the horizontal filter and color separation unit 61 outputs the signal to the weighted addition unit 66; the signal is input from the subtractor 36. A vertical filter and color separation unit 62 that outputs a signal to the weighting addition unit 66; a correlation direction detection unit 63 that receives a signal from the motion detection unit 32 and outputs a signal to the second weighting factor detection unit 65; A signal is input from the detection unit 32, and a signal is input from the correlation direction detection unit 63 and the first weighting factor detection unit 64; a first weighting factor detection unit 64 that outputs a signal to the second weighting factor detection unit 65; A second weight coefficient detection unit 65 that outputs a signal to the weighted addition unit 66; a second filter and color separation unit 38, a horizontal filter and color separation unit 61, a vertical filter and color separation unit 6; , And a second signal from the weight coefficient detecting unit 65 is input, the weighted addition unit 66 for outputting a signal to the subsequent stage; and a. Further, the noise reduction device 60 does not have the first filter and color separation unit 37 that the noise reduction device 30 has.

ここで、ノイズ低減装置60の動作の概略について説明する。まず、外部からの現フレームの信号(ベイヤーデータ)が、ノイズ検出部31、動き検出部32、及び減算器36に入力される。また、フレームメモリ34からの現フレームの1フレーム前の信号が、ノイズ検出部31及び動き検出部32に入力される。すると、ノイズ低減処理部31は、第1の実施形態と同様に、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素のノイズ検出値を算出し、これを乗算器35に出力する。   Here, an outline of the operation of the noise reduction device 60 will be described. First, an external current frame signal (Bayer data) is input to the noise detector 31, the motion detector 32, and the subtractor 36. Further, a signal one frame before the current frame from the frame memory 34 is input to the noise detection unit 31 and the motion detection unit 32. Then, similarly to the first embodiment, the noise reduction processing unit 31 calculates the noise detection value of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34. This is calculated and output to the multiplier 35.

そして、次に、動き検出部32が、第1の実施形態と同様に、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素の動き量を算出し、これを帰還係数検出部33、相関方向検出部63、及び第1の重み係数検出部64に出力する。すると、帰還係数検出部33が、第1の実施形態と同様に、動き検出部32より入力された各画素の動き量から各画素の帰還係数kを算出し、これを乗算器35に出力する。また、相関方向検出部63が、動き検出部32より入力された各画素の動き量から各画素の水平方向相関値dvと、垂直方向相関値dhを算出し、これを第2の重み係数検出部65に出力する。また、第1の重み係数検出部64が、動き検出部32より入力された各画素の動き量から各画素の重み係数βを算出し、これを第2の重み係数検出部65に出力する。   Next, as in the first embodiment, the motion detection unit 32 determines the amount of motion of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34. Is output to the feedback coefficient detector 33, the correlation direction detector 63, and the first weight coefficient detector 64. Then, the feedback coefficient detection unit 33 calculates the feedback coefficient k of each pixel from the motion amount of each pixel input from the motion detection unit 32 and outputs this to the multiplier 35 as in the first embodiment. . Further, the correlation direction detection unit 63 calculates the horizontal direction correlation value dv and the vertical direction correlation value dh of each pixel from the amount of motion of each pixel input from the motion detection unit 32, and uses this to detect the second weight coefficient. To the unit 65. Further, the first weight coefficient detection unit 64 calculates the weight coefficient β of each pixel from the motion amount of each pixel input from the motion detection unit 32, and outputs this to the second weight coefficient detection unit 65.

そして、次に、乗算器35が、第1の実施形態と同様に、ノイズ検出部31より入力された各画素のノイズ検出値と、帰還係数検出部33より入力された各画素の帰還係数kとを乗算し、得られた各画素の減算ノイズ値を減算器36へ出力する。すると、減算器36が、第1の実施形態と同様に、外部より入力された現フレームの信号から、乗算器35より入力された各画素の減算ノイズ値を減算し、得られた3次元ノイズ低減後信号をフレームメモリ34、第2のフィルタ及び色分離部38、水平フィルタ及び色分離部61、及び垂直フィルタ及び色分離部62に出力する。   Next, as in the first embodiment, the multiplier 35 detects the noise detection value of each pixel input from the noise detection unit 31 and the feedback coefficient k of each pixel input from the feedback coefficient detection unit 33. And the obtained subtraction noise value of each pixel is output to the subtractor 36. Then, as in the first embodiment, the subtractor 36 subtracts the subtraction noise value of each pixel input from the multiplier 35 from the signal of the current frame input from the outside, and the obtained three-dimensional noise. The reduced signal is output to the frame memory 34, the second filter and color separation unit 38, the horizontal filter and color separation unit 61, and the vertical filter and color separation unit 62.

そして、次に、第2のフィルタ及び色分離部38が、第1の実施形態と同様に、減算器36より入力された3次元ノイズ低減後信号に対して空間的なローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)を重み付け加算部66に出力する。また、水平フィルタ及び色分離部61が、減算器36より入力された3次元ノイズ低減後信号に対して水平方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の水平フィルタ後信号LH(R)、LH(G)、LH(B)を重み付け加算部66に出力する。また、垂直フィルタ及び色分離部62が、減算器36より入力された3次元ノイズ低減後信号に対して垂直方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の垂直フィルタ後信号LV(R)、LV(G)、LV(B)を重み付け加算部66に出力する。また、第2の重み係数検出部65が、相関方向検出部63より入力された各画素の水平方向相関値dv及び垂直方向相関値dhと、第1の重み係数検出部64より入力された各画素の重み係数βとから、各画素の水平方向重み係数γと、垂直方向重み係数δとを算出し、これを重み付け加算部66に出力する。   Next, as in the first embodiment, the second filter and color separation unit 38 applies a spatial low-pass filter (LPF) to the three-dimensional noise-reduced signal input from the subtractor 36. At the same time, the color separation is performed, and the obtained second filtered signals L2 (R), L2 (G), and L2 (B) of the respective colors R, G, and B are output to the weighted addition unit 66. In addition, the horizontal filter and color separation unit 61 applies a horizontal low-pass filter (LPF) to the three-dimensional noise-reduced signal input from the subtractor 36 and simultaneously performs color separation. The horizontal filtered signals LH (R), LH (G), and LH (B) for the G and B colors are output to the weighted addition unit 66. Further, the vertical filter and color separation unit 62 applies a low-pass filter (LPF) in the vertical direction to the three-dimensional noise-reduced signal input from the subtractor 36 and simultaneously performs color separation. The vertical filtered signals LV (R), LV (G), and LV (B) for the G and B colors are output to the weighted addition unit 66. In addition, the second weighting coefficient detection unit 65 receives the horizontal direction correlation value dv and the vertical direction correlation value dh of each pixel input from the correlation direction detection unit 63, and each input from the first weighting coefficient detection unit 64. From the pixel weighting factor β, the horizontal weighting factor γ and the vertical weighting factor δ of each pixel are calculated and output to the weighting addition unit 66.

そして、次に、重み付け加算部66が、第2のフィルタ及び色分離部38より入力されたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)と、水平フィルタ及び色分離部61より入力されたR、G、B各色の水平フィルタ後信号LH(R)、LH(G)、LH(B)と、垂直フィルタ及び色分離部62より入力されたR、G、B各色の垂直フィルタ後信号LV(R)、LV(G)、LV(B)とを、第2の重み係数検出部65より入力された各画素の水平方向重み係数γと、垂直方向重み係数δとによって色ごとに重み付け加算し(つまり、O(R)=L(R)×(1−γ−δ)+LH(R)×γ+LV(R)×δ、O(G)=L(G)×(1−γ−δ)+LH(G)×γ+LV(G)×δ、O(B)=L(B)×(1−γ−δ)+LH(B)×γ+LV(B)×δである)、得られたR、G、B各色の出力信号O(R)、O(G)、O(B)を後段に出力する。   Next, the weighted addition unit 66 receives the second filtered signals L2 (R), L2 (G), and L2 (B) of the R, G, and B colors input from the second filter and color separation unit 38. And R, G and B horizontal filtered signals LH (R), LH (G) and LH (B) input from the horizontal filter and color separation unit 61 and a vertical filter and color separation unit 62. The vertical filtered signals LV (R), LV (G), and LV (B) of the R, G, and B colors are used as the horizontal weighting factor γ of each pixel input from the second weighting factor detection unit 65. , And weighting addition for each color by the vertical direction weighting coefficient δ (that is, O (R) = L (R) × (1−γ−δ) + LH (R) × γ + LV (R) × δ, O (G) = L (G) * (1- [gamma]-[delta]) + LH (G) * [gamma] + LV (G) * [delta], O (B) = L (B) * (1- [gamma]-[delta]. + LH (B) is a × γ + LV (B) × δ), obtained R, G, B colors of the output signal O (R), O (G), and outputs O and (B) in the subsequent stage.

次に、水平フィルタ及び色分離部61の詳細について説明する。水平フィルタ及び色分離部61は、減算器36より入力された3次元ノイズ低減後信号(ベイヤーデータ)に対して水平方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の水平フィルタ後信号LH(R)、LH(G)、LH(B)を重み付け加算部66に出力するものである。   Next, details of the horizontal filter and color separation unit 61 will be described. The horizontal filter and color separation unit 61 obtained the color separation by simultaneously applying the horizontal low-pass filter (LPF) to the three-dimensional noise-reduced signal (Bayer data) input from the subtractor 36. The horizontal filtered signals LH (R), LH (G), and LH (B) for the R, G, and B colors are output to the weighted addition unit 66.

具体的には、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、図19(a)に示されるフィルタを用いて色Gの信号値を取得し、図19(b)に示されるフィルタを用いて色Bの信号値を取得し、色Rについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Specifically, for the target pixel from which the signal value of color R is obtained in the Bayer data, the signal value of color G is acquired using the filter shown in FIG. 19A, and FIG. The signal value of color B is acquired using the filter shown, and the signal value obtained in the Bayer data is used as it is for color R.

つまり、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、LH(G)=1/8×S(−2、1)+1/8×S(0、1)+1/8×S(2、1)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(−2、−1)+1/8×S(0、−1)+1/8×S(2、−1)によって色Gの信号値が取得される。   In other words, for a pixel of interest for which a color R signal value is obtained in Bayer data, LH (G) = 1/8 × S (−2,1) + 1/8 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1/8 × S (−2, −1) + 1/8 × S (0, −1) The signal value of the color G is acquired by + 1/8 × S (2, −1).

また、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、LH(B)=1/8×S(−3、1)+1/8×S(−1、1)+1/8×S(1、1)+1/8×S(3、1)+1/8×S(−3、−1)+1/8×S(−1、−1)+1/8×S(1、−1)+1/8×S(3、−1)によって色Bの信号値が取得される。   Further, for a target pixel for which a color R signal value is obtained in Bayer data, LH (B) = 1/8 × S (−3,1) + 1/8 × S (−1,1) +1/8. × S (1,1) + 1/8 × S (3,1) + 1/8 × S (−3, −1) + 1/8 × S (−1, −1) + 1/8 × S (1, − 1) The signal value of color B is acquired by + 1/8 × S (3, −1).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、図20(a)に示されるフィルタを用いて色Rの信号値を取得し、図20(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color R signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 20B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、LH(R)=1/16×S(−1、2)+1/16×S(1、2)+1/8×S(−3、0)+1/4×S(−1、0)+1/4×S(1、0)+1/8×S(3、0)+1/16×S(−1、−2)+1/16×S(1、−2)によって色Rの信号値が取得される。   That is, among the target pixels whose color G signal value is obtained in the Bayer data, LH (R) = 1 for pixels in which the left and right pixels are pixels whose color R signal value is obtained in the Bayer data / 16 × S (−1,2) + 1/16 × S (1,2) + 1/8 × S (−3,0) + 1/4 × S (−1,0) + 1/4 × S (1, 0) + 1/8 × S (3,0) + 1/16 × S (−1, −2) + 1/16 × S (1, −2) is obtained as the signal value of color R.

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、LH(B)=1/8×S(−2、1)+1/4×S(0、1)+1/8×S(2、1)+1/8×S(−2、−1)+1/4×S(0、−1)+1/8×S(2、−1)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, LH (B) = 1 for the pixels in which the left and right pixels are for which the color R signal value is obtained in the Bayer data / 8 × S (−2,1) + 1/4 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−2, −1) + 1/4 × S (0, -1) The signal value of color B is acquired by + 1/8 × S (2, -1).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、図21(a)に示されるフィルタを用いて色Rの信号値を取得し、図21(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Of the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are pixels for which the color B signal value is obtained in the Bayer data, as shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 21B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、LH(R)=1/8×S(−2、1)+1/4×S(0、1)+1/8×S(2、1)+1/8×S(−2、−1)+1/4×S(0、−1)+1/8×S(2、−1)によって色Rの信号値が取得される。   That is, among the target pixels whose color G signal value is obtained in the Bayer data, LH (R) = 1 for pixels in which the left and right pixels are pixels whose color B signal value is obtained in the Bayer data / 8 × S (−2,1) + 1/4 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−2, −1) + 1/4 × S (0, -1) The signal value of the color R is acquired by + 1/8 × S (2, -1).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、LH(B)=1/16×S(−1、2)+1/16×S(1、2)+1/8×S(−3、0)+1/4×S(−1、0)+1/4×S(1、0)+1/8×S(3、0)+1/16×S(−1、−2)+1/16×S(1、−2)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, LH (B) = 1 for pixels in which the left and right pixels are those for which the color B signal value is obtained in the Bayer data / 16 × S (−1,2) + 1/16 × S (1,2) + 1/8 × S (−3,0) + 1/4 × S (−1,0) + 1/4 × S (1, 0) + 1/8 × S (3,0) + 1/16 × S (−1, −2) + 1/16 × S (1, −2) is obtained as the signal value of color B.

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、図22(a)に示されるフィルタを用いて色Rの信号値を取得し、図22(b)に示されるフィルタを用いて色Gの信号値を取得し、色Bについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   For the target pixel from which the signal value of color B is obtained in the Bayer data, the signal value of color R is obtained using the filter shown in FIG. 22A, and the filter shown in FIG. Is used to acquire the signal value of the color G, and for the color B, the signal value obtained in the Bayer data is used as it is.

つまり、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、LH(R)=1/8×S(−3、1)+1/8×S(−1、1)+1/8×S(1、1)+1/8×S(3、1)+1/8×S(−3、−1)+1/8×S(−1、−1)+1/8×S(1、−1)+1/8×S(3、−1)によって色Rの信号値が取得される。   That is, for a target pixel for which a color B signal value is obtained in Bayer data, LH (R) = 1/8 × S (−3, 1) + 1/8 × S (−1, 1) +1/8. × S (1,1) + 1/8 × S (3,1) + 1/8 × S (−3, −1) + 1/8 × S (−1, −1) + 1/8 × S (1, − 1) The signal value of the color R is acquired by + 1/8 × S (3, −1).

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、LH(G)=1/8×S(−2、1)+1/8×S(0、1)+1/8×S(2、1)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(−2、−1)+1/8×S(0、−1)+1/8×S(2、−1)によって色Gの信号値が取得される。   Further, for a target pixel for which a signal value of color B is obtained in Bayer data, LH (G) = 1/8 × S (−2,1) + 1/8 × S (0,1) + 1/8 × S (2,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1/8 × S (−2, −1) + 1/8 × S (0, −1) The signal value of the color G is acquired by + 1/8 × S (2, −1).

なお、水平フィルタ及び色分離部61の回路構成及びその動作については、上述した第2のフィルタ及び色分離部38の回路構成及びその動作とほぼ同一であるので(x及びyが−3、−2、−1、0、1、2、3の各値を取るものである点が異なるのみ)、その説明は省略することとする。   The circuit configuration and operation of the horizontal filter and color separation unit 61 are substantially the same as the circuit configuration and operation of the second filter and color separation unit 38 described above (x and y are −3, − 2), -1, 0, 1, 2, and 3), and the description thereof will be omitted.

次に、垂直フィルタ及び色分離部62の詳細について説明する。垂直フィルタ及び色分離部62は、減算器36より入力された3次元ノイズ低減後信号(ベイヤーデータ)に対して垂直方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の垂直フィルタ後信号LV(R)、LV(G)、LV(B)を重み付け加算部66に出力するものである。   Next, details of the vertical filter and color separation unit 62 will be described. The vertical filter and color separation unit 62 applies a low-pass filter (LPF) in the vertical direction to the three-dimensional noise-reduced signal (Bayer data) input from the subtractor 36, and at the same time performs color separation. The R, G, and B vertical filtered signals LV (R), LV (G), and LV (B) are output to the weighted addition unit 66.

具体的には、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、図23(a)に示されるフィルタを用いて色Gの信号値を取得し、図23(b)に示されるフィルタを用いて色Bの信号値を取得し、色Rについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Specifically, for the target pixel from which the signal value of color R is obtained in the Bayer data, the signal value of color G is acquired using the filter shown in FIG. The signal value of color B is acquired using the filter shown, and the signal value obtained in the Bayer data is used as it is for color R.

つまり、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、LV(G)=1/8×S(−1、2)+1/8×S(1、2)+1/8×S(0、1)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(0、−1)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Gの信号値が取得される。   That is, for a target pixel for which a color R signal value is obtained in Bayer data, LV (G) = 1/8 × S (−1,2) + 1/8 × S (1,2) + 1/8 × S (0,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1/8 × S (0, −1) + 1/8 × S (−1, −2) The signal value of the color G is acquired by + 1/8 × S (1, -2).

また、ベイヤーデータにおいて色Rの信号値が得られている注目画素については、LV(B)=1/8×S(−1、3)+1/8×S(1、3)+1/8×S(−1、1)+1/8×S(1、1)+1/8×S(−1、−1)+1/8×S(1、−1)+1/8×S(−1、−3)+1/8×S(1、−3)によって色Bの信号値が取得される。   In addition, with respect to the pixel of interest for which the color R signal value is obtained in the Bayer data, LV (B) = 1/8 × S (−1,3) + 1/8 × S (1,3) + 1/8 × S (-1,1) + 1/8 * S (1,1) + 1/8 * S (-1, -1) + 1/8 * S (1, -1) + 1/8 * S (-1,- 3) The signal value of color B is acquired by + 1/8 × S (1, -3).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、図24(a)に示されるフィルタを用いて色Rの信号値を取得し、図24(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color R signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 24B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、LV(R)=1/8×S(−1、2)+1/8×S(1、2)+1/4×S(−1、0)+1/4×S(1、0)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Rの信号値が取得される。   That is, among the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are pixels for which the color R signal value is obtained in the Bayer data, LV (R) = 1. / 8 × S (−1,2) + 1/8 × S (1,2) + 1/4 × S (−1,0) + 1/4 × S (1,0) + 1/8 × S (−1, -2) The signal value of color R is acquired by + 1/8 × S (1, -2).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素であるものについては、LV(B)=1/8×S(0、3)+1/16×S(−2、1)+1/4×S(0、1)+1/16×S(2、1)+1/16×S(−2、−1)+1/4×S(0、−1)+1/16×S(2、−1)+1/8×S(0、−3)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are those for which the color R signal value is obtained in the Bayer data, and LV (B) = 1. / 8 × S (0,3) + 1/16 × S (−2,1) + 1/4 × S (0,1) + 1/16 × S (2,1) + 1/16 × S (−2, − 1) The signal value of color B is acquired by + 1/4 × S (0, −1) + 1/16 × S (2, −1) + 1/8 × S (0, -3).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、図25(a)に示されるフィルタを用いて色Rの信号値を取得し、図25(b)に示されるフィルタを用いて色Bの信号値を取得し、色Gについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   Among the target pixels whose color G signal value is obtained in the Bayer data, those in which the left and right pixels are pixels whose color B signal value is obtained in the Bayer data are shown in FIG. The signal value of color R is obtained using the filter shown, the signal value of color B is obtained using the filter shown in FIG. 25B, and the signal value obtained in the Bayer data is obtained for color G. It will be used as it is.

つまり、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、LV(R)=1/8×S(0、3)+1/16×S(−2、1)+1/4×S(0、1)+1/16×S(2、1)+1/16×S(−2、−1)+1/4×S(0、−1)+1/16×S(2、−1)+1/8×S(0、−3)によって色Rの信号値が取得される。   That is, among the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are pixels for which the color B signal value is obtained in the Bayer data, LV (R) = 1. / 8 × S (0,3) + 1/16 × S (−2,1) + 1/4 × S (0,1) + 1/16 × S (2,1) + 1/16 × S (−2, − 1) The signal value of the color R is acquired by + 1/4 × S (0, −1) + 1/16 × S (2, −1) + 1/8 × S (0, -3).

また、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素であるものについては、LV(B)=1/8×S(−1、2)+1/8×S(1、2)+1/4×S(−1、0)+1/4×S(1、0)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Bの信号値が取得される。   Of the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are pixels for which the color B signal value is obtained in the Bayer data, and LV (B) = 1. / 8 × S (−1,2) + 1/8 × S (1,2) + 1/4 × S (−1,0) + 1/4 × S (1,0) + 1/8 × S (−1, -2) The signal value of color B is acquired by + 1/8 * S (1, -2).

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、図26(a)に示されるフィルタを用いて色Rの信号値を取得し、図26(b)に示されるフィルタを用いて色Gの信号値を取得し、色Bについてはベイヤーデータにおいて得られている信号値をそのまま用いることとする。   For the pixel of interest for which the signal value of color B is obtained in the Bayer data, the signal value of color R is obtained using the filter shown in FIG. 26A, and the filter shown in FIG. Is used to acquire the signal value of the color G, and for the color B, the signal value obtained in the Bayer data is used as it is.

つまり、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、LV(R)=1/8×S(−1、3)+1/8×S(1、3)+1/8×S(−1、1)+1/8×S(1、1)+1/8×S(−1、−1)+1/8×S(1、−1)+1/8×S(−1、−3)+1/8×S(1、−3)によって色Rの信号値が取得される。   That is, for a target pixel for which a color B signal value is obtained in Bayer data, LV (R) = 1/8 × S (−1,3) + 1/8 × S (1,3) + 1/8 × S (-1,1) + 1/8 * S (1,1) + 1/8 * S (-1, -1) + 1/8 * S (1, -1) + 1/8 * S (-1,- 3) The signal value of color R is acquired by + 1/8 × S (1, -3).

また、ベイヤーデータにおいて色Bの信号値が得られている注目画素については、LV(G)=1/8×S(−1、2)+1/8×S(1、2)+1/8×S(0、1)+1/8×S(−1、0)+1/8×S(1、0)+1/8×S(0、−1)+1/8×S(−1、−2)+1/8×S(1、−2)によって色Gの信号値が取得される。   For the target pixel for which the color B signal value is obtained in the Bayer data, LV (G) = 1/8 × S (−1,2) + 1/8 × S (1,2) + 1/8 × S (0,1) + 1/8 × S (−1,0) + 1/8 × S (1,0) + 1/8 × S (0, −1) + 1/8 × S (−1, −2) The signal value of the color G is acquired by + 1/8 × S (1, -2).

なお、垂直フィルタ及び色分離部62の回路構成及びその動作については、上述した第2のフィルタ及び色分離部38の回路構成及びその動作とほぼ同一であるので(x及びyが−3、−2、−1、0、1、2、3の各値を取るものである点が異なるのみ)、その説明は省略することとする。   Note that the circuit configuration and operation of the vertical filter and color separation unit 62 are almost the same as the circuit configuration and operation of the second filter and color separation unit 38 described above (x and y are −3, − 2), -1, 0, 1, 2, and 3), and the description thereof will be omitted.

次に、相関方向検出部63の詳細について説明する。なお、以下では注目画素の座標を(0、0)、その動き量をV(0、0)とし、注目画素から右にx画素、上にy画素の位置にある画素の座標を(x、y)、その動き量をV(x、y)と表すこととする。つまり、注目画素から右に2画素、上に2画素の位置にある画素の座標を(2、2)、その動き量をV(2、2)と表し、注目画素から左に2画素、下に2画素の位置にある画素の座標を(−2、−2)、その動き量をV(−2、−2)と表すこととする。   Next, details of the correlation direction detection unit 63 will be described. In the following, the coordinates of the pixel of interest are (0, 0), the amount of movement is V (0, 0), and the coordinates of the pixel at the position of the x pixel to the right and the y pixel above the pixel of interest are y) The amount of movement is represented as V (x, y). That is, the coordinates of the pixel located two pixels to the right and two pixels above the target pixel are represented by (2, 2), and the amount of movement thereof is represented by V (2, 2). The coordinates of the pixel at the position of 2 pixels are represented as (−2, −2), and the amount of movement is represented as V (−2, −2).

相関方向検出部63は、動き検出部32より入力された各画素の動き量に対して垂直方向勾配検出フィルタを作用させることによって、各画素の水平方向相関値dvを算出し、また、動き検出部32より入力された各画素の動き量に対して水平方向勾配検出フィルタを作用させることによって、各画素の垂直方向相関値dhを算出し、これを第2の重み係数検出部65に出力するものである。   The correlation direction detection unit 63 calculates the horizontal direction correlation value dv of each pixel by applying a vertical gradient detection filter to the movement amount of each pixel input from the motion detection unit 32, and also detects motion. The vertical direction correlation value dh of each pixel is calculated by applying a horizontal direction gradient detection filter to the movement amount of each pixel input from the unit 32, and this is output to the second weight coefficient detection unit 65. Is.

具体的には、各画素の動き量について、図27(a)に示されるフィルタを用いて水平方向相関値dvを算出し、図27(b)に示されるフィルタを用いて垂直方向相関値dhを算出する。つまり、各画素の動き量について、dv=V(−1、1)+V(0、1)+V(1、1)−V(−1、−1)−V(0、−1)−V(1、−1)によって水平方向相関値dvが算出され、dh=V(−1、1)+V(−1、0)+V(−1、−1)−V(1、1)−V(1、0)−V(1、−1)によって垂直方向相関値dhが算出される。   Specifically, for the amount of movement of each pixel, the horizontal correlation value dv is calculated using the filter shown in FIG. 27A, and the vertical correlation value dh is calculated using the filter shown in FIG. Is calculated. That is, dv = V (−1,1) + V (0,1) + V (1,1) −V (−1, −1) −V (0, −1) −V ( 1, −1), the horizontal correlation value dv is calculated, and dh = V (−1,1) + V (−1,0) + V (−1, −1) −V (1,1) −V (1 , 0) −V (1, −1), the vertical correlation value dh is calculated.

なお、相関方向検出部63の回路構成及びその動作については、上述した第2のフィルタ及び色分離部38の回路構成及びその動作とほぼ同一であるので(各メモリm(x、y)が信号値S(x、y)ではなく、動き量V(x、y)を記憶及び出力し、また、係数選択部Aが各色の信号値の取得のためのフィルタ係数を生成するのではなく、水平方向相関値dv及び垂直方向相関値dhの算出のためのフィルタ係数を生成する点が異なるのみ)、その説明は省略することとする。   The circuit configuration and operation of the correlation direction detection unit 63 are almost the same as the circuit configuration and operation of the second filter and color separation unit 38 described above (each memory m (x, y) is a signal). The motion amount V (x, y) is stored and output instead of the value S (x, y), and the coefficient selection unit A does not generate a filter coefficient for acquiring the signal value of each color. The only difference is that filter coefficients for calculating the direction correlation value dv and the vertical direction correlation value dh are generated), and the description thereof will be omitted.

次に、第1の重み係数検出部64の詳細について説明する。第1の重み係数検出部64は、動き検出部32より入力された各画素の動き量yに対して、数3式及び図16に示されるh(y)を算出することによって、各画素の重み係数βを算出し、これを第2の重み係数検出部65に出力する。   Next, the details of the first weight coefficient detection unit 64 will be described. The first weight coefficient detection unit 64 calculates the equation (3) and h (y) shown in FIG. 16 with respect to the motion amount y of each pixel input from the motion detection unit 32, thereby obtaining each pixel's motion amount y. The weighting factor β is calculated and output to the second weighting factor detector 65.

次に、第2の重み係数検出部65の詳細について説明する。第2の重み係数検出部65は、相関方向検出部63より入力された各画素の水平方向相関値dv及び垂直方向相関値dhと、第1の重み係数検出部64より入力された各画素の重み係数βとに対して、以下の数4式を用いて各画素の水平方向重み係数γと、垂直方向重み係数δとを算出し、これを重み付け加算部66に出力する。

Figure 2008252767
Next, the details of the second weight coefficient detection unit 65 will be described. The second weight coefficient detection unit 65 receives the horizontal direction correlation value dv and the vertical direction correlation value dh of each pixel input from the correlation direction detection unit 63, and each pixel input from the first weight coefficient detection unit 64. With respect to the weighting coefficient β, the horizontal weighting coefficient γ and the vertical weighting coefficient δ of each pixel are calculated using the following formula 4, and output to the weighting addition unit 66.
Figure 2008252767

このとき、水平方向重み係数γは、重み係数βと、水平方向相関値dvとの増加に伴って増加する。そして、重み係数βは動き量の増加に伴って増加し、また、水平方向相関値dvは動き量が水平方向に強い相関を持つ場合に増加することから、動き量が大きく、動き量が水平方向に強い相関を持つ場合には、この場合に適した水平フィルタ及び色分離部61の影響が強められることとなる。   At this time, the horizontal weighting factor γ increases as the weighting factor β and the horizontal correlation value dv increase. The weight coefficient β increases as the amount of motion increases, and the horizontal direction correlation value dv increases when the amount of motion has a strong correlation in the horizontal direction, so that the amount of motion is large and the amount of motion is horizontal. When there is a strong correlation in the direction, the influence of the horizontal filter and color separation unit 61 suitable for this case is strengthened.

また、垂直方向重み係数δは、重み係数βと、垂直方向相関値dhとの増加に伴って増加する。そして、重み係数βは動き量の増加に伴って増加し、また、垂直方向相関値dhは動き量が垂直方向に強い相関を持つ場合に増加することから、動き量が大きく、動き量が垂直方向に強い相関を持つ場合には、この場合に適した垂直フィルタ及び色分離部62の影響が強められることとなる。   Further, the vertical weighting factor δ increases as the weighting factor β and the vertical correlation value dh increase. The weight coefficient β increases as the amount of motion increases, and the vertical correlation value dh increases when the amount of motion has a strong correlation in the vertical direction, so that the amount of motion is large and the amount of motion is vertical. When there is a strong correlation in the direction, the influence of the vertical filter and the color separation unit 62 suitable for this case is strengthened.

(ノイズ低減装置の第4の実施形態)
次に、画像処理部4に含まれるノイズ低減装置の第4の実施形態について説明する。図28は、本発明の第4の実施形態に係るノイズ低減装置70の概略の構成を示すブロック図である。なお、ノイズ低減装置70においては、第1の実施形態に係るノイズ低減装置30及び第3の実施形態に係るノイズ低減装置60と同一の部分には同一の符号を付し、その詳細な説明は省略する。ノイズ低減装置70は、ノイズ低減装置30及びノイズ低減装置60と異なる構成として、相関方向検出部63及び第1の重み係数検出部64より信号が入力され、重み付け加算部72に信号を出力する第2の重み係数検出部71と;第1のフィルタ及び色分離部37、第2のフィルタ及び色分離部38、水平フィルタ及び色分離部61、垂直フィルタ及び色分離部62、及び第2の重み係数検出部71より信号が入力され、後段に信号を出力する重み付け加算部72と;を有している。
(Fourth Embodiment of Noise Reduction Device)
Next, a fourth embodiment of the noise reduction device included in the image processing unit 4 will be described. FIG. 28 is a block diagram showing a schematic configuration of a noise reduction apparatus 70 according to the fourth embodiment of the present invention. Note that, in the noise reduction device 70, the same parts as those of the noise reduction device 30 according to the first embodiment and the noise reduction device 60 according to the third embodiment are denoted by the same reference numerals, and detailed description thereof will be given. Omitted. The noise reduction device 70 is configured differently from the noise reduction device 30 and the noise reduction device 60, and receives a signal from the correlation direction detection unit 63 and the first weight coefficient detection unit 64 and outputs a signal to the weighting addition unit 72. A second weight coefficient detection unit 71; a first filter and color separation unit 37, a second filter and color separation unit 38, a horizontal filter and color separation unit 61, a vertical filter and color separation unit 62, and a second weight A weighted addition unit 72 that receives a signal from the coefficient detection unit 71 and outputs the signal to a subsequent stage.

ここで、ノイズ低減装置70の動作の概略について説明する。まず、外部からの現フレームの信号(ベイヤーデータ)が、ノイズ検出部31、動き検出部32、及び減算器36に入力される。また、フレームメモリ34からの現フレームの1フレーム前の信号が、ノイズ検出部31及び動き検出部32に入力される。すると、第1の実施形態と同様に、ノイズ低減処理部31は、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素のノイズ検出値を算出し、これを乗算器35に出力する。   Here, an outline of the operation of the noise reduction device 70 will be described. First, an external current frame signal (Bayer data) is input to the noise detector 31, the motion detector 32, and the subtractor 36. Further, a signal one frame before the current frame from the frame memory 34 is input to the noise detection unit 31 and the motion detection unit 32. Then, as in the first embodiment, the noise reduction processing unit 31 calculates the noise detection value of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34. This is calculated and output to the multiplier 35.

そして、次に、動き検出部32が、第1の実施形態と同様に、外部より入力された現フレームの信号と、フレームメモリ34より入力された1フレーム前の信号とから各画素の動き量を算出し、これを帰還係数検出部33、相関方向検出部63、及び第1の重み係数検出部64に出力する。すると、帰還係数検出部33が、第1の実施形態と同様に、動き検出部32より入力された各画素の動き量から各画素の帰還係数kを算出し、これを乗算器35に出力する。また、相関方向検出部63が、第3の実施形態と同様に、動き検出部32より入力された各画素の動き量から各画素の水平方向相関値dvと、垂直方向相関値dhを算出し、これを第2の重み係数検出部71に出力する。また、第1の重み係数検出部64が、第3の実施形態と同様に、動き検出部32より入力された各画素の動き量から各画素の重み係数βを算出し、これを第2の重み係数検出部71に出力する。   Next, as in the first embodiment, the motion detection unit 32 determines the amount of motion of each pixel from the signal of the current frame input from the outside and the signal of the previous frame input from the frame memory 34. Is output to the feedback coefficient detector 33, the correlation direction detector 63, and the first weight coefficient detector 64. Then, the feedback coefficient detection unit 33 calculates the feedback coefficient k of each pixel from the motion amount of each pixel input from the motion detection unit 32 and outputs this to the multiplier 35 as in the first embodiment. . Similarly to the third embodiment, the correlation direction detection unit 63 calculates the horizontal direction correlation value dv and the vertical direction correlation value dh of each pixel from the amount of movement of each pixel input from the motion detection unit 32. This is output to the second weighting coefficient detector 71. Also, the first weight coefficient detection unit 64 calculates the weight coefficient β of each pixel from the amount of motion of each pixel input from the motion detection unit 32, as in the third embodiment. The data is output to the weight coefficient detection unit 71.

そして、次に、乗算器35が、第1の実施形態と同様に、ノイズ検出部31より入力された各画素のノイズ検出値と、帰還係数検出部33より入力された各画素の帰還係数kとを乗算し、得られた各画素の減算ノイズ値を減算器36へ出力する。すると、減算器36が、第1の実施形態と同様に、外部より入力された現フレームの信号から、乗算器35より入力された各画素の減算ノイズ値を減算し、得られた3次元ノイズ低減後信号をフレームメモリ34、第1のフィルタ及び色分離部37、第2のフィルタ及び色分離部38、水平フィルタ及び色分離部61、及び垂直フィルタ及び色分離部62に出力する。   Next, as in the first embodiment, the multiplier 35 detects the noise detection value of each pixel input from the noise detection unit 31 and the feedback coefficient k of each pixel input from the feedback coefficient detection unit 33. And the obtained subtraction noise value of each pixel is output to the subtractor 36. Then, as in the first embodiment, the subtractor 36 subtracts the subtraction noise value of each pixel input from the multiplier 35 from the signal of the current frame input from the outside, and the obtained three-dimensional noise. The reduced signal is output to the frame memory 34, the first filter and color separation unit 37, the second filter and color separation unit 38, the horizontal filter and color separation unit 61, and the vertical filter and color separation unit 62.

そして、次に、第1のフィルタ及び色分離部37が、第1の実施形態と同様に、減算器36より入力された3次元ノイズ低減後信号に対して空間的なローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)を重み付け加算部72に出力する。また、第2のフィルタ及び色分離部38が、第1の実施形態と同様に、減算器36より入力された3次元ノイズ低減後信号に対して、第1のフィルタ及び色分離部37よりも高域の空間的なローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)を重み付け加算部72に出力する。   Next, the first filter and color separation unit 37 applies a spatial low-pass filter (LPF) to the three-dimensional noise-reduced signal input from the subtractor 36 as in the first embodiment. At the same time, the color separation is performed, and the obtained first filtered signals L1 (R), L1 (G), and L1 (B) of the respective colors R, G, and B are output to the weighted adder 72. In addition, the second filter and color separation unit 38 is more effective than the first filter and color separation unit 37 with respect to the three-dimensional noise-reduced signal input from the subtractor 36, as in the first embodiment. A high-pass spatial low-pass filter (LPF) is applied and color separation is performed at the same time, and the obtained second filtered signals L2 (R), L2 (G), and L2 (B) for the respective colors R, G, and B are obtained. Is output to the weighted addition unit 72.

また、水平フィルタ及び色分離部61が、第3の実施形態と同様に、減算器36より入力された3次元ノイズ低減後信号に対して水平方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の水平フィルタ後信号LH(R)、LH(G)、LH(B)を重み付け加算部72に出力する。また、垂直フィルタ及び色分離部62が、第3の実施形態と同様に、減算器36より入力された3次元ノイズ低減後信号に対して垂直方向のローパスフィルタ(LPF)を作用させると同時に色分離を行い、得られたR、G、B各色の垂直フィルタ後信号LV(R)、LV(G)、LV(B)を重み付け加算部72に出力する。また、第2の重み係数検出部71が、相関方向検出部63より入力された各画素の水平方向相関値dv及び垂直方向相関値dhと、第1の重み係数検出部64より入力された各画素の重み係数βとから、各画素の第1重み係数εと、水平方向重み係数γと、垂直方向重み係数δとを算出し、これを重み付け加算部72に出力する。   Similarly to the third embodiment, the horizontal filter and color separation unit 61 applies a horizontal low-pass filter (LPF) to the three-dimensional noise-reduced signal input from the subtractor 36, and at the same time performs color Separation is performed, and the obtained horizontal filtered signals LH (R), LH (G), and LH (B) for the respective colors R, G, and B are output to the weighted adder 72. Similarly to the third embodiment, the vertical filter and color separation unit 62 applies a low-pass filter (LPF) in the vertical direction to the three-dimensional noise-reduced signal input from the subtractor 36 and at the same time performs color Separation is performed, and the obtained vertical filtered signals LV (R), LV (G), and LV (B) for the respective colors R, G, and B are output to the weighted adder 72. Further, the second weighting coefficient detection unit 71 receives the horizontal direction correlation value dv and the vertical direction correlation value dh of each pixel input from the correlation direction detection unit 63, and each input from the first weighting coefficient detection unit 64. From the pixel weighting factor β, a first weighting factor ε, a horizontal weighting factor γ, and a vertical weighting factor δ for each pixel are calculated and output to the weighting addition unit 72.

そして、次に、重み付け加算部72が、第1のフィルタ及び色分離部37より入力されたR、G、B各色の第1フィルタ後信号L1(R)、L1(G)、L1(B)と、第2のフィルタ及び色分離部38より入力されたR、G、B各色の第2フィルタ後信号L2(R)、L2(G)、L2(B)と、水平フィルタ及び色分離部61より入力されたR、G、B各色の水平フィルタ後信号LH(R)、LH(G)、LH(B)と、垂直フィルタ及び色分離部62より入力されたR、G、B各色の垂直フィルタ後信号LV(R)、LV(G)、LV(B)とを、第2の重み係数検出部71より入力された各画素の第1重み係数εと、水平方向重み係数γと、垂直方向重み係数δとによって色ごとに重み付け加算し(つまり、O(R)=L1(R)×ε+LH(R)×γ+LV(R)×δ+L2(R)×(1−γ−δ−ε)、O(G)=L1(G)×ε+LH(G)×γ+LV(G)×δ+L2(G)×(1−γ−δ−ε)、O(B)=L1(B)×ε+LH(B)×γ+LV(B)×δ+L2(B)×(1−γ−δ−ε)である)得られたR、G、B各色の出力信号O(R)、O(G)、O(B)を後段に出力する。   Next, the weighted adder 72 receives the first filtered signals L1 (R), L1 (G), and L1 (B) for the R, G, and B colors input from the first filter and the color separator 37. The second filtered signals L2 (R), L2 (G), and L2 (B) of R, G, and B colors input from the second filter and color separation unit 38, and the horizontal filter and color separation unit 61 The R, G, B horizontal filtered signals LH (R), LH (G), LH (B) inputted by the color filter and the vertical color of the R, G, B colors inputted by the vertical filter and color separation unit 62 are inputted. The filtered signals LV (R), LV (G), and LV (B) are input to the first weighting coefficient ε of each pixel input from the second weighting coefficient detection unit 71, the horizontal weighting coefficient γ, and the vertical Weighting is added for each color by the direction weighting coefficient δ (that is, O (R) = L1 (R) × ε + LH (R) × γ + LV (R) × δ + L2 (R) × (1−γ−δ−ε), O (G) = L1 (G) × ε + LH (G) × γ + LV (G) × δ + L2 (G) × (1-γ-δ-ε), O (B) = L1 (B) × ε + LH (B) × γ + LV (B) × δ + L2 (B) × (1-γ-δ-ε)) Output signals O (R), O (G), and O (B) for R, G, and B colors are output to the subsequent stage.

次に、第2の重み係数検出部71の詳細について説明する。第2の重み係数検出部71は、各画素について、水平方向相関値dvと、垂直方向相関値dhとの和が閾値Thξより小さければ、第1重み係数ε=β、水平方向重み係数γ=0、垂直方向重み係数δ=0と算出する一方、水平方向相関値dvと、垂直方向相関値dhとの和が閾値Thξ以上であれば、第1重み係数ε=0とし、水平方向重み係数γと、垂直方向重み係数δとは数4式を用いて算出し、これを重み付け加算部72へ出力する。   Next, details of the second weight coefficient detection unit 71 will be described. If the sum of the horizontal direction correlation value dv and the vertical direction correlation value dh is smaller than the threshold Thξ for each pixel, the second weighting coefficient detection unit 71 sets the first weighting coefficient ε = β and the horizontal direction weighting coefficient γ = If the sum of the horizontal direction correlation value dv and the vertical direction correlation value dh is equal to or greater than the threshold Thξ, the first weighting coefficient ε = 0 and the horizontal direction weighting coefficient is calculated. γ and the vertical weighting coefficient δ are calculated using Equation 4 and output to the weighting addition unit 72.

このとき、水平方向相関値dvと、垂直方向相関値dhとの和が閾値Thξより小さければ、つまり、動き量の水平方向の相関の強さと、動き量の垂直方向の相関の強さとの和が小さい場合には、この場合に適するように、第1のフィルタ及び色分離部37と、第2のフィルタ及び色分離部38との影響が強められる一方、水平フィルタ及び色分離部61と、垂直フィルタ及び色分離部62との影響は無くなることとなる。また、水平方向相関値dvと、垂直方向相関値dhとの和が閾値Thξより大きければ、つまり、動き量の水平方向の相関の強さと、動き量の垂直方向の相関の強さとの和が大きい場合には、この場合に適するように、水平フィルタ及び色分離部61と、垂直フィルタ及び色分離部62との影響が強められる一方、第1のフィルタ及び色分離部37による影響はなくなり、第2のフィルタ及び色分離部38による影響が弱められることとなる。   At this time, if the sum of the horizontal correlation value dv and the vertical correlation value dh is smaller than the threshold Thξ, that is, the sum of the horizontal correlation strength of the motion amount and the vertical correlation strength of the motion amount. Is small, the effects of the first filter and color separation unit 37 and the second filter and color separation unit 38 are enhanced, while the horizontal filter and color separation unit 61 are suitable. The influence of the vertical filter and color separation unit 62 is eliminated. If the sum of the horizontal correlation value dv and the vertical correlation value dh is larger than the threshold Thξ, that is, the sum of the horizontal correlation strength of the motion amount and the vertical correlation strength of the motion amount is If it is large, the effects of the horizontal filter and color separation unit 61 and the vertical filter and color separation unit 62 are strengthened as appropriate in this case, while the influence of the first filter and color separation unit 37 is eliminated. The influence of the second filter and color separation unit 38 is weakened.

なお、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明におけるノイズ低減方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明におけるノイズ低減方法を利用可能である。図29に、本発明におけるノイズ低減方法を行うノイズ低減装置(以下では、「画像処理部」に含まれる)を備えた表示装置を示す。   In the above description, the noise reduction method according to the present invention has been described by taking the image pickup apparatus having the configuration shown in FIG. 1 as an example. However, the present invention is not limited to the image pickup apparatus. The noise reduction method according to the present invention can also be used in a display device that performs processing. FIG. 29 shows a display device including a noise reduction device (hereinafter, included in “image processing unit”) that performs the noise reduction method of the present invention.

図29に示す表示装置は、図1に示す撮像装置と同様、画像処理部4、ディスプレイ9、TG12、CPU13、メモリ14、操作部15、及び、バス回線16、17を備える。そして、外部で受信した放送信号を選局するチューナ部21と、チューナ部21で選局した放送信号を復調する復調部22と、外部から入力されたデジタル信号となる圧縮信号が入力されるインターフェース23とを、更に備える。   The display device shown in FIG. 29 includes an image processing unit 4, a display 9, a TG 12, a CPU 13, a memory 14, an operation unit 15, and bus lines 16 and 17, similar to the imaging device shown in FIG. A tuner unit 21 that selects a broadcast signal received externally, a demodulator unit 22 that demodulates a broadcast signal selected by the tuner unit 21, and an interface to which a compressed signal that is a digital signal input from the outside is input. 23.

この図29の表示装置は、放送信号を受信する場合は、チューナ部21で所望のチャンネルの放送信号を選局した後、復調部22で放送信号を復調することで、画像信号が得られる。   29, when receiving a broadcast signal, the tuner unit 21 selects a broadcast signal of a desired channel, and then the demodulation unit 22 demodulates the broadcast signal to obtain an image signal.

そして、操作部15によって画像の表示が指示されると、復調部22で得られた画像信号が、画像処理部4に与えられ、上述のノイズ低減処理や色分離処理を含む各種画像処理が施された後に、得られた表示信号がディスプレイ9に与えられ、画像の表示がなされる。なお、図29においては省略したが、図1に示す撮像装置と同様に、音声出力回路部10、スピーカ11などを有することによって音声の出力を可能とする構成とすることも可能である。   When the display of the image is instructed by the operation unit 15, the image signal obtained by the demodulation unit 22 is given to the image processing unit 4, and various image processing including the above-described noise reduction processing and color separation processing is performed. After that, the obtained display signal is given to the display 9, and an image is displayed. Although omitted in FIG. 29, it is also possible to adopt a configuration that enables audio output by including the audio output circuit unit 10, the speaker 11, and the like, as in the imaging apparatus shown in FIG.

なお、本発明は上記の実施形態に限定されず、本発明の主旨を逸脱しない範囲で種々の変更が可能である。例えば、上記の第3の実施形態及び第4の実施形態においては、各画素の第1重み係数εと、水平方向重み係数γと、垂直方向重み係数δとを各色R、G、Bについて共通としたが、第2の実施形態と同様に、色ごとに異なるものとしてもよい。また、上記の実施形態においては、RAW画像信号は、ベイヤーデータであることとしたが、これに限られるものではない。また、上記の実施形態においては、イメージセンサ1が有する色フィルタは原色系のフィルタであることとしたが、補色系のフィルタであってもよい。   In addition, this invention is not limited to said embodiment, A various change is possible in the range which does not deviate from the main point of this invention. For example, in the third and fourth embodiments described above, the first weighting factor ε, the horizontal weighting factor γ, and the vertical weighting factor δ of each pixel are common to the colors R, G, and B. However, it may be different for each color as in the second embodiment. In the above embodiment, the RAW image signal is Bayer data, but is not limited to this. In the above embodiment, the color filter of the image sensor 1 is a primary color filter, but may be a complementary color filter.

本発明は、複数のフレームによって構成される動画像のノイズを低減するノイズ低減方法及びノイズ低減装置として有効である。また、本発明は、このノイズ低減装置を備えた電子機器として有効である。   INDUSTRIAL APPLICABILITY The present invention is effective as a noise reduction method and a noise reduction device that reduce noise in a moving image composed of a plurality of frames. The present invention is also effective as an electronic device equipped with this noise reduction device.

撮像装置の内部構成を示すブロック図。The block diagram which shows the internal structure of an imaging device. イメージセンサ1に設置されたフィルタの配置を示す説明図。FIG. 3 is an explanatory diagram showing the arrangement of filters installed in the image sensor 1. ノイズ低減装置30の概略の構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of a noise reduction device 30. 関数f(x)を示すグラフ。The graph which shows function f (x). 動き検出部32の概略の構成を示すブロック図。FIG. 3 is a block diagram showing a schematic configuration of a motion detection unit 32. 関数g(y)を示すグラフ。The graph which shows the function g (y). 第1のフィルタ及び色分離部37において、ベイヤーデータにおいて色Rの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 6 is an explanatory diagram showing a filter used for a pixel of interest for which a color R signal value is obtained in Bayer data in the first filter and color separation unit 37. 第1のフィルタ及び色分離部37において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the first filter and color separation unit 37, among the target pixels whose color G signal value is obtained in the Bayer data, the left and right pixels are pixels whose color R signal value is obtained in the Bayer data Explanatory drawing which shows the filter used for a pixel. 第1のフィルタ及び色分離部37において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the first filter and color separation unit 37, among the pixels of interest whose color G signal value is obtained in the Bayer data, the left and right pixels are pixels whose color B signal value is obtained in the Bayer data Explanatory drawing which shows the filter used for a pixel. 第1のフィルタ及び色分離部37において、ベイヤーデータにおいて色Bの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 6 is an explanatory diagram showing a filter used for a pixel of interest for which a color B signal value is obtained in Bayer data in the first filter and color separation unit 37. 第2のフィルタ及び色分離部38において、ベイヤーデータにおいて色Rの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 10 is an explanatory diagram showing a filter used for a pixel of interest for which a color R signal value is obtained in Bayer data in the second filter and color separation unit. 第2のフィルタ及び色分離部38において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the second filter and color separation unit 38, among the pixels of interest whose color G signal value is obtained in the Bayer data, the left and right pixels are pixels whose color R signal value is obtained in the Bayer data Explanatory drawing which shows the filter used for a pixel. 第2のフィルタ及び色分離部38において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the second filter and color separation unit 38, among the pixels of interest whose color G signal value is obtained in the Bayer data, the left and right pixels are pixels whose color B signal value is obtained in the Bayer data Explanatory drawing which shows the filter used for a pixel. 第2のフィルタ及び色分離部38において、ベイヤーデータにおいて色Bの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 7 is an explanatory diagram showing a filter used for a pixel of interest for which a color B signal value is obtained in Bayer data in the second filter and color separation unit. 第2のフィルタ及び色分離部38の回路構成を示すブロック図。The block diagram which shows the circuit structure of the 2nd filter and the color separation part 38. FIG. 関数h(y)を示すグラフ。The graph which shows the function h (y). ノイズ低減装置50の概略の構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of a noise reduction device 50. ノイズ低減装置60の概略の構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of a noise reduction device 60. 水平フィルタ及び色分離部61において、ベイヤーデータにおいて色Rの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 6 is an explanatory diagram showing a filter used for a pixel of interest for which a color R signal value is obtained in Bayer data in the horizontal filter and color separation unit 61. 水平フィルタ及び色分離部61において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the horizontal filter and color separation unit 61, among the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are the target pixels for which the color R signal value is obtained in the Bayer data. Explanatory drawing which shows the filter used. 水平フィルタ及び色分離部61において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the horizontal filter and color separation unit 61, among the target pixels for which the color G signal value is obtained in the Bayer data, the left and right pixels are the target pixels for which the color B signal value is obtained in the Bayer data. Explanatory drawing which shows the filter used. 水平フィルタ及び色分離部61において、ベイヤーデータにおいて色Bの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 6 is an explanatory diagram showing a filter used for a pixel of interest for which a color B signal value is obtained in Bayer data in the horizontal filter and color separation unit 61. 垂直フィルタ及び色分離部62において、ベイヤーデータにおいて色Rの信号値が得られている注目画素に用いられるフィルタを示す説明図。4 is an explanatory diagram showing a filter used for a pixel of interest for which a color R signal value is obtained in Bayer data in the vertical filter and color separation unit 62. FIG. 垂直フィルタ及び色分離部62において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Rの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the vertical filter and color separation unit 62, among the target pixels whose color G signal value is obtained in the Bayer data, the left and right pixels are the target pixels whose color R signal value is obtained in the Bayer data. Explanatory drawing which shows the filter used. 垂直フィルタ及び色分離部62において、ベイヤーデータにおいて色Gの信号値が得られている注目画素のうち、左右の画素がベイヤーデータにおいて色Bの信号値が得られている画素である注目画素に用いられるフィルタを示す説明図。In the vertical filter and color separation unit 62, among the target pixels whose color G signal value is obtained in the Bayer data, the left and right pixels are the target pixels whose color B signal value is obtained in the Bayer data. Explanatory drawing which shows the filter used. 垂直フィルタ及び色分離部62において、ベイヤーデータにおいて色Bの信号値が得られている注目画素に用いられるフィルタを示す説明図。FIG. 7 is an explanatory diagram showing a filter used for a pixel of interest for which a color B signal value is obtained in Bayer data in the vertical filter and color separation unit 62. 垂直方向勾配検出フィルタ及び水平方向勾配検出フィルタを示す説明図。Explanatory drawing which shows a vertical direction gradient detection filter and a horizontal direction gradient detection filter. ノイズ低減装置70の概略の構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of a noise reduction device 70. 表示装置の内部構成を示すブロック図。The block diagram which shows the internal structure of a display apparatus.

符号の説明Explanation of symbols

30、50、60、70 ノイズ低減装置
32 動き検出部
37 第1のフィルタ及び色分離部(フィルタ及び色分離部)
38 第2のフィルタ及び色分離部(フィルタ及び色分離部、空間フィルタ及び色分離部)
39、51 重み係数検出部
40、52、66、72 重み付け加算部
61 水平フィルタ及び色分離部(フィルタ及び色分離部)
62 垂直フィルタ及び色分離部(フィルタ及び色分離部)
63 相関方向検出部
64 第1の重み係数検出部
65、71 第2の重み係数検出部
30, 50, 60, 70 Noise reduction device 32 Motion detection unit 37 First filter and color separation unit (filter and color separation unit)
38 Second filter and color separation unit (filter and color separation unit, spatial filter and color separation unit)
39, 51 Weight coefficient detection unit 40, 52, 66, 72 Weighting addition unit 61 Horizontal filter and color separation unit (filter and color separation unit)
62 Vertical filter and color separation unit (filter and color separation unit)
63 Correlation direction detector 64 First weight coefficient detector 65, 71 Second weight coefficient detector

Claims (7)

外部より入力されたRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理部を有するノイズ低減装置であって、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、ノイズ低減処理及び色分離を同時に行い、各色のフィルタ後信号を得る複数のノイズ低減処理及び色分離部と、
複数の前記ノイズ低減処理及び色分離部より入力された各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合部と、
を有することを特徴とするノイズ低減装置。
A noise reduction device having a three-dimensional noise reduction processing unit that performs a three-dimensional noise reduction process on a RAW image signal input from the outside and obtains a signal after three-dimensional noise reduction,
A plurality of noise reduction processing and color separation units that simultaneously perform noise reduction processing and color separation on the three-dimensional noise reduction signal input from the three-dimensional noise reduction processing unit to obtain a filtered signal of each color;
A mixing unit that mixes the post-filter signals of each color input from a plurality of the noise reduction processing and color separation units, and obtains an output signal of each color;
A noise reduction device comprising:
外部より入力されたRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理部を有するノイズ低減装置であって、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、ローパスフィルタを作用させると同時に色分離を行い、各色のフィルタ後信号を得る複数のフィルタ及び色分離部と、
複数の前記フィルタ及び色分離部より入力された各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合部と、
を有することを特徴とするノイズ低減装置。
A noise reduction device having a three-dimensional noise reduction processing unit that performs a three-dimensional noise reduction process on a RAW image signal input from the outside and obtains a signal after three-dimensional noise reduction,
A plurality of filters and a color separation unit that perform a color separation on the three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit and simultaneously perform color separation to obtain a filtered signal of each color;
A mixing unit that mixes the post-filter signals of each color input from the plurality of filters and color separation units, and obtains an output signal of each color;
A noise reduction device comprising:
複数の前記フィルタ及び色分離部は、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、所定の帯域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第1フィルタ後信号を得る第1のフィルタ及び色分離部と、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、前記所定の帯域よりも高域の空間的なローパスフィルタを作用させると同時に色分離を行い、各色の第2フィルタ後信号を得る第2のフィルタ及び色分離部と、
によって構成され、
前記混合部は、前記第1のフィルタ及び色分離部より入力された各色の前記第1フィルタ後信号と、前記第2のフィルタ及び色分離部より入力された各色の前記第2フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るものであって、
外部より入力された前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出部と、
前記動き検出部より入力された各画素の時間軸方向の前記動き量に応じて前記所定の重み係数を算出する重み係数検出部と、
を有することを特徴とする請求項2に記載のノイズ低減装置。
The plurality of filters and color separation units are
A spatial low-pass filter of a predetermined band is applied to the post-three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit, and color separation is performed simultaneously to obtain a first post-filter signal for each color. A first filter and a color separation unit;
A spatial low-pass filter having a frequency higher than the predetermined band is applied to the post-three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit, and color separation is performed simultaneously. A second filter and color separation unit for obtaining a filtered signal;
Composed by
The mixing unit includes the first post-filter signal of each color input from the first filter and the color separation unit, and the second post-filter signal of each color input from the second filter and the color separation unit. Are weighted and added by a predetermined weighting factor for each color to obtain the output signal of each color,
A motion detection unit that obtains a motion amount in the time axis direction of each pixel by calculating a difference value between the RAW image signal input from the outside and the three-dimensional noise-reduced signal one frame before;
A weighting factor detection unit that calculates the predetermined weighting factor according to the amount of motion in the time axis direction of each pixel input from the motion detection unit;
The noise reduction device according to claim 2, comprising:
複数の前記フィルタ及び色分離部は、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、空間的なローパスフィルタを作用させると同時に色分離を行い、各色の空間フィルタ後信号を得る空間フィルタ及び色分離部と、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、水平方向のローパスフィルタを作用させると同時に色分離を行い、各色の水平フィルタ後信号を得る水平フィルタ及び色分離部と、
前記3次元ノイズ低減処理部より入力された前記3次元ノイズ低減後信号に対して、垂直方向のローパスフィルタを作用させると同時に色分離を行い、各色の垂直フィルタ後信号を得る垂直フィルタ及び色分離部と、
によって構成され、
前記混合部は、前記空間フィルタ及び色分離部より入力された各色の前記空間フィルタ後信号と、前記水平フィルタ及び色分離部より入力された各色の前記水平フィルタ後信号と、前記垂直フィルタ及び色分離部より入力された各色の前記垂直フィルタ後信号とを、色ごとに所定の重み係数によって重み付け加算し、各色の前記出力信号を得るものであって、
外部より入力された前記RAW画像信号と、1フレーム前の前記3次元ノイズ低減後信号との差分値を算出することによって各画素の時間軸方向の動き量を得る動き検出部と、
前記動き検出部より入力された各画素の時間軸方向の前記動き量の水平方向相関値及び垂直方向相関値を算出する相関方向検出部と、
前記動き検出部より入力された各画素の時間軸方向の前記動き量と、前記相関方向検出部より入力された各画素の時間軸方向の前記動き量の前記水平方向相関値及び前記垂直方向相関値とに応じて前記所定の重み係数を算出する重み係数検出部と、
を有することを特徴とする請求項2に記載のノイズ低減装置。
The plurality of filters and color separation units are
A spatial filter and a color separation for obtaining a post-spatial signal of each color by applying a spatial low-pass filter to the post-three-dimensional noise reduction signal input from the three-dimensional noise reduction processing unit and simultaneously performing color separation. And
A horizontal filter and a color separation that obtains a signal after horizontal filtering for each color by applying a low-pass filter in the horizontal direction and simultaneously performing color separation on the signal after three-dimensional noise reduction input from the three-dimensional noise reduction processing unit And
A vertical filter and a color separation that obtains a vertical filtered signal for each color by applying a low-pass filter in the vertical direction and simultaneously performing color separation on the post-three-dimensional noise-reduced signal input from the three-dimensional noise reduction processing unit And
Composed by
The mixing unit includes the spatial filtered signal for each color input from the spatial filter and the color separating unit, the horizontal filtered signal for each color input from the horizontal filter and the color separating unit, the vertical filter and the color. The vertical filtered signal of each color input from the separation unit is weighted and added by a predetermined weighting factor for each color to obtain the output signal of each color,
A motion detection unit that obtains a motion amount in the time axis direction of each pixel by calculating a difference value between the RAW image signal input from the outside and the three-dimensional noise-reduced signal one frame before;
A correlation direction detection unit that calculates a horizontal direction correlation value and a vertical direction correlation value of the motion amount in the time axis direction of each pixel input from the motion detection unit;
The horizontal direction correlation value and the vertical direction correlation of the motion amount in the time axis direction of each pixel input from the motion detection unit and the motion amount in the time axis direction of each pixel input from the correlation direction detection unit. A weighting factor detector that calculates the predetermined weighting factor according to a value;
The noise reduction device according to claim 2, comprising:
前記所定の重み係数は、色ごとに異なることを特徴とする請求項3又は4に記載のノイズ低減装置。   The noise reduction apparatus according to claim 3 or 4, wherein the predetermined weight coefficient is different for each color. 動画を構成するRAW画像信号に対して3次元ノイズ低減処理を施し、3次元ノイズ低減後信号を得る3次元ノイズ低減処理ステップを有するノイズ低減方法であって、
前記3次元ノイズ低減処理ステップで得られた前記3次元ノイズ低減後信号に対して、ノイズ低減処理及び色分離を同時に行い、各色のフィルタ後信号を得る複数のノイズ低減処理及び色分離ステップと、
複数の前記ノイズ低減処理及び色分離ステップで得られた各色の前記フィルタ後信号を混合し、各色の出力信号を得る混合ステップと、
を有することを特徴とするノイズ低減方法。
A noise reduction method including a three-dimensional noise reduction processing step of performing a three-dimensional noise reduction process on a RAW image signal constituting a moving image to obtain a signal after three-dimensional noise reduction,
A plurality of noise reduction processing and color separation steps for simultaneously performing noise reduction processing and color separation on the three-dimensional noise reduction signal obtained in the three-dimensional noise reduction processing step to obtain a filtered signal for each color;
A mixing step of mixing the post-filter signals of each color obtained in a plurality of the noise reduction processing and the color separation step to obtain an output signal of each color;
A noise reduction method characterized by comprising:
動画を構成するRAW画像信号が外部入力又は撮像によって与えられるとともに、該動画のノイズを低減するノイズ低減装置を備えた電子機器であって、
前記ノイズ低減装置は、請求項1から5のいずれか1項に記載のノイズ低減装置であることを特徴とする電子機器。
A RAW image signal constituting a moving image is provided by external input or imaging, and an electronic device including a noise reduction device that reduces noise of the moving image,
The electronic apparatus according to claim 1, wherein the noise reduction device is the noise reduction device according to claim 1.
JP2007094481A 2007-03-30 2007-03-30 Noise reducer, noise reducing method and electronic apparatus Pending JP2008252767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007094481A JP2008252767A (en) 2007-03-30 2007-03-30 Noise reducer, noise reducing method and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007094481A JP2008252767A (en) 2007-03-30 2007-03-30 Noise reducer, noise reducing method and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2008252767A true JP2008252767A (en) 2008-10-16

Family

ID=39977146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007094481A Pending JP2008252767A (en) 2007-03-30 2007-03-30 Noise reducer, noise reducing method and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2008252767A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147840A (en) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd Image processing device and imaging apparatus
WO2010084549A1 (en) * 2009-01-22 2010-07-29 三菱電機株式会社 Image processing device and method, and image display device
JP2012114735A (en) * 2010-11-25 2012-06-14 Nikon Corp Image processing device, imaging device, and image processing program
JP2013508853A (en) * 2009-10-20 2013-03-07 アップル インコーポレイテッド Temporal filtering technology for image signal processing
US8830359B2 (en) 2010-03-30 2014-09-09 Nikon Corporation Image processing apparatus, imaging apparatus, and computer readable medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147840A (en) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd Image processing device and imaging apparatus
WO2010084549A1 (en) * 2009-01-22 2010-07-29 三菱電機株式会社 Image processing device and method, and image display device
JP2010170302A (en) * 2009-01-22 2010-08-05 Mitsubishi Electric Corp Image processing device and image processing method, and image display device
CN102292742A (en) * 2009-01-22 2011-12-21 三菱电机株式会社 image processing device and method, and image display device
US8648859B2 (en) 2009-01-22 2014-02-11 Mitsubishi Electric Corporation Image display apparatus, image processing apparatus and method to output an image with high perceived resolution
JP2013508853A (en) * 2009-10-20 2013-03-07 アップル インコーポレイテッド Temporal filtering technology for image signal processing
US8830359B2 (en) 2010-03-30 2014-09-09 Nikon Corporation Image processing apparatus, imaging apparatus, and computer readable medium
JP2012114735A (en) * 2010-11-25 2012-06-14 Nikon Corp Image processing device, imaging device, and image processing program

Similar Documents

Publication Publication Date Title
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP5013932B2 (en) Noise reduction device, noise reduction method, and electronic device
JP5451782B2 (en) Image processing apparatus and image processing method
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
JP5591261B2 (en) Image processing device
JP2008015741A (en) Image processor, image processing method, and image pickup device using the same
JP2010011072A (en) Imaging system, image processing method and image processing program
JP2014021928A (en) Image processor, image processing method and program
JP4861636B2 (en) Image processing apparatus and image processing program
JP2012142827A (en) Image processing device and image processing method
JP2008252767A (en) Noise reducer, noise reducing method and electronic apparatus
JP2008124671A (en) Imaging apparatus and imaging method
JP4941219B2 (en) Noise suppression device, noise suppression method, noise suppression program, and imaging device
JP5291788B2 (en) Imaging device
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP5451056B2 (en) Image processing apparatus and imaging apparatus
JP2006049950A (en) Dynamic image converting apparatus, dynamic image decompressing apparatus and method thereof, and computer program
JP4224996B2 (en) Imaging device
JP4687454B2 (en) Image processing apparatus and imaging apparatus
JP2023052939A (en) Coding device, decoding device, coding method, decoding method, coding program, and decoding program
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
JP5213604B2 (en) Imaging device
US9013606B2 (en) Image processing apparatus and control method thereof
JP2008079301A (en) Image capture device
JP2003230025A (en) Image processing apparatus, solid-state image pickup apparatus, and image processing method